itgle.com
更多“一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的“纯度提升越大”,因此我们可用信息增益来进行决策树的最优特征选择。() ”相关问题
  • 第1题:

    对于信息增益,决策树分裂节点,下面说法正确的是:( )

    A.纯度高的节点需要更多的信息去区分

    B.信息增益可以用”1比特-熵”获得

    C.如果选择一个属性具有许多归类值,那么这个信息增益是有偏差的


    答案:BC

  • 第2题:

    120、决策树模型中应处理连续型属性数据的方法之一为:根据信息增益选择阈值进行离散化。


    根据信息增益选择阈值进行离散化

  • 第3题:

    在决策树学习中,关于信息增益(information gain)的说法正确的是()?

    A.不纯度越小的节点,熵值越大

    B.信息增益可以由熵计算得到

    C.信息增益更加倾向于选择有较多取值的属性

    D.信息增益更加倾向于选择有较少取值的属性


    正确

  • 第4题:

    下列关于决策树算法的论述错误的是

    A.熵可用于描述信息的不确定性或混乱程度,信息的不确定性越大则熵越大,反之越小

    B.条件熵H(Y|X)表示在已知特征X的条件下,类别Y的不确定性的度量

    C.决策树基本思想是贪心算法,它以自顶(根节点)向下递推生成的方式构造决策树。

    D.ID3算法的属性选择度量就是使用信息增益,选择最小信息增益的属性作为当前节点的测试属性。


    ID3算法的属性选择度量就是使用信息增益,选择最小信息增益的属性作为当前节点的测试属性。

  • 第5题:

    决策树模型中应处理连续型属性数据的方法之一为:根据信息增益选择阈值进行离散化。


    A