在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题?
A.增加训练集量
B.减少神经网络隐藏层节点数
C.删除稀疏的特征
D.SVM算法中使用高斯核/RBF核代替线性核
第1题:
在机器学习中,如果数据较少,同时采用的模型较复杂,得到的模型在给定的训练集上误差非常小,接近于0,但是在训练集之外的数据上预测效果很差,这种现象称为()。
A.欠拟合
B.过拟合
C.损失函数
D.经验风险
第2题:
在神经网络训练中,有关学习率调整说法错误的是?
A.学习率设置不当会引起神经网络过拟合。
B.学习率可以根据损失函数(代价函数)减少的快慢动态调整。
C.学习率太小会使神经网络的训练迅速达到极小值。
D.固定学习率设置太大可能会使神经网络训练震荡不收敛。
第3题:
7、减少神经网络过拟合的说法,以下哪些是错误的?
A.通过正则化可以减少网络参数的个数,一定程度可能增加过拟合
B.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
C.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
D.通过增加数据扰动的数据增强减少了神经网络的过拟合
第4题:
4、当网络初步训练完成,且在训练集上表现良好,但是在测试集上表现不佳,首先应采取以下哪种措施?
A.这是高偏差或者欠拟合现象,首先应该增加数据量或者进行数据增广
B.这是高方差或者过拟合现象,首先应该增加数据量或者进行数据增广
C.这是高偏差或者欠拟合现象,首先应该更换网络架构
D.这是高方差或者过拟合现象,首先应该更换网络架构
第5题:
以下属于机器学习中用来防止过拟合的方法有哪些
A.增加训练数据
B.权值衰减
C.Dropout
D.大幅度减少网络层数