第2题
A.Wrapper方法由于每次对子集的评价都要进行分类器的训练和测试,所以算法计算复杂度很高
B.Wrapper方法选出的特征通用性较强,当改变学习算法时,也不需要针对该学习算法重新进行特征选择
C.相对于Filter(过滤法),Wrapper方法找到的特征子集分类性能通常更好
D.对于大规模数据集来说,Wrapper算法的执行时间很长
第3题
A.对于大规榄数据集来说,Wrapper算法的执行时间很长
B.相对于Filter(过滤法),Wrapper方法找到的特征子集分类性能通常更好
C.Wrapper方法由于每次对子集的评价都要进行分类器的训练和测试,所以算法计算复杂度很高
D.Wrapper方法选出的特征通用性较强,当改变学习算法时,也不需要针对该学习算法重新进行特征选择
第4题
A.K近邻算法中K值的选择对分类的结果影响不大
B.模型测试阶段的测试数据集不能与训练数据集有交集
C.决策树算法中最能将样本数据显著分开的属性应该在决策早期就使用
D.支持向量机模型中距离平面最近的几个样本对平面的选择影响最大
第5题
A.K近邻算法中K值的选择对分类的结果影响不大
B.模型测试阶段的测试数据集不能与训练数据集有交集
C.决策树算法中最能将样本数据显著分开的属性应该在决策早期就使用
D.支持向量机模型中距离平面最近的几个样本对平面的选择影响最大
第6题
A.K近邻算法中K值的选择对分类的结果影响不大
B.模型测试阶段的测试数据集不能与训练数据集有交集
C.决策树算法中最能将样本数据显著分开的属性应该在决策早期就使用
D.支持向量机模型中距离平面最近的几个样本对平面的选择影响最大
第7题
A、Wrapper方法由于每次对子集的评价都要进行分类器的训练pp方法由于每次对子集的评价都要进行分类器的训练和测试,所以算法计算复杂度很高
B、Trapper方法选出的特征通用性较强,当改变学习算法时,也不需要针对该学习算法重新进行特征选择
C、相对于Filter(过滤法),Wrapper方法找到的特征子集分类性能通常更好
D、对于大规模数据集来说,Wrapper算法的执行时间很长
第8题
A.K近邻算法中K值的选择对分类的结果影响不大
B.模型测试阶段的测试数据集不能与训练数据集有交集
C.决策树算法中最能将样本数据显著分开的属性应该在决策早期就使用
D.支持向量机模型中距离平面最近的几个样本对平面的选择影响最大
第9题
A.支持向量机模型中距离平面最近的几个样本对平面的选择影响最大
B.K近邻算法中K值的选择对分类的结果影响不大
C.模型测试阶段的测试数据集不能与训练数据集有交集
D.决策树算法中最能将样本数据显著分开的属性应该在决策早期就使用
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!