第一章 单元测试

1、单选题:对西瓜的成熟度进行预测得到结果为0.51,这属于()学习任务。
A:其余选项都不是
B:分类
C:回归
D:聚类
正确答案:【回归】

2、单选题:在学习过程中,X表示数据集,Y是所有标记的集合,也称为()。
A:属性集合
B:样本集合
C:输出空间
D:函数
正确答案:【输出空间】

3、单选题:机器学习算法在学习过程中可能获得多个不同的模型,在解决“什么样的模型更好”这一问题时遵循“若有多个假设与观察一致,则选最简单的那个”,即()原则。
A:没有免费的午餐
B:迪米特法则
C:奥卡姆剃刀
D:里氏替换
正确答案:【奥卡姆剃刀】

4、单选题:机器学习是整个人工智能的核心,机器学习算法的特征之一就是()。
A:特征
B:数据
C:类别
D:模型
正确答案:【模型】

5、单选题:模型的泛化能力是指
A:适用于验证集样本的能力
B:适用于测试集样本的能力
C:适用于训练集样本的能力
D:适用于新样本的能力
正确答案:【适用于新样本的能力】

6、多选题:下列关于学习算法的说法正确的是
A:学习算法必须有某种偏好,才能产出它认为“正确”的模型
B:在某些问题上表现好的学习算法,在另一些问题上却可能不尽人意
C:要谈论算法的相对优劣,必须要针对具体的学习问题
D:学习算法自身的归纳偏好与问题是否相配通常并不起决定性的作用
正确答案:【学习算法必须有某种偏好,才能产出它认为“正确”的模型;在某些问题上表现好的学习算法,在另一些问题上却可能不尽人意;要谈论算法的相对优劣,必须要针对具体的学习问题】

7、多选题:获得假设(模型)空间时,从特殊到一般的过程属于
A:特化
B:泛化
C:归纳
D:演绎
正确答案:【泛化;归纳】

8、多选题:机器学习可以应用在下列哪些领域()
A:搜索引擎
B:商业营销
C:自动驾驶汽车
D:天气预报
正确答案:【搜索引擎;商业营销;自动驾驶汽车;天气预报】

9、多选题:根据训练数据是否拥有标记信息,学习任务可以分为()。
A:监督
B:分类
C:回归
D:聚类
E:半监督
F:无监督
正确答案:【监督;半监督;无监督】

10、判断题:演绎是从一般到特殊的”特化”过程,即从基础原理推演出具体状况
A:对
B:错
正确答案:【对】

11、判断题:分类预测的是离散值
A:对
B:错
正确答案:【对】

12、判断题:分类和回归是无监督学习
A:错
B:对
正确答案:【错】

13、判断题:奥卡姆剃刀原则:即“若有多个假设与观察一致,选最简单的一个”。
A:对
B:错
正确答案:【对】

14、判断题:实际应用中,“一个模型肯定比另一个模型具有更强的泛化能力”的这种情况是不存在的。
A:对
B:错
正确答案:【对】

15、判断题:机器学习的目标就是获得与训练集一致的假设。
A:错
B:对
正确答案:【对】

第二章 单元测试

1、判断题:测试性能随着测试集的变化而变化
A:错
B:对
正确答案:【对】

2、单选题:以下关于回归的说法中,不正确的是()。
A:回归的目标属性是离散的
B:回归是根据历史数据拟合以函数将属性集映射到相应的值集
C:回归是一种预测建模任务
D:回归也是一种分类
正确答案:【回归的目标属性是离散的】

3、单选题:下列关于查全率和查准率的说法哪种正确()。
A:查全率和查准率成反比
B:查全率和查准率成正比
C:好的模型可以做到查全率和查准率都达到100%
D:查全率和查准率存在着互逆关系
正确答案:【查全率和查准率存在着互逆关系】

4、单选题:关于性能比较和模型选择,下列说法正确的是()。
A:模型的选择可以使用直接选取相应评估方法在相应度量下比较大小的方法
B:测试性能等于网络的泛化性能
C:相同的参数的机器学习算法在同一测试集下多次运行结果相同
D:测试性能随着测试集的变化而变化
正确答案:【测试性能随着测试集的变化而变化】

5、单选题:模型的评估方法不包括()。
A:自助法
B:计分法
C:交叉验证法
D:留出法
正确答案:【计分法】

6、单选题:模型评估方法中留出法的缺点是()。
A:在数据集比较大的时候,训练M个模型的计算开销可能是难以忍受的
B:改变了初始数据集的分布,引入估计偏差
C:样本利用率低
D:只能得到一个评估值。
正确答案:【只能得到一个评估值。】

7、多选题:选择模型的依据包括()。
A:存储开销
B:泛化性能
C:时间开销
D:可解释性
正确答案:【存储开销;泛化性能;时间开销;可解释性】

8、多选题:以下哪些方法可以用于单个学习器性能的比较()。
A:t-检验
B:McNemar检验
C:Friedman检验
D:二项检验
正确答案:【t-检验;二项检验】

9、多选题:模型的泛化性能由()决定。
A:学习算法的能力
B:学习任务本身的难度
C:数据集的划分
D:数据的充分性
正确答案:【学习算法的能力;学习任务本身的难度;数据的充分性】

10、多选题:解决过拟合的方案包括()。
A:为模型添加其他特征项
B:增加模型参数,调高模型复杂度
C:引入正则项
D:选择合适的迭代次数停止模型的学习
正确答案:【引入正则项;选择合适的迭代次数停止模型的学习】

11、多选题:以下哪些是可能导致模型过拟合的原因()
A:模型学习到了样本的一般性质
B:学习迭代次数过多
C:训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度
D:训练集和测试集特征分布不一致
正确答案:【学习迭代次数过多;训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度;训练集和测试集特征分布不一致】

12、判断题:过拟合不可以彻底避免。
A:对
B:错
正确答案:【对】

13、判断题:回归任务最常用的性能度量是“查准率和查全率”
A:错
B:对
正确答案:【错】

14、判断题:训练数据较少时更容易发生欠拟合
A:对
B:错
正确答案:【对】

15、判断题:方差度量了学习算法期望预测与真实结果的偏离程度
A:错
B:对
正确答案:【错】

第三章 单元测试

1、单选题:线性回归目的是学得一个()以尽可能准确地预测实值输出标记
A:指数模型
B:对数模型
C:线性模型
D:多项式模型
正确答案:【线性模型】

2、单选题:线性回归模型中,联系函数g(∙)为对数几率函数ln(y/(1-y))时,该线性模型成为()
A:曲线线性回归
B:对数线性回归
C:对数几率回归
D:指数线性回归
正确答案:【对数几率回归】

3、单选题:线性判别分析可通过该投影减小样本点的维数,且投影过程中使用了类别信息。因此,线性判别分析也常被视为一种经典的()
A:监督降维技术
B:监督分类技术
C:降维技术
D:分类技术
正确答案:【监督降维技术】

4、多选题:解决类别不平衡的方法包括()
A:去除正例样本
B:过采样
C:阈值移动
D:欠采样
正确答案:【过采样;阈值移动;欠采样】

5、判断题:在线性模型的基础上,引入层级结构或高维映射,构成非线性模型。因此,非线性模型可以转换为线性模型。
A:对
B:错
正确答案:【对】

6、判断题:线性判别分析(LDA)设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近
A:错
B:对
正确答案:【对】

7、判断题:分类学习任务中,若不同类别的训练样本数目差别很大时,对学习过程没有明显影响
A:错
B:对
正确答案:【错】

8、判断题:线性模型学得的参数ω直观地表达了各属性在预测中的重要性,因此,该模型具有较好的可解释性。
A:错
B:对
正确答案:【对】

9、判断题:线性判别分析在对新样例进行分类时,将其投影到曲线上,再根据投影点的位置来确定新样本的类别。
A:错
B:对
正确答案:【错】

10、判断题:基于均方误差最小化来进行模型求解的方法,称为“最小二乘法”。
A:错
B:对
正确答案:【对】

11、判断题:线性判别分析模型中,同类样本的投影点尽可能近,即同类样本的协方差尽可能小
A:对
B:错
正确答案:【对】

12、判断题:在分类学习任务中,可以增加一些正例解决类别不平衡问题
A:错
B:对
正确答案:【对】

13、判断题:线性回归目的是学得多项式模型以尽可能准确地预测实值输出标记。
A:对
B:错
正确答案:【错】

14、判断题:单一属性的线性回归目标函数为f(x)=ωx+b 使得 min(f(x)–y)2
A:对
B:错
正确答案:【对】

15、判断题:常用的广义线性回归有单位跃阶函数、对数线性回归、对数几率回归
A:错
B:对
正确答案:【对】

第四章 单元测试

1、单选题:在属性划分中,信息增益越大,结点的纯度()
A:不变
B:降低越快
C:提升越大
D:变为零
正确答案:【提升越大】

2、单选题:决策树算法的泛化性能提升,则验证集精度()
A:降为零
B:不变
C:降低
D:提高
正确答案:【提高】

3、单选题:多变量决策树中的非叶子节点是对()属性的线性组合进行测试。
A:零个
B:所有
C:一个
D:若干个
正确答案:【若干个】

4、多选题:决策树的结点包含()
A:根结点
B:内部结点
C:结点
D:叶结点
正确答案:【根结点;内部结点;叶结点】

5、判断题:决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。
A:错
B:对
正确答案:【对】

6、判断题:决策树模型中,随着划分过程不断进行,我们希望结点的“纯度”越来越小。
A:对
B:错
正确答案:【错】

7、判断题:决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树
A:对
B:错
正确答案:【对】

8、判断题:决策树学习算法中,属性a的信息增益越大,则使用该属性进行划分所获得的“纯度提升”越大。
A:对
B:错
正确答案:【对】

9、判断题:决策树学习算法中,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于不同类别。
A:对
B:错
正确答案:【错】

10、判断题:基尼指数,反映了从D中随机抽取两个样本,其类别标记一致的概率
A:错
B:对
正确答案:【错】

11、判断题:预剪枝策略降低了过拟合风险。
A:错
B:对
正确答案:【对】

12、判断题:基尼值可以度量样本集合的纯度。

A:对
B:错
正确答案:【对】

13、判断题:现实学习任务中,常会遇到连续属性,其可取值数目不再有限,可以使用离散化技术将连续属性转化为离散属性
A:对
B:错
正确答案:【对】

14、判断题:剪枝策略是对付“过拟合”的主要手段,即可通过主动去掉一些分支来降低过拟合的风险。
A:对
B:错
正确答案:【对】

剩余章节答案支付后查看
如有疑问请及时联系QQ 50895809反馈
如遇卡顿看不了剩余内容请换个浏览器即可打开

没找到的科目也可以提醒我们更新

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注