- 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2025年人工智能mooc试题及答案
一、单项选择题(共20题,每题2分,共40分)
1.以下哪种机器学习任务属于无监督学习?
A.预测房价(连续值)
B.图像分类(标注类别)
C.用户聚类(无标注数据)
D.垃圾邮件检测(二分类)
2.在深度学习中,使用ReLU激活函数的主要目的是:
A.解决梯度消失问题
B.增加模型非线性表达能力
C.提高计算效率
D.以上均正确
3.自然语言处理(NLP)中,“词向量(WordEmbedding)”的核心作用是:
A.将文本转换为固定长度的向量
B.捕捉词语之间的语义关联
C.降低文本数据维度
D.以上都是
4.卷积神经网络(CNN)中,“感受野(ReceptiveField)”指的是:
A.输入图像中与某个特征图神经元相关联的区域大小
B.卷积核的尺寸
C.池化操作的步长
D.全连接层的神经元数量
5.以下哪种算法不属于强化学习的典型框架?
A.Q-learning
B.策略梯度(PolicyGradient)
C.反向传播(Backpropagation)
D.DQN(深度Q网络)
6.在训练神经网络时,若验证集准确率远低于训练集准确率,最可能的原因是:
A.学习率过低
B.模型欠拟合
C.模型过拟合
D.数据预处理错误
7.Transformer模型中,“多头注意力(Multi-HeadAttention)”的设计目的是:
A.并行处理不同子空间的注意力信息
B.减少计算复杂度
C.增强位置编码的效果
D.替代循环神经网络(RNN)
8.以下哪项是生成对抗网络(GAN)的核心思想?
A.通过两个网络(生成器与判别器)的对抗优化提升生成质量
B.使用自编码器重构输入数据
C.基于强化学习最大化奖励函数
D.通过迁移学习复用预训练模型
9.在机器学习中,“偏差-方差权衡(Bias-VarianceTradeoff)”指的是:
A.模型复杂度增加时,偏差降低但方差可能升高
B.数据量增加时,偏差和方差都会降低
C.正则化参数增大时,偏差和方差同时降低
D.以上均不正确
10.计算机视觉中,“目标检测(ObjectDetection)”与“图像分类(ImageClassification)”的主要区别是:
A.目标检测需要定位目标位置,分类只需判断整体类别
B.目标检测使用CNN,分类使用RNN
C.目标检测输出概率分布,分类输出边界框
D.目标检测数据量更大
11.以下哪种损失函数适用于二分类任务?
A.均方误差(MSE)
B.交叉熵损失(Cross-Entropy)
C.绝对误差(MAE)
D.铰链损失(HingeLoss)
12.关于“过拟合(Overfitting)”的解决方法,错误的是:
A.增加训练数据量
B.降低模型复杂度
C.增大学习率
D.使用正则化(如L2正则)
13.自然语言处理中的“注意力机制(Attention)”最主要的作用是:
A.捕捉长距离依赖关系
B.减少参数量
C.加速训练过程
D.替代循环神经网络
14.在强化学习中,“奖励函数(RewardFunction)”的作用是:
A.定义智能体的目标
B.优化策略网络参数
C.存储经验数据
D.评估状态价值
15.以下哪种技术属于迁移学习(TransferLearning)的应用?
A.使用预训练的BERT模型微调完成情感分析任务
B.对图像数据进行归一化处理
C.用随机梯度下降训练神经网络
D.构建卷积神经网络提取图像特征
16.关于“梯度下降(GradientDescent)”的描述,错误的是:
A.批量梯度下降(BatchGD)计算全局梯度,训练稳定但速度慢
B.随机梯度下降(SGD)计算单个样本梯度,训练速度快但波动大
C.小批量梯度下降(Mini-batchGD)综合了两者的优点
D.梯度下降的目标是最小化损失函数的梯度
17.生成式模型与判别式模型的主要区别是:
A.生成式模型学习数据分布P(X,Y),判别式模型学习决策边界P(Y|X)
B.生成式模型只能用于分类,判别式模型可用于回归
C.生成式模型参数更少,判别式模型更复杂
D.以上均不正确
18.在计算机视觉中
您可能关注的文档
最近下载
- YS∕T 714-2020 铝合金建筑型材有机聚合物喷涂工艺技术规范.pdf
- 第十三章+电能和电功率(复习课件)物理北师大版2024九年级全一册.pptx VIP
- 《放射性勘探》课件.ppt VIP
- 《有色金属矿山排土场设计标准+GB+50421-2018》详细解读.pdf
- 九年级物理上册综合能力测试题.pdf VIP
- 腐蚀数据与选材手册-校对版.xls VIP
- 2025年国家开放大学《行政领导学》形考任务1-4参考答案.docx VIP
- 初二下册物理力学练习题.doc VIP
- 全球海上遇险安全系统和搜救雷达应答器性能要求.pdf VIP
- GB∕T 2421-2020 环境试验 概述和指南(可复制版).pdf
有哪些信誉好的足球投注网站
文档评论(0)