- 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
期末考试试题及答案A
适用班级: 专业:
考试时长:120分钟
一、选择题(单项选择其15题,每题2分,共30分)
1.自然语言处理中的句子级别的分析技术,可以大致分为()、句法分析、语义分析三个层面。
A.词法分析
B.文法分析
C.分词
D.语言分析
2.相对于其他的编程语言,Python具有以下哪些优势()
A.Python提供了大量的自然语言处理库
B.编程语法较复杂
C.编程语法相对简单
D.具有很多数学科学相关的库
3.词法分析,主要包括()、和词性标注、命名实体识别三部分。
A.英语分词
B.分词技术
C.汉语分词
D.语言分词
4.目前,中文分词的难点不包括()
A.分词歧义消解
B.错别字、谐音字规范化
C.未登录词的识别
D.分词问题
5.采用jieba精确模式对“南京市长江大桥”进行分词,得到的结果
为:()
A.南京\市长江大桥
B.南京市/长江大桥
C.南京/南京市/京市/市长/长江长江大桥/大桥
D.南京/京市/南京市/长江/大桥/长江大桥
6.下面哪项不属于LTP的主要模型:()
A.SentenceSplitter
B.Segmentor
C.n元模型
D.Postagger
7.依存关系可以细分为不同的类型,表示两个词之间的具体句法关系。依存句法分析标注关系,以下关系类型和它的标注不正确的是()
A.前置宾语(FOB)
B.动补结构(CMP)
C.介宾关系(POB)
D.定中关系(ATD)
8.以下有关计算机视觉的步骤中,哪个不属于传统方法()。
A.图像预处理
B.特征提取
C.特征筛选
D.神经卷积
9.以下哪一个是不属于三大特征抽取器()。
A.CNN
B.RNN
C.HMM
D.transformer类型
10.以下那部分代码是正确引用gensim模块的()。
A.fromgensimimportcorpera
B.importnumpyasp
C.importgenismasge
D.importgensim
11.下列哪种关于无监督关键词提取的说法是正确的()。
A.基于词的文档位置的特征量化是属于关键词提取中有监督算法的
B.基于词图模型的关键词抽取不用构建文档的语言网络图
C.基于文本统计特征方法是利用文档中词语的统计信息抽取文档的关键词
D.基于主题模型认为。词与文档之间有直接的联系
12.关于TF-IDF算法说法不正确的是()。
A.TF算法和IDF算法可以单独使用
B.IDF的大小与词语的常见程度成正比
C.TF算法权衡词出现的频率,不考虑词语对文档的区分能力
D.TF-IDF算法,从词频、逆文档频率两个角度对词语的重要性进行衡量
13.下列关于说法不正确的是()。
A.DF值广泛应用于大规模语料的特征降维
B.计算出每个特征的信息增益后,就可以移除那些信息量较低的特征
C.互信息是指根据特征与类别的关联程度来计算特征与类别的相关度
D.当对梁样本平均数进行比较时,可以采用卡方检验
14.基于机器学习的情感分析方法本质是一个分类问题。该方法使用的经典分类模型不包括()。
A.支持向量机
B.朴素贝叶斯
C.卡尔曼滤波
D.最大熵模型
15.自然语言理解的简称是什么?()。
A.NLP
B.ANN
C.NLU
D.APL
二、判断题(对的打‘√”,错的打‘X’,共10题,每题1分,共10分)
1.句法分析的主要任务是:识别出句子所包含的句法成分,以及这些成分之间的关系。()
2.使用jieba进行分词,需要导入jieba工具包。()
3.Stanfordparser的底层是由python实现的。()
4.re.match尝试从字符串的起始位置匹配一个模式,如果起始位置匹配不成功的话,就返回none.()
5.自然语言处理有两个核心任务,一个是自然语言理解,另外一个是自然语言生成。()
6.自然语言处理(NaturalLanguageProcessing,NLP)是计算机科学领域以及大数据领域的一个重要的研究方向。()
7.基于规则的分词方法是最早兴起的分词方法,主要是通过设立词库和规则。然后使用匹配的方法进行分词。()
8.命名实体识别(NER)的目的在于识别语料中人名、地名、组织机构名等命名实体。()
9.条件随机场(CRF)也是一种基于马尔科夫思想的统计模型。之前的模型都假设每个状态均只与它前面的状态有关。()
10.jieba分词工具提供了词性标注功能。jicha分词是结合规则和统计的方式,也就是说同时使用词典匹配和HMM.()
三、填空题(共13题,每空1分,共20分)
1.自然语言处理的三个层面有: 和 、语义分析。
2.根据句法结构的表示形式不同,最常见的句法分析任务可以分为以下三种: 、依存句法分析以及深
有哪些信誉好的足球投注网站
文档评论(0)