基于迁移学习的中文长文本分类研究.pdfVIP

基于迁移学习的中文长文本分类研究.pdf

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

基于迁移学习的中文长文本分类研究

摘要

近年来随着深度学习的发展,预训练模型在各个领域大放异彩,PanGu-Alpha、

GPT-4、ChatGLM-6B等大语言模型在自然语言处理领域中取得显著成效。文本

分类作为自然语言处理领域的基础任务,在当下这个海量数据的信息时代对它的

研究依然至关重要。尽管大语言模型的出现有效提升了文本分类的效果,但由于

语言的差异性、某些领域数据规模不足、文本语义信息特征学习不充分等问题依

旧影响着文本分类的结果。现实情况中,由于大量的中文文本具有复杂度高,内

容广泛,文本可能同时归纳到多个类别,类别间交叉性强的特点,导致文本分类

难度大。论文基于《读者》期刊大量文本的分类需求,针对文本序列长度限制、

语义特征学习不充分、计算效率低及小样本文本分类问题展开研究。本文的工作

内容如下:

提出了面向中文长文本分类的并行架构。并行架构包括文本序列处理模块、

并行计算模块和层级注意力模块。文本序列处理模块进行覆盖分割和层级位置编

码;长文本序列进行覆盖分割处理以便并行计算;层级位置编码在已经训练好的

绝对位置编码上构建新的位置编码,从而提升文本序列位置编码的长度。并行计

算模块迁移已经训练好的预训练语言模型。层级注意力模块由Bi-LSTM和注意

力机制构成,来融合覆盖分割后段间和段内特征。本文通过迁移已经训练好的

XLNet模型和BERT模型,采用并行架构构建了LTXLT和LTBRT并行模型。

提出了基于PMF架构的小样本中文长文本分类模型。此模型共分为预训练-

元训练-微调三阶段,预训练阶段迁移采用大量未标记外部数据训练的预训练模

型作为预训练骨干网络;元训练阶段在有标记的小样本数据集上对预训练骨干网

络进行元训练得到元训练骨干网络;微调阶段将元训练骨干网络转换为特定任务

的微调骨干网络,部署到新的小样本任务上进行微调。预训练阶段骨干网络采用

LTXLT和LTBRT,元训练阶段采用MAML和ProtoNet算法,微调阶段采用数

据增强方式通过梯度更新的方式微调特征主干。

根据《读者》期刊30年刊载文章内容构建了具有文本复杂度高,涵盖内容

广泛,类别间交叉性强特点的DuZhe中文长文本分类数据集。

本文通过实验验证模型方法的有效性。面向中文长文本分类的并行架构分别

在THUCNews数据集、IFLYTEK数据集和DuZhe数据集上进行实验,在三个数

据集上LTXLT分别取得0.976、0.616、0.364的最佳结果,LTBRT分别取得0.952、

0.615、0.369的最佳结果。在DuZhe数据集上取得分类效果低,其主要原因是文

本复杂度高,内容广泛,文本可能同时归纳到多个类别,类别间交叉性强且DuZhe

数据集数据分布不均衡导致。基于PMF架构的小样本中文长文本分类模型中,

对于K-wayN-shot问题在THUCNews数据集和DuZhe数据集上进行实验,实验

发现预训练语言模型有效提高了模型的泛化能力;元训练使得骨干网络模型具有

适应新任务的能力;微调进一步提升骨干网络模型在新任务上的性能,有效提升

了小样本跨域文本分类的性能。

关键词:迁移学习,中文长文本分类,小样本学习,元学习,注意力机制

RESEARCHONCHINESELONGTEXT

CLASSIFICATIONBASEDONTRANSFERLEARNING

Abstract

Inrecentyears,withthedevelopmentofdeeplearning,pre-trainedmodelshaveshone

brightlyinvariousfields.LargelanguagemodelssuchasPanGu-Alpha,GPT-4,and

ChatGLM-6Bhaveachievedremarkablesuccessinthefieldofnaturallanguageprocessing.Text

classification,asafundamentaltaskinnatura

您可能关注的文档

文档评论(0)

精品资料 + 关注
实名认证
文档贡献者

温馨提示:本站文档除原创文档外,其余文档均来自于网络转载或网友提供,仅供大家参考学习,版权仍归原作者所有,若有侵权,敬请原作者及时私信给我删除侵权文

1亿VIP精品文档

相关文档