回译与 LLM 时代的同义表达?比较情感分类的数据增强方法-计算机科学-机器学习-数据增强-大语言模型.pdfVIP

回译与 LLM 时代的同义表达?比较情感分类的数据增强方法-计算机科学-机器学习-数据增强-大语言模型.pdf

  1. 1、本文档共16页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

回译与LLM时代的同义表达?比较情感分类的数据

增强方法。

ukaszRadliski,MateuszGuciora,andJan

Koco

DepartmentofArtificialIntelligence,WrocawUniversityofScienceandTechnology,

Wyb.Wyspiaskiego27,50-370Wrocaw,Poland

lukasz.radlinski@.pl

译摘要众多特定领域的机器学习任务面临着数据稀缺和类别不平衡的问题。

本文系统地探讨了自然语言处理中的数据增强方法,特别是通过像GPT

中这样的大型语言模型进行的探索。本文的目的在于考察并评估传统的诸如

1释义和反向翻译等方法是否能够利用新一代模型实现与纯粹生成性方法相

v当的表现。所选择的方法旨在解决数据稀缺的问题,并利用ChatGPT,同

0

9时选用了具有代表性的数据集。我们开展了一系列实验,在多种实验设置

5下比较了四种不同的数据增强方法。然后从生成数据的质量及其对分类性

4能的影响两个方面评估了结果。关键发现表明,反向翻译和释义可以产生

1

.与零样本和少量样本生成示例相当甚至更好的结果。

7

0

5Keywords:数据增强·大型语言模型·GPT·数据稀缺·类别不平衡

2

:

v

i

x1介绍

r

a

近年来,人工智能(AI)系统结果质量的提高导致了其更广泛的应用和

日益增长的兴趣。深度学习(DL)作为这些变化的主要引擎,需要大量的输

入数据来产生良好的输出。因此,数据收集和处理已成为关键。人工智能的

一个分支是自然语言处理(NLP),它处理文本数据等。处理此类数据的DL

模型需要大量且高质量的数据。然而,许多领域仍然缺乏这样的数据。

数据增强(DA)是应对这一挑战的一种技术。它对计算机视觉和音频处

理产生了积极影响,并且正在尝试类似的方法来增强文本数据。这些数据的

操作在复杂性和精巧性上可能会有所不同。方法从简单的字符随机插入等简

单技术到更高级的方法,例如利用大型语言模型(LLMs)的生成能力进行

整个数据样本的释义。像ChatGPT这样的大型语言模型变得越来越流行和

2.Radliskietal.

RawDataset(GoEmotions)

BacktranslationParaphrasingLLM-basedGeneration

AugmentedDataset

Fine-Tuningo

您可能关注的文档

文档评论(0)

zikele + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档