ATL-Diff: 声音驱动的说话头像生成早期地标引导噪声扩散-计算机科学-音频驱动的说话头像生成-虚拟助手.pdfVIP

ATL-Diff: 声音驱动的说话头像生成早期地标引导噪声扩散-计算机科学-音频驱动的说话头像生成-虚拟助手.pdf

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

ATL-Diff:声音驱动的说话头像生成早期地标引导噪声扩散

1111

SonThanh-HoangVo,Quang-VinhNguyen,SeungwonKim,Hyung-JeongYang,

21

SoonjaYeom,andSoo-HyungKim†

1ChonnamNationalUniversity,Gwangju,RepublicofKorea

2UniversityofTasmania,Hobart,Australia

{hoangsonvothanh,vinhbn28,seungwon.kim,hjyang}@jnu.ac.kr

soonja.yeom@.au

†Correspondingauthor:shkim@jnu.ac.kr

译Abstract临实现精确唇音同步和保持面部身份的挑战。直接音

中频到图像生成经常引入噪声,这会妨碍视觉质量并增

1音频驱动的说话头像生成需要面部动画与音频信加计算成本。

v号之间精确同步。本文介绍了ATL-Diff,一种解决同步解决音频驱动的说话人脸生成中的挑战是本文的

4

0限制并减少噪声和计算成本的新方法。我们的框架包主要目标。本文介绍了Audio-DrivenTalkingHeadGen-

8含三个关键组件:一个将音频转换为面部特征点的地erationwithEarlyLandmark-GuidedNoise差异usion

2

1标生成模块、一个根据特征点分布噪声以解耦音频的(ATL-Diff),这是一种创新的方法,通过隔离音频信号

7.方法,以及一个保留身份特征的3D身份扩散网络。在来防止一般过程中的干扰。本文的主要贡献可以总结

0MEAD和CREMA-D数据集上的实验表明,ATL-Diff如下:

5

2在所有指标上都优于最先进的方法。我们的方法实现•提出了一种新的音频驱动的说话人头生成方法,在

:

v了接近实时处理的高质量动画,计算效率高,并能很好效果上优于其他模型。

i

x地保持面部细节。这一进展为虚拟助手、教育、医疗沟•建立一个从音频信号正确对应视频帧的里程碑序

r

a通和数字平台提供了有前景的应用。源代码可在以下列,使用地标生成模块模块(第2.1节)作为中间步

位置获取:/sonvth/ATL-Diff骤。这在表3中进行了演示。

•我们利用扩散模型的力量,同时引入了一种完全创

新的噪声分布方法称为地标(第2.2节)。在这个方

1.介绍法中,关键点序列指导了扩散模型中的噪声分布。这

种方法显著降低了推理成本,同时保持了高质量的

基于音频的虚拟人物生成旨在从静态身份图像中

输出。表2展示了这与其它方法相比如何有所改进。

合成与语音同步的真实面部动画。这项技术因

您可能关注的文档

文档评论(0)

zikele + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档