基于CNN和Transformer的条纹投影相位展开和深度估计方法研究.pdf

基于CNN和Transformer的条纹投影相位展开和深度估计方法研究.pdf

  1. 1、本文档共69页,其中可免费阅读21页,需付费100金币后方可阅读剩余内容。
  2. 2、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,可选择认领,认领后既往收益都归您。
  3. 3、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细先通过免费阅读内容等途径辨别内容交易风险。如存在严重挂羊头卖狗肉之情形,可联系本站下载客服投诉处理。
  4. 4、文档侵权举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

摘要

相位展开和深度估计是条纹投影三维测量的重要环节,同时也是条纹投影技

术研究的重点内容。近年来基于深度学习的方法具有步骤简单和计算速度快等优

点,在条纹投影相位展开和深度估计方面取得较大的进展,体现出相对传统算法

的优越性。然而,对于单一复杂场景下的结构光图像,稳健和准确的相位展开和

深度估计仍然是一个具有挑战性的问题。

目前在条纹投影相位展开和深度估计研究工作主要集中在卷积神经网络

(CNN),CNN的全局建模能力相对较弱,而基于多头自注意力机制的网络模型

(Transf

文档评论(0)

136****6583 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:7043055023000005

1亿VIP精品文档

相关文档