- 1、本文档共93页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
目 录
TOC \o 1-2 \h \z \u 一、AI 有望明显拉动算力基础设施投资 1
ChatGPT 爆红引发了人们对于人工智能发展的高度关注 1
人工智能需要强大算力支撑 2
AI 算力产业链涉及环节较多,行业需求有望全面提升 3
二、AI 芯片需求爆发式增长 5
AI 大规模落地应用对AI 芯片性能、数量提出全方位要求 5
英伟达龙头地位稳固,国内厂商正逐步追赶 23
先进封装成为高性价比替代方案,存算一体应用潜力巨大 30
三、AI 服务器渗透率快速提升 40
AI 服务器是算力基础设施最主要的硬件,训练型主要成本来自于GPU 芯片 40
AI 服务器市场规模有望保持高速增长,当前订单饱满 43
AI 服务器市场集中度有望提升,国内厂商呈现一超多强格局 45
全球服务器市场规模预计保持平稳 47
标的推荐 47
四、AI 正在推动高速率光模块需求放量 49
五、AI 将会拉动交换机市场需求 59
六、AI 提升大功率 IDC 机柜需求,液冷渗透率随之提升 62
“东数西算”统筹全国算力网络建设,云计算需求可能将回暖 62
AI 大算力服务器需要高功率机柜,液冷或成必选项 64
人工智能算力需求有望推动海底数据中心规模化发展 68
七、海外大模型进展 74
7.1 谷歌 74
7.2 微软 79
7.3Meta 82
八、投资建议 86
行业深度报告
图表目录
图表 1: AIGC 发展历程 1
图表 2: 国内外公司 AIGC 相关产品 2
图表 3: GPT 模型示意图 2
图表 4: NVIDIA DGX A100 AI 服务器 2
图表 5: 全球算力规模及增速 3
图表 6: 我国算力规模及增速 3
图表 7: 全球AI 服务器市场规模测算 4
图表 8: 中国AI 服务器市场规模测算 4
图表 9: 光模块和交换机速率演进示意图 5
图表 10: CPU+AI 芯片的异构计算 6
图表 11: 2021 年中国AI 芯片市场规模占比 6
图表 12: CPU 与GPU 架构对比 6
图表 13: NVIDIA GPU 主要产品线 7
图表 14: NVIDIA Fermi 架构至 Hopper 架构的变化 7
图表 15: 低精度比特位宽为AI 计算带来的好处 8
图表 16: 不同精度计算消耗的能量和硅片面积 8
图表 17: NVIDIA 数据中心 GPU 支持的比特位宽变化 8
图表 18: V100 中 FP32 硬件单元和 FP64 硬件单元的数量关系 8
图表 19: 专门的硬件单元Tensor Core 加速矩阵乘加计算 9
图表 20: A100 与 H100 的 FP16 Tensor Core 吞吐量对比 9
图表 21: FP16 Tensor Core 与 FP8 Tensor Core 吞吐量对比 9
图表 22: FP16 Tensor 算力快速增长 10
图表 23: FP16 Tensor 每单位核心的算力明显优于FP16 10
图表 24: AI 训练服务器需要更高的内存容量 10
图表 25: NLP 负载中存储和计算的能量消耗占比 10
图表 26: GDDR 与HBM 差异 11
图表 27: 语言模型的参数数量呈指数级增长 11
图表 28: GPU 之间通过PCIe 连接 12
图表 29: GPU 之间通过NVLink 连接 12
图表 30: NVLink 1.0—NVLink 4.0 12
图表 31: NVSwitch 连接多颗GPU 13
图表 32: NVSwitch 支撑的 GPU 计算集群 13
图表 33: NPU 典型架构 14
图表 34: 麒麟 970 NPU 加速图像识别 14
图表 35: 脉动阵列运行矩阵乘法的示意图 14
图表 36: 谷歌TPU 架构及其内部的脉动阵列 15
图表 37: 谷歌TPU 15
图表 38: Tesla FSD 搭载 NPU 模块 15
图表 39: AI 训练与AI 推理对比 16
行业深度报告
图表 40: 云端推理占比逐步提升 16
图表 41: AIGC 引发内容生成范式革命 16
图表 42: NVIDIA 云端训练 GPU 与推理GPU 参数对比 17
图表 43: 不同规模大模型所需的显存容量估计 17
图表 44: 边缘端AI 推理芯片及其算力案例 18
图表 45: 大模型参数量及训练所需 Tokens 18
图表 46: 神经网络的前向传播过程 19
图表 47: 神经网络的反向传播过程 19
图表 48: 不同大模型训练过程中的算力利用率 19
图表 49: 全球大模型训练所需
文档评论(0)