AI大模型专题:AI大模型技术在电力系统中的应用及发展趋势.docxVIP

AI大模型专题:AI大模型技术在电力系统中的应用及发展趋势.docx

  1. 1、本文档共44页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

报告题目:

AI大模型技术在电力系统中的应用及发展趋势

2025年6月10日

2

01大语言模型与智能体技术简介

人工智能AI近代史:从早期的逻辑程序到神经网络的兴起

决策式Al生成式Al

为开

小规模专家知识

浅层机器学习算法

深度机器学习算法

大规模预训练模型

1956年

历史上第一次人工智能研讨会召开,标志着人工智能的诞生

1965年

HerbertSimon和Allen

Newell开发了一个名为LogicTheorist的程序,它可以用逻辑推理的方式解决数学证明问题,这被认为是人工智能领域的一次重大突破

早期萌芽阶段(1950s~1980s)

1986年

GeoffreyHinton等人提出了一种名为Backpropagation的神经网络训练算法,被认为是神经网络技术的一次重大突破

1997年

国际象棋世界冠军Kasparov在与IBM开发的DeepBlue计算机的比赛中失利,标志着人工智能开始在一些传统的思维活动上超越人类

2006年

深度学习技术发明,带来了革命性突破

技术积淀阶段

(1980s~2010年)

2011年

IBM的Watson计算机在美国电视节目Jeopardy中战胜了两位前冠军

2013年

DeepMind提出基于深度学习的强化学习模型

2014年

GAN可生成图像但分辨率有限

2015年

Google的AlphaGo程序在围棋比赛中战胜了世界冠军李世石,标志着人工智能开始

在更复杂的思维活动上超越人类

快速发展阶段

(2011年~2016年)

2017年

Transformer架构提出,大模型发展打下基础

2018年

GPT与BERT模型推出,启“大模型时代“

2022年

ChatGPT推出

2024年

Sora推出

爆发阶段

(2017年~)

“来源;艾瑞2023年AIGC场景应用展望研究报告

什么是语言模型

你好。

你也好。一个前缀输入

你也好。

你好。

V我50。

真实分布你也好。

真实分布

你也好。

建模你好。

建模

V我50。

给定相同前缀,语言模型是输出能近似人类语

给定相同前缀,语言模型是输出能近似人类语言分布的模型。

预测分布

LLM架构与训练:预训练阶段

Figure12-3.Thethreestepsofcreatingahigh-qualityLLM.

学习文字接龙(prefixLM),无需标注,自监督(self-supervised)

“你好美丽。

LLM架构与训练:预训练阶段

预训练模型三要素

·大数据:知识的来源,包含各种语言现象及语义知识,直接决定了模型的学习范围

·大模型:容纳大数据的载体,通常由深度神经网络构成,学习大数据中的统计信息与抽象知识

·大算力:处理大数据和大模型的并行计算集群,通常包含GPU、TPU等高性能运算设备

大数据(无标注文本)大模型

大数据

(无标注文本)

大模型

(深度神经网络)

(并行计算集群)

如何训练自己的LLM?微调训练

直接全量参数微调问题:

LLM参数量巨大,7b=70亿参数

耗费GPU资源多,通常需要A100*8以上(百万RMB)训练时间长,需要数周时间

解决方案:LoRA(Low-RankAdaptationofLargeLanguageModels)

核心优势:

训练参数量少,70亿参数使用LoRA只需要训练百万级别参数

微调效果好,LoRA效果不差于全参数微调,优于其他微调方式GPU要求低,3090*4即可微调7b模型

ModelMethod

#Trainable

ParametersBLEU

E2ENLGChallenge

NISTMETROUGE-LCIDEr

GPT-2M(FT)

GPT-2M(Adapter)

GPT-2M(Adapter)

GPT-2M(Adapter)GPT-2M(FTTp7y

GPT-2M(Prelayer)GPT-2M(LoRA)

354.92M

0.37M

11.09M

11.09M

25.19M0.35M

0.35M

68.28.6246.2

66.38.4145.0

68.98.7146.1

67.3±68.50±746.0±2

68.18.5946.0

69.78.8146.1

70.4±18.85±0246.8±.

71.0

69.8

71.3

70.7±270.8

71.4

7

文档评论(0)

189****7098 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档