分享好友 最新动态首页 最新动态分类 切换频道
生成式AI:大语言模型GPT的原理与改进
2024-12-27 10:29

目录

生成式AI:大语言模型GPT的原理与改进

1 生成式AI和AIGC

1.1 生成式AI所生成的内容就是AIGC

1.2 AI的Venn图

1.3 监督学习(训练数据带标签

1.4 无监督学习(不带标签:一般处理聚类任务​编辑

1.5 强化学习

1.6 深度学习

2 大语言模型LLM简介

2.1 模型参数逐渐增加(泛化能力更强

2.2 技术发展里程碑

2.3 AI对话产品发展历程

​3 Transformer提出之前语言模型的主流架构

3.1 RNN(循环神经网络

3.2 LSTM(长短时记忆网络

3.3 Transformer

4 GPT等生成式大语言模型背后的工作原理

4.1 公认原理

4.2 框架示意图

4.3 编码器工作流程

4.3.1 输入文本token化

4.3.2 向量嵌入

4.3.3 位置编码

4.3.4 自注意力机制

4.3.5 前馈神经网络: 

4.3.6 注意

 4.4 解码器工作流程

4.4.1 接受一个特殊值(作为开头

4.4.2 也要经过嵌入层和位置编码,然后进入多头自注意力层

4.4.3 编码器和解码器多头自注意力层的区别

4.4.4 注意

 4.4.5 线性层和softmax层

 4.5 三个变种

4.5.1 仅编码器

4.5.2仅解码器(自回归模型

4.5.3 编码器和解码器(序列到序列

5 GPT的构建历程

5.1 第一步:通过大量文本进行无监督预训练得到基座模型(花费多

5.2 第二步:通过人类撰写的高质量对话数据对基座模型进行监督微调得到微调后的基座模型(SFT

5.3 第三步:由人类标注员对多个回答的数据进行排序打分,基于该数据训练一个能对回答进行评分预测的奖励模型

5.4 第四步:训练奖励模型+强化学习训练

6 改进GPT的思路

 6.1 小样本提示

 6.2 思维链

 6.3 分步骤思考(let's think step by step)

7 GPT目前存在的短板及解决措施

 7.1 GPT目前存在的短板

 7.2 检索增强生成RAG

 7.3 程序辅助语言模型(PAL

 7.4 协同同理与行动ReAct


1 生成式AI和AIGC

1.1 生成式AI所生成的内容就是AIGC
1.2 AI的Venn图

注意

1.3 监督学习(训练数据带标签

经典的监督学习任务包括分类(划分类别)和回归(预测

1.6 深度学习

引入了神经元和神经网络的概念。

而生成式AI和大语言模型LLM都属于深度学习的一种应用,后者专门用于自然语言处理任务。

LLM中的大:参数多,高达数十亿;用于训练的数据多; 

并非所有的生成式AI都属于大语言模型,如图像的扩散模型,并不输出文本

大语言模型也不属于生成式AI,比如谷歌的BERT,不擅长长文本生成工作。

2 大语言模型LLM简介

2.1 模型参数逐渐增加(泛化能力更强
2.2 技术发展里程碑

2017年6月,谷歌团队发表论文,提出transformer架构

2.3 AI对话产品发展历程

 缺点

无法并行运算,处理效率低

不擅长处理长文本,难以捕获长距离的语义关系;比如下面这个例子

3.2 LSTM(长短时记忆网络

缺点

仍然无法解决并行计算问题

对于超长序列,仍然不能有很好的效果。

3.3 Transformer

引入自注意力机制:计算得到每一个词和其余所有词的相关性

位置编码:规定了词在句子中出现的顺序,便于并行训练,提高速度。

有能力学习输入序列中的所有词的相关性和上下文,不会受到短时记忆的影响; 

包括词向量(文本转换为数据)和位置向量(标注在句子中出现的顺序):

4 GPT等生成式大语言模型背后的工作原理

4.1 公认原理

通过预测出现概率最高的下一个词来实现文本生成(类似自动补全

4.2 框架示意图
4.3 编码器工作流程
4.3.1 输入文本token化

token:可以认为其是输入文本的基本单位,可以是一整个短词,也可以是一个长词的一部分。

4.3.2 向量嵌入

向量(一串数字:可以包含更多的语法语义信息

相似的词在向量空间中距离较近,不相似的词则在向量空间中距离较远。

进而便于模型计算向量空间中两个向量的距离进而得到相似度。 

GPT3的向量长度高达12288.

4.3.3 位置编码

将上文得到的词向量和位置向量(词在文本中出现的位置)经过一个线性层得到位置编码。

4.3.4 自注意力机制

为了融合上下文之间的相关信息,引入自注意力机制,通过计算每对词之间的相关性来决定注意力权重。

Transformer实际使用的是多注意力头机制,每个头都有它自己的注意力权重,用来关注文本里不同特征或方面,比如有的关注动词,有的关注修饰词。

而且他们之间互不影响,可以做并行运算

每个自注意力头的权重都是模型在之前的训练过程中,从大量文本中逐渐学习和调整的。

4.3.5 前馈神经网络: 

对自注意力模块的输出做进一步处理,增强模型的表达能力。

4.3.6 注意

编码器在transformer中可能不止一个,实际上是由多个堆叠在一起,每个编码器内部结构一样,但不共享权重,这保证了模型可以更深入理解数据,处理更复杂的文本语言内容。

 4.4 解码器工作流程

通过前面的编码器我们有了输入序列中各个token序列的抽象表示。

4.4.1 接受一个特殊值(作为开头

不仅会将来自编码器的抽象表示作为输入,还会把之前已经生成的文本也作为输入,进而保证连贯性。

4.4.2 也要经过嵌入层和位置编码,然后进入多头自注意力层
4.4.3 编码器和解码器多头自注意力层的区别

解码器的多头自注意力层只关注前缀(只使用当前词以及前面的词作为上下文 ,称为带掩码的多头自注意力层

内部有两个多头自注意力层数,其中一个是针对(输出序列,还有一个是针对输入序列(来自编码器的输出)。

4.4.4 注意

解码器中也有多层堆叠

 4.4.5 线性层和softmax层

解码器的最后阶段是该两层,作用是把解码器输出的表示转换为词汇表的概率分布(也即下一个生成Token的概率

模型一本正经的胡说八道(比如讲述“林黛玉倒拔垂杨柳”)被称之为“幻觉”现象。 

解码器的整个流程会持续多次,直到生成的是一个用来表示序列结束的特殊token。

 4.5 三个变种
4.5.1 仅编码器

适用于理解语言任务

4.5.2仅解码器(自回归模型

非常擅长预测下一个词

4.5.3 编码器和解码器(序列到序列: 

适用于将一个序列转换为另一个序列的任务

5 GPT的构建历程

5.1 第一步:通过大量文本进行无监督预训练得到基座模型(花费多

利用海量文本自行学习人类语言的语义和语法,了解表达结构和模式

预测过程中不断更新权重,从而逐渐能根据上文生成合适的下文

该模型可以进行文本生成(根据上文补充文本

给它一个问题可以帮你生成更多类似的问题: 

5.2 第二步:通过人类撰写的高质量对话数据对基座模型进行监督微调得到微调后的基座模型(SFT

该模型可以进行文本生成和对话能力

已经可以进行对话了,但是质量并不高

5.3 第三步:由人类标注员对多个回答的数据进行排序打分,基于该数据训练一个能对回答进行评分预测的奖励模型

 让chatGPT对问题做出回答,人类标注员回答进行打分(3H原则

让第二步得到的SFT模型对问题生成多个回答,人类标注员对回答进行排序,得到排序数据,进而用于训练奖励模型 

从回答和回答对应的评分中学习,得到奖励模型

5.4 第四步:训练奖励模型+强化学习训练

6 改进GPT的思路

 6.1 小样本提示

给示例。

优点:AI回应的内容风格会大概率遵循我们给的提示(JSON格式)。 

缺点:不适合用于需要数学计算等推理思维能力的问题

6.2 思维链

给出的示例中不仅给出结果,更要给出推理得到结果的过程

优点:非常适合解决推理计算等问题 

6.3 分步骤思考(let's think step by step)

7 GPT目前存在的短板及解决措施

7.1 GPT目前存在的短板

 数据过时,编造事实,计算不准

7.2 检索增强生成RAG

问题背景:如果训练数据里对某个领域的文本覆盖不多,那么我们在提问相关领域的问题时,AI可能会生成不准确或者错误的回答。

因此,我们可以提供外部文档,然后将这些文档分为几个段落(因为LLM一次接受的文本序列有限,然后转换为向量,存进向量数据库。

当我们提出问题的时候,这个问题也会转化为向量,然后进入向量数据库中查找与该向量最为接近的段落向量。

整体的流程如下图所示:

想要了解更多可以参考下面这个博客

RAG (检索增强生成)技术详解:揭秘基于垂直领域专有数据的Chatbots是如何实现的 - 知乎 (zhihu.com)

7.3 程序辅助语言模型(PAL

 问题背景:针对AI不善于做计算的问题

在思维链的基础上,让AI写出python代码,然后提交给python解释器(等计算工具,然后将计算结果返回给AI。(现在也有一种讨论是“用变量表示,然后用数学公式求解器”计算,这样子及绝了按序计算(一行一行的python代码执行)可能造成的错误。

 7.4 协同推理与行动ReAct

问题背景:数据过时问题,知识截断,重新训练模型开销巨大

上网+分布推理的思维链(如web browing)功能

 注意:行动不一定指的是输入关键词进行搜索、点击链接等等

  • 如果可以和python等代码解释器进行交互,那么运行代码也可以作为可选项
  • 如果模型可以访问外部文档,那么从文档中获取关键字也可以作为行动选项
  • 如果模型可以调用某个应用的API,那么和那个应用交互也可以作为行动选项。

可以使用LangChain实现此目的

什么是LangChain呢

:LangChain是一个开源框架,允许从事人工智能的开发者将例如GPT-4的大语言模型与外部计算和数据来源结合起来。该框架目前以Python或JavaScript包的形式提供。

假设,你想从你自己的数据、文件中具体了解一些情况(可以是一本书、一个pdf文件、一个包含专有信息的数据库)。LangChain可以将GPT-4和这些外部数据连接起来,甚至可以让LangChain帮助你采取你想采取的行动,例如发一封邮件。

想要对LangChain了解更多可以参考下面这个博客

什么是LangChain - 知乎 

最新文章
新开店怎么上地图定位(开了个店怎么在地图上显示)
开店后,为了让顾客能够方便地找到店铺的位置,将其在地图上显示是一个非常重要的步骤。以下将详细介绍如何在几种主流地图平台上添加店铺位置。一、百度地图标注二、高德地图标注打开平台打开高德地图的官方网站(amap.com)或者高德地图的
解决手机卡顿反应迟钝的全方位指南:优化性能、提升体验!
一、引言手机卡顿反应迟钝是许多用户经常遇到的问题,这不仅影响了我们的使用体验,还可能导致工作效率降低。那么,面对这一问题,我们应该如何解决呢?接下来,我们将从多个方面为您详细解答。二、分析原因1. 手机存储空间不足:过多的应
轻松实现竞价推广代运营,为您的业务发展添砖加瓦!
随着互联网的普及,竞价推广已成为许多企业寻求业务增长的重要手段。然而,对于许多中小企业来说,运营竞价推广是一项繁重且复杂的任务。这时候,选择专业的竞价推广代运营公司就显得尤为重要。本文将为您介绍如何轻松实现竞价推广代运营,
如何优化关键词百度排名?怎么快速优化到百度首页?
网站关键词优化要快速优化到百度首页,网站应选择合理的关键字进行优化。除了**的关键字外,您还可以适当地制定一些长尾关键字。当然,如果可以结合热门事件,将更容易优化到百度首页。对于企业来说,网络营销不仅可以降低企业的运营成本,
深度解析几款国内主流的磁力搜索引擎
如今在互联网浩瀚的资源海洋里,无论是最新上映的电影还是最流行的音乐专辑,都能通过磁力搜索引擎迅速找到。现在,让我们一起来了解一下目前国内主流的老牌磁力搜索引擎。磁狐搜索:这款搜索引擎基于DHT协议的资源搜索应用,整合了多种磁
美国签证系统更新后更复杂了?!美区申请人注意了!
12月7日美国签证新系统全面启用!很多小伙伴都慌了!各种问题层出不穷!给大家梳理一下新美签系统变化及申请流程!往下看!一篇全搞定!01新美签系统主要变化02新美签系统申请攻略实操申请,大家可以根据如下的步骤一一进行操作,这份保姆级
高效建设攻略,搭建与优化关键步骤解析
搭建与优化是打造高效的关键。选择合适的和,确保稳定运行。设计简洁、直观的界面,提高用户体验。优化结构和内容,提高搜索引擎排名。定期并修复漏洞,保障安全。这些步骤将有助于打造一个高效、安全的。搭建优化在互联网迅猛发展的今天,
香港资料大全正版资料2024年免费|综合解答落实完美版220.300
香港资料大全正版资料2024年免费——综合解答完美版随着信息技术的快速发展,人们对于各类资料的需求也日益增长,香港作为一个国际化大都市,其资料种类繁多,涵盖了历史、文化、经济、教育等多个领域,本文将围绕香港资料大全正版资料展开
私域roi分析,告诉你怎么样的私域才能是合格的私域
市场营销获客工具【爱短链】全域跳转工具,打通私域引流关键一步:轻松将公域流量,引导至私域,通过链接点击直达,方便快捷,无风险提示跳转,助力企业/商家高速获客。》》点此获取链接我们关心如何如何来,如何保留,如何转化;也关心成
相关文章
推荐文章
发表评论
0评