三清阁符咒网

快速了解 GPT 发展三阶段

道教符咒网    2023-03-15    96

关注梅州道教灵符网请符我们

(本文阅读时间:20分钟)

GPT 是把 Transformer 的解码器提出来,在没有标注的大数据下完成一个语言模型,作为预训练模型,然后在子任务上做微调获得不同任务的分类器梅州道教灵符网请符。这个逻辑和我们的计算机视觉的套路是一样的。这个模型叫 GPT1。

GPT2 收集了更大的数据集,生成了更大的模型这就算 GPT2,证明了当数据库越大,模型越大,能力就有可能越强,但是需求投入多少钱可以得到预期效果,大家都不确定,所以 GTP2 没有在市场上获得特别强的反响梅州道教灵符网请符

GPT 团队认为自己的算法没有问题梅州道教灵符网请符,思路没有问题,逻辑没有问题,唯一有问题的就是没有菠菜罐头,所以 GPT 团队找了金主买了菠菜罐头,终于大力水手升级为暴力水手,从大力出奇迹转变为暴力出奇迹,惊艳的 GPT3 终于诞生了,那么这么暴力升级有多恐怖呢?GPT3 数据和模型都比 GTP 2 大了 100倍!

微软MVP实验室研究员

王豫翔梅州道教灵符网请符,Leo

微软圈内人称王公子梅州道教灵符网请符。微软10年+MVP,大龄程序员。目前核心工作是使用微软 AI 技术设计可以落地的解决方案,也就是写 PPT。虽然热爱代码,但只有午夜时分才是自由敲代码的时间。喜欢微软技术,不喜欢无脑照抄。

GPT

关键词:无标注文本、自监督学习、前馈神经网络、自回归模型

GPT全称是 Generative Pretrained Transformer,名字非常直白,就是生成式预训练转换器梅州道教灵符网请符。GPT 想解决的问题:在 NLP 领域有很多任务,虽然有了互联网,我们已经可以方便的采集大量的样本,但是相对于有标注的样本,更多存在的是无标注样本,那么我们怎么来使用这些无标注的样本。

GPT 团队的解决方案是在没有标注的样本上训练出一个预训练的语言模型,然后在有标注的特定的子任务上训练一个微调分类器模型梅州道教灵符网请符。具体来说就是先让模型在大规模无标注数据上针对通用任务进行训练,使模型具备理解语言的基础能力,然后将预训练好的模型在特定的有标注数据上针对下游任务进行微调,使模型能够适应不同的下游任务。

但是 NLP 并不是 AI 中一个新的领域,在之前其实已经有了很多出色的 NLP 模型,那 GPT 的创新在哪里呢?之前的 NLP 模型是和任务绑定的,比如分词,词向量,句子相似度,每一个任务都有自己的模型,所以每一个新任务都需要一个新模型梅州道教灵符网请符。GPT 的方式是生成一个大模型,然后通过输入的形式就可以获得不同的任务结果。这个是非常创新的思路。

当然了梅州道教灵符网请符,统一的想法是好的,谁不想要一个这样的统一模型呢?但明显会遇到几个挑战:

损失函数怎么选择梅州道教灵符网请符,因为在原先的方式中,不同的任务具有不同的损失函数,能不能找到一个损失函数可以为所有任务提供有效服务呢?

NLP 子任务的各自表现形式不同,怎么设计一个表示方式,有没有一种统一的表示可以让所有子任务接受梅州道教灵符网请符

在没有标注的文本上训练一个大的语言模型,然后在子任务上进行微调,GPT 称为半监督方式梅州道教灵符网请符。有大量的无标注的数据和有标注的数据,这些数据具有相似性,那我怎么用我已经标注的数据来有效的使用那些无标注的数据。后来这个方式又叫自监督模型了。

下面是 GPT 提出的解决方案:

无监督预(自监督)训练:在没有标注的数据上做预训练梅州道教灵符网请符。假设我们有一段文本,里面每一个词都是有序的,GPT 使用了 Transformer 的解码器来预测第一个词出现的概率。预测的方式就是通过前面的词的序列来预测接下来词出现的概率,是不是觉得和我们的联想输入法特别相似,所以前面的词越长,预测出后面词出现的概率精度就越高,这点应该是非常容易理解的。同时我们也可以想象出,这个计算是非常恐怖的。我总觉得 GPT 团队大概很想通过这样的预测模式来预算股票走势。

微调:微调就是输入一段文本,同时给这一段文本设计一个标注,这是一个比较标准的分类手段梅州道教灵符网请符。GPT 的创新是对这段微调文本同时使用了对下一个词的预测和对完整文本的标签预测。

NLP 的子任务表示形式:NLP 的子任务有很多种,传统 NLP 的任务模型和输入都是对应的,就是一个模型对应一个任务,GPT 要做一个统一模型,就必须定义一个 NLP 子任务的表示形式梅州道教灵符网请符

下面的图非常重要,在我看来比论文中各种眼花缭乱的公式重要的多梅州道教灵符网请符

分类输入表示:将需要分类的文本在前后加上开始和结束标记,然后放入 Transformer,然后模型对特放进线性层进行微调梅州道教灵符网请符

推理输入表示:推理表达是对两段文本给出支持,反对和中立三分类的问题梅州道教灵符网请符。比如前提为:一个人今年32岁,假设是他未成年,这段的标签就是反对。也能出现前提是:他喜欢吃狗肉。假设是:他不是爱狗人士。如果是我做标签的话,我可能会给出中立的标签。所以微调其实是存在标签设计者者的偏向的。

相似输入表示:两段文本的表达方式不一样,但他们的含义是相似的梅州道教灵符网请符。由于模型是单向的,但相似度与顺序无关。所以需要将两个句子顺序颠倒后两次输入的结果相加来做最后的推测。

多选题输入表示:给出一个问题和一组答案,预测对这个问题是不是能给出正确答案梅州道教灵符网请符

除了无标注文本和自监督学习外,GPT 还有一个创新,这个创新是贯穿了整个 GTP123,也是 GPT 和 BERT 的一大区别:GPT 模型既使用了前馈神经网络,又使用了自回归模型,两种模型都在模型的不同部分起到了关键的作用梅州道教灵符网请符。具体而言,GPT 模型中的编码器部分使用了前馈神经网络和自注意力机制,以将输入序列中的每个单词转换为高维向量表示,并提供上下文信息;而生成器部分则使用了自回归模型,以基于前文生成下一个单词。这两种模型的结合使得 GPT 模型能够更好地处理自然语言和任务,并且在多个任务上取得了非常优秀的表现。

前馈神经网络和自回归的方式都是用来预测下一个单词梅州道教灵符网请符。它们的不同在于处理输入序列的方式和输出预测的方式。前馈神经网络将整个输入序列一次性传入网络,并在多个全连接层中对其进行转换,最后得到下一个单词的预测。而自回归的方式则是将先前生成的单词作为输入,递归地生成下一个单词,直到达到预设的长度或生成特殊的终止符号为止。

论文出自《Improving Language Understanding by Generative PreTraining》

链接:

GPT2

关键词:零样本、多任务学习、动态掩码、自适应的词向量权重

据说疾速追杀4马上要上映了,又可以数基努·里维斯杀了多少人了梅州道教灵符网请符。通常我们都叫疾速追杀1、疾速追杀2、疾速追杀3、疾速追杀4,但其实这部电影的中文名字并不是这样1234,而是疾速追杀、疾速特攻、疾速备战。GPT 也是这样的,GPT2 的名字其实是Language Models are Unsupervised Multitask Learners,中文的意思是语言模型是无监督的多任务学习器。但我们习惯上还是叫 GPT2。

在 GPT1 我们聊过一个事情,传统的 NLP 的任务处理是一个任务收集一个数据集,在这个数据集上构建自己的预测模型梅州道教灵符网请符。这种方式的优点是目标性比较强,工作量和成本低,大部分团队都可以自己独立去完成自己的目标任务。但是缺点是这个模型的泛化性不够好,一个这样的模型很难被复用到另一个任务上去。

GPT1 的预训练模型在 GPT2 团队看来有一个不足的地方,虽然 GPT1 构建了一个不错的预训练模型,但是对下游任务还是需要使用有标注的样板来训练新的模型,也就是说需要对具体的下游任务做有监督的微调梅州道教灵符网请符。GPT1 的有监督微调就是我们之前说的输入表示。这样下游任务还是需要先训练一个模型,这样下游任务才能了解输入的表示,比如开头,结尾,分隔符,所以很明显下游任务需要做两个事情:收集一些有标签的样本,同时训练一个可以理解这些样本的模型。

所以 GPT2 团队计划继续优化语言模型,并且用 ZeroShot(零样本)让下游任务不再需要接受任何有标注的样本梅州道教灵符网请符。既然不再需要那些标记,那么也就不需要构建新的模型了。

这个 ZeroShot(零样本)使得下游任务可以不需要接受有标注的样本,也不需要构建新的模型,是 GTP2 最重要的创新和绝对大胆的尝试梅州道教灵符网请符。怎么使得预训练模型具备此能力呢?要从预训练过程入手,GPT2 团队参考了上世纪的一个观点:多任务学习,同时看多个数据集,用多个损失函数让模型在多个任务上可以用。那么下游任务不做新的模型,也不接受有特定标记的输入,那怎么样能让下游任务可以理解输入呢?

GPT2 说他的语言模式可以接受自然语言对任务的请求梅州道教灵符网请符,在论文中他给出了两个案例:

一个是描述翻译任务:translate to french, english text, french text

一个是描述问答任务:answer the question, document, question, answer

要实现这样的效果,GPT2 团队认为需要一个非常大的模型,需要非常大的数据梅州道教灵符网请符。GPT1 采用了7000本没有公开发布的书做数据集,那现在 GPT2 团队就要解决能满足自己目标的高质量数据集哪里来。

GPT2 瞄准了 Reddit梅州道教灵符网请符。这个网站中文叫红迪网,是一个娱乐、新闻和社交网站,是美国第五大网站,流量仅次于 Google、YouTube、Facebook 以及 Amazon。Reddit 中的社区被称为 subreddit (简称 sub),按照不同的主题内容来分类,包括新闻、游戏、音乐、健身、食物和图片共享等。你可以认为类似贴吧,知乎,豆瓣,小红书的综合体。注册用户可以在上面发布文字、图像或链接,然后由其他成员投票赞成或反对,结果将被用来进行排名和决定它在首页或子页的位置。

每位用户都可以创建 sub ,创建者就是 sub 的 mod(即管理者),mod 权限很大,能够决定一个 sub 的风格和规则梅州道教灵符网请符。用户(也叫 redditors)能够浏览各类社区,可以提交内容链接或发布原创,可以支持、反对、评论、转发帖子,用户发布的优质有趣内容可以获得帖子分数(post karma)及留言分数(comment karma),甚至能够获赠 Reddit 硬币。和其他社交网站不同,Reddit 的匿名性使其不存在任何自带流量的 KOL,所有内容完全按照热度排名,热门内容会被推到首页。所以 GPT2 团队认为,这样一个由人群自发进行过滤选择的内容网站就是一个天然的被标注了内容优劣的样本,而且还对知识类型做了分类。那么如何提取出这个社区里面优质内容呢?GPT2 团队选择了 Reddit 中具有三个以上 Karma 的帖子。Karma 是你在 Reddit 所得的分数,表示你所发表的帖子在社区里所占有的价值量。每个用户在 Reddit 都有他们自己的评论 Karma 和链接 Karma。相当于你在 Reddit 的等级标志。每个人拥有2组 Karma 值,分别为发布 Karma 和评论 Karma,分别对应内容发布和内容评论。原则上,收到一个顶就+1,收到一个踩就1,但是同时在同一篇内容所获得的顶踩值会有衰减效应,即当你获得的点赞越多,每个点赞兑现的 karma 值越低。所以 Reddit 的这个相对公平的设置真的是天然的从大众的价值观对内容进行了分类和优劣评价,这就是 GPT2 团队所需要的。最后 GPT2 团队从 Reddit 中爬取了4500万链接,800万篇文档,一共40G文本。

基于这些数据集梅州道教灵符网请符,GPT2 团队设计了四个模型:

参数

模型

1.17亿

12

768M

3.45亿

24

1024M

7.62亿

36

1280M

15.42亿

48

1600M

GPT2 团队非常实诚的对这四个模型分别在阅读理解,翻译,摘要和问答四个领域和当时最主流的模型做了 PK梅州道教灵符网请符

从结果来看,除了阅读理解领域还算可以,其他三个领域都不怎么理想,但是别忘了,GPT2 是在无监督的模型下和这些有监督的模型做的 PK,得到这样的结果已经是非常不错了,并且从图表可以看到一个关键信息,总体来讲,只要模型越大,预测的结果就越好梅州道教灵符网请符

具体来说,GPT2 采用了更大规模的语料库进行预训练,并增加了更多的参数梅州道教灵符网请符。GPT2 的模型架构与 GPT1 相同,都是基于 Transformer 结构的编码器模型。但 GPT2 的模型规模是 GPT1 的4倍,拥有1.5亿个参数。同时,GPT2 还引入了一些新的技术,如动态掩码、自适应的词向量权重、多层次的表示等,以提高模型的性能和泛化能力。

GPT2 的预训练任务仍然是语言建模,即在大规模语料库上训练模型,以预测下一个单词的概率分布梅州道教灵符网请符。但由于模型规模和预训练效果的提升,GPT2 在生成各种文本任务方面表现出色,如文本生成、机器翻译、对话生成等。

总体来说,GPT2 的核心思想是在 GPT1 的基础上进一步提高模型规模和预训练效果,采用更大规模的语料库进行预训练,引入一些新的技术以提高模型的性能和泛化能力,仍然以语言建模为预训练任务,在生成各种文本任务方面表现出色梅州道教灵符网请符

论文出自《Language Models are Unsupervised Multitask Learners》

链接:

GPT3

关键词:少样本、上下文学习

GPT3 的名字叫:Language Models are FewShot Learners,中文解释就是语言模型是少样本学习器梅州道教灵符网请符。是不是觉得这个团队很有意思:从有监督微调到零样本训练到现在的少样本训练,科学就是这样,需要对自己的结果做客观的认知,对不足的地方就要调整,不能为了面子不顾事实,而是要客观面对自己的经验教训。

GPT3 团队用这张图来解释他们为啥要回到有样本的思路,从这个图可以观察到,少样本,单样本和零样本在模型的规模增大后,精度是有明确的差异的梅州道教灵符网请符

但是基于 GPT1 和 GPT2 我们会得到一些概念:一旦有了样本,我们就是微调工作,得到一个新的模型,但是模型的效果和模型的大小成正比,那么在一个超大的预模型下做微调获得新的模型成本肯定非常昂贵梅州道教灵符网请符

但同时 GPT3 团队认为预训练模型使用的样本可能会影响下游子任务的质量梅州道教灵符网请符。举例来说,如果你的子任务输出结果非常好,也许是你的微调的数据和预训练模型中的刚好很接近,所以不能说微调出来的模型好,就说你的预训练的模型一定泛化的很好。

所以 GPT3 又开创性的提出了一个设计:在作用到下游任务上的时候不做任何参数调整和梯度更新,也就是说子任务不要产生新的模型梅州道教灵符网请符。GPT3 团队用下面的图描述了零样本、单样本和少样本来处理任务。这图里面提出了一个概念:prompt。预训练模型来通过这个提示理解你要做什么任务。

这个图还是很直观的说明了三种样本的概念,但是要记得 GPT3 是不生成新模型的,所以这些样本是不做训练的,只做预测梅州道教灵符网请符。GPT3 要求模型在做推理的时候能够通过注意力机制去处理比较长的信息,然后从这些信息中抽取出有价值的信息,这就是上下文学习。

要实现这样聪明厉害的模型,从 GPT1 和 GPT2 的经验来看,那这个模型需要非常大,因此他的数据集也需要非常大才行梅州道教灵符网请符

GPT2 团队从 Reddit 搞来了海量的优质内容,那 GPT3 团队想获得更大的样本要从哪里来呢?开创性的行为再次出现梅州道教灵符网请符。GPT3 团队把目光转到了 Commom Crawl。这名字起得真的是直白,这群人利用其自己的网络爬虫收集了十亿级别的网页数据,并使任何人都可以免费访。Common Crawl 的创始人 Gilad Elbaz 说:“据我所知,互联网是当今最多知识的聚集体,如果能拥有如此巨大的数据,你就可以在这座数据矿藏上面建立你想要的新产品。” 这个矿大到什么程度呢?从2008年开始,这个爬虫就是按年在互联网上进行采集,你可以认为从2008年开始,Common Crawl 每年对互联网做了一次快照。这些快照存储在 Amazon S3 上,任何人都可以免费下载。

但是 Commom Crawl 既然是互联网的快照,那么内容的质量也会和互联网一样参差不齐,GPT3 团队对 Common Crawl 的处理方式很巧妙:用 GPT2 的内容为参照,从 Common Crawl 中提取有价值的信息,然后又对提取出来的数据集做了去重梅州道教灵符网请符。到此为止,就是传说中 GPT3 把整个互联网的数据做了训练。

下面就是 GPT3 包含的样本情况:

数据集

tokens数量

训练占比

Epochs elapsed when

training for 300B tokens

过滤后的Common Crawl

4100亿

60%

0.44

WebText2(Reddit)

190亿

22%

2.9

Books1

120亿

8%

1.9

Books2

550亿

8%

0.43

Wikipedia

30

3%

3.4

然后在这样的样本规模下梅州道教灵符网请符,GPT3 训练出了下面这样模型:

Model Name

参数

每一层大小

多头注意力头

头维度大小

训练的时候小批量大小

学习率

GPT3 Small

1.25亿

12

768

12

64

50万

6.0 × 10 4

GPT3 Medium

3.5亿

24

1024

16

64

50万

3.0 × 10 4

GPT3 Large

7.6亿

24

1536

16

96

50万

2.5 × 10 4

GPT3 XL

13亿

24

2048

24

128

100万

2.0 × 10 4

GPT3 2.7B

27亿

32

2560

32

80

100万

1.6 × 10 4

GPT3 6.7B

67亿

32

4096

32

18

200万

1.2 × 10 4

GPT3 13B

130亿

40

5140

40

128

200万

1.0 × 10 4

GPT3 175B or “GPT3

1750亿

96

12288

96

128

320万

0.6 × 10 4

看到这张表,是不是有一种自己在优衣库选衣服的感觉,没有最大,只有更大的尺寸在等着你梅州道教灵符网请符。很多人都感叹,GPT 重新定位了 sm all。

那么这么大的模型,要用什么设备来训练呢?GPT3 秀了下自己的钞能力:All models were trained on V100 GPU’s on part of a highbandwidth cluster provided by Microsoft梅州道教灵符网请符。这就是传说中微软老大用 Bing 团队的算力给 GPT3 团队输血的来源吧。反正 GPT3 团队的意思就是虽然我把我语言模型说的模模糊糊,但就算你完全理解了我的逻辑,但你是无论如何都得不到这样高的算力来复现 GPT3 了。你们就乖乖的用我的模型算了。

基于这样 的钞能力,最后 GPT3 团队得到一个结论:模型越来越大,但过拟合并没有严重,模型越大,学习率下减梅州道教灵符网请符

论文出自《Language Models are FewShot Learners 》

链接:

总结

最后梅州道教灵符网请符我们总结一下 GPT 的发展三阶段:

GPT1:提出了一个开创性的想法,并做了实践梅州道教灵符网请符

GPT2:提出有钱就可以做的很好梅州道教灵符网请符

GPT3:证明了如果有很多很多钱,就可以做的很惊艳梅州道教灵符网请符

微软最有价值专家(MVP)

微软最有价值专家是微软授予第三方技术专业人士的一个全球奖项梅州道教灵符网请符。30年来,世界各地的技术社区领导者,因其在线上和线下的技术社区中分享专业知识和经验而获得此奖项。

MVP是经过严格挑选的专家团队,他们代表着技术最精湛且最具智慧的人,是对社区投入极大的热情并乐于助人的专家梅州道教灵符网请符。MVP致力于通过演讲、论坛问答、创建网站、撰写博客、分享视频、开源项目、组织会议等方式来帮助他人,并最大程度地帮助微软技术社区用户使用 Microsoft 技术。

更多详情请登录官方网站:

谢谢梅州道教灵符网请符你读完了本文

喜欢可转发到朋友圈

也欢迎随时来后台跟梅州道教灵符网请符我聊天

输入“@D姐” 呼唤我哦梅州道教灵符网请符

如有转载需求梅州道教灵符网请符,可后台私信或留言,谢谢

免费测八字 今年运势 请加师父微信

免费测八字 今年运势 请加师父微信

免费看八字运势 请加师父微信: sanqingge8

寻找符咒,灵符,符咒网,道教符咒网,灵符网站,灵符网官网,购买符咒请灵符,这里有各种手绘开光符咒:财运符,财运符咒,财运亨通符咒,五路财神符咒,太岁符咒,化太岁符咒,回心转意符咒,护身符咒,文昌符咒,学业灵符符,开运符咒,转运灵符,桃花符,月老姻缘符咒,偏财符,五鬼运财符咒,化小人符咒,事业符咒,升官符咒,去病符咒,去疾符咒,健康符咒,平安符咒,夫妻和合符,情感和合符咒。


寻找符咒,灵符,符咒网,道教符咒网,灵符网站,灵符网官网,购买符咒请灵符,这里有各种手绘开光符咒:财运符,财运符咒,财运亨通符咒,五路财神符咒,太岁符咒,化太岁符咒,回心转意符咒,护身符咒,文昌符咒,学业灵符符,开运符咒,转运灵符,桃花符,月老姻缘符咒,偏财符,五鬼运财符咒,化小人符咒,事业符咒,升官符咒,去病符咒,去疾符咒,健康符咒,平安符咒,夫妻和合符,情感和合符咒。

咨询道教符咒 咨询师父微信: sanqingge8

符咒类型如下:

01.财运符-增财运补财库开运   02.太岁符-化解不利顺利度过   03. 回心符-挽回感情增缘复合  04. 护身符-辟邪镇宅转运护身   05. 学业符 -魁星点斗文昌帝君  06. 开运符-开运转运驱除霉运  07. 桃花符-桃花早到月老姻缘   08. 偏财符-五鬼运财偏财运势  09 .小人符-化解小人是非口舌  10 .事业符-事业有成无往不利  11. 去疾符-药王化疾祛病消愈  12. 健康符-身心健康得偿所愿  13. 平安符-诸事顺利健康平安  14 .和合符-夫妻情感姻缘和合   15.定制符-心有所想 专属定制


法事科仪.png01.化解太岁法事——解太岁、谢太岁       02.升官晋职法事 ——官运亨通提升政绩    03.文昌考试法事—— 开窍聪慧考试顺利    04.偿还阴债法事—— 生债阴宅逢凶化吉   05.开财门补财库—— 增加财运助旺事业       06.助种生基法事—— 病魔缠身增寿增运   07.催子受孕法事—— 生子布阵子女满堂     08.开运转运法事—— 改运天命一帆风顺    09.催财发财法事—— 偏财运势正财持久    10.化解童子法事—— 姻缘顺利仙灵护佑   11.化解小人法事—— 化解小人防人陷害      12.小儿平安法事—— 驱邪回魂活泼健康  13.超度亡灵法事—— 祭奠亲人早登极乐     14.超度宠物法事—— 人类朋友转生脱苦   15.超度婴灵法事—— 打胎坠胎消灾除难    16.祈福许愿法事—— 许愿还愿祈求祈福

咨询道教法事 咨询师父微信:sanqingge8

01.化解太岁法事——解太岁、谢太岁       02.升官晋职法事 ——官运亨通提升政绩    03.文昌考试法事—— 开窍聪慧考试顺利    04.偿还阴债法事—— 生债阴宅逢凶化吉   05.开财门补财库—— 增加财运助旺事业       06.助种生基法事—— 病魔缠身增寿增运   07.催子受孕法事—— 生子布阵子女满堂     08.开运转运法事—— 改运天命一帆风顺    09.催财发财法事—— 偏财运势正财持久    10.化解童子法事—— 姻缘顺利仙灵护佑   11.化解小人法事—— 化解小人防人陷害      12.小儿平安法事—— 驱邪回魂活泼健康  13.超度亡灵法事—— 祭奠亲人早登极乐     14.超度宠物法事—— 人类朋友转生脱苦   15.超度婴灵法事—— 打胎坠胎消灾除难    16.祈福许愿法事—— 许愿还愿祈求祈福

本文链接:https://fuzhouwang.org/index.php/post/11269.html

转载声明:本站文章中有转载或采集其他网站内容, 如有转载的文章涉及到您的权益及版权,还麻烦及时联系我们,我们将及时删除,谢谢配合。

上一篇   下一篇

相关文章