点击围观!腾讯 TAPD 助力金融行业研发提效、敏捷转型最佳实践! 了解详情
写点什么

效果逆天的通用语言模型 GPT 2.0 来了,它告诉了我们什么?

  • 2019-02-17
  • 本文字数:9892 字

    阅读完需:约 32 分钟

效果逆天的通用语言模型GPT 2.0来了,它告诉了我们什么?

2 月 15 日,OpenAI 在官博介绍了一个大规模无监督 NLP 模型:GPT 2.0,被称为“史上最强通用 NLP 模型”。该模型可以生成连贯的文本段落,刷新了 7 大数据集基准,并且能在未经预训练的情况下,完成阅读理解、问答、机器翻译等多项不同的语言建模任务。


一时间,GPT 2.0 的消息在全网刷屏,有关这一模型是否被过誉的讨论也在热烈进行中。今天这篇文章,来自新浪微博 AI Lab 的算法专家张俊林将谈一谈自己对 GPT 2.0 的一些想法。


最近朋友圈被 NLP 的技术大新闻刷屏刷得有点多,今天(2 月 15 日)中午开始又被 GPT 2.0 刷屏了,大致看了下新闻大致了解了下思路,觉得好像思路还好,但是看 GPT 2.0 那个生成的续写故事的例子确实吓了我一跳,这个效果好到出人意料。我看网上有些有才的朋友评论说:“应该让 GPT 去续写红楼梦后 40 回”,我估计高鹗听后,正在地下或者天上凝视着说这句话的朋友瑟瑟发抖(这位有才的朋友,你想到这个场景会瑟瑟发抖吗,哈哈),被人批评水平不够 100 年,本来就郁闷,结果目前还冒出一个替代者,嘿嘿。还有的朋友说,也可以让 GPT 去把那些挖坑不填坑的垃圾网络小说作品续完。我觉得把 GPT 当作垃圾文学回收站,也是个不错的主意,但是我想问的是你问过 GPT 本人的意见吗?写小说这种工作,目前 NLP 技术很明显还差得远,不过如果再发展一步的话,还真有这种可能。


我的预感,未来两年 NLP 可能会不断爆出类似的刷屏新闻,真的进入一个技术快速发展期。按理说,这是 NLP 研发者的黄金期,这种时期最容易出好的成果,但是事实上,很可能你只能作为看热闹的看客,眼看他起高楼,眼看他宴宾客,但是别人的红火与你无关。我想这种心情,昨天估计不敢刷朋友圈怕心灵创伤难以愈合的的单身狗朋友们,他们对这种类似的感受是理解最深的。那么为什么说 NLP 很可能进入快速发展期但是与你无关呢?原因我后面会说。


下午有位技术媒体的朋友问我说是不是写点看法,我觉得貌似从技术上看算是正常进展,所以写不写都行,看了论文再决定。结果一直开会开到晚上,回家找来论文仔细看了一看,再结合前几天媒体广泛传播的微软的 MT-DNN 技术,它们之间以及和 Bert 之间,是有内在联系的,所以觉得可以放一起简单谈谈看法,于是动手熬夜写了这篇。本来我春节期间写好了三篇推荐系统召回模型系列的文章,想最近先发一篇的,想了想既然 GPT 2.0 热度高,不如蹭个热度先发了,召回模型以后再慢慢陆续发出来吧。


进入正题。

GPT 2.0 到底做了什么

之前在介绍 Bert 的文章里:从 Word Embedding 到 Bert 模型—自然语言处理中的预训练技术发展史,我说 GPT 有个缺点,就是作者不太会炒作,因为它是个非常扎实的重大 NLP 进展,出生证日期显示年龄比 Bert 大,但是 Bert 哇哇坠地就引来各界慈爱的目光,和交口称赞,GPT 只能躲在无人角落里暗地泪垂,演绎了算法模型界的真正的同人不同命,冰火两重天。没想到时过不到 4 个月,GPT 2.0 就爆红,被推上打着聚光灯的华美舞台,惊艳亮相。炒作能力见长进,其实挺好,好工作其实是应该 PR 的,这样能让更多人跟进真正有价值的工作,而这会更进一步促进领域的进步和发展,形成正循环。而不是特别好的工作过度 PR,会错误地引导大量人力/时间/机器等资源投入到错误的方向,这个其实是种资源浪费。



在谈 GPT 2.0 之前,先回顾下它哥 GPT 1.0,这个之前我在介绍 Bert 模型的时候介绍过,过程参考上图,简述如下:GPT 1.0 采取预训练+FineTuning 两个阶段,它采取 Transformer 作为特征抽取器。预训练阶段采用“单向语言模型”作为训练任务,把语言知识编码到 Transformer 里。第二阶段,在第一阶段训练好的模型基础上,通过 Finetuning 来做具体的 NLP 任务。GPT 1.0 本身效果就很好,不过之前说过,因为不会 PR,所以默默无闻,直到 Bert 爆红后,才被人偶尔提起。从大框架上来说,Bert 基本就是 GPT 1.0 的结构,除了预训练阶段采取的是“双向语言模型”之外,它们并没什么本质差异,其它的技术差异都是细枝末节,不影响大局,基本可忽略。



那么 GPT 2.0 本质上是怎么做的呢?最大的改进是什么?其实几句话就能说明白,就是上图写的内容。


它的大框架其实还是 GPT 1.0 的框架,但是把第二阶段的 Finetuning 做有监督地下游 NLP 任务,换成了无监督地做下游任务,为啥这么做?后面会讲。我相信如果你理解 GPT 1.0 或者 Bert,那么是非常容易理解 GPT 2.0 的创新点在哪里的。


那么它最大的改进在哪里?本质上,GPT2.0 选择了这么一条路来强化 Bert 或者是强化 GPT 1.0 的第一个预训练阶段:就是说首先把 Transformer 模型参数扩容,常规的 Transformer Big 包含 24 个叠加的 Block,就是说这个楼层有 24 层高,GPT 2.0 大干快上,加班加点,把楼层连夜盖到了 48 层,高了一倍,参数规模 15 亿,这个还是很壮观的,目前貌似还没有看到过 Transformer 楼层有这么高的模型。那么,为什么要扩容呢?这个只是手段,不是目的。真正的目的是:GPT 2.0 准备用更多的训练数据来做预训练,更大的模型,更多的参数,意味着更高的模型容量,所以先扩容,免得 Transformer 楼层不够多的房间(模型容量)容纳不下过多的住户(就是 NLP 知识)。


水库扩容之后,我们就可以开闸放水了。本质上 GPT 2.0 主要做的是:找更大数量的无监督训练数据,这个其实好办,反正是无监督的,网上有的是,估计未来有一天我写的这篇文章也能住进 GPT 2.0 的 Transformer 客房里。所以,GPT2.0 找了 800 万互联网网页作为语言模型的训练数据,它们被称为 WebText。当然,光量大还不够,互联网网页还有个好处,覆盖的主题范围非常广,800 万网页,主题估计五花八门,你能想到的内容,除了国家禁止传播的黄赌毒,估计在里面都能找到。这带来另外一个好处:这样训练出来的语言模型,通用性好,覆盖几乎任何领域的内容,这意味着它可以用于任意领域的下游任务,有点像图像领域的 Imagenet 的意思。GPT 2.0 论文其实更强调训练数据的通用性强这点。当然,除了量大通用性强外,数据质量也很重要,高质量的数据必然包含更好的语言及人类知识,所以 GPT 2.0 还做了数据质量筛选,过滤出高质量的网页内容来。


之后,GPT 2.0 用这些网页做“单向语言模型”,我这里强调下,仍然是类似 GPT 1.0 的单向语言模型,而不是 Bert 的双向语言模型任务,后面我会单独讲下对这个事情的看法。这样 GPT 就可以训练出一个更好的预训练模型了,尽管 GPT 2.0 没有像 Bert 或者 1.0 版本一样,拿这个第一阶段的预训练模型有监督地去做第二阶段的 Finetuning 任务,而是选择了无监督地去做下游任务,尽管这看着和 Bert 差异很大,其实这点并不重要,甚至你都可以忽略掉这个过程(当然,最吸引眼球的是第二个过程),要记住对于 GPT 2.0 来说最重要的其实是第一个阶段。


其实,如果你不是非常专业的前沿 NLP 研究者的话,了解 GPT 2.0,这就足够了,这即使不是 GPT 2.0 的百分之百,也有它的百分之 80 了。至于它提到的对 Transformer 结构的微调,以及 BPE 输入方式,我相信都是不太关键的改动,应该不影响大局。


如果你细致思考的话,上面讲述的 GPT 流程,其实隐含了三个问题。


第一问题是:为什么 GPT 2.0 第二阶段不通过 Finetuning 去有监督地做下游任务呢?


其实 GPT 的作者是想通过这种方式说明:你看,通过这种改造,GPT 2.0 的 Transformer 学到了多少知识呀,通用性多强啊,做下游任务的时候,包括语言模型,QA,摘要,机器翻译这么多任务,即使不用有监督的方式,直接拿第一阶段用语言模型训练好的模型,都能比较好地做这些任务(从无监督的角度比,效果确实挺好,但是跟目前有监督的方法比很多效果差的还远,这也正常)。GPT 作者心里想对你说的是:兄 dei(说起这个流行词,我就有点哭笑不得,因为它让我想起一件往事:我那 7 岁的娃今年春节期间竟然对她妈妈说:兄 dei,给我买个玩具小狗可好?),我就问你神奇不神奇?惊喜不惊喜?嗯,其它任务其实不惊奇,但是能做机器翻译这个确实有点意思,不展开讲了,建议机器翻译的实验部分可以好好看看想想为什么,论文里说了,这其实是个事故和意外,哈哈。


所以,第一个问题的答案是:无监督地去做很多第二阶段的任务,只是 GPT 作者想说明在第一阶段 Transformer 学到了很多通用的包含各个领域的知识,第二部分各种实验是对这点的例证,如此而已。这是为何说第二阶段其实不重要,因为它不是论文的中心思想,而是说明中心思想的例子。


下面谈隐含的第二个问题,第二个问题其实比较相对有那么点意思,什么问题呢,就是:“在预训练阶段,为什么 GPT 2.0 仍然固执地用单向语言模型,而不是双向语言模型呢?”你可以想想这背后可能是什么原因。关于这点,我讲讲我的看法,当然你别太严肃地看我下面的说法,就当是个我编撰的科技版八卦,今天不是“情人节后第二天纪念日”吗?我开个玩笑调节下气氛,哈哈。技术科普没必要老板着脸推公式,是吧,反正这是我的理念。



我的不太准的第六感隐隐约约地告诉我:貌似 GPT 的作者们,对于 GPT 作为本来该火的前辈模型,结果默默无闻,而后来居上的 Bert 爆红,可能对这点有点意见?因为它们两者仅有的大的不同就是 GPT 用的单向语言模型,Bert 用的双向语言模型做预训练。所以感觉他们在做 GPT 2.0 的时候憋着一口气。为啥这么讲呢?因为 Bert 在论文的实验部分已经证明了:Bert 的效果比 GPT 好主要归因于这个双向语言模型(参考上图 Bert 的实验结果,去掉双向语言模型的对比模型其实就等价于 GPT 1.0)。按理说,正常的思考模式,后面的改进模型应该采纳双向语言模型,原因很简单,因为它比单向的效果好。


但是,GPT 2.0 仍然固执地选择单向语言模型(也许 GPT 作者只想强调他们想做语言模型这个事情,毕竟生成内容后续单词这种模式,单向语言模型更方便,这估计是真正原因。不过既然我已经开始编八卦了,就索性编完,毕竟我不是个轻言放弃的人,哈哈),貌似作者们选择了另外一种打算赶超 Bert 的方式,就是提升模型参数容量和增加训练数据的数量,选了这么条路。我估计意思是说,Bert 你别得意得太早,尽管我用单向语言模型,一样能干翻你。GPT 2.0 的论文在末尾留了个引子,说打算试试看 GPT 2.0 的单向语言模型是不是就比 Bert 的双向语言模型差。估计他们还会推出 GPT 3.0,但是肯定还是单向语言模型,就是说人家不服气,要靠其它方法用单向语言模型超过 Bert。嘿嘿,当然,在强调一下,这是我编的八卦,或者是臆断,未必是事实,但是我死活想不明白为啥他们做下游任务的时候不用双向语言模型,想来想去貌似只有这个解释最合理,哈哈,这是我的小人之心和玩笑话,别当真。


下面严肃起来,不过我的感觉是,如果 GPT 2.0 采取双向语言模型,然后再把目前增加训练数据质量和数量的路子搭配起来,估计八九成做下游任务是能超过 Bert 的效果的,那为啥不这么做呢?觉得简单扩充数据,这么做创新性不够酷,所以走了无监督做下游任务的不寻常的路子?我估计后面 GPT 3.0 出来我们会知道真正的答案。当然,话讲回来,假设 Bert 也在第一阶段采取类似的扩充数据的改进方式,我相信 GPT 3.0 如果仍然采取单向语言模型的话,很大概率估计还是 Bert 赢。


最后是隐含的第三个问题,第三个问题也很有意思,这个问题其实跟第一个问题有点关系,问题是:“GPT 2.0 既然第二阶段是无监督的任务,而它不做 Finetuning,那么你训练好一个语言模型,它当然会根据输入的一句话,给你蹦出后面可能紧跟那个单词,这是标准的语言模型过程,这个正常。但是如果这时候让它去做一个文本摘要任务,它怎么知道它现在在做什么事情呢,根据输入,应该输出什么东西呢?”就是这么个问题,你不细想可能容易忽略,但是细想其实挺有意思。


其实 GPT 2.0 在做下游无监督任务的时候,给定输入(对于不同类型的输入,加入一些引导字符,引导 GPT 正确地预测目标,比如如果做摘要,在输入时候加入“TL:DR”引导字符串),它的输出跟语言模型的输出是一样的,就是蹦出一个单词。那么问题来了:对于比如摘要任务,我们期待的输出结果是一句话或者几句话,你给我一个单词,有点太小气,那该怎么办?很简单,继续一个字一个字往出蹦,按照这些字从系统里蹦出来的时间顺序连起来,就是你想要的摘要结果,这种所有任务采取相同的往出蹦字的输出模式也是有点意思的。就是说,GPT2.0 给出了一种新颖的生成式任务的做法,就是一个字一个字往出蹦,然后拼接出输出内容作为翻译结果或者摘要结果。传统的 NLP 网络的输出模式一般需要有个序列的产生结构的,而 GPT 2.0 完全是语言模型的产生结果方式:一个字一个字往出蹦,没有输出的序列结构。


上面内容应该就是我觉得关于 GPT 2.0,最值得了解的部分以及它的核心思路和思想了。


我的感觉,GPT 2.0 作为语言模型,用来生成自然语言句子或者段落的能力特别强,要理解有多强,看下面的例子就知道了:



参考上图,系统提示出一个故事开始的几句话,然后后面的内容就靠 GPT2.0 的语言模型一个字一个字往出蹦,蹦出很多字后,形成后它补充的故事,如果你英文还可以的话,建议还是看看里面的内容。文章开始说我看了 GPT 的例子吓了一跳,就是说的这个例子。无论是语法,可读性,语义一致性,都是很强的,这个超出我对目前技术的期待。也许未来我们会拥有 GPT 版莎士比亚,也未可知,我对此很期待。


归纳一下,我觉得,我们可以从两个不同的角度来理解 GPT 2.0。


一个角度是把它看作采取类似 Elmo/GPT/Bert 的两阶段模型解决 NLP 任务的一种后续改进策略,这种策略可以用来持续优化第一阶段的预训练过程。毕竟目前 GPT 2.0 还只采用了 800 万的网页。你说用一亿网页去训练可以吗?理论上看是可以的,方法都是现成的,就是 Bert 那种方法,可能连改都不用改。但是实际上要看你自己或者公司的账户余额,你数数后面有几个零,你没数我都遥远地隔着屏幕听到了你的叹息声了,是吧?


当然,从 GPT 2.0 的做法和结果来看,可能意味着这一点是可行的:后面我们也许可以通过现在的 Transformer 架构,持续增加高质量网页数量,就能够不断让 Transformer 学到更多的知识,继而进一步持续对下游任务有更高的提升。这是一条简单有效的技术发展路径。这也是为何我在开头说,隐隐地预感到未来两年我们会持续看到不同的 NLP 任务记录被刷新,以及不断爆出的新纪录。为什么?很简单,加大预训练数据量很可能就能做到这点。是否真的会是这样,我们拭目以待,我对此也很有期待。当然,你会问:这么做的收益有边界吗,如果无限增加数据,就能持续提升任务效果,没有终点吗?事实肯定不是这样,如果真是这样那真是个天大的好消息,而这不可能,不过话说回来,但是目前 GPT 只用了 800 万网页,这肯定还只是一个开始,距离这种优化模式的天花板还远。


那么另外一个问题是:GPT 2.0 和 Bert 两阶段模型是什么关系?其实答案上面都说了,GPT 2.0 其实进一步验证了 Bert 这种两阶段是个非常有效的无监督 NLP 语言知识编码方法。进一步在哪里?它说明了第一个阶段的预训练过程,如果采用更高质量的数据,采用更宽泛的数据(Web 数据量大了估计包含任何你能想到的领域),采用更大量的数据(WebText,800 万网页),Transformer 采用更复杂的模型(最大的 GPT2.0 模型是 Transformer 的两倍层深),那么在 Transformer 里能学会更多更好的 NLP 的通用知识。为什么是通用的?因为第二阶段不做任何 fine-tuning 就能达到更好的效果,而且是各种任务,说明通用性好,通用性好说明了学到了各种类型的语言知识;而这无疑,如果我们第二阶段仍然采取 Finetuning,对下游任务的提升效果是可以很乐观地期待的。


另外一个角度也可以把 GPT 2.0 看成一个效果特别好的语言模型,可以用它来做语言生成类任务,比如摘要,QA 这种,再比如给个故事的开头,让它给你写完后面的情节,目前看它的效果出奇的好。当然,仅仅靠拼数据量做纯语言模型能让机器产生情节合理的文章吗?我觉得可能性不太大,GPT 2.0 的生成内容质量好,很可能只是它的记忆能力强导致的,我估计可能是它在把它从大量网页中记忆的语言片段往外直接抛出来的,不代表它真有编写合理故事的能力。为什么 GPT 2.0 通过语言模型能够在 QA 任务中能够不做训练,回答正确一定比例的问题?我觉得很可能是因为预训练数据集合太大,又比较宽泛,这些问题及答案在网页里面很接近的地方出现过。而看它的实验部分,起码 QA 任务确实也是这样的。


但是不论如何,GPT 2.0 的结果起码告诉我们,走这条路子对于产生高质量的生成文章是很有帮助的,我觉得起码对于生成句子的流畅性,可读性这些语言表层的方面有直接帮助,但是涉及到情节,这个估计就纯粹靠蒙了。但是写到这句话的时候,我突然想到了一个改进它的思路,让它能够受到你想要的情节 context 的约束去生成内容,有点跑题,就不展开讲了。我觉得对于 GPT 2.0 的改进方向来说,如何加入情节约束,产生特别好的生成文章,这个是个很有前途的方向。而在这点上,GPT 2.0 的贡献是给我们指出了一条路,就是 Transformer+刷数据量,省心省力费机器的一条路。另外,Transformer 之前在语言模型上通常做不过 RNN,虽然有后续研究表明它可以达到 RNN 类似的效果,但是 GPT 2.0 无疑进一步突破了这个障碍,为 Transformer 的进一步攻城略地打下了坚实的基础。

Bert 的另外一种改进模式:进一步的多任务预训练

上面介绍的是 GPT 2.0 的改进模式,如上归纳,它采取的大的策略是:优化 Bert 的第一个预训练阶段,方向是扩充数据数量,提升数据质量,增强通用性,追求的是通过做大来做强。那么如果让你来优化 Bert 模型,除了这种无监督模式地把训练数据做大,还有其它模式吗?


当然有,你这么想这个问题:既然 Bert 的第一个阶段能够无监督模式地把训练数据做大,我们知道,机器学习里面还有有监督学习,NLP 任务里也有不少有监督任务是有训练数据的,这些数据能不能用进来改善 Bert 第一阶段的那个学习各种知识的 Transformer 呢?肯定是可以的呀,所以很自然的一个想法是:把 Bert 第一阶段改成多任务学习的训练过程,这样就可以把很多 NLP 任务的有监督训练数据里包含的知识引入到 Transformer 中了。



这种做法一个典型的模型是最近微软推出的 MT-DNN,改进思路就如上所述,可以参考上图示意。核心思想如上,结构上底层就是标准的 Bert Transformer,在上层针对不同任务构造不同优化目标,所有不同上层任务共享底层 Transformer 参数,这样就强迫 Transformer 通过预训练做很多 NLP 任务,来学会新的知识,并编码到 Transformer 的参数中。


对 Bert 的多任务改造其实是个非常自然的 Bert 的拓展思路,因为本来原始版本的 Bert 在预训练的时候就是多任务过程,包括语言模型以及 next-sentence 预测两个任务。新的多任务的目标是进一步拓展任务数量,以此来进行模型优化。


这种改进在效果上也有直接的效果提升,在 11 项 NLP 任务中 9 项超过了原始版本的 Bert。


我觉得如果你是做应用,这条路也可以走得更远一些,引入更多的有监督 NLP 任务,集成更多的知识,无疑这么做是有好处的。

NLP 领域的一些发展趋势

最后,我结合最近两个月一些热门技术新闻的做法,顺便再谈谈我的一些关于 NLP 技术趋势的看法,有些观点之前提过,再强调一下,有些观点比较细,算是一个归纳吧。


目前可以看出,从 NLP 主流模型进化的角度,有以下几个趋势:


第一个趋势:采取 Bert 的两阶段模式,Bert 虽然还没多大岁数,还不到一岁,但是最近两个月,目前各种 NLP 评测刷榜的基本都是它。据我所知很多具备一定规模的互联网公司已经都开始在评估部署 Bert 模型了,微博也用 Bert 大幅度改进了标签分类的精度,目前正在其它各种 NLP 应用任务进一步推广。没办法,Bert 效果确实好,你不得不服。所以这个趋势已经开始彰显了;


第二个趋势:特征抽取器采用 Transformer,这个之前在做 NLP 特征抽取器的文章里,我说明过原因,根本原因是效果比 CNN 和 RNN 好,至于它们之间的比较,可以参考之前的文章:放弃幻想,全面拥抱 Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较。当然,Transformer 也有几个重点改进方向,这个后面找机会详细说一下。


第三个趋势,从最近的几个工作,我们可以看出 Bert 两阶段模式中,第一个预训练阶段的两种改进方向:当然基础是越来越深(意味着模型参数容量大,各种知识和数据?就是死记硬背我也要记住你,大致就是这个意思)的 Transformer 作为特征抽取器;第一阶段的改进工作花开两只:


一种是强调通用性好以及规模大。加入越来越多高质量的各种类型的无监督数据,GPT 2.0 指出了个明路,就是净化的高质量网页,这个跟无限也差不多了,就看你舍得花多少钱去训练模型。通俗点说,就是靠数据规模和金钱堆出来的。它的最明显好处是通用性好,训练好后什么场合都适用。但是因为单纯做纯语言模型任务的话,学习效率低一些,只能靠量大取胜,这是种“瘦死的骆驼比马大”的策略;


第二种是通过多任务训练,加入各种新型的 NLP 任务数据,它的好处是有监督,能够有针对性的把任务相关的知识编码到网络参数里,所以明显的好处是学习目标明确,学习效率高;而对应的缺点是 NLP 的具体有监督任务,往往训练数据量少,于是包含的知识点少;而且有点偏科,学到的知识通用性不强。


当然,我相信,我们很快会看到两者的合流,就是同时用超大规模的无监督语言模型+各种花样的有监督 NLP 多任务训练。这很正常,因为其实语言模型也是多任务的一种,本来 Bert 原始的预训练过程就是多任务的:一个是语言模型,一个是 next sentence 预测。多任务无非是把 Bert 的两个任务拓展到更多任务中去。所以两者本来就是从 Bert 很自然能够引出来的自然而然,又一体化的事情。


那么好奇的你问了:这种模式的发展尽头在哪里?


我指指银行的方向:那就是你这个问题的答案。当然,我不是在唆使你去抢银行啊,别会错意,否则迎接你的不是美酒,而会是手铐和猎枪。


第四个趋势:GPT2.0 其实真正能够吸引人眼球的是它生成的高质量内容,让人印象深刻。从 GPT 2.0 的结果看,这种采取超深层 Transformer+更大量的网页数据去做更好的语言模型,并进而做各种生成式任务,看样子是有前途的。当然,我前面提到,估计要引入情节规划的约束,这个事情才能真正做好。

玩法的转向

上面简单谈谈我个人认为的几个技术趋势,其实最近的一些技术进展,隐隐地透漏出 NLP 研发模式的一个转向,那么是怎样的一个转向呢?


我们从 Bert/GPT 2.0 也可以看出 NLP 研发模式在将来的一个发展趋势:充分利用更大容量的模型,利用无限的无监督的人写好的文章,去编码其中蕴含的语言学知识,以及,人类的知识。很明显 NLP 已经在往这个方向转向,而这背后隐藏着什么?超级昂贵的 GPU 计算时间,超大规模 GPU 机器学习集群,超长的模型训练过程。归根结底一句话:靠烧钱。靠烧钱背后又有两层意思,一个意思是你没钱就玩不起,就会被清除出 NLP 的竞赛场;另外一个意思是:即使你们公司有钱,但是钱让不让你花在这上面?当然这是另外一个问题。


总而言之,这说明 NLP 值得一提的技术进展的玩法已经变了,以后游戏规则变成了:土豪大科技公司靠暴力上数据规模,上 GPU 或者 TPU 集群,训练好预训练模型发布出来,不断刷出大新闻。通过暴力美学横扫一切,这是土豪端的玩法。而对于大多数人来说,你能做的是在别人放出来的预训练模型上做小修正或者刷应用或者刷各种榜单,逐步走向了应用人员的方向,这是大多数 NLP 从业者未来几年要面对的 dilemma。原因很简单,如果上数据能够推进 NLP 效果,这其实是非常好的事情,这意味着我们会进入技术发展快车道,因为目标和手段非常简单明确,但是这背后的潜台词技术:目前变成了已经进入烧钱比进展的时代了,而很明显,在未来的 1 到 2 年里,类似 Google/Facebook 这种财大气粗而且创始人具备极端的科学热情的的土豪科技公司,会积累越来越明显的军备竞赛优势,我们会看到未来这些公司不断爆出在各个 NLP 应用领域的各种刷新记录,及更巨无霸的新模型的出现。


这对于身处公司里的同事们,其实是个好事情,因为我们本身就是做应用的,追求短平快,简单有效最好不过,但是这对学术圈来说,意味着什么呢?这个问题值得您深入思考。


好了,今天啰嗦到这里,就此别过。


对了,忘了提了,本文作者栏那个名字其实是个笔名,隐藏在幕后的真实作者是:GPT 2.0。

作者简介

张俊林,中国中文信息学会理事,中科院软件所博士。目前在新浪微博 AI Lab 担任资深算法专家。在此之前,张俊林曾经在阿里巴巴任资深技术专家并负责新技术团队,以及在百度和用友担任技术经理及技术总监等职务。同时他是技术书籍《这就是搜索引擎:核心技术详解》(该书荣获全国第十二届优秀图书奖)、《大数据日知录:架构与算法》的作者。



2019-02-17 11:107967

评论

发布
暂无评论
发现更多内容

保姆级人工智能学习成长路径

herosunly

AI 引航计划 内容合集

架构实战营作业 -- 模块四

冬瓜茶

010云原生之可观测架构模式

穿过生命散发芬芳

云原生 10月月更

8. 这篇博客,把python从数值到模块、到字典、到元组,真python入门复习教程通览

梦想橡皮擦

10月月更

基于深度学习的医学图像分割(一)

cv君

AI 引航计划

自定义Vue脚手架模板之:Vue-Cli源码分析

Brave

源码 vue cli 10月月更

Form Schema 定义详解

全象云低代码

大前端 低代码平台 JSON Schema

何时适合进行自动化测试?(上)

禅道项目管理

自动化测试

从头开始(概率)学HMM:精讲第五课-EM算法

herosunly

AI 引航计划 内容合集

Interrupted Exception异常可能没你想的那么简单!

华为云开发者联盟

线程 JVM 高并发 并发 java

OpenKruise 如何实现应用的可用性防护?

阿里巴巴云原生

阿里云 开源 云原生 OpenKruise

【设计模式】第一篇 - 组合模式

Brave

组合模式 10月月更

TensorFlow by GoogleCNN识别猫和狗, 过拟合优化 易筋 ARTS 打卡 Week 70

John(易筋)

ARTS 打卡计划

【Flutter 专题】35 图解自定义 View 之 Canvas (三)

阿策小和尚

Flutter 小菜 0 基础学习 Flutter Android 小菜鸟 10月月更

disruptor在数据同步场景下的应用实战

编程 架构 面试 后端

mysql cpu占用超过100%

hasWhere

🐬【MySQL技术专题】该换换你的数据库版本了,让我们一同迎接8.0的到来哦!(初探篇)

洛神灬殇

MySQL 运维 MySQL8.0 MySQL 数据库 10月月更

定制个机器人帮你和Ta聊天

万俊峰Kevin

golang chatbot 聊天机器人 微信聊天

Vue进阶(幺贰柒):插槽详解

No Silver Bullet

Vue 插槽 10月月更

智慧火电扭转传统运作模式,3D可视化助力双碳政策疾行

一只数据鲸鱼

数据可视化 智慧能源 火力发电 智慧火电 火电厂

源码 | 为金融场景而生的数据类型:Numeric

RadonDB

数据库 postgresql

仁兄,可曾听闻OpenVINO

cv君

AI 引航计划

VSCode设置Python的unittest测试

陈磊@Criss

业界首个机密计算容器运行时—Inclavare Containers正式进入CNCF!

阿里巴巴云原生

阿里云 容器 云原生

ERP对你有帮助吗?ERP是什么时候开始出现的?

低代码小观

管理 企业 企业管理 运营管理 企业管理系统

【布隆过滤】大数据+查重过滤+爬虫领域精选算法

cv君

AI 引航计划

从头开始(概率)学HMM:精讲第四课-预测问题(维特比算法)

herosunly

AI 引航计划 内容合集

【LeetCode】重复的DNA序列Java题解

Albert

算法 LeetCode 10月月更

为了减少代码复杂度,我将if-else升级为面向状态编程

华为云开发者联盟

编程 复杂度 面向状态编程 if-else

netty系列之:使用netty搭建websocket客户端

程序那些事

Java Netty websocket 程序那些事

第 12 章 -《Linux 一学就会》-重定向和文件的查找

学神来啦

云计算 Linux 运维 linux学习

效果逆天的通用语言模型GPT 2.0来了,它告诉了我们什么?_AI_张俊林_InfoQ精选文章