万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
ChatGPT掀起的NLP大语言模型热浪,不仅将各家科技巨头和独角兽们推向风口浪尖,在它背后的神经网络也被纷纷热议。但实际上,除了神经网络之外,知识图谱在AI的发展历程中也被寄予厚望。自然语言处理是如何伴随人工智能各个流派不断发展、沉淀,直至爆发的?本文作者将带来他的思考。作者 | 王文广出品 | 新程序员自ChatGPT推出以来,不仅业内津津乐道并纷纷赞叹自然语言处理(Natural Language Processing, NLP)大模型的魔力,更有探讨通用人工智能(Artificial general intelligence,AGI)的奇点来临。有报道说Google CEO Sundar Pichai发出红色警报(Red code)并促使了谷歌创始人佩奇与布林的回归,以避免受到颠覆性的影响[1][2][3]。同时,根据路透社的报道,ChatGPT发布仅两个月就有1亿用户参与狂欢,成为有史以来用户增长最快的产品[4]。本文以ChatGPT为契机,介绍飞速发展的自然语言处理技术(如图1所示)。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图1 ChatGPT引发 Google“红色警报” [1][2][3]从机器翻译到ChatGPT:自然语言处理的进化自然语言处理的历史可以追溯到1949年,恰好与共和国同龄。但是由香农的学生、数学家Warren Weaver发布的有关机器翻译的研讨备忘录被认为是自然语言处理的起点,比1956年达特茅斯会议提出“人工智能(Artificial Intelligence,AI)” 的概念还略早一些。二十世纪五、六十年代是自然语言处理发展的第一阶段,致力于通过词典、生成语法(图2)和形式语言来研究自然语言,奠定了自然语言处理技术的基础,并使得人们认识到了计算对于语言的重要意义。这个阶段的代表性的成果有1954年自动翻译(俄语到英语)的“Georgetown–IBM实验”,诺姆·乔姆斯基(Noam Chomsky)于1955年提交的博士论文《变换分析(Transformational Analysis)》和1957年出版的著作《句法结构(Syntactic Structures)》等。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图2 句法分析示例,来自《知识图谱:认知智能理论与实战》图4-5,P149[6]在二十世纪六、七十年代,对话系统得到了发展,比如SHRDLU、LUNAR和ELIZA(图3)。麻省理工学院的SHRDLU采用句法分析与“启发式理解器(heuristic understander)”相结合的方法来理解语言并做出响应。LUNAR科学自然语言信息系统(Lunar Sciences Natural Language Information System)则试图通过英语对话的方式来帮助科学家们便捷地从阿帕网(ARPA net)获取信息,这倒像是当前爆火的ChatGPT雏形。ELIZA是那时对话系统的集大成者,集成了关键词识别(图4)、最小上下文挖掘、模式匹配和脚本编辑等功能[5]。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图3 ELIZA对话系统,摘自维基百科ELIZA词条
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图4 ELIZA系统中关键词挖掘的流程图[5]随着自然语言处理任务愈加复杂,人们认识到知识的缺乏会导致在复杂任务上难以为继,由此知识驱动人工智能逐渐在二十世纪七、八十年代兴起。语义网络(Semantic Network)和本体(Ontology)是当时研究的热点,其目的是将知识表示成机器能够理解和使用的形式,并最终发展为现在的知识图谱[6]。在这个阶段,WordNet、CYC等大量本体库被构建,基于本体和逻辑的自然语言处理系统是研究热点。进入二十世纪末二十一世纪初,人们认识到符号方法存在一些问题,比如试图让逻辑与知识覆盖智能的全部方面几乎是不可完成的任务。统计自然语言处理(Statistical NLP)由此兴起并逐渐成为语言建模的核心,其基本理念是将语言处理视为噪声信道信息传输,并通过给出每个消息的观测输出概率来表征传输,从而进行语言建模。相比于符号方法,统计方法灵活性更强,在大量语料支撑下能获得更优的效果。在统计语言建模中,互信息(Mutual Information)可以用于词汇关系的研究,N元语法(N-Gram)模型是典型的语言模型之一,最大似然准则用于解决语言建模的稀疏问题,浅层神经网络也早早就应用于语言建模,隐马尔可夫模型(Hidden Markov Model,HMM)和条件随机场(Conditional Random Fields ,CRF)(图5)是这个阶段的扛把子。在搜索引擎的推动下,统计自然语言处理在词法分析、机器翻译、序列标注和语音识别等任务中广泛使用。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图5 条件随机场,来自《知识图谱:认知智能理论与实战》图3-8,P104[6]特别地,从这个阶段开始,中文自然语言处理兴起,中国的机构紧紧跟上了人工智能发展的潮流。由于中文分词、词性标注和句法分析等工作与英语等西方语言有着很大的不同,许多针对中文语言处理的方法被深入研究并在推动自然语言处理的发展中发挥着巨大作用。2006年起,深度学习开始流行,并在人工智能的各个细分领域“大杀四方”,获得了非凡的成就,自然语言处理也开始使用深度学习的方法。随着2013年Word2vec的出现,词汇的稠密向量表示展示出强大的语义表示能力,为自然语言处理广泛使用深度学习方法铺平了道路。从现在来看,Word2vec也是现今预训练大模型的“婴儿”时期。随后,在循环神经网络(Recurrent Neural Network,RNN)、长短期记忆网络(Long Short-Term Memory,LSTM)、注意力机制、卷积神经网络(Convolutional Neural Network,CNN)、递归神经网络(Recursive Neural Tensor Network)等都被用于构建语言模型,并在句子分类、机器翻译、情感分析、文本摘要、问答系统、实体抽取、关系抽取、事件分析等任务中取得了巨大的成功。2017年发布的变换器网络(Transformer)[7]极大地改变了人工智能各细分领域所使用的方法,并发展成为今天几乎所有人工智能任务的基本模型。变换器网络基于自注意力(self-attention)机制,支持并行训练模型,为大规模预训练模型打下坚实的基础。自此,自然语言处理开启了一种新的范式,并极大地推进了语言建模和语义理解,成就了今天爆火出圈的 ChatGPT,并让人们能够自信地开始探讨通用人工智能(Artificial General Intelligence,AGI)。BERT & GPT的基础:变换器网络变换器网络是2017年Google在论文《Attention Is All You Need》[7]中提出的一种序列到序列(Sequence to sequence, seq2seq)的深度神经网络架构,其架构如图6所示。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图6 变换器网络架构[7]该网络在当时并未引起轰动,仅仅如蝴蝶扇动了几下翅膀。但随着时间的推移却引发了蝴蝶效应,最终掀起了自然语言处理乃至人工智能的海啸。限于篇幅,这里简要介绍变换器网络的重要特点。变换器网络完全依赖于注意力机制,支持极大的并行化。如图6所示,变换器网络由两部分组成,左边是编码部门,有N个编码器组成;右边是解码部分,由N个解码器组成。编码部分将输入序列(文本)进行编码,解码部分以自回归的方法不断解码下一个词元,最终完成从序列到序列的变换并输出。图7展示了一个中文到英文翻译的序列到序列的实例——将中文“《知识图谱:认知智能理论与实战》是一本人工智能必看书籍”翻译为英文“Knowledge Graph: Theory and Practice of Cognitive Intelligence is a must read book on AI.”。翻译也是最典型的序列到序列的语言任务,事实上也正是这个任务在1949年开启了自然语言处理这门学科,同时在变换器网络的论文中,用的评测也正是翻译任务。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图7 用变换器网络进行中译英的实例变换器网络的最大创新是完全使用多头自注意力机制(Multi-Head Self-Attention Mechanism,其架构如图8所示)。变换器网络的编码器和解码器都是用了同样的多头自注意力结构,有所不同的是,编码器中,自注意力是双向的,而解码器中,自注意力只允许关注输出序列中较早的位置。如图8的左边图所示,解码器的自注意力层在自注意力计算的 softmax 步骤之前设置为-inf来屏蔽(mask)未来位置,即图中标签为“Mask(opt.)”的框所标识的。这也正是图6的解码器中被称为“Masked Multi-Head Attention”的原由。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图8 多头自注意力机制[7]多头自注意力机制的核心就是自注意力。图9是自注意力的一个实例,直观地理解,自注意力就是模型在处理当前输入序列的某个词元与该序列其他词元的语义相关性。不同的“头”关注了不同维度/方面的语义。图9示例了“今”字与同一输入序列(句子)的其他字的语义相关性,不同颜色表示了不同的“头”( 顶部色块表示了不同的“头”的标识),而颜色的深浅表示了语义相关性的强弱。在这个例子中,“今”字在有多个“注意力头”最关注了“古”字,而在另一个“注意力头”则最关注“魂”字,还有两个“注意力头”最关注了“的”字。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图9 自注意力实例《知识图谱:认知智能理论与实战》图3-15(P124)[6]值得一提的是,变换器网络是近5年自然语言处理乃至全部人工智能高速发展的最大功臣!近年来叱咤风云的BERT就是以变换器网络的编码器为基础的,而 GPT 则是以其解码器为基础的。NLP奋发五载由于变换器网络的出现,大语言模型的兴起,以及多种机器学习范式的融合,近五年自然语言处理有了极大的发展。从现在来看,这个起点当属2018年ELMo、GPT和BERT的出现。特别是,BERT通过巨量语料所学习出来的大规模预训练模型,不仅学会了上下文信息,还学会了语法、语义和语用等,乃至很好地学会部分领域知识。BERT在预训练模型之上,针对特定任务进行微调训练,在十多个自然语言处理任务的评测中遥遥领先,并在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人成绩,两个衡量指标上都首次并全面超越人类。由于BERT的惊人表现,自然语言处理由此开启了新时代,在此后的五年中奋发进取,不断增强语言理解与生成的能力,最终出现了去年年底爆火出圈的ChatGPT,并引发了通用人工智能即将到来的激烈探讨。下面从三个维度来介绍自然语言处理的奋进五年——大模型的突飞猛进,算法的融会贯通,以及应用的百花齐放。大模型的突飞猛进图10展示了自2018年至今具有一定影响力的大模型,其中横轴是模型发布时间(论文发表时间或模型发布时间的较早者),纵轴是模型参数的数量(单位是百万,坐标轴是底为10的对数坐标轴),名字为黑色字体的是国外机构发布的大模型,红色字体的是国内机构发布的大模型。从图10可以看到,这五年,预训练大语言模型的参数规模从1亿到1万亿的“野蛮”增长,增长速度几乎是每年翻10倍。这个每年翻10倍的模型增长规律,被称为“智能时代的摩尔定律”。深入分析大模型的情况,总结有两方面内容:
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图10 自然语言大模型的奋进五载机构方面,Google和Deepmind发布了BERT、T5、Gopher、PaLM、GaLM、Switch等等大模型,模型的参数规模从1亿增长到1万亿;OpenAI和微软则发布了GPT、GPT-2、GPT-3、InstructGPT、Turing-NLG 和 M-Turing-NLG等等大模型,模型的参数规模从1亿增长到5000亿;百度发布了文心(ERNIE)系列,包括 ERNIE,ERNIE2.0,ERNIE3.0,ERNIE 3.0-Titan,参数规模从3亿增长到2600亿。总体来说,随着模型的增长,有能力训练和发布大模型的在减少。除了上面提到的几家之外,其他的还有芯片大厂Nvidia靠充足的算力,大力出奇迹,国内的智源研究院和鹏程实验室等机构也发布了悟道、盘古等大模型,表现不俗。大模型成本高昂,时间成本和经济成本都巨大。以模型参数为1750亿的GPT-3为例,用于训练模型的原始语料文本超过100TB(压缩包为45TB),包含了网页、书籍、英文维基百科等。原始语料文本经过处理后,形成了超过5000亿个词元(西方语言的词,中文的字等)的训练语料。GPT-3模型的训练和评估采用的算力是微软和OpenAI一起打造的超级计算集群,集群有28.5万核CPU,1万个V100 GPU,以及400Gbps的网络带宽。建造这个超级计算集群的费用超过20亿元。如果租用微软或其他云厂商的集群来训练GPT-3,训练一次GPT-3需要耗费估计从280万到540万美元不等(价格因不同云厂商而有所不同)。因训练花费不菲,在 GPT-3的论文《Language Models are Few-Shot Learners》中提到“发现了bug但由于训练费用问题而没有重新训练模型(Unfortunately, a bug in the filtering caused us to ignore some overlaps, and due to the cost of training it was not feasible to retrain the model.)”[11]。算法的融会贯通自然语言处理在这五年的高速发展,除了模型越来越大,训练语料越来越多之外,核心还是多种不同类型的人工智能技术的高速发展,以及在自然语言处理领域将对这些技术的融会贯通。这些人工智能技术包括但不限于语言模型、对话系统(Conversational AI)、思维链(Chain of Thoughts)、强化学习(Reinforcement Learning)和人类反馈强化学习 (Reinforcement Learning from Human Feedback,RLHF)、情境学习(In-context learning)、无监督学习(Unsupervised Learning)等等。除此之外,算力的增长、大数据处理技术的发展也提供了必不可少的支撑。语言模型这里简要介绍三类代表性的语言模型,分别为BERT所使用的掩码语言模型、GPT系列所使用的自回归语言模型以及ERNIE系列所使用的引入了知识图谱等专家知识的语言模型。掩码语言模型(Masked language model,MLM)是一种双向语言模型[6][8],模拟了人类对语言的认知的双向语言模型。一个例子是,人们快速读阅时,些许的字文错误并不会影响理解,这是由于人们会自动补全。掩码语言模型正是模拟了这一特点,比如对于“一枝红杏出墙来”这句话,将其一部分掩盖住后,原句变为“一枝红⬛出墙来”,如何判断“⬛”掩盖的部分?人们能够自然地意识到“⬛”掩盖的是“杏”。而掩码语言模型则是为了让模型能够像人一样“猜出”被掩盖的部分。BERT通过变换器网络的编码器来实现掩码语言模型。同时,如图11所示,BERT使用了多任务学习方法来从大规模语料中训练出模型,并在具体任务中进行微调(Fine-Tuning)。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图11 BERT的预训练和具体任务的微调示意图[8]与BERT不一样的是,GPT系列则通过变换器网络的解码器实现了自回归语言模型(Autoregressive language model)[9],采用多任务训练的方法训练模型,模型如图12所示。自回归在时间序列分析中非常常见,比如ARMA,GARCH等都是典型的自回归模型。在语言模型中,自回归模型每次都是根据给定的上下文从一组词元中预测下一个词元,并且限定了一个方向(通常是正向,即在一个句子中从前往后依次猜下一个字/词)。同样以“一枝红杏出墙来”为例,自回归语言模型中,给定“一枝红”的上下文来预测下一个 “杏”字,紧接着给定“一枝红杏”来预测下一个“出”字,然后是根据给定的“一枝红杏出”来预测“墙”字,如此循环,直到完成整个序列的预测并输出。有多种不同的方案来选择模型预测的输出标记序列,例如贪婪解码、集束搜索(Beam Search)、Top-K采样、核采样(Nucleus Sampling)、温度采样(Temperature Sampling)等。除了 GPT 系列之外,Transformer-XL、XLNet等大模型也采用了自回归语言模型。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图12 GPT模型架构及多任务训练示意图[9]ERNIE在采用了 BERT 类似的模型架构之上,加入了知识图谱[6],使得模型能够用先验知识来更好地理解语义,其架构如图13所示[10]。还是以“一枝红杏出墙来”为例,ERNIE能够更好地理解“红杏”,并知道它是一种“植物”。也因此,相比于BERT和GPT,ERNIE能够在更小的模型下获得相对更好的效果。尤其值得一提的是,这点在中文场景中更加明显。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图13 ERNIE模型架构及嵌入知识图谱的示意图[10]情境学习情境学习(In-context Learning)是随着GPT-3而流行起来。在GPT-3中,通过给出仅仅几个示例就能够很好地完成许多自然语言处理任务的方法,被称为情境学习。图14是一个直观的例子,使用了ChatGPT的情境学习来实现情感分析任务。直观地说,情境学习就是给模型一些包含任务输入和输出的提示,并在提示的末尾附加一个用于预测的输入,模型根据提示和预测输入来预测任务的结果并输出。也因此,情境学习有时候也被称为基于提示的学习(Prompt-based learning)。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图14 情境学习实例,使用了ChatGPT从图15可以看出,情境学习的预测结果在大模型的情况下效果表现得非常好,但在小模型的情况下表现糟糕。简单地说,大模型使得情境学习变得有用。这是由于情境学习依赖于语言模型所学习到的概念语义和隐含的贝叶斯推理,而这依赖于大规模预训练模型对潜在概念的学习,从文档级语料学习了长距离依赖并保持长距离的连贯性、思维链和复杂推理等等。也因此,情境学习在大模型之前罕见,可谓连实验室的玩具都谈不上。而在大模型的支撑下,在许多自然语言处理任务的基准测试(如LAMBADA文本理解测试集和TriviaQA问答测试集)中,情境学习相比其他模型也非常具有竞争力。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图15 情境学习效果曲线[11]从应用来看,情境学习最为津津乐道的两个特点是:情境学习能够有效地使模型即时适应输入分布与训练分布有显著差异的新任务,这相当于在推理期间通过“学习”范例来实现对特定任务的学习,进而允许用户通过新的用例快速构建模型,而不需要为每个任务进行微调训练。构建于大语言模型之上的情境学习通常只需要很少的提示示例即可正常工作,这对于非自然语言处理和人工智能领域的专家来说非常直观且有用。这两个特点使得人们能够使用一个模型来实现不同的任务,为类似ChatGPT这样的准AGI提供了技术基础。也正因此,人工智能领域念叨多年的通用人工智能终于露出了一丝曙光。人类反馈强化学习人类反馈强化学习是一种人工智能模型在进行预测(推断)的过程中通过人的反馈来实现模型学习,使得模型输出与人类的意图和偏好保持一致,并在连续的反馈循环中持续优化,进而产生更好的结果。事实上,人工智能发展过程中,模型训练阶段一直都有人的交互,这也被称为人在圈内(Human-in-the-loop, HITL),但预测阶段则更多的是无人参与,即人在圈外(Human-out-of-the-loop, HOOTL)。在这五年的奋进中,通过人类反馈强化学习使得自然语言处理在推断阶段能够从人的反馈中学习。这在自然语言处理领域是一个新创举,可谓人与模型手拉手,共建美好新AI。从技术上看,人类反馈强化学习是强化学习的一种,适用于那些难以定义明确的用于优化模型损失函数,但却容易判断模型预测效果好坏的场景,即评估行为比生成行为更容易。在强化学习的思想中,智能体(Agent)通过与它所处环境的交互中进行学习,常见在各类游戏AI中。比如,鼎鼎大名的 AlphaGo,在2017年乌镇互联网大会上打败了围棋世界冠军柯洁,其核心技术就是强化学习。人类反馈强化学习并非从自然语言处理开始的,比如2017年OpenAI和DeepMind合作探索人类反馈强化学习系统与真实世界是否能够有效地交互,实验的场景是Atari游戏、模拟机器人运动等。这些成果随后被OpenAI和DeepMind应用到大语言模型上,通过人类反馈来优化语言模型,进而使得模型的输出与预期目标趋于一致,比如InstructionGPT、FLAN等。这些成果表明,加入人类反馈强化学习使得生成文本的质量明显优于未使用人类反馈强化学习的基线,同时能更好地泛化到新领域。图16是人类反馈强化学习的框架图,奖励预测器是学习出来的,这点与传统强化学习有所不同。在传统强化学习中,奖励函数是人工设定的。在InstructionGPT中,强化学习算法使用了近端策略优化(Proximal Policy Optimization,PPO)来优化GPT-3生成摘要的策略。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图16 人类反馈强化学习框架图应用的百花齐放近年来,所有自然语言处理的任务都有了长足进步,效果飙升,许多任务都超越了人类专家的水平。在斯坦福问答数据集2.0(SQuAD2.0)评测中,最新的模型EM 分数和F1分数分别为90.939和93.214,相比人类专家86.831和89.452高了4.73%和4.21%。在斯坦福对话问答CoQA数据集的评测中,最佳模型的分数达到90.7,相比人类专家的分数88.8,高出了2%。在机器翻译中,自2017年至今,WMT2014英译德评测集的 BLEU分数从26增长到35以上,德译英则从23增长到35以上。在其他诸如文本分类、文档分类、对话生成、数据到文本(Data-to-Text)、看图说话(Visual Storytelling)、视觉问答、情感分析、实体抽取、关系抽取、事件抽取、自动摘要、OCR等等任务中的效果增长都非常显著。在这五年中,行业应用也愈加广泛。金融、医疗、司法、制造、营销、媒体等各行各业都是使用自然语言处理技术提升效率,降低风险。基于自然语言处理最新技术的综合性平台智能文档处理系统(Intelligence Document Process System,IDPS)开始流行,比如图17所示的达观数据IDPS。中国信息通信研究院(信通院)等机构组织了标准编制和评测,万千企业开始使用智能文档处理系统进行文档智能比对、关键要素抽取、银行流水识别、风险审核、文档写作等,实现了诸多脑力劳动的智能化。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图17 达观智能文档处理系统同时,依托自然语言处理进行实体、关系、事件等知识的抽取,构建出领域专业知识图谱,并以语义检索、智能问答、归因分析、知识推理等为各行提供了丰富的应用,比如赋能智能制造的故障排查,金融行业的智能投研和智能投顾,政府和企业的舆情分析,营销和售后的智能客服和智能运营,媒体的资讯分类、自动摘要和事实校验等。随着近五年自然语言处理技术的发展,许多原来无法完善服务的场景也有了切实可见的应用,影响着三百六十行的亿万工作者。由OpenAI的Codex大语言模型提供支撑的GitHub CoPilot为数千万的程序员提供效率工具。最新的ChatGPT参与沃顿商学院的工商管理硕士课程的期末考试并获得了B档成绩,展现出了非凡的能力[12]。同样的场景出现在许多大学中,比如北密歇根大学有学生使用 ChatGPT写课程论文获得了全班最高分。更有甚者,ChatGPT已经成为了许多科学论文或出版书籍的共同作者,比如ChatGPT名列《Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models》这篇12个作者中的第三位[13],Gautier Marti则在其出版的书籍《From Data to Trade: A Machine Learning Approach to Quantitative Trading》中将ChatGPT列为共同作者。AGI初现曙光人类对智能化的追求可谓孜孜不倦,自远古时期对智能化的想象,比如三国演义中诸葛亮的木牛流马,到每一次人工智能蓬勃发展时期,都会对通用人工智能进行想象和期待。但直至去年年底ChatGPT出现之前,所有的人工智能产品都局限于某一特定领域。比如:用于实体抽取的系统,无法用于对话。用于问答的系统可以在SQuAD2.0获得高分,但在没有进行微调等重新训练模型的情况下,在命名实体识别或翻译的评测中就表现得很差劲。AlphaZero在围棋上打遍天下无敌手,但没法用来做其他事情,比如人脸识别或者事件分析等。AlphaFold2能够解决蛋白质折叠这种专业大学教授都难以搞定的超级难的问题,但面对幼儿园小朋友也能很好地解决的“12+23”等算术问题则显得无能为力。有一些试图以通用智能助手形式提供的人工智能产品则经常被戏称为“人工智障”。当我们细数过去种种人工智能产品的优势和不足的时候,就容易看出 ChatGPT 所展现出来的“超能力”。图18是ChatGPT超能力的一个实例展示,不仅能够流畅地进行对话,还能够在这个过程中完成多项自然语言处理任务,包括基于提示的情感分析、编写代码、翻译、报告撰写和摘要等。更进一步的,论文《ChatGPT: The End of Online Exam Integrity?》认为,ChatGPT能够展现批判性思维能力,并以最少的输入生成高度逼真的文本,潜在威胁了在线考试的诚信。其本质是:ChatGPT展现出了超强的能力,这个能力在前面提过的ChatGP能够通过沃顿商学院的工商管理硕士课程也展现过。这种“超能力”恰如人类的大脑一样,能在许多领域进行推理,并以接近或超越人类的水平完成多项认知任务。这正是人们所说的通用人工智能(Artificial General Intelligence,AGI)。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图18 ChatGPT多才多艺的超能力实例支撑起ChatGPT 超能力的,正是自然语言处理技术奋进五载的大综合。从技术角度,就是在无监督大规模预训练语言模型的基础上,使用标注语料进行有监督的训练。在此基础之上,通过训练一个奖励预测模型,以及使用近端策略优化来训练强化学习策略。并在面向用户的应用中使用了人类反馈强化学习技术来实现对话理解和文本生成。图19展示了ChatGPT所使用的方法,可以看出,ChatGPT 涵盖了机器学习的三大范式——有监督学习、无监督学习和强化学习。这也许和人类大脑的行为类似:无监督学习——婴儿期人类大脑,遗传和3岁以下认知世界的模式;有监督学习——从幼儿园开始不断学习各类技能和知识;强化学习——从现实环境的反馈中学习。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图19 训练ChatGPT的过程示意图[14]正是这些技术的总和所展现出的强大能力,ChatGPT 为通用人工智能带来了曙光。许多业内大佬也纷纷为此站台,比如:微软联合创始人比尔·盖茨在2023年1月11日的Reddit AMA(Ask Me Anything)的问答帖中对一些热门科技概念发表了看法,他表示自己不太看好Web3和元宇宙,但认为人工智能是“革命性”的,对OpenAI的ChatGPT印象深刻[15]。微软也准备再向OpenAI投资100亿美元,并表示旗下全部产品都接入ChatGPT以提供智能服务。此前力推元宇宙的Meta的态度也有所改变,扎克伯格在2022年度报告投资者电话会议上表示“我们的目标是成为生成式人工智能的领导者(Our Goal is to be Leader in Generative AI)”[16]。面对投资者对元宇宙是否被抛弃的疑问,扎克伯格的回答是“今天专注于人工智能,长期则是元宇宙(AI today and over the longer term the metaverse)”(想想经济学家凯恩斯那句名言“长期来看,我们都死了”吧)。Google创始人回归并全力支持类似 ChatGPT产品的开发,同时向Anthropic投资3亿美元。Anthropic由OpenAI的多名资深研究人员创立,其产品与OpenAI的类似,如Claude(ChatGPT)和(GPT-3)。许多学者认为,通用人工智能到来的时间会加速,也许,2035年就是一个通用人工智能的“奇点”时刻。也许有人认为夸大其词或危言耸听。毕竟,ChatGPT也仅仅展现了语言方面的能力,对其他诸如视觉、语音等完全不涉及。而即使在语言方面,ChatGPT表现弱智的地方也很多,图20就是一个例子(这个问题流传最广的回答是:贾母),深度学习的代表性人物Yann LeCun也激烈批评大语言模型的问题“人们严厉批评大语言模型是因为它的胡说八道,ChatGPT 做了(与语言大模型)同样的事(People crucified it because it could generate nonsense.ChatGPT does the same thing.)”。事实上,这个表现有点像幼儿园的小朋友的“童言无忌”,而这不也正是“智能”的表现么?而解决这个问题有现成的人工智能方法——知识图谱[6]等符号人工智能方法和基于知识的人工智能方法。这些方法在这几年也发展迅速。一旦ChatGPT拥有一个知识图谱来支撑“常识”,其下限将极大地提升[17],“童言无忌”变得成熟,那么语言领域的通用人工智能可谓来临。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
图20 ChatGPT关于“贾宝玉娶老婆”的例子进一步的,跳出自然语言处理,从更广泛的人工智能视角来看,这几年的进展也非常大。比如通过文本提示生成视频的扩散模型(Diffusion Model,DM),在图像生成上提升了视觉保真度,同样引发了视觉领域的爆火出圈;语音合成方面,VALL-E模型支持通过语音提示,合成符合输入语音音色和情绪的逼真声音。特别地,这些不同领域的人工智能,包括视觉、图像处理、语音识别、语音合成、知识图谱、时间序列分析等等,也全部都在采用变换器网络来实现[18]。这使得ChatGPT或类似系统加入语音、视觉等变得容易,进而构建出跨模态的,多才多艺的通用人工智能。结语可以想象,未来五年到十年,融合语言、视觉和语音等多模态的超大模型将极大地增强推理和生成的能力,同时通过超大规模知识图谱和知识计算引擎融入人类的先验知识,极大提升人工智能推理决策的准确性。这样的人工智能系统既能够像人一样适应现实世界的不同模态的绝大多数任务,完成任务的水平甚至超越绝大多数的普通人,又可以在各种富有想象力和创造性的任务上有效地辅助人类。这样的系统正是人们想象和期待了数千年的智能系统,而这也会被称为真正的通用人工智能。进一步,随着人形机器人、模拟人类的外皮肤合成技术等等各类技术的发展,这些技术互相融合,科学幻想中的超人工智能的来临也将成为现实。而在通用人工智能如灿烂阳光洒满每一个角落时,蓦然回顾,会发现AGI的第一道曙光是2022年底的ChatGPT。正所谓“虎越雄关,NLP奋发五载;兔临春境,AGI初现曙光。”参考文献[1] ChatGPT将代替搜索引擎?谷歌内部发红色警报. 澎湃新闻. https://www.thepaper.cn/newsDetail_forward_21282873[2] How ChatGPT Suddenly Became Google’s Code Red, Prompting Return Of Page And Brin. Forbes. https://www.forbes.com/sites/davidphelan/2023/01/23/how-chatgpt-suddenly-became-googles-code-red-prompting-return-of-page-and-brin/. 2023.[3] With Bing and ChatGPT, Google is about to face competition in search for the first time in 20 years. Insider. https://www.businessinsider.com/bing-chatgpt-google-faces-first-real-competition-in-20-years-2023-1[4] ChatGPT sets record for fastest-growing user base – analyst note。Reuters. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/. 2023.[5] Joseph Weizenbaum. ELIZA–A Computer Program for the Study of Natural Language Communication Between Man and Machine.[J]// Communications of the ACM. Vol9. P36–45.[6] 王文广. 知识图谱:认知智能理论与实战[M] //电子工业出版社, 2022[7] Ashish Vaswani, Noam Shazeer, Niki Parmar et al. Attention is all you need.[C] //In advances in neural information processing systems. 2017. P5998-6008[8] Jacob Devlin, Ming-Wei Chang, Kenton Lee et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.[C] // In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. 2019. P4171–4186.[9] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever. Improving language understanding with unsupervised learning. //OpenAI Technical Report. 2018.[10] Yu Sun, Shuohuan Wang, Shikun Feng et al. ERNIE 3.0: Large-scale Knowledge Enhanced Pre-training for Language Understanding and Generation. arXiv:2107.02137. 2021.[11] Tom Brown, Benjamin Mann, Nick Ryder et al. Language Models are Few-Shot Learners.[C] // In Advances in Neural Information Processing Systems 33 (NeurIPS 2020). 2020. P1877—1901[12] ChatGPT passes MBA exam given by a Wharton professor. NBC News. https://www.nbcnews.com/tech/tech-news/chatgpt-passes-mba-exam-wharton-professor-rcna67036. 2023.[13] Tiffany Kung, Morgan Cheatham, ChatGPT et al. Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models. doi:10.1101/2022.12.19.22283643. 2022.[14] ChatGPT: Optimizing Language Models for Dialogue. OpenAI. https://openai.com/blog/chatgpt/. 2022[15] 比尔·盖茨看好 AI,而非 Web3 和元宇宙. 新浪网. http://vr.sina.com.cn/news/hot/2023-01-13/doc-imxzzfmr4911664.shtml. 2023[16] Meta Platforms (NASDAQ: META) CEO Mark Zuckerberg: “Our Goal is to be Leader in Generative AI”. Wall Street Reporter. https://www.wallstreetreporter.com/2023/02/02/meta-platforms-nasdaq-meta-q4-2022-earnings-call/. 2023.[17] Wolfram|Alpha as the Way to Bring Computational Knowledge Superpowers to ChatGPT. StephenWolfram. https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/. 2023.[18] 学习ChatGPT和扩散模型Diffusion的基础架构Transformer,看完这些论文就够了.走向未来. . 2023.本文作者
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
王文广,达观数据副总裁,高级工程师,自然语言处理和知识图谱著名专家。《知识图谱:认知智能理论与实战》作者,人工智能标准编制专家,专注于知识图谱与认知智能、自然语言处理、图像与语音处理、图分析等人工智能方向。曾获得多个国际国家级、省部级、地市级奖项,拥有数十项人工智能领域的国家发明专利和会议、期刊学术论文。
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?