AI情感助手
大家好,我是峰兄。 本文是Prompt三部曲的第一篇《一文讲透ChatGPT及如何正确提问》。第二篇《如何借助GPT训练自己的私有模型》,第三篇《调优Prompt为各行业赋能》已经在路上,希望各位老铁一键三连,给点鼓励,我会创作更多优质的干货文章感谢大家的支持。 从今年年初,OpenAI发布的ChatGPT已摧古拉朽之势席卷全球,短短两个月注册用户数就超过1亿人,是全世界增长速度最快的应用。你如果不聊两句ChatGPT,都不好意思出门。很多人都说今年是AI元年,其实也是有一定道理的,之前的AI门槛相对较高,很多人没有机会参与其中,而类ChatGPT的出现,把AIGC的门槛几乎降到了零,让普通人也可以参与到AI的浪潮中,一个人人可以AI创业的时代到来了! 一.什么是ChatGPT? ChatGPT从字面上可以分解成两个词Chat+GPT。Chat是聊天的意思,GPT是Generative Pre-trained Transformer的缩写,生成式预训练语言模型,使用Transformer架构来处理自然语言处理(NLP)任务。也就是说GPT能理解自然语言,大家能够用汉语、英语等自然语言跟GPT交流,而且它有大量的训练语料,超大规模的训练参数(上千亿),能自己生成内容,并不是像搜索引擎一样只是简单的检索,就算一个它不知道的东西,它都可以根据已掌握的数据,生成一个答案,虽然有时候可能在胡说八道,从这个角度,确实已经很像人类了。 总结一下就是,他有丰富的知识库,是一个知识渊博的智者,当你向他提问时,他能听懂你的提问,并且可以非常智能的生成答案(注意这里不是检索,所以你会发现每次向GPT提问同样的问题,得到的答案都是不一样的) PS:关于为什么向GPT提同样的问题得到不同的答案这个问题,这里我简单的说一下,GPT是一个深度神经网络,里面有几百亿甚至上千亿的参数,为了得到更多的发散性,每次可能走的神经网络不会完全相同,最终的结果就不会完全相同,所以你有时候会看到GPT在一本正经的胡说八道,可能也正是因为他的这个特点,让GPT看起来更像一个人吧。 二.大模型发展这么久,为什么到GPT3.5才具有了真正的智能? 大家通过上面的阅读知道,GPT(Generative Pre-trained Transformer)生成式预训练语言模型。也就是这个语言模型是基于Transformer的,Transformer是一种基于注意力机制的神经网络模型,最早由谷歌公司提出,其最初目的是用于自然语言处理任务,如机器翻译、文本摘要、语音识别等。相比于传统的循环神经网络模型,如LSTM和GRU,Transformer模型具有更好的并行化能力和更短的训练时间,在处理长序列任务方面表现出色,因此在自然语言处理领域得到了广泛应用。 其实GPT不是OpenAI公司的原创,而是由谷歌公司发明。是不是跟当年操作系统的图形用户界面其实是施乐公司最新发明的,却被乔布斯窃取到并应用到苹果的系统上一样。包括后来的iphone手机,大家也可以搜一下,其实所有的设计都是借鉴了其他公司的产品,但是乔布斯把他们组合并创新成了一件最伟大的艺术品,从而开启了一个全新的移动互联网时代,所以有时候并不一定什么都要原创,站在巨人的肩膀上来微创新,有时候更容易出成果。 上面扯的有点远了,我们回到为什么GPT3.5才算真正的人工智能这个问题上。 2018 年 OpenAI 采用 Transformer Decoder 结构在大规模语料上训练了 GPT1 模型,揭开了NLP模型预训练+微调的新范式。2019 年,OpenAI 提出了 GPT2,GPT2 拥有和 GPT1 一样的模型结构,但得益于更多和更高的数据质量以及新引入的多任务学习方式,语言生成能力得到大幅提升。之后由于 GPT 采用 Decoder 单向结构天然缺陷是无法感知上下文,Google 很快提出了 Encoder 结构的 Bert 模型可以感知上下文,效果上也明显有提升,同年 Google 采用Encoder-Decoder 结构,提出了 T5 模型,从此大规模预训练语言模型朝着三个不同方向发展。 也就是说在GPT3.0之前,谷歌的Bert 模型是远超OpenAI...