AI情感助手
大模型会经历重复建设然后出清的过程。 作者|甲小姐、刘杨楠 燃烧半年的大模型之火正在逐渐冷却。 一个直观的表现是,ChatGPT的用户增长开始下坡。第三方网站SimilarWeb的监测数据显示,今年6月,ChatGPT的网站与移动客户端的全球流量(PV)环比下降了9.7%,美国地区的流量环比下降了10.3%,用户在ChatGPT上的停留时间也下降了8.5%。 此外,七月以来,微软、谷歌、AWS、阿里巴巴等国内外科技大厂开始陆续发布2023半年报,遗憾的是,各项收入数据中,AI几乎没什么存在感。 大模型似乎走入了用户增长和商业落地的双重瓶颈。与此同时,另一股AI势力正在异军突起。 个性化AI聊天机器人创业公司Character.ai自去年9月发布Beta版本以来,用户涨势凶猛。SimilarWeb数据显示,2023年6月,Character.ai访问量达到2.8亿,5月的增长率更高达62.55%。不仅如此,Character.ai用户黏性极高。多个第三方统计数据显示,用户在Character.ai的停留时间长达28分钟。相比之下,ChatGPT的用户停留时长约8分钟,YouTube和B站的停留时长约20分钟,WhatsApp约18分钟,Google、Facebook和Twitter约10分钟——足见用户对Character.ai“偏爱有加”。 成立于2022年,同样主攻个人人工智能(Personal Intelligence)的AI初创企业Inflection AI也冲劲十足。Inflection AI于今年5月推出了首款产品“Pi”,仅2个月后,Inflection AI便在7月完成13亿美元的新一轮融资,估值突破40亿美元,成为OpenAI之后估值最高的AI初创企业。 这两家公司的出现,让“情感AI”成为ChatGPT之外的另一个焦点。 在国内,清华系AI初创企业聆心智能已经在情感AI领域布局多年。从应用场景上划分,ChatGPT可归为“功能AI”,其价值是用超越人脑的智能帮人类解决各类实际问题,追求“高智商”;而聆心智能、Character.ai及Inflection AI正在做的事可归为“情感性AI”,其价值在于解决人类情感需求,追求“高情商”。 聆心智能创始人、首席科学家黄民烈同时还在清华大学担任多个职位——他是清华大学计算机科学与技术系长聘教授、国家杰出青年科学基金获得者、智能技术与系统实验室副主任及清华大学基础模型中心副主任。 在涌入大模型的众多学者、创业者中,黄民烈的判断独树一帜。他并未直接瞄准看起来极其性感的“通用大模型”,而是从2015年起就尝试破解情感AI的密码。在他看来,“功能固然很重要,但人的情感也是非常本质的需求”。 事实上,“功能AI”还是“情感AI”,这既是AGI的技术选择,也是AGI的社会角色选择——AI之于人到底会是什么样的存在,是工具,是助手,还是伙伴?本期甲小姐对话黄民烈,聊一聊大模型重复建设之下的另一个视角和判断。 1.谈现状:“大模型会经历一个重复建设之后出清的过程” 甲小姐:最近很多人感觉ChatGPT的热度降下来了,你有这种感受吗? 黄民烈:融资市场和产业都在趋于冷静。原因是,之前无论投资还是产业,都在说要做“中国的OpenAI”,现在已经有这么多开源和闭源的模型,大家开始考虑能做什么样的应用来真正解决产业问题;大家对大模型的认知更清晰了,有各种评测榜单,大家逐渐清楚彼此的能力;另外,七八月份是上市公司半年报的窗口期,市场会冷静地看这些公司的投入在财报上如何反应,大模型的投入和产出是否匹配。之后有些公司可能会被收并购,融不到钱的公司也会倒闭,这是行业发展的客观规律。 甲小姐:现在我们公允地看过去半年的AI热潮,哪些被高估,哪些被低估? 黄民烈:大家对通用大模型的期待很高,但在解决实际问题时,国内模型距离ChatGPT、GPT-4还有挺大差距。一方面是我们底层模型的能力还要提高;另一方面,大模型最终要落地产业,依然需要大模型之外的能力,比如加上传统的算法模块,形成一个以大模型为主导的复杂系统,真正解决行业问题。 甲小姐:我身边真实的个人用户,从最开始对ChatGPT上头,到今天逐渐冷静甚至弃用,原因有二:第一是ChatGPT会出现幻觉,不够可信;第二是无法做精确计算等等。这是ChatGPT热度下降的本质原因吗? 黄民烈:本质与否不好说,但这是一个重要原因。现在大模型容易产生幻觉,因为ChatGPT是概率模型,每次问答都会随机采样,同一个输入,不同的人、不同时间得到的回答不一样,有不可控性。怎么解决这个问题?要和业务、场景结合。比如有些场景允许有一定的容错率,但有些场景容错率为零,就得有别的手段来处理。 再比如你刚才讲的精确计算,现在技术发展很快,大模型算数学题,过去全是概率采样,每次的计算结果都不一样;但现在不一定要通过概率采样去做,可以把数学题变成一个公式,再在模型中插入一个Python解释器去执行,最终得到的结果是确定的。因此,神经系统和符号计算系统结合能够很好地提升模型能力。所以技术也在随着业务需求不断演进,快速发展,有些稀奇古怪的问题今天都能解决得挺好,这是一个动态过程。 甲小姐:放眼全球AI产业的细分发展,通常是美国定义流行,中国一拥而上,市场关注度在短期会高度集中在某一两个赛道,但在欧洲有很多AI细分门类一直有人在做,对比而言,今天的中国AI产业似乎少了某种多样性。你曾表达过“重复造轮子”可能不利于AI发展。近半年内国产大模型的数量已经增长到80多个,是否存在重复建设? 黄民烈:肯定存在。现在算力非常紧张,基本租不到卡,大家都把算力圈起来了,但各家在技术、能力和商业化路径上都大同小异,肯定是重复投入。但这也是一个市场自然淘汰和选择的过程。中国的做事方式和国外不太一样,搜索是这样,互联网也是这样,CV热也是这样,现在大模型应该还会有一个重复建设然后出清的过程。 甲小姐:你曾表达过ChatGPT的底层还是基于Transformer架构,在模型架构上没有太多创新,它的成功是“数据+工程+系统”层面的集成化创新。ChatGPT会是AI范式的最终状态吗,还是会出现一个新的范式颠覆它? 黄民烈:很有可能是后者,但现在也不好说。不能说OpenAI没有技术创新,他们肯定有各种各样的创新,只是现在披露出来的比较少。新的范式在2-3年可能不太会出现,但5-10年大概率会出现。在现在这个时代,技术发展具有很大的不可预测性。 甲小姐:回顾历史,AI范式一直合久必分分久必合,几个月前很多人认为ChatGPT路径正在一统江湖,目前这个趋势有变化吗?AI范式正朝着哪个力量发展,是归一的力量还是分化的力量? 黄民烈:大语言模型、多模态、视觉都是不同的方向,AI研究不一定是大一统的事情,会不断有新的元素融入进来。我本人更希望有多样性的发展,只有百家争鸣才能更好地激发创新,大一统的语言模型对于学术创新来说不一定是好事。 甲小姐:AI领域的next big thing可能是什么? 黄民烈:相对来讲,学术界更容易做出新的AI范式,例如神经网络和符号计算的大规模结合。也许是新的神经网络架构,也许是能解决现在模型问题的新的神经符号系统。 2.谈模式:“开源与否本质上是商业逻辑” 甲小姐:LLaMA2发布对市场影响很大,国内百川、阿里等都在开源,有些公司还没有确定未来究竟开源还是闭源。开源对一群人来说是原则问题,象征着极客精神和价值导向,对另一群人来讲是利润问题,如果开源和商业逻辑不匹配就很难开源。能否展开说说开源对市场产生了什么样的连锁反应? 黄民烈:说实话,公司会在不同阶段打不同的牌。Meta的LLaMA做得很好,但谷歌就不怎么开源,OpenAI也全部闭源,Claude介于开源、闭源之间,因为公司的战略打法不同。Meta作为后来者,可能以开源赢得市场认可、口碑,再想办法拓展商业客户。而且Meta对于商业利用还是有比较大的限制,它规定访问流量大于一定范围就必须受限。 相对而言,入局更晚的公司肯定要通过开源来赢得市场和业界的认可。因为不是每个人都有技术能力和算力资源去训练模型,那我就给你提供模型能力,服务很多中小B企业,还能不断收集数据去微调模型。像智谱、MiniMax,包括我们这种做得更早的公司,就在一定范围内开源,可以调用我们的API服务。所以并不存在完全的开源,这取决于公司的战略打法和发展阶段,以及早期采取的模型策略。 比如OpenAI就认为大模型很智能,如果开源让每个人都去用不一定是好事,把所有事情控制在自己手里相对更安全。我不知道这是他们的真实想法还是一种托辞,但我认为开源与否本质上还是商业逻辑。 甲小姐:安卓的开源会让很多人以极低的成本接入生态,但对普通人来说,要接入大模型依然门槛不低。 黄民烈:肯定要有算力,还要有一定的技术人员,否则就要依赖大模型生态中的工具链。但相比之下,开源是静态版本,闭源可以动态地更新系统。 甲小姐:是否可以理解为,刚开始创业就开源的公司很大程度上是以开源来吸附更多的资源,让公司进展更快,但很可能某天就会闭源,目前大模型领域还没有出现真正意义上的苹果和安卓,大家还是阶段性战术? 黄民烈:是的。开源会形成品牌效应,能够吸引来一定的商业客户,这是有很大影响力的。 甲小姐:接下来,大模型的发展逻辑是在ChatGPT的基础上继续修修补补、添砖加瓦,还是有其他的路径?...