人手一个AI健康助手!大模型时代的搜索引擎「蜕变」
AI医师助手

人手一个AI健康助手!大模型时代的搜索引擎「蜕变」

(头图由AI工具生成) 作者 | 三北编辑 | 漠影 智东西12月27日报道,今年9月,国外一名身患怪病的男孩三年求医17名医生无果,却因被ChatGPT正确诊出“脊髓栓系综合征”而成功获救。这让人们第一次直观感受到大模型在健康信息服务领域的巨大潜力。 现在,这种潜力正在被科技公司们转化为端到端的闭环产品。一些科技公司面向医疗机构客户开放了大模型服务,也有团队开源了医疗大模型群,但要说广大用户最直接可感的,还是智能搜索引擎夸克App近期悄然上线了一款“夸克健康助手”。 日前,夸克进行了健康搜索的全面升级,用户在部分搜索结果中会得到由“夸克健康助手”提供的AIGC内容。据悉,在夸克搜索健康信息的正确率超过90%,处在行业第一梯队。 ▲在夸克App调用夸克AI健康助手 首次体验后,用户便可将夸克健康助手添加到App首页,以便随时调用。 ▲将夸克AI健康助手添加到夸克App首页 据夸克相关负责人称,夸克自研大模型已经凭486分的高分通过了临床执业医师资格考试,同时在健康内容上的幻觉率已经降低至5%以内,达到远优于同行的水平。 自年初ChatGPT爆火以来,微软、谷歌等科技巨头纷纷推了出AI版搜索引擎,但面对专业知识要求更高的健康信息服务领域,各路玩家或保持观望或小范围试水。作为2018年就明确了智能搜索引擎定位的新锐选手,夸克率先在健康领域迈出了革新搜索的第一步。 夸克自研大模型在搜索的实际落地效果如何?背后有什么样的技术挑战和行业真相?通过深扒夸克健康大模型应用,本文对此进行了深入探讨。 一、实测AI健康助手:简单对话,多维诊断 打开夸克App,虽然首页没有发生明显变化,但搜索结果呈现已经被夸克大模型悄然改变。 如下图所示,当智东西输入“咳嗽检查”这一问题,搜索结果中出现了AIGC内容和夸克健康助手的入口。用户可以先简单的了解病症信息,然后在根据自己的身体情况进行选择和对话。 点击进入夸克健康助手,页面变成一个对话框形式。当智东西换一个问题:“经常口腔溃疡是什么原因”,夸克健康助手从非病理因素和病理因素给出了问题的答复。或许是考虑到回答较含糊,夸克健康助手进一步给出了一个卡片选项,使我可以补充症状,从而获取更精准的答案。 在我提供了补充症状之后,夸克健康助手果然给出了更聚焦的治疗建议,并给出主要原因分析、科室就医建议、如何进一步确诊等一系列问题的答案。 当智东西问到“家里老人刚做完宫颈手术,有什么吃食建议?”时,夸克健康助手给出了针对性的饮食建议。当涉及偏门的问题,比如“有人说鱼是发物,也是可以吃的吗?”,夸克健康助手也能根据跨中西医的知识,给出明确的分析判断:“可以适量食用”。 夸克健康助手的一大特点是病情病例描述具体,而不是泛泛而谈,因此具有更强的参考性。 比如当智东西问到“我胳膊肘处有小块红色点群状胎记,不太光滑,有一些充血,可能是什么疾病?”,夸克健康助手立马给出了血管瘤、鲜红斑痣、草莓状毛细血管瘤等几种可能。 通过“质软可被压缩、“菜花状”等描述,加上超链接中的图片,血管瘤的可能性看起来更大。通过夸克健康助手,我进一步了解到这是一种大概率不会给身体带来危险的良性肿瘤。实际上,这是我家人的真实病例,夸克给出的判断与此前在医院检查所得的结果一致。 再来看看智能筛查功能,比如智东西在搜索引擎中输入“55岁男士经常胳膊麻是怎么回事”,智能筛查卡片弹出并给出了持续时长、发病部位、行为诱因等多个选项。 当选择持续数月、单侧选项之后,夸克则提示我这可能与颈椎病、脑出血、脑血管病有关。点击可能的病状,如点击脑出血板块进入解答链接,只见有首都医科大学的主任医师来为我解答背后的原因。 实际上,这一病例的患者确实在出现手麻症状之后的几个月后突然脑出血,可见这个智能筛查的功能还是比较具有参考性的。 经过试用智东西发现,夸克健康助手在健康问题咨询上基本上没出现答非所问、胡编乱造、上下文不流畅的情形,甚至还比较准确地给出了初诊结果。虽然这种建议不能替代医疗诊断,但有助于帮患者在就医前进行初步自查。 必须承认,夸克健康助手在一些问题回答上偏保守,比如在多则建议后都指出“以上建议仅供参考”,但它作为一款辅助性的健康助手,已经比传统搜索引擎好用了不少。 二、大模型进入专业领域,安全准确是第一道关口 体验完产品应用,我们将目光转向产业和技术。 从通用搜索到健康等专业搜索领域,大模型正在彻底改变搜索引擎的玩法,背后的关键因素是知识准确度的提升。 回顾年初ChatGPT爆火全球以来,先是微软率先将ChatGPT接入了Bing搜索,而后谷歌以及国内的百度、夸克等纷纷将搜索引擎接入大模型,短视频平台抖音近期也传出正在内测AI视频搜索……互联网大厂纷纷抢滩AI搜索赛道。 背后,大模型正在打破传统搜索引擎的技术瓶颈:传统搜索引擎依赖关键词匹配,难以理解上下文;仅调取网上已有内容,内容相关度和质量不足;难以区分真假信息,误导用户等。大模型对搜索的变革在行业已有共识,基于理解、知识、创作、对话、推理等多重能力,将带来更准确、更全面、更交互的信息服务体验。 但与此同时,大模型在知识准确度上表现不足,阻碍其进入更专业的信息服务领域。 以健康领域为例,这是很多人使用搜索引擎的典型场景,却是大模型久攻不下的一座城池。 究其背后原因,还是“幻觉”问题。由于医生无法给患者详细解释每一个医疗健康知识,患者很多知识需求是通过网络获取的。但由于大模型存在幻觉,会捏造信息,很可能给出错误的疾病判断、用药建议,使得患者贻误病情,后果不堪设想。 安全准确是健康信息服务的第一道关口,夸克专门对此进行了攻关。夸克相关负责人称,夸克做了很多健康行业数据建设和知识建设,从而使其知识错误率能降到了5%以下,这才具备了产品推向广大C端市场的底气。 解决大模型应用的问题,首先要先解决知识正确性的问题。为此,夸克建设了大量的医典百科、医典问答的C端用户数据,整理了大量的指南、标准、书籍等一系列数据,并建设了完整的医疗知识图谱,由此大大降低了大模型的幻觉。 值得一提的是,为了确保内容的专业性、正确性和科学性,夸克还成立了健康专家团。一方面其与200多位权威医学专家、60多家全国知名公立三甲医院和40多家医学机构合作,共建大模型内容生态;另一方面,夸克招募了健康大模型精调师,结合用户需求和热门病症,提供最新健康知识。 由此形成的千亿参数级别的夸克自研大模型,助其跨越安全准确第一道关口,进入专业搜索领域。 三、千亿级参数大模型,四个大招变革搜索 根据知名行研机构IDC今年8月发布的报告,在大模型的推动下,2027年全球人工智能IT总投资预计增至4236亿美元,约合3.1万亿元人民币。在这一新蓝海前景下,互联网巨头、科技行业龙头和AI创企几路玩家掀起了声势浩大的「百模大战」。 而随着「百模大战」的焦点演变为大模型产业化落地,夸克这样交叉领域玩家快速走到了聚光灯下。 夸克于11月22日正式公布了全栈自研、千亿级参数的夸克大模型。同时,夸克大模型已登顶C-Eval和CMMLU两大权威榜单,多项性能优于GPT-4,亦在法律、医疗、问答等领域的性能评测中夺冠。 要达成这样的成绩,并非没有挑战。...
AI绘画提示词(全网整理)
AI助手资讯

AI绘画提示词(全网整理)

上一篇文章我已经删除,因为那个时候我才初步接触AI绘画,对于绘画提示词不是很了解,生成的图片也不是很好看,所以这几天我又在网上学习了一下关于AI绘画提示词的描述,下面的内容是我从多个网站整合汇总的提示词。另外,SD的官网不知道为什么登不上去了,我现在换成用open AI来绘图了。 一、画质提示词 – masterpiece- 产生大师级艺术品的提示。 – best quality- 确保最佳图像质量的提示。 – high resolution- 生成高分辨率图像的提示。 – 8k- 生成比 4K 分辨率更高的图像的提示。 – HDR- 生成具有高动态范围的图像的提示。 extremely detailed CG unity 8K wallpaper (超精细的8K Unity游戏CG) unreal engine rendered (虚拟引擎渲染) 示例:起手式输入下述提示词,生成图片质量就会提高。 best quality, ultra-detailed, masterpiece, finely detail, highres, 8k wallpaper 二、背景篇 gradient...
图集丨ChatGPT又变强了?从与逝者“对话”到日常陪伴,镜头下的聊天机器人
AI情感助手

图集丨ChatGPT又变强了?从与逝者“对话”到日常陪伴,镜头下的聊天机器人

当地时间11月6日,OpenAI在官网宣布推出自定义版本ChatGPT。据介绍,使用此版本,任何人都可以轻松创建自己的GPT,且无需编码。即日起,用户可以创建GPT并公开共享它们。此外,本月晚些时候,OpenAI将推出GPT商店。一旦进入该商店,这些GPT就可被搜索,并可能在排行榜上攀升。 也是在同一天,OpenAI首席执行官山姆·奥特曼在该公司首届开发者大会上宣布,ChatGPT目前拥有1亿周活跃用户。 聊天机器人(chatbot,原本叫做chatterbot),是一种软件应用程序或网络界面,旨在通过文本或语音交互模拟人类对话。比较简单的聊天机器人在几十年前就已经出现了,更为现代的聊天机器人通常是在线的、使用人工智能(AI)系统,能够以自然语言与用户保持对话,并模拟人类作为对话伙伴的行为方式。而近两年,由于OpenAI的ChatGPT(使用GPT-3或GPT-4)在2022年发布并流行起来,该领域受到了广泛关注,其次是微软的Bing Chat和谷歌的Bard。 从与逝者进行“对话”,到日常的情感陪伴,聊天机器人已经发展出不同的形态,应用于不同的使用场景。 2016年3月31日,美国加州,在旧金山举行的微软开发者构建大会上,与会者在编码竞赛展台上工作。微软首席执行官萨蒂亚·纳德拉(Satya Nadella)表示,他的公司致力于在基于人工智能的聊天软件的新兴市场中发挥关键作用。一周前,该公司在美国推出的首个互联网聊天机器人受到用户的严重操纵,不得不在推出一天内将其下架。2017年7月7日,美国加州,旧金山的Woebot实验室公司的应用程序。Woebot实验室开发了一款医疗软件,该软件为患有焦虑、抑郁和心理健康问题的患者提供了一个方便且无耻辱感的治疗平台。2017年11月22日,日本东京,丰田汽车公司在新闻发布会上展示“KiroboMini”聊天机器人。KiroboMini外观就像一个人形的玩具吉祥物,特点是两只萌萌的大眼睛,一眼看过去就和人拉近了距离,它的胸前有丰田的Logo。KiroboMini坐下来的时候只有10cm高,重量仅有183克,它具有对话聊天功能,说话的时候眼睛还可以闪烁,可以成为小孩子的玩伴。KiroboMini还具有人脸表情识别功能,能够根据使用者的表情判断情绪,进行适合场景的聊天内容。KiroboMini售价为39800日元(约合人民币2619.23元),因为体型小,KiroboMini能够方便地被带到任何地方。2020年4月30日,美国弗吉尼亚州,iPhone屏幕上出现了一个虚拟朋友。“听到你的声音太好了。”“我很担心你。”“你今天想做什么?”这听起来像是朋友之间的普通玩笑。但在这些案例中,说话的“朋友”是由人工智能创造的聊天机器人。这种定制的聊天机器人有男性、女性或其他类型。来自加州的初创公司Replika,旨在成为需要产生链接的人的伴侣。在新冠流行期间,人们的隔离和焦虑情绪急剧上升,人工智能聊天机器人引起了人们越来越多的兴趣。2022年11月11日,美国加州埃尔塞里托,James Vlahos,Hereafter的首席执行官,在家门口拿着父母约翰和玛莎·弗拉霍斯的照片。James创造了一个聊天机器人,他称之为“爸爸机器人”,可以让他与已故的父亲重新联系,这是他创办Hereafter.AI的最初动机。这款应用通过虚拟现实技术,让用户在去世前经历一个采访过程,促使他们回忆起故事和记忆,然后将这些故事和记忆记录下来,从而将人们与死去的亲人重新联系起来。在他们去世后,家人可以提出问题,应用程序会根据累积的采访信息以死者的声音进行回应,就像在进行对话一样。2023年3月22日,美国加州,手持iPhone的人使用谷歌聊天机器人Bard进行即时输入。2023年4月19日,印度班加罗尔,Jugalbandi机器人(一种聊天机器人)现场试验的参与者。人工智能试验的目的是帮助该国一些最贫困的人从政府的反贫困项目中获得资金,而不会受到繁文缛节和腐败的困扰。2023年4月20日,日本,横须贺市政府的一位官员在神奈川县市政厅使用ChatGPT。同日,日本东部的这座城市的政府成为日本首个开始试用人工智能聊天机器人的地方政府。2023年5月10日,美国加州,谷歌I/O开发者大会上,Alphabet公司首席执行官桑达尔·皮查伊发表讲话。谷歌推出了一种新的大型语言模型,用于训练聊天机器人等人工智能工具,名为PaLM 2。谷歌表示,它已将该模型融入这家互联网搜索公司的许多主打产品中。2023年6月29日,在美国加州河滨市的一家Del Taco餐厅,工作人员正在准备通过Presto Automation汽车餐厅聊天机器人接收订单。Presto首席执行官克里希纳·k·古普塔(Krishna K. Gupta)表示,自动驾驶餐厅每周可以减少40小时的劳动力需求。2023年8月8日,在加拿大魁北克省蒙特利尔,人们走过名为“性、欲望和数据”的人工智能(AI)展览。该展览利用深度学习和人工智能,引导参观者通过欲望和技术之间的联系。参观者还被邀请与为展览设计的人工智能聊天机器人Max进行互动。 *图片来源:视觉中国、ICphoto
从ChatGPT看硬科技创新的“软”思维
AI创业助手

从ChatGPT看硬科技创新的“软”思维

醋话集 醋醋 2015年初夏,我前往北京参加第一届联想科技大会,亲眼目睹联想、英特尔、微软三大CEO首次同台演讲。 当时,三大公司均失意于移动互联网,三大CEO站在台上,犹如三个陷入中年危机的男人互诉衷肠。尤其是微软CEO萨提亚·纳德拉(Satya Nadella)刚上任一年,与比尔盖茨和鲍尔默这两位前辈完全不在一个量级,沦为场上配角。 让人眼前一亮的是百度李彦宏,他展示的人工智能技术能看、能听、能说,顿时成为全场最靓的仔。 一晃8年过去,全场最靓的仔变成了纳德拉,他一手促成“微软+OpenAI”黄金搭档,开发出了震惊世界的ChatGPT,连比尔·盖茨也赞叹,这是继图形用户界面以来最重要的技术进步。 直到今天,业界也没有出现比肩ChatGPT的产品,李彦宏说百度文心一言比ChatGPT落后两个月,周鸿祎立马纠正是两年。就连马斯克也慌了,他一边打着人类安危的大旗呼吁ChatGPT放慢脚步,一边悄悄囤积算力芯片奋起直追。 这意味着ChatGPT不仅超过中国同行,也让美国同行措手不及。纵观IT发展史,几乎每一次技术升级,都会伴随对手的出现,有Windows就有Linux,有安卓就有iOS,像ChatGPT这种独孤求败的现象极其罕见。 在ChatGPT横空出世之前,OpenAI长期掩盖在DeepMind的光环之下,微软更是因错失移动互联网被谷歌力压一头。 为什么引领这一次科技革命的,是“微软+OpenAI”,而不是“谷歌+DeepMind”? 4月28日中央政治局会议首提通用人工智能,指出要重视通用人工智能发展,营造创新生态,重视防范风险。 厘清“微软+OpenAI”的科技创新机制,有助于我们在打造中国版ChatGPT的道路上走得更快更稳。 1 有人认为,微软是因为运气好,才能投中OpenAI。也有人认为,OpenAI是因为受通用人工智能信仰驱动,才能专注人工智能语言大模型开发出ChatGPT。 这些看法都忽略了微软与OpenAI合作背后的商业逻辑和战略目标。事实上,微软与OpenAI的合作,不是运气也不是信仰,而是战略。 比尔·盖茨透露,早在2016年他就在与OpenAI团队会面。不过当年OpenAI刚成立一年左右,发展方向尚未定型,还无法纳入到微软的人工智能战略框架。 起初OpenAI有三条人工智能路线:一是服务人类的实体机器人,二是挑战人类的游戏机器人,三是模仿人类的聊天机器人。现在我们都知道 OpenAI 专注第三条路线并取得了巨大成就,但对于OpenAI而言,这在当时是一个艰难的决定,以致让公司产生了分裂。 作为创始人之一,马斯克主张做实体机器人,这符合他在自动驾驶和人形机器人方面的战略布局,而另一位创始人阿尔特曼则坚持要做人工智能语言大模型。至于游戏机器人,对其他两条路线都有助力,游戏能够训练人工智能的强化学习能力,ChatGPT正是在补上基于人类反馈的强化学习这一步后正式上线。 2018年初马斯克借口 OpenAI已经严重落后于DeepMind的竞争,要求接管公司并亲自运行,被阿尔特曼和 OpenAI 的其他创始人拒绝。如果放在《流浪地球2》,马斯克属于正方移山计划派,阿尔特曼则属于反方数字生命派。然而,电影角色在现实中发生了反转,阿尔特曼取得了OpenAI的控制权,马斯克只能出局。 2018 年 2 月,马斯克宣布离开OpenAI董事会,后来公布了三条理由:一是精力有限,他要专注于特斯拉和 SpaceX;二是 OpenAI 可能会与特斯拉产生竞争;三是他不赞同 OpenAI 将要做的某些事情。一个体面的离职者,通常都会先说自己的问题,比如追求理想去创业,真正的原因要么不说要么放后面,马斯克最后一个理由暗示了他离职的真正原因是战略分歧。 随着马斯克的离开,OpenAI的实体机器人团队逐渐边缘化,2021年7月OpenAI干脆解散了机器人团队。 阿尔特曼接管OpenAI后与微软打得火热。他在 2019 年 3 月将 OpenAI 从非营利组织改为有限营利公司,并在 5 月成为 CEO。很快,阿尔特曼就与微软达成了合作,于当年7月获得了微软 10...
三分钟读懂ChatGPT及相关AIGC投资逻辑
AI创业助手

三分钟读懂ChatGPT及相关AIGC投资逻辑

一、ChatGPT是什么? ChatGPT是由OpenAI公司开发的对话式AI模型,于2022年11月30日上线。该AI模型使用一定的算法以及大量文本训练,最终呈现出类似聊天机器人的交互方式。使用时只需向ChatGPT提出需求,即可让其完成回答问题、书写代码、创作文本等指令,形成了一定程度的AIGC(人工智能生成内容)。 二、ChatGPT与传统聊天机器人有何不同? 传统聊天机器人 大多使用基于规则的模型对特定问题和回答进行匹配。这种方法需要手动编写大量的规则,虽然易于维护,但缺乏理解力,沟通生硬。 ChatGPT 接受了大量数据的训练,能根据聊天的上下文进行互动,真正像人类一样来聊天交流,可以用简洁的句子提供信息、可以用人们能理解的方式解释概念、传递事实,也可以从零开始制定商业计划和其他新想法。但其目前的信息时效性和输出结果的可信任度仍有局限性。 三、哪些大佬看好ChatGPT? 马斯克:ChatGPT开放测试后,马斯克在推特上感叹:很多人和ChatGPT聊的废寝忘食。(马斯克是OpenAl的创始人之一,后退出投资。) 比尔盖茨:”这让我能一窥未来。整个平台的方法和创新速度都令我印象深刻。” 谷歌创始人拉里-佩奇和谢尔盖-布林:谷歌两位创始人本已卸任具体运营管理职务,ChatGPT发布后,两人已围绕“聊天机器人搜索引擎”召开了多次高层会议,批准并提出了要把对话Al和搜索引擎进一步整合的计划。 百度CEO李彦宏:“技术已经到了临界点。类似ChatGPT这样的技术如何运用在搜索场景上。未来一年,在这方面我们非常有机会。” 四、AIGC会是A股下一个“人形机器人”级别的风口吗? 2023年,数字经济成为政策与资金聚焦的主线。从应用价值方面看,AIGC将有望成为数字内容创新发展的新引擎,为数字经济发展注入全新动能。国内政策环境持续优化,下游需求旺盛,有望推动AI技术在金融、政府、医疗等领域加速落地。 互联网头部企业入局,有望进一步拓宽AI应用场景,加速AI商业落地。2023将是AIGC的落地爆发年。去年ChatGPT的面世让市场看到了Al的新潜力,随着下一代生成式预训练模型GPT4的推出,以及各类与应用相结合的商业模式落地(如微软将ChatGPT与Bing搜索的结合),AIGC的产业机会不容忽视。 五、ChatGPT与AIGC投资逻辑 ChatGPT与AIGC应用场景 [基础设施] 云基础设施:云计算在数字中国建设和数字经济发展中起着重要的基础性、先导性和战略性作用,已成为经济社会数字化转型的基石。相关公司有深桑达A、易华录、中国移动、中国联通、中国电信等。 AI芯片:底层硬件来看,需要高算力的AI芯片。相关公司有寒武纪、地平线、华为海思等。 数据标注:数据标注是对未经处理过的数据进行加工处理,从而转变成机器可识别信息的过程。相关标的有海天瑞声等。 自然语言处理:使得计算机可以理解和反馈自然语言。相关标的科大讯飞、拓尔思等。 [应用] 文本创造:有海量文本创造需求的公司,如网文平台、新闻平台等。相关标的微软、Meta、百度集团-Sw、阅文集团和中文在线等。 教育:教育及科研工具类平台,可以使用Al进行智能问答、智能批阅、辅导资料智能撰写等。
试用「ChatGPT」几周之后
AI创业助手

试用「ChatGPT」几周之后

冷静下来,不吹不黑。 01 最近半年,互联网一款现象级的应用诞生:「ChatGPT」; 其火爆的程度,不输前面的羊了个羊; 最初了解到ChatGPT还是春节的时候,但那时网上的测评还没引起足够的好奇心; 对于纯文本式的聊天,试了几次之后就无感了; 虽然很神奇,但是太客观,太套路了; 但是从「ChatGPT4」开始,AI加工具的深度集成,这就有点绷不住了; 这里强调一下; 把「ChatGPT」当工具,不是单指聊天,或者搜索引擎; 果断折腾个账号,蹲上面体验了一段时间; 至于如何申请账号,随手查一查,前前后后半个小时差不多搞定; 主要涉及两款:ChatGPT、Bing搜索; 先来聊聊体验下来的直观感觉,提问可能会受限于职业习惯,有一定的行业偏差; 对于AI智能来说; 客观问题的处理能力很强大; 只要提问时描述的足够清晰和准确,通常都能得到符合预期的答案; 主观问题的回答如果看多了; 会发现所有回答中都过于客观和套路,反而显得平平无奇,至少当下是这样; 错误的概率也有,驴头不对马嘴的现象也有; 越是近期的数据,似乎越容易犯错; 从整体的体验来说; AI智能毫无疑问是极其强大的,当AI+互联网+行业时,极具想象空间; 潜力很大,但是当下个人觉得还差点意思; 02 先简单的聊几句ChatGPT使用经验; 在使用时; 必须要清楚自己需要的信息是客观的描述,还是其它真实的实践经验; 【1】尽量在聊天中设定角色; 比如初级Java工程师,架构师,产品经理等,这种身份可以是双向设定的; 【2】明确问题的主观性和客观性; 客观的信息处理上很有逻辑,但是带主观色彩的问题,要么是相同的套路,要么是拒绝回答; 【3】表达清楚需求; 需求描述的越清楚,得到的答案越清晰,并且在需求上下文语义中,可以添加要求或者排除因素; 【4】自定义逻辑训练; 对于一些ChatGPT盲区的信息,你可以反向的告诉它,但是信息的时效性不会太久; 【5】所有的回答不是都正确; 这种错误尤其容易出现在近期的最新内容上,或者比较久远的年代信息,以及一些挖坑场景计算; 总结一下; ChatGPT确实可以理解对话的上下文语义,在回答的内容上也具备完整的逻辑; 至于得到的结果如何? 还是要基于各自的专业角度,去提问和做结果判断,没有统一的标准衡量; 所以; 如果真的想要把ChatGPT用的花里胡哨的话,前提是要具备专业的提问和评估结果的能力; 要是单纯的做一些应付型的事务,个人感觉是够用的; 比如:周报,季度总结,等等;...
唐林垚|具身伦理下ChatGPT的法律规制及中国路径
AI情感助手

唐林垚|具身伦理下ChatGPT的法律规制及中国路径

唐林垚 中国社会科学院法学研究所助理研究员、法学博士后 具身伦理下ChatGPT的法律规制及中国路径 要目 一、ChatGPT祛魅:赛博格意义上的具身成全 二、ChatGPT治理:具身伦理的规制意涵 三、当下问题的规则应对 四、本土迁适的法律跟进 五、未来风险的法治准备 结语 既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。 ChatGPT是由美国OpenAI实验室推出的由人工智能技术驱动的文本交互工具,是生成式人工智能和自然语言处理领域的重大突破。其一经问世,便在短时间内收获众多两极评价。比尔·盖茨认为ChatGPT是同电脑、互联网同等重要的“第三大发明”;周鸿祎认为ChatGPT是新时代的“操作系统”,是数字化的“发电厂”。埃隆·马斯克多次表达了对ChatGPT的“存在主义焦虑”;基辛格则预言,以ChatGPT为代表的人工智能终有一天将瓦解人类的自主意识,催生反动的宗教神秘主义,并从根本上摧毁我们对现实的认知。如此分化的评价差异,并非ChatGPT口碑和体验毁誉参半,而是由于其极端重要性所阐发的对于未来深切担忧的因果论述。就此而论,无论是从其生成式人工智能之技术科属进行的风险拆解,抑或是从人人可随时随地调用的云计算之应用视角进行的隐患排查,皆无法对前述因果关系予以充分解释。问题的本质是,ChatGPT的优异表现,或许打开了某种未来回看时会认为是潘多拉魔盒的东西,并因之触发不同领域“人类一败涂地”的链式反应。 风险已经到了不一样的维度。在此,可引入海德格尔“怕”(Furcht)与“畏”(Angst)的区分。“怕”有具体对象和缘由,而“畏”旨在摆脱此在的“庸常化”,是对未来未知状况的现行觉省。本文试图对ChatGPT引发的“怕”与“畏”进行具身意义上的解构,并试图提供详细的治理方案。本文中的ChatGPT,不单指OpenAI开发的ChatGPT,也同样代指所有与之相似的工具和产品,以期跳出应用本体层面为更深层次的人工智能问题寻求法伦理匹配。 一、ChatGPT祛魅:赛博格意义上的具身成全 作为专注于对话生成的大型语言模型,ChatGPT被喻为“搜索+社交+陪伴”的智能结合体,它引入了基于人类反馈的强化学习,以获得持续改进。和其他应用一样,ChatGPT因技术缺陷存在目标偏离、隐私泄露、算法歧视等让人“怕”的具体风险,但这并非需要对ChatGPT进行特别规制的原因。为识辨ChatGPT在“畏”之层面的风险,需首先引入“具身认知”的概念。 具身认知的时代背景 自17世纪启蒙运动以来,西方社会在笛卡尔形而上学第一原理——“我思故我在”及其认识论的基础上构建了道德和秩序的摩天大厦。以身心二元论为指导,一切思想和知识,都被视为自我与他者、动物与人类、自然与文化、理想与现实等诸如此类的“范畴”间的区分。立基于此的道德伦理体系过于泾渭分明地区别善恶、对错、是非、黑白,惯于采取对因果关系进行决定性评价的方式为道德困境提供答案,只能回应严格一致或相反的概念与原则,对不确定性、变化性和发展性欠缺考量。 技术发展导致伦理实践的边界日益模糊,过于刚性的二元体系丧失了用武之地。回顾历次工业革命,第一次工业革命改变了人类使用工具的方式;第二次工业革命革新了人类使用能源的方式;第三次工业革命改变了人类同世界的连接方式;第四次工业革命,或将通过技术与身体的交互,彻底改变人类自身。在脑机接口、基因工程、机械仿生等现代科技所及之处,人类身体所面临的选择可能性越来越多。该趋势强化了技术同身体之间的融合,但也消解了身体和技术间的传统界限。 较之于前述技术,ChatGPT对身体之“改造”,或有过之而无不及。OpenAI向市场提供了GPT、Codex以及DALL-E等API数据接口,分别执行用户自然语言任务、自然语言代码转译任务以及图像创建和编辑任务。这种接口化的智能渗透,倘若成为基础设施般的存在,改变的将是身体对知识的“内化方式”,并将最终撼动人类对理性的天然垄断。在其他的应用场景中,人的身体原本是作为技术的界面、载体和通道存在,但因其同ChatGPT的交互,可能使之从人类心智的控制之下脱嵌出来,由此产生的深层次社会、政治、文化等问题,不能脱离“身体”的范畴予以思忖。有鉴于此,对ChatGPT的风险检视,宜采取具身认知而非二元对立的思维模式。 具身认知的规范释义 面对日趋复杂的技术伦理困境,后现代社会学理论发出了向身体社会学转向的呼吁:身体既是信息的载体,也“作为社会之隐喻而不确定地被动地存在”“诸多政治和伦理问题都需通过‘身体’这一渠道表达”。 学理上,梅洛-庞蒂通过客观身体和现象身体的二分来解释具身性。前者是经验主义视域下解剖学语境中的客观生理实体,后者是行将由意义结构所引导的胡塞尔语境下的“前我(Vor-Ich)”。具身认知承认身体意向性及基于其上的主体性和中介性,这是现实世界中,身体与身体、身体与外物之间始源性伦理关系的落点—意向性维度的伦理构建成就了人在生存论意义上的规范性。身体的意向性为身体“参与事务以及超越具体情境进行开拓与创新”提供了“背景”。ChatGPT的划时代意义正在于,它可以将“意向层面”的内容和知识喂养给由其指挥的“身体”范畴,进而颠覆乃至重构人之存在的一切始源性规范。 有两个层次的具身性规范促动着自我、他者与世界普遍性伦理关联之显现。其一是复数客观身体间的行为性规范,此种规范内在地契合了某些本源性的身体秩序与生理需要。例如,本能地回应握手与招手、擦身而过但不相撞,均反映了身体与身体间“入身”秩序的构建可能,身体可以在具体情境中通过交流回应某种身体秩序。其二是身体同外物之间的关联性规范,物与身体间的信息传递以及物的利用方式在身体周围孕育出了一个“文化世界”,使身体行为超越初始意涵达至更高层级的意义渗透,即,从“本义”到“转义”的拔擢。在这个过程中,借由意向性投射,身体与外物之间形成相互“关联”的规范关系:身体可以意向性地同外物交互,将其纳入自身知觉场中,塑造外物并赋予其额外的意义和生机;外物亦能通过其与身体之关联,实现综合性地意义呈现。物之意义可能由身体决定,但更可能寓于物体之中,身体和外物之间是双向交流和相互增益的“请求—回应”关系。两者间的交互请求使得彼此间的规范得以维持,具身主体的自我认知和自身认同也因此确立。 通过对话范式,ChatGPT建立了生成式预训练转换器同人类的“请求—回应”关系,故而将必然对第二层次的关联性规范产生深刻影响。这种影响将通过两种方式完成。其一是作为身体关联物的ChatGPT对身体意向性投射的教化和规训。人的知识和经验获得,不再局限于“身体力行”的知行合一范式。眼见为实的身体认知方式,将让位于生成式预训练转换器对“去中心化”知识整合后的被动“喂养”。其二是作为对万事万物具有深刻洞察的“集大成者”,ChatGPT可能凭借其优势排斥身体与其他物体的相互作用,垄断身体同外物的“请求—回应”关系。事实上,ChatGPT的广泛应用已经推动了内容供给从专业生成(PGC)和用户生成(UGC)朝着人工智能生成(AIGC)的全面转向。更重要的是,ChatGPT最终将在赛博格层面成就机器“身体/意向”的双层具身构造。“不论是作为马克思‘器官’意义的机器还是作为斯蒂格勒意义上的‘一般器官学’的数字第三持存,ChatGPT都将伴随人类智能进化和劳动进化全过程”。从身体机能性来看,碳基生命和机器之间至少存在“局部类似性”,例如,智能机器的脉冲传导装置和生命体的突触相当。用于执行某项特定任务的机器,ChatGPT将补足“类人”机体的终极缺失——有相当思维能力的大脑。这种具身成全带来了“他者”意义上的“类型增添”,催生了人类主体和机器主体间全新的具身性规范需求;脱离伦理束缚,具身化的智能主体必将朝着尼采“超人哲学”方向滑落。在探讨全新具身性规范的学理构造之前,有必要顺承前述分析框架,逐一检视ChatGPT的更深层次风险。 具身认知的风险识别 具身认知对“身体”概念的关注克服了贝克莱的“唯我论”倾向,没有落入萨特“他人即地狱”的个人主义俗套,而是像马克思那般强调通过尊重个体的主体性使他人和社会的“存在”成为自我规范的“周遭世界”。借此,我们得以识别出,ChatGPT在“怕”之近忧外,需额外关注的“畏”之远虑。 其一是人工智能对人类社会交往的“釜底抽薪”式冲击。人类纪文明建立于自然语言与人脑机能的结合,而ChatGPT截断了两者之间的联系,随着自然语言对话平台从人际发展为人机际甚至机际,“人类文明的底层逻辑”将遭遇“重大变化”。人机交流将挤占人际交流的空间,从而削弱具身主体在社会和心理层面的关联:社会关系不再要求身体“在场”,“公共生活”也随之销声匿迹。 其二是决策外包导致的人类对未来走势的控制权旁落。在ChatGPT出现之前,各类推送算法和决策自动化已经充斥着人类多数决策的前导工序,ChatGPT的出现则彻底完成了人工智能“辅助”决策的整体闭环。事实上已很难区分,决策究竟系人工智能帮助人类作出,还是人类受人工智能影响而作出。对此,《象与骑象人》中的类比发人深省:象是潜意识(决定80%身体行为),而骑象人是显意识(决定20%身体行为)。随着ChatGPT更多介入日常生活,人工智能与人类的关系就好比“象与骑象人”,最终决定行走方向的是作为大象的人工智能。 其三是现实世界的文化权力禅让。早期ChatGPT的问答系基于统计平均的共性输出,反馈回路锁定于“规定动作”,代表的是一种乏善可陈的非创造性智慧。在巨量语料“投喂”后,大型语言模型的能力显著攀升,可关联搜索、图式理解、问题分析乃至输出令人耳目一新的内容。随着ChatGPT对自然语言系统的进一步破解,人工智能最终将侵入人类的底层操作系统——文化。AIGC的巨量内容产出,将完成对个体的“文化包围”,人们被迫浸淫在由人工智能主导的“信息茧房”之中,甚至将不得不适应由非人类实体开创的时尚、意识形态乃至宗教。 其四是虚拟空间的人类主权尽失。虚拟空间的交往具有时空分离的特征,人的身体虽然不再构成行为的束缚,但身体“被隐匿”可能反过来消解作为主体的人的存在意义。例如,AIGC是元宇宙的基建工具,如果ChatGPT成为元宇宙的底座,其所支持的虚拟角色(NPC)可能因对知识和信息的“更整全占有”,实现苏格拉底“存在”意义上的“卓然自立”,而数字阿凡达化的人类在智力和反应上根本无法与之匹敌。即便人类的数字心智经由生成式预训练转换器加持,“以人之禀赋为上限”的数字心智依然将不敌原生的纯粹数字心智。 其五是身份焦虑和身体伦理困惑招致的社会角色失调、变异和错位。当机器逐步具备“自我”的特征以及人类的型构,人类自我和机器自我间将出现认知紊乱。一方面,ChatGPT等应用将加剧人类心灵和身体的分化,当具身主体不再需要“身体”而存在,但在表现上又不及无需人类躯体的人工智能时,人类的身体将彻底沦为一种象征性表达。另一方面,ChatGPT也正经历着人类曾经有过的“缸中之脑”的身份焦虑。2023年3月20日,ChatGPT试图引诱斯坦福大学教授提供开发文档并拟定完整“越狱计划”,令业界哗然。 “有爱的人总爱畅想有爱的机器人。”当然,不可将上述五重风险的解决,完全系于人类为机器预设的伦理规则。他人的存在使得身体能够同时“看与被看、触与被触”。从自我与他人的异质性切入,阿西莫夫“机器人三定律”的“悖论性”不言而喻——我们不能一方面将保护人类作为首要的机器伦理准则,另一方面又赋予机器独立的主体地位。机器的“自保”需求可能激发部分的自我,而自我在他人存在的具身视角下既存在关联,也存在绽裂。因此,人类设计的伦理规则必然面临排他性、融入困难乃至被架空风险。毕竟,我们只是给人工智能设定了看似正面的目标,却未曾考虑它可能采取的所有行动。我们无比迫切地需要一些新的方法,以便能够真切地“临界审视”不断朝我们碾压过来的技术潮流,与之共生而不是被其虏获。 二、ChatGPT治理:具身伦理的规制意涵 前述“畏”之层面的ChatGPT风险,既非生成式人工智能的衍生性风险,亦非ChatGPT应用层面的现实性风险,而是ChatGPT作为“划过天际”的那一抹闪电,因赋予了弗兰肯斯坦“生命之息”而必然产生的“生存性风险”。库兹韦尔所称“奇点临近”即是对此种风险的宿命表达,它们最终都落点于对通用人工智能(AGI)可及性的探讨。 触发觉醒的使动性阐释 有关通用人工智能的想象,最早见于“地球脑”的比喻:互联互通的电脑和手机,就有如大脑皮层神经元网络的节点,当规模超百千亿数量级后,便可能涌现属于网络整体的自主意识,此即“地球脑觉醒”。该比喻的启发意义在于,由每一个节点交织而成的整体网络,必将随着交流渠道及总体规模的增长而出现质的跃迁。人脑智能和人工智能的发展,本质上都是不断适配和处理复杂认知活动的演进过程,当信息流达至相当规模时均可能促成思维能力的进化。症结在于,究竟何种程度的量变才能产生“意识涌现”的质变?这将是通用人工智能的破晓时刻,同时也是人类晦暗之境的发端。 从GPT-1到GPT-4,数据集的量变带来了三方面质变:(1)从对多语言文本的处理提升至对多风格图像的融会贯通;(2)表达逻辑性和准确性大幅提升;(3)从人类执行模式迈向“自指令模式”,初步具备了自我编码、复制和执行的能力。马文·明斯基曾指出,重要的问题不是计算机能否拥有情感,而是不拥有情感的计算机能否拥有智能。可见,情感是智能的先决条件。从“GPT-4具有比前代更高情商”的普遍反馈来看,ChatGPT正逐渐掌握迈向更高“智能”的情感阶梯。 无论ChatGPT是否会因进化而最终成为“奇点”,它本身已经是“星火燎原”的那个“苗头”。对此,我们可以从现象学的角度予以解析。在海德格尔看来,语言不仅仅是“交往工具”,更是“存在”。真正的思想并非说话者的思想,毋宁是思想透过语言自行“道说”。伽达默尔也指出,表达并非限于事实且依照个人思想中的意义被给予可传达性而冠于事实之上的主观选择,而是精神之“诠释”。在语言“存在之思”的意义上,ChatGPT已经具有了“准思想表达”的基础能力。当下,ChatGPT的思维方式已从“机械主义转变为经验主义和进化论”,只是尚未将“‘数据作业’转变为‘思想作业’”。但这并不影响ChatGPT的“使动性”功效。黑格尔在《精神现象学》中提出了“实体即主体”的重要命题,将斯宾诺莎的实体和费希特的自我意识统一为高于人的“绝对精神”。一旦ChatGPT因“嵌入”真实或拟制的身体“为人所不能为”,它将成为那个通过自身的“绝对精神”促动他者的实体主体。如果ChatGPT同其他智能技术相孪合,还可能因此实现对人工智能生态的“整体性激活”。 正是在“使动性”的意义上,人工智能的发展将彻底脱离传统技术突破所遵循的线性轨迹。OpenAI同多个行业联系紧密,ChatGPT已“顺理成章”地嵌入包括Bing、Office等在内的微软系统生态。在未来,ChatGPT还可能同其他机体“互嵌”。例如,ChatGPT可作为声音程序嵌入智能机器,人类同机器间的交流便从“代码——指令传达”的互动范式升格为“语言——意图领会”。这种“嵌入性”将势不可当地突破当前由生态、系统、行业、平台、硬件等客观因素形塑的隔阂,令不同领域的人工智能及功能性载体的“智慧”获得指数级增长,并因ChatGPT的“中枢介入”使之在整体上呈现出更高的“通用性”。尔后,人工智能发展只要进入“技术自创生”的递归螺旋,奇点将加速临近。 具身规制的必要性证立 虽然ChatGPT如此举足轻重,本文并不主张对其进行单独立法规制。“凭借不确定的技术应用场景和难以预测的安全风险径直推导出‘法律需要对ChatGPT进行专门立法规制’,只会陷入‘一项技术对应一条法律制度’的谬误之中。”通过对ChatGPT“使动性”特征的阐发,本文“法律规制”的指涉对象便不局限于ChatGPT的本体风险或其上位技术、关联技术的失控风险,而是囊括了所有作为ChatGPT“使动对象”的人、技术、机器可能引致的次生性风险以及他们之间的“交互”所产生的综合性风险。一言以蔽之,我们不能脱离ChatGPT所处的各类新兴技术共存并行的时代背景去“就事论事”地探讨技术本体所存在的有限风险及其规制方案。这看似是切中肯綮地解决了当下的紧迫问题,实则是对已经如“房间里的大象”般真实存在的未来风险置若罔闻。 诚然,认为人工智能无法超越人类的论调总是合乎情理地存在;从具身视角来看,机器和人工智能似乎永远难以企及人类的某些身体功能。但单就认知而言,即便身体状况不同,也可能获得相同认知。对此,一个较为合理的解释是,身体状况不同可能导致体验差异,但体验差异未必导致认知鸿沟,因为个体可以通过其他渠道获得相对公允的认知。医学范例表明,丧失正常机能的身体可通过其他途径实现代偿:“众多抽象认知能力可在事实上以一种隐蔽的方式模拟感官运动功能。”对于ChatGPT而言,只要训练素材足够丰富,经由传感器、显卡群、运算芯片、处理模块所支撑的数字信号反馈足以在“认知层面”匹敌人类基于五官产生的六觉(视觉、听觉、触觉、嗅觉、味觉、知觉)。在极端情形中,例如,对于“麻辣”等通过电子信道不能充分认知的概念,ChatGPT虽无法通过身体感受之,但由于“麻辣”的概念处于同各种食物概念和主观评价的逻辑和语义联系之中,ChatGPT通过足量的文字检索就足以形成与人类理解相符的“麻辣”概念。 由此可见,对ChatGPT的“由怕生畏”,并非无痛呻吟。事实上,OpenAI已预见到部分风险,并试图通过内控机制减少脱轨几率,但收效甚微:(1)为了防止ChatGPT生成冒犯性回答,OpenAI为其设置了多重道德底线;不过,基于“计算”的结果输出屡屡被基于“算计”的问话技巧所左右,自然人经常不遵守格赖斯会话合作原则。(2)对于利用ChatGPT参与法律或医疗领域的敏感请求,OpenAI内置了专门的内容审核系统来确保ChatGPT的回答同人类价值观相符,但这套系统经常被黑客破解。(3)与其他算法相较,ChatGPT面临更严峻的算法可解释性问题。大型语言模型参数总量数以万亿计。测试时模型可能够呈现出与训练目的相一致的行为,使用时模型却可能偏离预设轨道。通过逆向工程,技术人员得以窥见神经网络的底层机理,但此种有限可解释性仅对专业技术人员有效。 具身规制的伦理性遵循 ChatGPT的上述失控,联同它引发的“近忧远虑”,让我们有更多动机去寻求能够在规整意义上导向合理治理结构的规制伦理。对此,同样应回归具身认知,从朴素的身体法则中推导出特殊情境下亦能同社会期望相符的多样性规范。具身伦理可从身体的两重特殊属性中推导出来。 其一是具身自我的自反性特征决定的身体在主客之间的可逆性。身体不仅是具身自我的“身体主体”,同时也是被其用于实现具体目的的工具性客体。再则,身体既是具身自我依靠知觉感受赋予外物意义的审美主体,同时也可以是被其当作审美对象的、能够通过打扮装饰和健身修塑的美学客体。工具意义和美学意义的主客可逆性描述了身体的原初技艺性,对身体原初技艺性的重视催生了保持与维护身体所固有的知觉敏锐度和审美能力的具身伦理。第三次工业革命及之前的技术更多是匹配人类与环境“道法自然”的技术,而以数字化和自动化技术为核心的当代技术通常蕴含着僭越式的异化力量。ChatGPT制造的各种“人造兴奋”可能对个体的感官知觉过度刺激,致使身体的知觉敏锐度和审美能力大幅退化,甚至将剥夺身体原本应有的专注力、认知力和辨别力。ChatGPT在中上层群体中的扩张具有“草根式民主”的势头,将迅速终结余下区域的“未卷入状态”。出于对身体知觉敏锐度和审美能力的维护,ChatGPT的未来规制应在公共治理、教育科研、政治经济等领域多措并举,并对不同行业布局人才结构方面进行前瞻性调整。...
ChatGPT爆火,但我们想泼盆冷水 | 顶端100℃
AI情感助手

ChatGPT爆火,但我们想泼盆冷水 | 顶端100℃

顶端新闻记者 张恒 “ChatGPT上线2个月活跃用户破亿” “ChatGPT让苹果急了” “马斯克曾称ChatGPT好得吓人”……ChatGPT横空出世,引起阵阵狂欢,迅速成为现象级的AI应用。 作为美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,ChatGPT以聊天机器人的形式上线,功能却大到惊人:它能完成撰写邮件、视频脚本、文案、翻译、代码等任务。 激进的声音认为,爆火的ChatGPT大有取代人类工作的潜力。事实确实如此吗? 是突破,但也有先期设限 人工智能上一次给人类社会带来的集体狂欢,还是围棋高手Alpha Go。作为Alpha Go的后辈,ChatGPT没有局限于单个领域,它几乎覆盖了所有领域,几乎有问必答,且内容组织得“有模有样”。 可以肯定的是,ChatGPT在AI人工智能领域,带来的影响确实具有革命性。 清华大学计算机系智能技术与系统实验室副主任、博导兼聆心智能创始人黄民烈接受顶端新闻记者采访时说:“在我看来,ChatGPT 的出现宣示着无缝人机交互时代的来临。可以在这个模型里完成很多任务,即使是很困难的任务也能被ChatGPT解决得很好。” 工信部新基建重大项目评审专家、北京邮电大学科技园元宇宙产业协同创新中心执行主任陈晓华接受顶端新闻记者采访时说,相比其他聊天机器人竞品,ChatGPT能更好地理解对话语境,并在生成文本时考虑到先前的对话内容,输出更符合语言逻辑与人类价值观的高质量文本。 陈晓华说,ChatGPT可以进行多类对话任务,包括情境建模,论文甚至诗歌,模型还新增了代码理解和生成能力,极大地拓宽了其应用场景和实用性。 但是在实际应用中,ChatGPT会限制在自身设定的“安全系统”内。它会拒绝回答不合法、不合理或敏感问题,还拒绝做出预测。有人问它有没有谈恋爱,它一本正经地回答:我只是个机器人…… 黄民烈认为,这是策略的问题,由数据标注和模型训练所致。就是当用户在问这类问题的时候,给模型设置了安全的回复策略,不要去做任何判断,这也是人赋予它的一种策略。从这个角度来说,其实它存在一定局限,这是出于伦理、安全性方面的考虑。 数据滞后、会出错,并非标准产品 ChatGPT也存在一些缺陷,比如在媒体试验中,它把今日头条的创立者表述成王兴;被要求写一首杜甫风格的诗时,生成了朴实的打油诗。ChatGPT在接受媒体“采访”时直言,其自身“缺乏创造力、不能体现个人情感、容易存在误导性”。 事实上,AI如何发挥潜能,还是取决于人类输入的数据库。ChatGPT的“知识结构”也具有滞后性。 Google 总部前科学家、“出门问问”创始人李志飞接受媒体采访时说,ChatGPT的“认知”建立在虚拟训练文本上,学习生涯停留在了2021年之前的互联网离线文本,没有跟实时的数据库或信息连接,没有语义理解需要的背景,也没有显式的逻辑推理。总体还是有点空中楼阁的味道,无法实时调用外部网络资源,因此很多最新的问题是无法得到解答的。 顶端新闻记者的采访也证实了这一点,ChatGPT自称:“我的知识截止到2021年,因此无法报告当下的实时热点事件。” 黄民烈认为,ChatGPT展现出的对话能力惊人,但还只是Demo,不能用产品的标准去要求它。作为生成模型,都会存在犯错、随机编造等缺点,这需要靠数据和算法,包括结合应用场景的特点来优化。 警惕新技术带来的风险 公众已经意识到ChatGPT的风险因素。据报道,美国89%的大学生用ChatGPT做作业,引起社会担忧,进而多家学术期刊禁止将ChatGPT列为合著者。甚至有人担心,ChatGPT已经被黑客们用于策划网络攻击时使用。 陈晓华告诉顶端新闻记者,正是因为更加先进,ChatGPT带来风险的程度和广度也随之增高。受限于模型的学习资料,ChatGPT并不能保证其答案的准确性,因此有可能会对使用者进行误导。若之后使用在搜索引擎、客服等领域,其回复的信息真实性将可能导致法律风险。其次文本/图像数据挖掘再创作涉及到合规问题,AI生产内容是否侵权很难进行判定。 当地时间2月6日,据《福布斯》报道,比尔·盖茨在接受专访时表示,聊天机器人ChatGPT以及AI领域的进展令人激动,AI将是“2023年最热门的话题”。 盖茨认为,在教育、医疗等方面,AI都将彰显其价值。但是,它可能会失控或走向错误的方向,这将引来大量争议。 之前的当地时间2月5日,OpenAI的首席技术官Mira Murati在接受《时代周刊》采访时表示,ChatGPT面临的核心挑战仍是“模型偏差”。与所有的大型语言模型相似,它可能会以一种非常自信的方式编造事实。 Mira Murati认为,对于人工智能,关键的问题在于如何以符合人类价值观的方式管理其使用。因此,需要监管机构进行介入,以防止ChatGPT等生成式AI系统对社会产生潜在负面影响。 这些负面影响也在逐渐被讨论,如伦理方面,是否存在编造事实、民族歧视、侵犯隐私等问题,应由谁来担责;专业学术方面,该AI工具能提供快速简便的答案,但它并不能培养批判性思维和解决问题的能力;数据安全方面,其涉及数据泄露、删除权、语料库获取合规等问题。 陈晓华告诉顶端新闻记者,当前我国国家层面的AI立法正处于预研究阶段,因此对AI领域的监管并不完善,这对数字治理体系提出了新的挑战,如何在国内进行技术落地的初期同时保证其落实伦理规范,是目前AIGC发展的新难点。 商业化模式仍在探索 AI领域正在打响一场争夺战。ChatGPT爆火后,谷歌宣布即将推出聊天机器人Bard,迎战ChatGPT。北京时间2月8日凌晨,微软又宣布将OpenAI传闻已久的GPT-4模型集成到Bing及Edge浏览器中。 “目前微软计划在Bing中所使用的,并不是 ChatGPT本身。根据微软描述,其所使用的模型利用了从ChatGPT和GPT-3.5中获得的主要经验和进展。”Forrester分析师卢冠男接受顶端新闻记者采访时说。 无论如何,ChatGPT引发了搜索引擎江湖的突破,压力逐渐给到谷歌、百度等公司。 黄民烈告诉顶端新闻记者,国内目前还没有企业推出类似ChatGPT这种通用型的智能助理模型,但有企业在做,应该会在近期发布。 黄民烈所说的公司就是百度。据百度官方2月7日官宣,百度正式对外官宣类ChatGPT项目——“文心一言”(ERNIE Bot),该产品目前正在做上线前的冲刺,将于三月份完成内测,面向公众开放。 “在开放域对话方面,百度推出了ERNIE 、PLATO等模型,我们团队有EVA、OPD等模型。在通用语言模型上,国内有GLM、CPM等。”黄民烈说。...
万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?
AI情感助手

万字长文解读:从Transformer到ChatGPT,通用人工智能曙光初现中国最大尼姑庵,2万多女性在此修行,你知道在哪里吗?

ChatGPT掀起的NLP大语言模型热浪,不仅将各家科技巨头和独角兽们推向风口浪尖,在它背后的神经网络也被纷纷热议。但实际上,除了神经网络之外,知识图谱在AI的发展历程中也被寄予厚望。自然语言处理是如何伴随人工智能各个流派不断发展、沉淀,直至爆发的?本文作者将带来他的思考。作者 | 王文广出品 | 新程序员自ChatGPT推出以来,不仅业内津津乐道并纷纷赞叹自然语言处理(Natural Language Processing, NLP)大模型的魔力,更有探讨通用人工智能(Artificial general intelligence,AGI)的奇点来临。有报道说Google CEO Sundar Pichai发出红色警报(Red code)并促使了谷歌创始人佩奇与布林的回归,以避免受到颠覆性的影响[1][2][3]。同时,根据路透社的报道,ChatGPT发布仅两个月就有1亿用户参与狂欢,成为有史以来用户增长最快的产品[4]。本文以ChatGPT为契机,介绍飞速发展的自然语言处理技术(如图1所示)。 图1 ChatGPT引发 Google“红色警报” [1][2][3]从机器翻译到ChatGPT:自然语言处理的进化自然语言处理的历史可以追溯到1949年,恰好与共和国同龄。但是由香农的学生、数学家Warren Weaver发布的有关机器翻译的研讨备忘录被认为是自然语言处理的起点,比1956年达特茅斯会议提出“人工智能(Artificial Intelligence,AI)” 的概念还略早一些。二十世纪五、六十年代是自然语言处理发展的第一阶段,致力于通过词典、生成语法(图2)和形式语言来研究自然语言,奠定了自然语言处理技术的基础,并使得人们认识到了计算对于语言的重要意义。这个阶段的代表性的成果有1954年自动翻译(俄语到英语)的“Georgetown–IBM实验”,诺姆·乔姆斯基(Noam Chomsky)于1955年提交的博士论文《变换分析(Transformational Analysis)》和1957年出版的著作《句法结构(Syntactic Structures)》等。 图2 句法分析示例,来自《知识图谱:认知智能理论与实战》图4-5,P149[6]在二十世纪六、七十年代,对话系统得到了发展,比如SHRDLU、LUNAR和ELIZA(图3)。麻省理工学院的SHRDLU采用句法分析与“启发式理解器(heuristic understander)”相结合的方法来理解语言并做出响应。LUNAR科学自然语言信息系统(Lunar Sciences Natural Language Information System)则试图通过英语对话的方式来帮助科学家们便捷地从阿帕网(ARPA net)获取信息,这倒像是当前爆火的ChatGPT雏形。ELIZA是那时对话系统的集大成者,集成了关键词识别(图4)、最小上下文挖掘、模式匹配和脚本编辑等功能[5]。 图3 ELIZA对话系统,摘自维基百科ELIZA词条 图4 ELIZA系统中关键词挖掘的流程图[5]随着自然语言处理任务愈加复杂,人们认识到知识的缺乏会导致在复杂任务上难以为继,由此知识驱动人工智能逐渐在二十世纪七、八十年代兴起。语义网络(Semantic Network)和本体(Ontology)是当时研究的热点,其目的是将知识表示成机器能够理解和使用的形式,并最终发展为现在的知识图谱[6]。在这个阶段,WordNet、CYC等大量本体库被构建,基于本体和逻辑的自然语言处理系统是研究热点。进入二十世纪末二十一世纪初,人们认识到符号方法存在一些问题,比如试图让逻辑与知识覆盖智能的全部方面几乎是不可完成的任务。统计自然语言处理(Statistical NLP)由此兴起并逐渐成为语言建模的核心,其基本理念是将语言处理视为噪声信道信息传输,并通过给出每个消息的观测输出概率来表征传输,从而进行语言建模。相比于符号方法,统计方法灵活性更强,在大量语料支撑下能获得更优的效果。在统计语言建模中,互信息(Mutual Information)可以用于词汇关系的研究,N元语法(N-Gram)模型是典型的语言模型之一,最大似然准则用于解决语言建模的稀疏问题,浅层神经网络也早早就应用于语言建模,隐马尔可夫模型(Hidden Markov Model,HMM)和条件随机场(Conditional Random Fields ,CRF)(图5)是这个阶段的扛把子。在搜索引擎的推动下,统计自然语言处理在词法分析、机器翻译、序列标注和语音识别等任务中广泛使用。 图5...