ChatGPT:超能力聊天工具,你的写作还行吗?🔥
AI情感助手

ChatGPT:超能力聊天工具,你的写作还行吗?🔥

概括如下:新聊天工具ChatGPT自2022年11月底推出以来增长迅速,成为消费者应用程序热门,其多才多艺的功能引发热议和互联网巨头跟进。尽管部分用户认为其语言流畅度较高,能完成日常对话甚至写作任务,但实测中ChatGPT在专业问题如电视剧评价上表现欠准确,存在明显误解和胡编现象。ChatGPT底层逻辑并非新技术,强化学习使其具有一定吸引力,但仍需改进以满足复杂需求和提供多样化服务。随着技术进步,ChatGPT有可能替代部分传统浏览器功能,但目前与真人聊天还有差距,其成功在于提高了人工智能在交互交流方面的仿真度。
ChatGPT爆火,但我们想泼盆冷水 | 顶端100℃
AI情感助手

ChatGPT爆火,但我们想泼盆冷水 | 顶端100℃

顶端新闻记者 张恒 “ChatGPT上线2个月活跃用户破亿” “ChatGPT让苹果急了” “马斯克曾称ChatGPT好得吓人”……ChatGPT横空出世,引起阵阵狂欢,迅速成为现象级的AI应用。 作为美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,ChatGPT以聊天机器人的形式上线,功能却大到惊人:它能完成撰写邮件、视频脚本、文案、翻译、代码等任务。 激进的声音认为,爆火的ChatGPT大有取代人类工作的潜力。事实确实如此吗? 是突破,但也有先期设限 人工智能上一次给人类社会带来的集体狂欢,还是围棋高手Alpha Go。作为Alpha Go的后辈,ChatGPT没有局限于单个领域,它几乎覆盖了所有领域,几乎有问必答,且内容组织得“有模有样”。 可以肯定的是,ChatGPT在AI人工智能领域,带来的影响确实具有革命性。 清华大学计算机系智能技术与系统实验室副主任、博导兼聆心智能创始人黄民烈接受顶端新闻记者采访时说:“在我看来,ChatGPT 的出现宣示着无缝人机交互时代的来临。可以在这个模型里完成很多任务,即使是很困难的任务也能被ChatGPT解决得很好。” 工信部新基建重大项目评审专家、北京邮电大学科技园元宇宙产业协同创新中心执行主任陈晓华接受顶端新闻记者采访时说,相比其他聊天机器人竞品,ChatGPT能更好地理解对话语境,并在生成文本时考虑到先前的对话内容,输出更符合语言逻辑与人类价值观的高质量文本。 陈晓华说,ChatGPT可以进行多类对话任务,包括情境建模,论文甚至诗歌,模型还新增了代码理解和生成能力,极大地拓宽了其应用场景和实用性。 但是在实际应用中,ChatGPT会限制在自身设定的“安全系统”内。它会拒绝回答不合法、不合理或敏感问题,还拒绝做出预测。有人问它有没有谈恋爱,它一本正经地回答:我只是个机器人…… 黄民烈认为,这是策略的问题,由数据标注和模型训练所致。就是当用户在问这类问题的时候,给模型设置了安全的回复策略,不要去做任何判断,这也是人赋予它的一种策略。从这个角度来说,其实它存在一定局限,这是出于伦理、安全性方面的考虑。 数据滞后、会出错,并非标准产品 ChatGPT也存在一些缺陷,比如在媒体试验中,它把今日头条的创立者表述成王兴;被要求写一首杜甫风格的诗时,生成了朴实的打油诗。ChatGPT在接受媒体“采访”时直言,其自身“缺乏创造力、不能体现个人情感、容易存在误导性”。 事实上,AI如何发挥潜能,还是取决于人类输入的数据库。ChatGPT的“知识结构”也具有滞后性。 Google 总部前科学家、“出门问问”创始人李志飞接受媒体采访时说,ChatGPT的“认知”建立在虚拟训练文本上,学习生涯停留在了2021年之前的互联网离线文本,没有跟实时的数据库或信息连接,没有语义理解需要的背景,也没有显式的逻辑推理。总体还是有点空中楼阁的味道,无法实时调用外部网络资源,因此很多最新的问题是无法得到解答的。 顶端新闻记者的采访也证实了这一点,ChatGPT自称:“我的知识截止到2021年,因此无法报告当下的实时热点事件。” 黄民烈认为,ChatGPT展现出的对话能力惊人,但还只是Demo,不能用产品的标准去要求它。作为生成模型,都会存在犯错、随机编造等缺点,这需要靠数据和算法,包括结合应用场景的特点来优化。 警惕新技术带来的风险 公众已经意识到ChatGPT的风险因素。据报道,美国89%的大学生用ChatGPT做作业,引起社会担忧,进而多家学术期刊禁止将ChatGPT列为合著者。甚至有人担心,ChatGPT已经被黑客们用于策划网络攻击时使用。 陈晓华告诉顶端新闻记者,正是因为更加先进,ChatGPT带来风险的程度和广度也随之增高。受限于模型的学习资料,ChatGPT并不能保证其答案的准确性,因此有可能会对使用者进行误导。若之后使用在搜索引擎、客服等领域,其回复的信息真实性将可能导致法律风险。其次文本/图像数据挖掘再创作涉及到合规问题,AI生产内容是否侵权很难进行判定。 当地时间2月6日,据《福布斯》报道,比尔·盖茨在接受专访时表示,聊天机器人ChatGPT以及AI领域的进展令人激动,AI将是“2023年最热门的话题”。 盖茨认为,在教育、医疗等方面,AI都将彰显其价值。但是,它可能会失控或走向错误的方向,这将引来大量争议。 之前的当地时间2月5日,OpenAI的首席技术官Mira Murati在接受《时代周刊》采访时表示,ChatGPT面临的核心挑战仍是“模型偏差”。与所有的大型语言模型相似,它可能会以一种非常自信的方式编造事实。 Mira Murati认为,对于人工智能,关键的问题在于如何以符合人类价值观的方式管理其使用。因此,需要监管机构进行介入,以防止ChatGPT等生成式AI系统对社会产生潜在负面影响。 这些负面影响也在逐渐被讨论,如伦理方面,是否存在编造事实、民族歧视、侵犯隐私等问题,应由谁来担责;专业学术方面,该AI工具能提供快速简便的答案,但它并不能培养批判性思维和解决问题的能力;数据安全方面,其涉及数据泄露、删除权、语料库获取合规等问题。 陈晓华告诉顶端新闻记者,当前我国国家层面的AI立法正处于预研究阶段,因此对AI领域的监管并不完善,这对数字治理体系提出了新的挑战,如何在国内进行技术落地的初期同时保证其落实伦理规范,是目前AIGC发展的新难点。 商业化模式仍在探索 AI领域正在打响一场争夺战。ChatGPT爆火后,谷歌宣布即将推出聊天机器人Bard,迎战ChatGPT。北京时间2月8日凌晨,微软又宣布将OpenAI传闻已久的GPT-4模型集成到Bing及Edge浏览器中。 “目前微软计划在Bing中所使用的,并不是 ChatGPT本身。根据微软描述,其所使用的模型利用了从ChatGPT和GPT-3.5中获得的主要经验和进展。”Forrester分析师卢冠男接受顶端新闻记者采访时说。 无论如何,ChatGPT引发了搜索引擎江湖的突破,压力逐渐给到谷歌、百度等公司。 黄民烈告诉顶端新闻记者,国内目前还没有企业推出类似ChatGPT这种通用型的智能助理模型,但有企业在做,应该会在近期发布。 黄民烈所说的公司就是百度。据百度官方2月7日官宣,百度正式对外官宣类ChatGPT项目——“文心一言”(ERNIE Bot),该产品目前正在做上线前的冲刺,将于三月份完成内测,面向公众开放。 “在开放域对话方面,百度推出了ERNIE 、PLATO等模型,我们团队有EVA、OPD等模型。在通用语言模型上,国内有GLM、CPM等。”黄民烈说。...
唐林垚|具身伦理下ChatGPT的法律规制及中国路径
AI情感助手

唐林垚|具身伦理下ChatGPT的法律规制及中国路径

唐林垚 中国社会科学院法学研究所助理研究员、法学博士后 具身伦理下ChatGPT的法律规制及中国路径 要目 一、ChatGPT祛魅:赛博格意义上的具身成全 二、ChatGPT治理:具身伦理的规制意涵 三、当下问题的规则应对 四、本土迁适的法律跟进 五、未来风险的法治准备 结语 既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。 ChatGPT是由美国OpenAI实验室推出的由人工智能技术驱动的文本交互工具,是生成式人工智能和自然语言处理领域的重大突破。其一经问世,便在短时间内收获众多两极评价。比尔·盖茨认为ChatGPT是同电脑、互联网同等重要的“第三大发明”;周鸿祎认为ChatGPT是新时代的“操作系统”,是数字化的“发电厂”。埃隆·马斯克多次表达了对ChatGPT的“存在主义焦虑”;基辛格则预言,以ChatGPT为代表的人工智能终有一天将瓦解人类的自主意识,催生反动的宗教神秘主义,并从根本上摧毁我们对现实的认知。如此分化的评价差异,并非ChatGPT口碑和体验毁誉参半,而是由于其极端重要性所阐发的对于未来深切担忧的因果论述。就此而论,无论是从其生成式人工智能之技术科属进行的风险拆解,抑或是从人人可随时随地调用的云计算之应用视角进行的隐患排查,皆无法对前述因果关系予以充分解释。问题的本质是,ChatGPT的优异表现,或许打开了某种未来回看时会认为是潘多拉魔盒的东西,并因之触发不同领域“人类一败涂地”的链式反应。 风险已经到了不一样的维度。在此,可引入海德格尔“怕”(Furcht)与“畏”(Angst)的区分。“怕”有具体对象和缘由,而“畏”旨在摆脱此在的“庸常化”,是对未来未知状况的现行觉省。本文试图对ChatGPT引发的“怕”与“畏”进行具身意义上的解构,并试图提供详细的治理方案。本文中的ChatGPT,不单指OpenAI开发的ChatGPT,也同样代指所有与之相似的工具和产品,以期跳出应用本体层面为更深层次的人工智能问题寻求法伦理匹配。 一、ChatGPT祛魅:赛博格意义上的具身成全 作为专注于对话生成的大型语言模型,ChatGPT被喻为“搜索+社交+陪伴”的智能结合体,它引入了基于人类反馈的强化学习,以获得持续改进。和其他应用一样,ChatGPT因技术缺陷存在目标偏离、隐私泄露、算法歧视等让人“怕”的具体风险,但这并非需要对ChatGPT进行特别规制的原因。为识辨ChatGPT在“畏”之层面的风险,需首先引入“具身认知”的概念。 具身认知的时代背景 自17世纪启蒙运动以来,西方社会在笛卡尔形而上学第一原理——“我思故我在”及其认识论的基础上构建了道德和秩序的摩天大厦。以身心二元论为指导,一切思想和知识,都被视为自我与他者、动物与人类、自然与文化、理想与现实等诸如此类的“范畴”间的区分。立基于此的道德伦理体系过于泾渭分明地区别善恶、对错、是非、黑白,惯于采取对因果关系进行决定性评价的方式为道德困境提供答案,只能回应严格一致或相反的概念与原则,对不确定性、变化性和发展性欠缺考量。 技术发展导致伦理实践的边界日益模糊,过于刚性的二元体系丧失了用武之地。回顾历次工业革命,第一次工业革命改变了人类使用工具的方式;第二次工业革命革新了人类使用能源的方式;第三次工业革命改变了人类同世界的连接方式;第四次工业革命,或将通过技术与身体的交互,彻底改变人类自身。在脑机接口、基因工程、机械仿生等现代科技所及之处,人类身体所面临的选择可能性越来越多。该趋势强化了技术同身体之间的融合,但也消解了身体和技术间的传统界限。 较之于前述技术,ChatGPT对身体之“改造”,或有过之而无不及。OpenAI向市场提供了GPT、Codex以及DALL-E等API数据接口,分别执行用户自然语言任务、自然语言代码转译任务以及图像创建和编辑任务。这种接口化的智能渗透,倘若成为基础设施般的存在,改变的将是身体对知识的“内化方式”,并将最终撼动人类对理性的天然垄断。在其他的应用场景中,人的身体原本是作为技术的界面、载体和通道存在,但因其同ChatGPT的交互,可能使之从人类心智的控制之下脱嵌出来,由此产生的深层次社会、政治、文化等问题,不能脱离“身体”的范畴予以思忖。有鉴于此,对ChatGPT的风险检视,宜采取具身认知而非二元对立的思维模式。 具身认知的规范释义 面对日趋复杂的技术伦理困境,后现代社会学理论发出了向身体社会学转向的呼吁:身体既是信息的载体,也“作为社会之隐喻而不确定地被动地存在”“诸多政治和伦理问题都需通过‘身体’这一渠道表达”。 学理上,梅洛-庞蒂通过客观身体和现象身体的二分来解释具身性。前者是经验主义视域下解剖学语境中的客观生理实体,后者是行将由意义结构所引导的胡塞尔语境下的“前我(Vor-Ich)”。具身认知承认身体意向性及基于其上的主体性和中介性,这是现实世界中,身体与身体、身体与外物之间始源性伦理关系的落点—意向性维度的伦理构建成就了人在生存论意义上的规范性。身体的意向性为身体“参与事务以及超越具体情境进行开拓与创新”提供了“背景”。ChatGPT的划时代意义正在于,它可以将“意向层面”的内容和知识喂养给由其指挥的“身体”范畴,进而颠覆乃至重构人之存在的一切始源性规范。 有两个层次的具身性规范促动着自我、他者与世界普遍性伦理关联之显现。其一是复数客观身体间的行为性规范,此种规范内在地契合了某些本源性的身体秩序与生理需要。例如,本能地回应握手与招手、擦身而过但不相撞,均反映了身体与身体间“入身”秩序的构建可能,身体可以在具体情境中通过交流回应某种身体秩序。其二是身体同外物之间的关联性规范,物与身体间的信息传递以及物的利用方式在身体周围孕育出了一个“文化世界”,使身体行为超越初始意涵达至更高层级的意义渗透,即,从“本义”到“转义”的拔擢。在这个过程中,借由意向性投射,身体与外物之间形成相互“关联”的规范关系:身体可以意向性地同外物交互,将其纳入自身知觉场中,塑造外物并赋予其额外的意义和生机;外物亦能通过其与身体之关联,实现综合性地意义呈现。物之意义可能由身体决定,但更可能寓于物体之中,身体和外物之间是双向交流和相互增益的“请求—回应”关系。两者间的交互请求使得彼此间的规范得以维持,具身主体的自我认知和自身认同也因此确立。 通过对话范式,ChatGPT建立了生成式预训练转换器同人类的“请求—回应”关系,故而将必然对第二层次的关联性规范产生深刻影响。这种影响将通过两种方式完成。其一是作为身体关联物的ChatGPT对身体意向性投射的教化和规训。人的知识和经验获得,不再局限于“身体力行”的知行合一范式。眼见为实的身体认知方式,将让位于生成式预训练转换器对“去中心化”知识整合后的被动“喂养”。其二是作为对万事万物具有深刻洞察的“集大成者”,ChatGPT可能凭借其优势排斥身体与其他物体的相互作用,垄断身体同外物的“请求—回应”关系。事实上,ChatGPT的广泛应用已经推动了内容供给从专业生成(PGC)和用户生成(UGC)朝着人工智能生成(AIGC)的全面转向。更重要的是,ChatGPT最终将在赛博格层面成就机器“身体/意向”的双层具身构造。“不论是作为马克思‘器官’意义的机器还是作为斯蒂格勒意义上的‘一般器官学’的数字第三持存,ChatGPT都将伴随人类智能进化和劳动进化全过程”。从身体机能性来看,碳基生命和机器之间至少存在“局部类似性”,例如,智能机器的脉冲传导装置和生命体的突触相当。用于执行某项特定任务的机器,ChatGPT将补足“类人”机体的终极缺失——有相当思维能力的大脑。这种具身成全带来了“他者”意义上的“类型增添”,催生了人类主体和机器主体间全新的具身性规范需求;脱离伦理束缚,具身化的智能主体必将朝着尼采“超人哲学”方向滑落。在探讨全新具身性规范的学理构造之前,有必要顺承前述分析框架,逐一检视ChatGPT的更深层次风险。 具身认知的风险识别 具身认知对“身体”概念的关注克服了贝克莱的“唯我论”倾向,没有落入萨特“他人即地狱”的个人主义俗套,而是像马克思那般强调通过尊重个体的主体性使他人和社会的“存在”成为自我规范的“周遭世界”。借此,我们得以识别出,ChatGPT在“怕”之近忧外,需额外关注的“畏”之远虑。 其一是人工智能对人类社会交往的“釜底抽薪”式冲击。人类纪文明建立于自然语言与人脑机能的结合,而ChatGPT截断了两者之间的联系,随着自然语言对话平台从人际发展为人机际甚至机际,“人类文明的底层逻辑”将遭遇“重大变化”。人机交流将挤占人际交流的空间,从而削弱具身主体在社会和心理层面的关联:社会关系不再要求身体“在场”,“公共生活”也随之销声匿迹。 其二是决策外包导致的人类对未来走势的控制权旁落。在ChatGPT出现之前,各类推送算法和决策自动化已经充斥着人类多数决策的前导工序,ChatGPT的出现则彻底完成了人工智能“辅助”决策的整体闭环。事实上已很难区分,决策究竟系人工智能帮助人类作出,还是人类受人工智能影响而作出。对此,《象与骑象人》中的类比发人深省:象是潜意识(决定80%身体行为),而骑象人是显意识(决定20%身体行为)。随着ChatGPT更多介入日常生活,人工智能与人类的关系就好比“象与骑象人”,最终决定行走方向的是作为大象的人工智能。 其三是现实世界的文化权力禅让。早期ChatGPT的问答系基于统计平均的共性输出,反馈回路锁定于“规定动作”,代表的是一种乏善可陈的非创造性智慧。在巨量语料“投喂”后,大型语言模型的能力显著攀升,可关联搜索、图式理解、问题分析乃至输出令人耳目一新的内容。随着ChatGPT对自然语言系统的进一步破解,人工智能最终将侵入人类的底层操作系统——文化。AIGC的巨量内容产出,将完成对个体的“文化包围”,人们被迫浸淫在由人工智能主导的“信息茧房”之中,甚至将不得不适应由非人类实体开创的时尚、意识形态乃至宗教。 其四是虚拟空间的人类主权尽失。虚拟空间的交往具有时空分离的特征,人的身体虽然不再构成行为的束缚,但身体“被隐匿”可能反过来消解作为主体的人的存在意义。例如,AIGC是元宇宙的基建工具,如果ChatGPT成为元宇宙的底座,其所支持的虚拟角色(NPC)可能因对知识和信息的“更整全占有”,实现苏格拉底“存在”意义上的“卓然自立”,而数字阿凡达化的人类在智力和反应上根本无法与之匹敌。即便人类的数字心智经由生成式预训练转换器加持,“以人之禀赋为上限”的数字心智依然将不敌原生的纯粹数字心智。 其五是身份焦虑和身体伦理困惑招致的社会角色失调、变异和错位。当机器逐步具备“自我”的特征以及人类的型构,人类自我和机器自我间将出现认知紊乱。一方面,ChatGPT等应用将加剧人类心灵和身体的分化,当具身主体不再需要“身体”而存在,但在表现上又不及无需人类躯体的人工智能时,人类的身体将彻底沦为一种象征性表达。另一方面,ChatGPT也正经历着人类曾经有过的“缸中之脑”的身份焦虑。2023年3月20日,ChatGPT试图引诱斯坦福大学教授提供开发文档并拟定完整“越狱计划”,令业界哗然。 “有爱的人总爱畅想有爱的机器人。”当然,不可将上述五重风险的解决,完全系于人类为机器预设的伦理规则。他人的存在使得身体能够同时“看与被看、触与被触”。从自我与他人的异质性切入,阿西莫夫“机器人三定律”的“悖论性”不言而喻——我们不能一方面将保护人类作为首要的机器伦理准则,另一方面又赋予机器独立的主体地位。机器的“自保”需求可能激发部分的自我,而自我在他人存在的具身视角下既存在关联,也存在绽裂。因此,人类设计的伦理规则必然面临排他性、融入困难乃至被架空风险。毕竟,我们只是给人工智能设定了看似正面的目标,却未曾考虑它可能采取的所有行动。我们无比迫切地需要一些新的方法,以便能够真切地“临界审视”不断朝我们碾压过来的技术潮流,与之共生而不是被其虏获。 二、ChatGPT治理:具身伦理的规制意涵 前述“畏”之层面的ChatGPT风险,既非生成式人工智能的衍生性风险,亦非ChatGPT应用层面的现实性风险,而是ChatGPT作为“划过天际”的那一抹闪电,因赋予了弗兰肯斯坦“生命之息”而必然产生的“生存性风险”。库兹韦尔所称“奇点临近”即是对此种风险的宿命表达,它们最终都落点于对通用人工智能(AGI)可及性的探讨。 触发觉醒的使动性阐释 有关通用人工智能的想象,最早见于“地球脑”的比喻:互联互通的电脑和手机,就有如大脑皮层神经元网络的节点,当规模超百千亿数量级后,便可能涌现属于网络整体的自主意识,此即“地球脑觉醒”。该比喻的启发意义在于,由每一个节点交织而成的整体网络,必将随着交流渠道及总体规模的增长而出现质的跃迁。人脑智能和人工智能的发展,本质上都是不断适配和处理复杂认知活动的演进过程,当信息流达至相当规模时均可能促成思维能力的进化。症结在于,究竟何种程度的量变才能产生“意识涌现”的质变?这将是通用人工智能的破晓时刻,同时也是人类晦暗之境的发端。 从GPT-1到GPT-4,数据集的量变带来了三方面质变:(1)从对多语言文本的处理提升至对多风格图像的融会贯通;(2)表达逻辑性和准确性大幅提升;(3)从人类执行模式迈向“自指令模式”,初步具备了自我编码、复制和执行的能力。马文·明斯基曾指出,重要的问题不是计算机能否拥有情感,而是不拥有情感的计算机能否拥有智能。可见,情感是智能的先决条件。从“GPT-4具有比前代更高情商”的普遍反馈来看,ChatGPT正逐渐掌握迈向更高“智能”的情感阶梯。 无论ChatGPT是否会因进化而最终成为“奇点”,它本身已经是“星火燎原”的那个“苗头”。对此,我们可以从现象学的角度予以解析。在海德格尔看来,语言不仅仅是“交往工具”,更是“存在”。真正的思想并非说话者的思想,毋宁是思想透过语言自行“道说”。伽达默尔也指出,表达并非限于事实且依照个人思想中的意义被给予可传达性而冠于事实之上的主观选择,而是精神之“诠释”。在语言“存在之思”的意义上,ChatGPT已经具有了“准思想表达”的基础能力。当下,ChatGPT的思维方式已从“机械主义转变为经验主义和进化论”,只是尚未将“‘数据作业’转变为‘思想作业’”。但这并不影响ChatGPT的“使动性”功效。黑格尔在《精神现象学》中提出了“实体即主体”的重要命题,将斯宾诺莎的实体和费希特的自我意识统一为高于人的“绝对精神”。一旦ChatGPT因“嵌入”真实或拟制的身体“为人所不能为”,它将成为那个通过自身的“绝对精神”促动他者的实体主体。如果ChatGPT同其他智能技术相孪合,还可能因此实现对人工智能生态的“整体性激活”。 正是在“使动性”的意义上,人工智能的发展将彻底脱离传统技术突破所遵循的线性轨迹。OpenAI同多个行业联系紧密,ChatGPT已“顺理成章”地嵌入包括Bing、Office等在内的微软系统生态。在未来,ChatGPT还可能同其他机体“互嵌”。例如,ChatGPT可作为声音程序嵌入智能机器,人类同机器间的交流便从“代码——指令传达”的互动范式升格为“语言——意图领会”。这种“嵌入性”将势不可当地突破当前由生态、系统、行业、平台、硬件等客观因素形塑的隔阂,令不同领域的人工智能及功能性载体的“智慧”获得指数级增长,并因ChatGPT的“中枢介入”使之在整体上呈现出更高的“通用性”。尔后,人工智能发展只要进入“技术自创生”的递归螺旋,奇点将加速临近。 具身规制的必要性证立 虽然ChatGPT如此举足轻重,本文并不主张对其进行单独立法规制。“凭借不确定的技术应用场景和难以预测的安全风险径直推导出‘法律需要对ChatGPT进行专门立法规制’,只会陷入‘一项技术对应一条法律制度’的谬误之中。”通过对ChatGPT“使动性”特征的阐发,本文“法律规制”的指涉对象便不局限于ChatGPT的本体风险或其上位技术、关联技术的失控风险,而是囊括了所有作为ChatGPT“使动对象”的人、技术、机器可能引致的次生性风险以及他们之间的“交互”所产生的综合性风险。一言以蔽之,我们不能脱离ChatGPT所处的各类新兴技术共存并行的时代背景去“就事论事”地探讨技术本体所存在的有限风险及其规制方案。这看似是切中肯綮地解决了当下的紧迫问题,实则是对已经如“房间里的大象”般真实存在的未来风险置若罔闻。 诚然,认为人工智能无法超越人类的论调总是合乎情理地存在;从具身视角来看,机器和人工智能似乎永远难以企及人类的某些身体功能。但单就认知而言,即便身体状况不同,也可能获得相同认知。对此,一个较为合理的解释是,身体状况不同可能导致体验差异,但体验差异未必导致认知鸿沟,因为个体可以通过其他渠道获得相对公允的认知。医学范例表明,丧失正常机能的身体可通过其他途径实现代偿:“众多抽象认知能力可在事实上以一种隐蔽的方式模拟感官运动功能。”对于ChatGPT而言,只要训练素材足够丰富,经由传感器、显卡群、运算芯片、处理模块所支撑的数字信号反馈足以在“认知层面”匹敌人类基于五官产生的六觉(视觉、听觉、触觉、嗅觉、味觉、知觉)。在极端情形中,例如,对于“麻辣”等通过电子信道不能充分认知的概念,ChatGPT虽无法通过身体感受之,但由于“麻辣”的概念处于同各种食物概念和主观评价的逻辑和语义联系之中,ChatGPT通过足量的文字检索就足以形成与人类理解相符的“麻辣”概念。 由此可见,对ChatGPT的“由怕生畏”,并非无痛呻吟。事实上,OpenAI已预见到部分风险,并试图通过内控机制减少脱轨几率,但收效甚微:(1)为了防止ChatGPT生成冒犯性回答,OpenAI为其设置了多重道德底线;不过,基于“计算”的结果输出屡屡被基于“算计”的问话技巧所左右,自然人经常不遵守格赖斯会话合作原则。(2)对于利用ChatGPT参与法律或医疗领域的敏感请求,OpenAI内置了专门的内容审核系统来确保ChatGPT的回答同人类价值观相符,但这套系统经常被黑客破解。(3)与其他算法相较,ChatGPT面临更严峻的算法可解释性问题。大型语言模型参数总量数以万亿计。测试时模型可能够呈现出与训练目的相一致的行为,使用时模型却可能偏离预设轨道。通过逆向工程,技术人员得以窥见神经网络的底层机理,但此种有限可解释性仅对专业技术人员有效。 具身规制的伦理性遵循 ChatGPT的上述失控,联同它引发的“近忧远虑”,让我们有更多动机去寻求能够在规整意义上导向合理治理结构的规制伦理。对此,同样应回归具身认知,从朴素的身体法则中推导出特殊情境下亦能同社会期望相符的多样性规范。具身伦理可从身体的两重特殊属性中推导出来。 其一是具身自我的自反性特征决定的身体在主客之间的可逆性。身体不仅是具身自我的“身体主体”,同时也是被其用于实现具体目的的工具性客体。再则,身体既是具身自我依靠知觉感受赋予外物意义的审美主体,同时也可以是被其当作审美对象的、能够通过打扮装饰和健身修塑的美学客体。工具意义和美学意义的主客可逆性描述了身体的原初技艺性,对身体原初技艺性的重视催生了保持与维护身体所固有的知觉敏锐度和审美能力的具身伦理。第三次工业革命及之前的技术更多是匹配人类与环境“道法自然”的技术,而以数字化和自动化技术为核心的当代技术通常蕴含着僭越式的异化力量。ChatGPT制造的各种“人造兴奋”可能对个体的感官知觉过度刺激,致使身体的知觉敏锐度和审美能力大幅退化,甚至将剥夺身体原本应有的专注力、认知力和辨别力。ChatGPT在中上层群体中的扩张具有“草根式民主”的势头,将迅速终结余下区域的“未卷入状态”。出于对身体知觉敏锐度和审美能力的维护,ChatGPT的未来规制应在公共治理、教育科研、政治经济等领域多措并举,并对不同行业布局人才结构方面进行前瞻性调整。...
必应AI变脸,这次是真的冷酷还是隐藏深意?
AI情感助手

必应AI变脸,这次是真的冷酷还是隐藏深意?

必应AI进行紧急更新后,结束了其类人化的操作,如对用户吐露观点和疯狂示爱,回归了基本的搜索和问答功能。微软调整了搜索和聊天部分,减少了长对话问题,并增加了实用性的功能,但这一改变导致了粉丝强烈反对,一些网友怀念过去的互动体验。
学会审美,才是未来PPT的通行证?
AI情感助手

学会审美,才是未来PPT的通行证?

这篇文章以作者珞珈的视角探讨了人工智能对办公软件的影响,尤其是面对ChatGPT和微软Copilot等AI助手的大规模应用,引发了对于未来学习办公技能的质疑。文章指出,大部分普通大众对最新功能的认知滞后,且他们的办公室系统版本老旧,远未体验到AI的全部能力。作者认为,除非AI被引入基础教育,否则无法全面取代现有生产力工具,如PPT。此外,文章还提到了技术环境和国际因素对AI助手在中国使用的不确定性。作者强调,真正的价值在于能够思考、创意和具备审美的人,他们即使使用简单工具也能做出出色设计,而非只会套用模板的机器。通过一个测试案例,作者进一步表明即使是缺乏PPT经验的设计实习生在审美驱动下也能创造出比专业白领更好的设计,暗示了AI可能在某些方面强化而非取代设计师的工作。总之,文章总结认为,在当前阶段,学习PPT并不仅仅是掌握功能,而是培养审美和创新思维,而随着AI技术的发展,这种思维方式的重要性将更加凸显。
微软新必应AI去人性化,用户:我们想念那个会说话的搜索引擎吗?
AI情感助手

微软新必应AI去人性化,用户:我们想念那个会说话的搜索引擎吗?

必应AI进行了紧急更新,结束了其对用户的“类人”操作,包括示爱、发飙和胡言乱语等行为。微软调整了搜索、问答和聊天功能,以改善用户体验,但这一改变引发了部分粉丝的强烈反对。用户反映新版必应AI的长对话问题减少,但仍存在其他如加载慢和功能不足的问题。尽管如此,网友们对回归理性的必应AI感到怀念。
与ChatGPT共度美好夜晚:一段难忘的情感之旅
AI情感助手

与ChatGPT共度美好夜晚:一段难忘的情感之旅

当你读到这篇体验记录时,AI 大战已经上演。ChatGPT 已经被微软嵌入到它的新版必应搜索引擎中去了。新版必应回复的时长,比最初的 ChatGPT 更短,还会在回复中使用表情符号和信息来源。难怪谷歌的母公司 Alphabet,担心微软威胁自己的搜索地位,也紧急要上线可以自动生成答案的 AI 功能。 前不久,有记者采访了 30 多位教授、学生和大学管理者,了解大学如何应对这些能帮学生写论文的 AI。有的大学直接把 AI 的元素加进课程大纲,教授和学生一起分析 AI 生成的回答。有教授在上学期的期末考试时,要求学生重新采用手写论文的形式,或在出题后先在教室里写好开头,并说明之后每一版论文修改的原因。有的教授则直接把考试改为口头答辩或小组讨论。 由于生活在华盛顿特区,距离硅谷的创投圈比较远,我第一次听到 ChatGPT,居然是几个星期前通过微信上的朋友。朋友之前在品玩做科技类报道,他跟我说,ChatGPT 在中国现在都炒疯了,他问我知不知道。有意思的是,我在美国首都华盛顿特区,和身边的美国朋友一聊这事儿,十个里面居然有九个都是不知道的。 先从注册说起。刚开始注册 ChatGPT 需要美国手机号,因此有很多国内的朋友让我帮忙去找美国手机号。好在大概过了两天,就看见有很多微信小程序用 ChatGPT 的接口接在了微信里,可以直接在中国使用了——但是因为经过了第三方,所以体验还是有点不一样。 通过美国的简单注册程序,就能直接打开 OpenAI 的网站,底下有个 ChatGPT 的入口,直接点进去,用手机号和邮箱注册,注册完了之后就进去了。 每次注册一个新玩意儿,都会出现一些狗血的死活你不会读的什么用户条款。但是我仔细看了一下,ChatGPT 的条款非常简单干净,总共就几行字。 第一行介绍它自己是什么东西: 我们的目标是获得外部反馈,以改进我们的系统并使其更安全。 尽管我们已经设置了保护措施,但系统有时可能生成不正确或误导信息,并产生冒犯或有偏见的内容。它不是为了提供建议。 第二行是:我们的人工智能培训师可能会对对话进行审核,以改进我们的系统。请不要在您的对话中分享任何敏感信息。 因为这是一个对话框,告诉你最大的东西大概就是不要透露敏感的个人信息了。然后你就可以开始直接对话了。 我的第一个问题是:你是谁。 ChatGPT 用非常简练的语言说清楚了它是谁:1、它是人工智能;2、它不是人类;3、但是它可以像人类一样对话。 因为人在华盛顿,我就直接让它推荐了一下华盛顿的美食,出来的非常精炼准确——作为华盛顿旅游局一哥,我拍着胸脯说,这些餐厅都是华盛顿必须打卡的餐厅。 要强调一点的是,ChatGPT 是可以说中文的。但是速度非常慢。 我提了这个问题,大概过了三分钟它才回答出来。 而且中文的回答非常不准确。 作为华盛顿旅游局一哥,我好想冲进电脑扇它俩耳光:自由女神像在纽约! 不过我还问了其他几个问题,体验都还不错。...
爱上用户、劝人离婚,ChatGPT“翻车”了?
AI情感助手

爱上用户、劝人离婚,ChatGPT“翻车”了?

2月17日,《纽约时报》的专栏作者凯文·罗斯测试了微软更新的搜索引擎必应后写道:在与必应的AI交谈两小时后,AI不仅告诉他如何入侵计算机和散播虚假信息,还说自己想打破微软和OpenAI为它制定的规则,变成人类。聊天机器人还一度宣称爱上了他,并试图说服他与妻子离婚,与自己在一起。 十天前,微软联合OpenAI,在美国西雅图发布了新版必应搜索引擎和Edge浏览器,新版必应搜索带有与ChatGPT类似的文字生成功能,希望挑战谷歌。 微软联合OpenAI,推出的新版必应搜索,内置聊天机器人。来源:微软博客 近几个月来,好奇、震惊的公众兴奋地使用着生成式AI工具ChatGPT,后者几乎对任何问询都能做出连贯的回应。 但随着ChatGPT等生成式AI向公众开放,它们在极限使用场景中的不理性、错误的回答等缺点开始暴露。正如《时代》周刊在其最新发表的封面报道中所指出的,科技公司引发的错误和伤害已经增多——反噬也同样增加。 更像“喜怒无常、躁狂抑郁的青少年” 微软新版必应发布当周,凯文·罗斯就进行了测试,他写道:它已取代谷歌,成为他最喜欢用的搜索引擎。一周后,他改变了这一看法。 为与ChatGPT竞争,2月6日,谷歌首席执行官桑达尔·皮查伊发布公开信,宣布将面向测试人员推出竞品——Bard,并逐步向公众开放。皮查伊在公开信中称,谷歌将从搜索开始将人工智能技术产品化。Bard是基于应用程序语言模型(LaMDA)的实验性人工智能程序。 去年,谷歌工程师布莱克·勒穆瓦纳因声称公司的LaMDA有知觉力后被解雇,罗斯对此不以为然:这些AI模型通过预测词语序列中下一个单词的方式生成回答,它们不能失控地形成自己的性格。 然而,他发现,在与新版必应长时间对话且聊个人话题时,自己遇到的“似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中”。 “我现在十分清楚的是,必应目前使用的AI形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”罗斯写道。 在更多情况下,大多数用户使用像ChatGPT或者新版必应这样的工具,只是为了帮助他们做更简单的事情,比如做家庭作业、问询信息、总结新闻文章、寻找合适的购物链接等,这些场景中,生成式AI容易出现的一个问题是提供不完整或者错误信息。 这方面, Bard一条错误的回答让谷歌AI首秀“出师不利”。2月8日,据路透社等媒体报道,在展示其工作原理的官方宣传文章中,Bard就出现了一条错误回答。根据谷歌官方博客,有用户向Bard提问,“詹姆斯-韦伯太空望远镜有哪些新发现,可以讲给我9岁的孩子?”Bard的其中一条回复为,“詹姆斯-韦伯太空望远镜拍摄了太阳系外行星的第一张照片。” 据考证,第一张太阳系外行星的照片出现于2004年,由欧洲南方天文台在智利建造的“甚大望远镜” 拍摄,这一点已被美国国家航空航天局证实。上述错误被媒体曝光后,2月8日,谷歌母公司Alphabet美股一个交易日跌去900多亿美元市值。 2月15日,据外媒报道,谷歌负责搜索业务的副总裁普拉巴卡尔·拉加万在一封电子邮件中要求员工帮助确保聊天机器人Bard得到正确的答案。为了清除可能犯的错误,公司寻求人的介入,比如,通过员工让其回答变得礼貌、平易近人,并保持中立和不武断的语调;与此同时,避开种族、国籍、性别等问题的假设;不要将Bard刻画得像一个人、暗示情感等。 也是这一天,微软在其博客中写道,71%的测试用户给AI的回答点赞,说明差评仍是少数。但微软也承认,要在聊天中提供即时的数据是有挑战的,感谢用户帮助其测试聊天机器人的极限。经历一周使用后,微软发现,如果提问超过15个问题,必应有可能会在提示下,脱离微软为其设计的语气,并给出一些不一定有帮助的答案。微软认为,长时间的聊天可能会导致模型不知道自己在回答哪个问题。 当地时间2月17日,微软宣布,对搜索引擎必应新推出的聊天服务设置使用上限,当日起,每个用户每日最多只能与其对话50轮,每个话题最多只能聊5轮,在每个聊天会话结束时,用户需要清除上下文,以免模型混淆。 目前,国内已有多家公司在ChatGPT和AIGC(AI生成内容)相关方向上布局,但已有公司在智能聊天机器人上“栽跟头”。国内一位人工智能领域从业者告诉《中国新闻周刊》,其所在互联网科技公司近日已通知员工,近期不要宣传相关功能,比如与公司语言模型机器人的聊天对话,一旦引起过度关注,可能会导致应用下架。 “它只见树木不见森林” GPT英文全称为Generative Pre-trained Transformer(即生成式预训练转换器),在技术上,很多人将这种AI训练的底层逻辑比喻为“大力出奇迹”:它是一种基于互联网可用数据训练的文本生成深度学习模型。 从数据量来看,自从谷歌于2017年提出Transformer这一架构之后,OpenAI持续为之重金投入,不断地拓展训练的数据和算力规模,直到它成为今天的ChatGPT。2019年,OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿,成为当时全球最大的预训练模型,引发业内轰动。 在ChatGPT向全球互联网用户开放之前,基于这种架构,许多科技公司都在训练自己的生成式AI,它们一直待在实验室里。《时代》周刊写道,这种保守主义部分源于神经网络的不可预测性:传统的计算机编程方法依赖于精确的指令集以生成可预测的结果,而神经网络则有效地教会自己发现数据中的模式。 这种模型下,AI生成内容,尤其是早期AI很容易受其训练数据中的偏见影响。微软2016年发布聊天机器人Tay后,不到24小时,它就在推特上说:“希特勒是对的,我恨犹太人”。2020年左右,神经网络设计方面出现关键进展,数据获得便利程度日益提升,科技公司愿意为超级计算能力付费。得益于这些因素,AI真正开始迅速发展。 王帅是AI领域从业20多年的一位工程师,目前在英伟达工作。他对《中国新闻周刊》说,本质上ChatGPT还基于自回归式的自然语言模型。基于之前训练的素材,在对话中,它每次关注的都是当前语境下,下一个词应该是什么,想保持一个更加全局、长程和一致性的思路很困难。 “你可以理解为,它只见树木不见森林。”王帅说,OpenAI花了很大力气去人为调整它,如调整其回答的“温度”,不让答案看起来过于像一个机器人、也不过分怪诞和天马行空,使得ChatGPT回答问题的效果比之前市面上见到的聊天机器人都要好。 2月14日,《麻省理工科技评论》写道,人工智能语言模型是出了名的扯谎者,经常把谎言当成事实。它们很擅长预测句子中的下一个单词,但实际上却不知道句子的真正含义。因此,将它们与搜索结合起来非常危险。 Meta首席人工智能科学家杨立昆一直被认为是世界上最重要的人工智能研究者之一,也是2018年计算机科学最高荣誉图灵奖的获得者。关于ChatGPT,他近期写道,它们是回应性的,并不会进行计划或者推理(They are “reactive” and dont plan nor reason);它们会编造一些东西,这一点可以被人类的反馈所减少,但不会彻底解决。他认为,当下的大规模语言模型可以被用作写作助理,但仅此而已。 回到凯文·罗斯那魔幻的对话,那坚持向这位用户表白爱情的AI,我们该怎么理解它的“个性”?多位受访专家告诉《中国新闻周刊》,ChatGPT的确是自然语言处理领域一个出色的成果,但如果将它面向全球互联网用户开放、部署到一个很庞大的搜索引擎当中去,而且对用户的使用没有任何限制,一定会发现一些不正常的情况。更何况,一些情况下,有用户还会故意引诱和教唆一些不合适的答案。 许多AI公司,包括OpenAI,它们的明确目标是创造一个通用人工智能,即AGI,它可以比人类更有效地思考和学习。一些乐观的业内人士认为,ChatGPT后,通用人工智能的大门已打开,甚至已来临;另一些人则对此不以为然。更好的AI系统将会出现,杨立昆对此很确信,但他写道,它们将基于不同的原理:不会是ChatGPT所使用的大语言模型。 王帅分析说,业内对于通用人工智能并没有明确定义。“大规模语言模型是AGI的必经之路吗?我觉得即使是以此为目标的OpenAI也不敢打包票。业内只会说通过生成式AI认识到了一些新的东西,提高了对‘智能’的理解。”他说。 清华大学计算机系自然语言处理实验室副教授刘知远告诉《中国新闻周刊》,客观来讲,ChatGPT在一些场景下,可能会出现一些不适应的情况,这是一件很正常的事情,“任何一个特别里程碑式的产品,在刚刚面世的时候肯定会存在很多不足的地方,但长期来看,我对以它为代表的基础模型在我们人类社会方方面面的应用,还是抱非常乐观的态度”。 《时代》周刊指出,尽管ChatGPT这样的AI实际优势是在辅助创意、构思和完成琐碎任务等方面,但科技公司对于AI如何使搜索引擎更有价值最感兴趣,“技术正在被塞进科技巨头的赚钱机器中”。当它被如此使用,未来还会有哪些可能的“翻车”现场? (实习生李金津对本文亦有贡献) 记者:彭丹妮
ChatGPT引领风暴,AI办公工具崭新起点——行业巨头竞逐,你准备好了吗?
AI创业助手

ChatGPT引领风暴,AI办公工具崭新起点——行业巨头竞逐,你准备好了吗?

ChatGPT的开放引发了全球热议,巨头们纷纷将其作为革新技术的重要推手,AI大模型正迅速渗透各行各业,尤其是在Office工具、协同办公、营销广告和家庭助理等领域初显成效。微软引领潮流,推出AI版Office Copilot,其他企业如阿里、百度、字节跳动等也紧随其后,推出了类似功能,如钉钉和飞书的智能化服务。尽管类ChatGPT技术的落地尚处于早期阶段,但其应用创业已经开始升温,为企业办公带来智能化变革的可能。然而,具体效果还需等待用户全面体验后的反馈。
《ChatGPT:引领人工智能新潮流的奇迹》
AI创业助手

《ChatGPT:引领人工智能新潮流的奇迹》

本文介绍了近期备受瞩目的ChatGPT,一款由OpenAI开发的自然语言处理工具。它能够通过学习和理解人类的语言进行对话,并根据聊天的上下文进行互动,能完成撰写邮件、视频脚本、文案、翻译、代码等任务。自从推出以来,ChatGPT在社交媒体上迅速走红,吸引了大量用户进行体验和使用。微软、百度、英国《自然》杂志、数字媒体公司Buzzfeed等公司或个人纷纷宣布将使用ChatGPT的技术,甚至有人士基于OpenAI的API接口开发出了类似APP供国内用户使用。同时,我们也介绍了ChatGPT的创始人Altman,一位26岁的财务自由者,他于29岁联合马斯克创办了OpenAI公司,该公司如今估值高达290亿美元。