文章主题:关键词:ChatGPT,人工智能,自然语言处理,科研诚信
ChatGPT的问世引起了文化和科技领域的广泛关注,其基于书面提示自动创建文本的能力受到了众多使用者的喜爱。国内外的科技企业也纷纷跟进,开发出类似于ChatGPT的人工智能系统。然而,作为一种生成性人工智能系统,ChatGPT在社会层面和学术界引发了许多问题。例如,它如何影响论文在教育中的地位,ChatGPT是否已经实现了通用人工智能,这些都是需要深入探讨的问题。除此之外,ChatGPT还引发了科研诚信问题,这也是我们需要重点关注的方向。
退化抑或革命
在过去几年中,大型语言模型的伦理影响引发了学术界日益激烈的辩论。随着OpenAI在2022年底推出ChatGPT,这一议题已逐渐成为主流趋势。ChatGPT在接收指令后能够迅速生成流畅且转折自然的文本,展示出了惊人的能力。然而,随着进一步的对话,它的不足之处也渐渐显现出来。例如,它可能会犯下一些事实错误,或者反复使用相同的短语。尽管如此,初次与这类聊天机器人互动时,人们还是会感到惊叹。自ChatGPT发布以来,许多人对其影响提出了各种疑问。例如,随着人工智能系统在编写代码方面的不断完善,软件工程师是否会被取代?这种技术对知识工作者又会带来什么样的影响?这些问题既有老生常谈的内容,也有的新颖观点。
在文本生成领域,我们可将ChatGPT视作学术研究领域中不断扩展的工具箱中的一员,作为一种新兴且实用的工具。举例来说,它可以被利用作为直接解答疑问的搜索引擎,为学术研究者提供便利。然而,ChatGPT并非完美无缺,其性能存在一定的局限性。有时,它可能会给出错误的答案,对词汇间的微小差别过度敏感,甚至可能给出缺乏逻辑关联的答案,以及过长的论述等。这些不足之处使得ChatGPT在作为研究工具方面的效能受到一定限制。鉴于这种担忧,众多科学出版物出版商已禁止或限制作者在论文创作过程中使用人工智能驱动的聊天机器人。同时,部分高校也将由ChatGPT生成的论文视为剽窃或抄袭。
以一种不同的方式来思考ChatGPT,我们可能会更加重视其在革命性方面的作用。尽管我们在科学论文撰写方面不能期望ChatGPT达到一般科学家的水平,但也不能否认人工智能近期的巨大进步。在这种背景下,提前为未来的大型语言模型做好准备似乎是理智的选择。就像下棋一样,当初人们并不认为计算机能够战胜人类棋手,但事实证明,它们确实可以在某些方面胜过人类。同样的,在2016年,DeepMind的AlphaGo击败了围棋世界冠军李世石,这使得一些技术乐观者认为,虽然ChatGPT目前还有待完善,但它已经为未来的技术发展趋势指明了方向。他们进一步猜测,或许计算机在撰写科学论文之外,还能够学会更多人类无法比肩的智能活动。
通用人工智能言之尚早
作为一名专业的文章写作高手,我将对原文进行改写,确保表达更为准确且具有深度。在技术乐观主义的推动下,人们 speculate ChatGPT 是否正朝着通往通用人工智能的康庄大道迈进。1950 年,图灵提出了一种被誉为“图灵测试”的概念,它成为评估人工智能智力水平的关键标准。这个测试要求机器在与人类对话时,能够以一种使人类难以分辨的方式进行。然而,这个项目的难度在于,为了通过测试,机器必须满足两个条件:一是对人类对话中的差异作出恰当的反应;二是展现出类似于人类的个性和意图。
在20世纪70至80年代,学术界对人工智能的研究达到了一个高潮,但由于真正具有实用价值的人工智能应用系统的缺失,这种热情在长期的挫败中逐渐减弱。或许,历史总是呈现出某种程度的周期性相似。如今,我们正在经历一场兴奋的高潮,这主要源于深度神经网络、机器学习技术以及以ChatGPT为代表的各种人工智能算法模型的新突破,这些新进展再次点燃了公众的热情。然而,我们也应当保持清醒的头脑。尽管在这些新进展的推动下,我们看到了人工智能领域的再次繁荣,但我们也必须认识到,在这个领域中,我们还面临着一些难以逾越的挑战,尤其是在自然语言处理领域的一些关键问题。
复杂的语言系统是人类智能的一个显著特征,并且语言与思想有着密切的关系,甚至在某种程度上可以说,“语言是思想的载体”。若机器无法“理解”人类语言,高阶智能就无从谈起,更不用说通用智能了。首先,我们认为,由于数学上的原因,目前还难以给一台能够掌握极其复杂和不断变化的人类对话模式的机器编写程序。其次,人类的对话中掺杂着个性和动机,但我们目前还不知道如何制造出具有人类个性和意图的机器。既然图灵机不能掌握人类的对话行为,我们便可以得到一个安全的结论:目前问世的聊天型对话系统不能达成所谓的通用人工智能。人类认知本身不只是一个关乎存储和计算的问题。
此外,塞尔(John Searle)的“中文屋论证”表明,即使一台机器的编程方式能够完美地模拟人类在进行对话时的行为,也不能真正拥有人类的智能。塞尔由此认为,那种机器与人类的理解或人类的意识有相似之处的观点是存疑的。尽管人们做了大量工作,但迄今为止还没有计算机系统能够实现接近人类对话的仿真模拟。即便是ChatGPT,还是显露出聊天机器人皆有的根本缺陷:机械性有余,灵活性不足。ChatGPT并非理解文本的意义并以此作出正确甚至精准的回答。正如OpenAI所警告的那样:“您得到的答案可能听起来似是而非甚至是权威的,但它们很可能是完全错误的。”
毋庸置疑,今天智能机器所拥有的存储容量和计算能力已远超图灵所预估的“学习机器”,但一些情况依旧没有多大改观。我们认为,这一领域中过分的乐观主义,一方面是出于对人类认知行为不切实际的看法,另一方面则是看到了强化学习、数据集扩张、算法更新等方面取得的一系列令人惊叹的成功,如在围棋或电子游戏等领域的进展。与这种乐观情绪相反,人们在试图制造能够与人类进行高效对话以至于达到通用人工智能阶段的机器时却屡遭失败。目前,技术乐观派鼓吹通用人工智能还言之尚早。
关注科研诚信问题
由于人类语言的极端复杂性,各类对话机器人很难真正实现自然语言处理,更不用提知觉、情感、感官等。ChatGPT只是个预训练语言模型,它只能从已有的训练样本中提取、整合信息,而不能真正地产生新的知识。在这一进路上,通用人工智能和超级人工智能遥不可期。况且,ChatGPT并不是横空出世的产品,其迭代前的GPT-3就曾引起过舆论轰动。每当有被包装过的新技术或产品问世,总会刮起一阵旋风,但往往不久便会停息。我们不必着急预测某项技术或产品能否带来所谓划时代的意义。
抛开宏大叙事,这个议题背后所引发的一些具体后果可能更值得我们深入考察。ChatGPT肯定会有一些积极的作用。比如,教育工作者可以学会使用ChatGPT,将其作为一种工具帮助学生就某一具体问题进行探索。但目前需要重点关注的,是其日益暴露的显性问题。生成性人工智能在文本生成和编辑方面拥有巨大潜力,如果被使用者滥用在学术写作或新闻报道方面,会带来诸多不良影响。因此,针对大型语言模型及其对科学出版可能产生的影响,我们需要进行前瞻性研究。目前的困境是,在获得此类研究结果之前,我们只能对大型语言模型的特性和预期影响进行一些直观的、常识性的评估和判断。
若将ChatGPT等生成性人工智能作为一种研究工具,在科研诚信方面会引发一些担忧。比如,这会带来事实不准确、剽窃、欺诈和侵犯版权等风险,可能导致科学失去严谨性,科技工作者的劳动也可能因此变得不被尊重。在科研领域,对ChatGPT等生成性人工智能的审慎应用,是一种负责任的态度。不少学术期刊和科研机构已经开始制定和实施一些可行的方案,解决或应对与ChatGPT相关的研究诚信问题,但未来的防范和治理工作依旧任重而道远。
(本文系云南省教育厅科学研究基金项目“人类增强技术的伦理规制研究”(2023J0083)阶段性成果)
(作者单位:云南大学马克思主义学院)
《ChatGPT:多维思考与审慎应用》
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!