文章主题:关键词:ChatGPT,人工智能,自然语言处理,聊天机器人

666AI工具大全,助力做AI时代先行者!

ChatGPT时代的机遇与风险:如何应对

ChatGPT时代的机遇与风险:如何应对

ChatGPT时代的机遇与风险:如何应对

在2022年的11月30日,美国的人工智能研究机构OpenAI发布了一款名为ChatGPT的聊天机器人程序。作为一种以人工智能为基础的自然语言处理工具,ChatGPT能够通过连接包含大量真实世界对话的语料库来训练模型,进而实现对语言的理解和文本生成,其表现力和互动性甚至能达到与真实人类相似的程度。除此之外,ChatGPT还能够完成诸如撰写邮件、制作视频脚本、编写文案、进行翻译以及处理代码等多方面的任务。这无疑是一个令人瞩目的AI技术新进展。然而,随着ChatGPT的广泛应用,一些负面的新闻也开始出现。例如,它被指责捏造知名人物的虚假信息,泄露用户的聊天内容,以及回答问题不切实际等。面对这样的情况,我们应该如何正确看待ChatGPT时代所带来的机遇和风险,并采取适当的措施来应对呢?这是我们需要深入思考的问题。

一、ChatGPT带来的道德与法律风险

(一)虚假信息频出

近期,乔治·华盛顿大学的法学教授乔纳森·特利被ChatGPT列为“性骚扰”事件的目标,据称他在阿拉斯加之旅期间曾对学生的行为不当。此消息引用了《华盛顿邮报》的一篇报道作为证据。但事实证明,这一指控完全无中生有。此类事件在澳大利亚也曾发生过。据悉,ChatGPT的AI聊天机器人误将Brian Hood视为“犯罪分子”,并将他卷入澳大利亚储备银行(RBA)过去的行贿丑闻。2011年,RBA子公司Note Printing Australia的官员因涉嫌向外国政府官员行贿而被判刑。实际上,Brian Hood在这起案件中的角色并非ChatGPT所描述的罪犯,而是揭露不法行为的勇士。[2]

除了上述引发广泛关注的事件外,在日常生活中,即使我们搜索一些周知的问题,ChatGPT也可能会给出错误的答案。随着质疑和追问的深入,它甚至会随意更改答案,推翻先前的表述。与此同时,措辞能力的不断提高,使得ChatGPT的言论看起来十分可信,一不留神就会被它“带到沟里”。因此,AI机器人捕风捉影、伪造内容,抑或不加甄别地提供信息,不仅严重损害个人名誉、对未成年人的教育造成不良影响,还有可能会降低民众对政府的信任度、破坏新闻等可靠信息源,最终影响国家安全与社会稳定。

(二)个人隐私和商业机密泄露

今年3月,有海外网民在于ChatGPT聊天的过程中发现了“不属于他们自己的ChatGPT对话记录”,并将相关截图发布在Reddit和推特等社交媒体平台上。随后,ChatGPT的开发公司OpenAI创始人山姆·阿尔特曼在推特发文承认了这一点,声称该AI的一个故障让一些用户能够看到其他用户对话历史记录的标题,并表示“对此感到很难过”。虽然该故障已经修复,但依然引发民众对AI泄露个人隐私的担忧:是否还有更多我们尚未发觉的bug潜藏在其中?[3]

除个人隐私风险外,公司泄密危机同样值得关注。AI机器人很有可能将用户输入的敏感数据转化为输出的内容,造成数据泄漏。基于此,美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和Verizon等机构已经禁止员工使用ChatGPT聊天机器人处理工作任务。同样,微软的工程师和亚马逊的律师都曾警告员工,不要与ChatGPT分享“任何亚马逊的机密信息,包括你正在编写的代码,因为他们可能会将其用于训练未来的模型。”

随着AI算法检索与抓取信息的能力不断增强,各类主体的隐私和机密都可以更容易地暴露在公共环境中。ChatGPT无法对是否属于隐私或机密内容以及内容真伪进行甄别,对于用户输入的信息与数据,也同样未公示其处理路径,是否全部删除、如何删除以及是否存储部分数据加以利用,公众都无从知晓。

(三)剽窃和学术不端行为滋生

ChatGPT走红后,AI是否可以作为著作权人、其创作是否可以成为“作品”等问题再次引发热议。国内外立法普遍认为,著作权人仅限于自然人和法人,不包含其他类型主体。原因主要在于,AI输出的内容是基于人预先设定好的程序、算法的结果,并非自主意识创作。因此,它在本质上依然是人类使用的“创作工具”。同样地,ChatGPT的技术原理是依靠从训练数据中学到的模式和关系,来生成风格和内容与训练数据中的文本相似的新文本。[4]

然而,我们不得不承认的是,ChatGPT经过一系列复杂的程序运作后所生成的内容,确实具备一定的独创性,在现有作品库中往往难以找到雷同文本。根据这个特征,许多人通过输入不同关键词或其他指令,生成各类具有原创性外观的文章,谎称是自己的创作成果,用于营利或其他目的,肆意违反学术道德。不仅如此,如果在科学研究中使用人工智能生成的内容,还可能存在算法偏见、虚假叙述等一系列伦理风险。

二、ChatGPT风险的法治应对

(一)明晰责任主体

ChatGPT是否应当为其提供虚假信息、侵犯他人名誉权、隐私权等行为承担责任,是我们首先应当明确的问题。只有确认其作为适格责任主体的身份,才能进一步追究责任,法律对AI技术对规制才能更加有效。AI是如何识别数据并进行判断进而作出某种决策的,这是决定人工智能能否对自己的行为承担法律责任的实质性理由。然而,它是否以及如何能够自主识别、自动判断、自主行动以及自主创作,目前依然是无法被理解的。

因此,我们的当务之急在于促进AI运行机制的进一步透明化、可解释化。2021年9月25日,我国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性。专业机构和人员不应当仅仅着眼于推动AI的不断智能化,同时应当注重对算法全过程、各环节的研究和解释工作,譬如输入内容的处理、输出内容的依据、信息抓取与改造的逻辑等方面。人工智能的行为和决策的空间越大,需要解释的空间就越大。如同在人类世界一样,只有做出明晰的解释,了解人工智能如何思考、反应,我们才能有章可循,精准分配责任。[5]

(二)有效运用法律规制

在人工智能领域,我国已经颁布了一系列法律法规加以规制,如《网络安全法》《数据安全法》《网络信息内容生态治理规定》等,《生成式人工智能服务管理办法》也在征求意见之中。这些规定在一定程度上明确了人工智能的基本道德要求和应用原则,能够有效约束算法技术滥用可能导致的安全风险。此外,上述专门领域立法还与《民法典》《个人信息保护法》等法律规定相结合,全方位保障用户的个人权益。因此,我国可以充分利用现有法律制度,加强对ChatGPT相关产业的规制,并根据产业发展状况,适时推出新的立法。

有了法律文本做依托后,对于法律责任的具体承担方式,有学者指出,应当视情况分析。如果用户故意输入指令让人工智能编造谣言,此时AI聊天机器人充当的是工具角色,应由用户承担法律责任。若用户没有主观故意,虚假信息内容由人工智能算法自行生成,可以推定人工智能对编造、传播谣言起到了实质性的帮助作用,因此相应的用户与AI运营公司承担连带责任。运营平台承担责任大小,应综合考虑是否尽到注意义务、侵权范围、损害程度以及平台避免损失扩大的能力等因素。[1]

(三)强化科技伦理审查

如果法律是维护网络安全兜底性的后置措施,那么科技伦理审查是AI研发过程中不可或缺的前置环节。从事人工智能等科技活动的单位,凡研究内容涉及科技伦理敏感领域的,均应设立科技伦理委员会。安全性是当下人工智能领域的短板,更应当成为未来的重要发展方向。

近期,科技部会同相关部门研究起草了《科技伦理审查办法(试行)》,正面向社会公开征求意见。《科技伦理审查办法(试行)》是覆盖各领域科技伦理审查的综合性、通用性规定。在总则部分规定了审查范围,并开宗明义地提出了提出了科学、独立、公正、透明的审查原则和要求。随后,对审查主体、审查程序、监督管理等方面进行了详细规范。其内容的制定充分遵循科技创新规律,在立足实际的同时广泛借鉴,并且坚持问题导向、有的放矢地提出措施。此外,它也能够与《科技进步法》《个人信息保护法》《数据安全法》等多项法规制度相衔接,防范科技创新风险,保护民众权益。[6]《科技伦理审查办法》的出台,无疑是对科技创新过程中暴露出的诸多问题的有力回应,使得企业的伦理审查工作有章可循,也让民众更放心地接纳科技进步带来的成果。

(四)监管企业研发活动

由于研发企业的趋利性特征,除内部审查外,加强外部监管也十分重要。首先,政府应当规制ChatGPT的应用范围与标准,规定禁用领域,以防止泄密或其他风险,并且制定一定的标准,依循其对各项性能指标进行评估,达标后方可投入市场使用。此外,政府牵头成立外部审查机构也非常必要,此类机构应包含各领域专家,依据现有法律法规对AI产品的技术内容和伦理内容进行全方位审核,以防范安全风险,保障民众权益。最后,政府应当对ChatGPT等AI技术的违规行为采取处罚措施,以警示研发企业:遵循公共道德伦理是提升技术的首要前提,技术的进步最终是为了增进全人类福祉。

参考资料

[1] 钟雨欣:,载微信公众号“ 21世纪经济报道”,2023年4月9日。

[2]Lauren:,载微信公众号“ Tech商业”,2023年4月6日。

[3]严梓瑄、郭美婷:,载微信公众号“ 21世纪经济报道”,2023年4月3日。

[4]万 勇:《ChatGPT引发著作权问题新思考》,载《法治日报》2023年2月15日。

刘艳红在其最新的论文《人工智能的可解释性与AI的法律责任问题研究》中,对当前热门的人工智能技术进行了深入探讨。该论文于2022年1月載入《法制与社会发展》杂志。

在我国科技部门中,科学技术部科技监督与诚信建设司于2023年4月4日在其官方网站上发布了《科技伦理审查办法(试行)(征求意见稿)》。该草案的发布旨在为我国科技领域的伦理审查提供更为明确和具体的操作指南,以保障科研诚信和科技成果的安全。具体内容可参考以下链接:https://www.most.gov.cn/wsdc/202304/t20230404_185388.html。

文 |聂思琪

编辑 | 聂思琪

转载请注明来源,并保持内容完整

–热点速递与解读–

关键词:ChatGPT,人工智能,自然语言处理,聊天机器人

ChatGPT时代的机遇与风险:如何应对

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!