《揭秘:AI大模型背后的“Books3”大秘密》
AI律师助手

《揭秘:AI大模型背后的“Books3”大秘密》

这篇文章介绍了美国作家Sarah Silverman、Christopher Golden和Richard Kadrey起诉OpenAI和Meta公司的案例。两位作者发现这两家公司未经允许使用他们的书籍作为素材训练大型语言模型,并在开源数据集“ThePile”中发现大量盗版书籍和未标记的书籍内容。尽管这些证据一直存在于公开渠道,却长期未被注意到。meta公司对此回应称,其训练数据包括“ThePile”和“Books3”,其中“Books3”中的一些书籍确实没有标记作者和标题,但这并不是有意为之,而是由于数据收集过程中的错误导致的。
措施恐惧症:人工智能时代的挑战与机遇
AI律师助手

措施恐惧症:人工智能时代的挑战与机遇

这篇文章探讨了人工智能领域中一种被称为FOMO(措施恐惧症,Fear of Missing Out)的现象,并分析了生成式人工智能的应用现状和发展潜力。文章提到,尽管已有不少公司和企业开始采用人工智能技术,但仍存在许多潜在问题和挑战,如技术瓶颈、文化和管理障碍等。同时,生成式人工智能的应用领域正在逐渐扩大,有望在未来颠覆商业模式和创新。
谁拖了中国ChatGPT的后腿?
AI医师助手

谁拖了中国ChatGPT的后腿?

ChatGPT已经成了全球信息技术产业界毋庸置疑的现象级产品。 它以“通用人工智能”的名义,跟人类唠家常,帮人们起草邮件和律师信,回答一些玄奥的终极哲学问题,写一段可用的Python代码,回答一些看似需要复杂和递进逻辑的问题,根据一些人物设定撰写一段电影剧本,书写一首优美的情诗,捉刀大学生的论文作业……似乎人类历史上还没有这么一个全能的AI物种。比尔盖茨说ChatGPT出现的意义“不亚于互联网的诞生”,微软CEO纳德拉(Satya Nadella)说它堪比工业革命,人工智能口头爱好者们又一次惊呼“奇点”来临,普通人再度担心自己的工作被ChatGPT这样的全能型AI助手取代……从IBM的“深蓝”,到Google的AlphaGo,再到OpenAI的ChatGPT,25年过去了,AI在不断进化,人类对AI的日常反应却看不出什么心智上的成熟,这真的是一件令AI开心的事。 我已经用ChatGPT干过诸多不可描述之事,发现它并不能每每得心应手,却能在一些看似更艰深的问题上给出更出色的答案和解决方案。比如你问它比亚迪能不能打败特斯拉,它可能会给出一些结构清晰而无奇、事实谬误颇多同时又毫无个性的论述;但如果你问它自动驾驶将如何改变一辆汽车的工业设计,它倒是能够从底盘革新、内饰变化、数字娱乐和外型突破等方面给出充满由内至外想象的论述。从整体而言,ChatGPT相当的不完美,尤其是在提供令人信服的准确性方面,但它在提供结构化的信息论述、打开想象力和解放创造力等领域经常令人类觉得惊艳。你说不上来它对你有什么无懈可击的具体用处,但它又能帮你实现和完成一些琐碎的、冗余的甚至有创造力的事。 正是这么一个看似无用却有用、看似有用却无用的ChatGPT,推动它的母公司OpenAI被微软追加累计的超过100亿美元的投资,它用两天时间突破100万用户,Facebook曾经花了305天;它突破1亿用户花了两个月,就连TikTok也需要9个月——请记住,与Facebook和TikTok不同,ChatGPT还不是一个独立的消费级互联网产品,它仍然仅是一个采用了GPT-3自然语言模型的包含1750亿参数的大型神经网络——当它被优先授权给微软集成在Office和Bing等办公软件和搜索引擎服务的时候,才真正地变成一个“可用”的产品。 图源:OpenAI官网 但这已经让中国的人工智能独角兽们够嫉妒的了。 500名员工,公司整体估值接近300亿美元,这是OpenAI;动辄几千人,公司估值/市值充其量10-20亿美元,这是中国的多家AI“小巨头”。 因为人效和价值的巨大差距,更因为ChatGPT对全人类现实社会骤然释放的影响力,ChatGPT的诞生给中国人工智能领域的刺激是不小的。很多人又跳出来了,感慨中美人工智能差距进一步拉大,中国想赶上这波浪潮“任重道远”。还有一些人,又开始热衷探讨为什么中国没有自己的ChatGPT,结论仍然是“中国缺乏创新土壤”和“中国互联网公司都在搞直播和买菜”这样,既不负责又罔顾事实的蠢话。 中国互联网公司并没有都在搞直播和买菜,他们在从事半导体开发、AI模型研究和自动驾驶;美国的互联网公司搞直播、买菜尤其是互联网金融的时候也很风生水起,那些拿着手电筒和放大镜拼命找自己问题,极力美化对手,用遮瑕霜不遗余力涂抹对手的问题,把原因归咎于简单粗暴的理由的人,可以闭上你们的嘴,这不是反思中国为什么不能率先诞生自己的生成式人工智能模型的正确姿势。 作为在人工智能和自然语义处理领域积累最多的中国互联网公司,百度过去五年一直在搞自己的深度学习大模型“飞桨“(Paddle Paddle),甚至用自己的通用AI芯片“昆仑芯”训练自己的模型——它们是百度训练自己的“ChatGPT”的基本环境和前提。阿里巴巴、字节跳动和滴滴也都有基于自身需求的自然语义训练模型。可以说,在训练复杂的上百亿参数的自然语义模型方面,中国的公司和研究机构的“家底”并不薄弱,起点也并不比美国同行低——至少在2016年前后的时候是如此。这几年中美人工智能界在大模型领域产生的差距,不是意识、起点和能力的问题,而是道路和方法的问题。 中国与美国在类ChatGPT的人机对话模型领域的差距,也不是所谓的监管导致的。如果你与ChatGPT就一些更丰富的宗教、文化、民族和地缘政治等议题展开过坦率的交流的话,你会意识到它在看似拒绝和审慎讨论这些议题的背后隐藏着某些特定的立场倾向,是与美国社会普遍公认的主流价值观微妙重合的。可以说,任何一个,而不是某一个自然语义的复杂模型,其模型建构、语料采集、训练和参数调整的过程,都是基于特定价值体系的“内容审查”的过程,都有着维系其价值体系的自觉。我们不是应该不应该在自然语义模型里“生成”中国的价值立场的问题,而是它该如何生成,才能真正地制衡英语主导全球互联网语料库必然导致的世界观与文化霸权,加强中文语言理解基准在全球自然语义处理体系的权重,进而为世界人工智能和人机对话的发展提供文化上的多样性。 我也严重不同意中文互联网信息内容质量太糟糕导致中国类ChatGPT模型语料源头被“污染”的说法,这同样是既偷懒又显得大聪明的判断。因为互联网上的信息总量原因,英语内容无疑是世界上最多的,质量堪忧的极端化内容也是最多的,它们都会影响自然语义模型训练的过程和结果。ChatGPT在早期的训练中优先使用内容质量较高的社交论坛Reddit上的高赞内容,是有特定的语料选择倾向的。如果中国优先选择知乎和得到等知识类社区,以及主流媒体优先作为语义模型的语料库的话,就不存在语料被污染的问题。更遑论以大部分持“中文内容质量低”的人们的外语水平和阅读广度,根本不足以支撑他们的论断。 但是无论如何,ChatGPT的横空出世,对我这么一个多年来一直呼吁“告别硅谷崇拜”的人来说,的确是一个不大不小的刺激,也是一个观念的挑战。 这不是因为我觉得中国和美国在人工智能领域竞争的差距就此拉大了,而是因为ChatGPT这样的通用人工智能人机对话模型,是一个真正可能从全人类——而不是某一个特定领域和行业的角度,推动社会生产协作与文明进程的工具。其意义大于移动互联网的出现,堪比电子邮件和搜索引擎的诞生。作为一个人工智能大国,中国早就不是电子邮件和搜索引擎诞生时期的信息技术产业一穷二白的国家了,但是,我们却没有让这类能影响人类文明进程的通用人工智能的创新首先发生在中国,训练一个基础语料由中国文化与价值体系为建构的模型。 更何况,ChatGPT的模型训练方式,很大程度上依靠的是“大力出奇迹”的参数升级、反复训练和模型依据生成内容反馈持续迭代优化——这原本是中国团队最擅长的工作方法。当一家美国的创业公司用从微软融来的钱不惜代价投入巨额算力成本,大量雇佣非洲和中东的数据工人进行信息标注、用最高效率的迭代与Google这样的巨头进行自研语义处理大模型的“军备竞赛”时,你还是有一种很不真实的感觉——这究竟是一家旧金山公司还是一家深圳公司。 像ChatGPT这样的自然语义处理模型应该可以诞生在中国但却没有诞生在中国,其原因还得从中国从事人工智能的科技公司——无论巨头还是创业公司这些年在干什么开始说。 很多人可能从来没意识到的一个问题是:像ChatGPT这样的超大规模通用自然语义处理模型,由一家AI创业公司建构最可能产生奇迹,而在一家科技巨头内部通常不会实现更好的结果。这就是为什么Google的LaMDA对话应用模型和近期仓促上阵的Bard都没有大放异彩的原因,也是百度接下来势必面临的挑战。 为什么?首先是因为通用自然语义处理建模太烧钱了。其实,烧钱通常并不是大公司的本事,反倒是创业公司的特权。科技巨头几乎都是上市公司,百亿美元级别的投资砸在一项相当长时期看不到回报的事上,首席财务官在面对董事会和股东大会时的压力是很大的,也经常是被股价惩罚的,这导致大公司不敢做大冒险,不大冒险就不会有大迭代。什么叫“大力出奇迹”?就是先花大钱出大力,然后再祈祷奇迹的发生,而不是默认一定得出现奇迹,然后再决定花钱出力。 图源:unsplash 可惜,大公司只能是后者。这也是为什么即便从ChatGPT受益颇丰的微软,也只敢从一开始的10亿美元,历时四年,直到今年的百亿美元,一笔一笔,持续地追加投资,以支持OpenAI在微软的“体外”,多年如一日地训练GPT模型。微软通过投资OpenAI获得的股权享有整合ChatGPT模型能力进入其Office和搜索引擎的优先权,它未来会不会吃掉OpenAI可能是一件不太好说的事,但至少市值近万亿美元,一年收入几百亿美元的微软,是绝对不敢一开始就“大力出奇迹”,兀自凭一己之力训练这个模型的。 其次,因为人们对科技巨头从事创新事业的容错度很低,而对创业公司的错误和偏差较为优容。Google为了应对以ChatGPT的压力,仓促推出了人机对话测试版Bard,被发现一些对话出现了基本的事实错误,于是被无限放大,市值一夜蒸发千亿美元。事实上Google不是不清楚这一点,要不是被逼急了,它也不会这么冒失。Google在2021年公布的LaMDA模型,参数级别和信息搜索能力都明显高于当时OpenAI训练的GPT-3,但Google迟迟不敢公测其效果,就是因为害怕它出现失误,引发公众的不信任和股价的下滑。 Google在乎的,OpenAI都不在乎。从ChatGPT发布的第一天起,它就公开地说自己没有信息检索能力,语料库也只到2021年12月,更回答不了很多关于价值和道德判断的问题,还经常犯事实错误。对ChatGPT的自我“摆烂”,测试者很宽容地接受了,对它在编程、文学创作、格式化写作、寻医问诊等领域展现的信息关联、情感表达、逻辑结构、思维连贯性一系列能力惊叹不已,对它犯的错误轻轻带过。 2019年3月,在GPT-2模型取得前所未有的成功后,成立了4年的OpenAI决定由一家非盈利的基金会转变成为一家商业公司。毕竟没有任何一家基金会能受得了它的首席科学家年薪150万美元,2019年5月,山姆·奥特曼(Sam Altman)出任OpenAI的CEO。接着,OpenAI获得了微软的10亿美元投资。2020年5月,OpenAI推出的GPT-3模型,参数从GPT-2的15亿陡升至1750亿,形成了一个前所未有强大的自动学习系统。 可见,一家含着金汤匙出生、融得到巨资、有巨头业务捆绑加持的人工智能初创公司,从事通用的人工智能自然语义模型建构与开发,不计成本投入模型训练,是最理想的状态。最强大的模型带来的想象力和商业回报足以刺激微软和其它的投资者。 那么,怎么这个逻辑在中国就跑不通了?中国曾经有没有一个强大的通用自然语义人工智能模型,哪怕就是一个雏形? 要回答这个问题,不妨看看微软首次投资OpenAI的时间:2019年7月。在微软押注OpenAI的GPT模型之后4个月,也就是2019年11月,微软负责必应搜索业务、同时也是微软人工智能最高负责人的全球资深副总裁、中国香港籍计算机科学家沈向洋宣布离开工作了20余年的微软。而沈向洋对微软通用人工智能模型的最后一个贡献,就是由微软亚洲互联网工程院在2014年主导研发的聊天机器人——小冰。 2020年7月,小冰从微软独立出来,成为一家中国的人工智能创业公司,沈向洋出任董事长,原微软亚洲互联网工程院常务副院长李笛出任CEO。小冰独立之际已发展至第六代以上,产品形态涉及对话式人工智能机器人、智能语音助手、人工智能创造内容提供者和一系列垂直领域解决方案。小冰曾经引发公众讨论的,除了充满情感和女性性征的聊天机器人之外,还有它在汉语诗歌创作领域的惊艳表现——她出过一本诗集《阳光失了玻璃窗》,收获了不少好评,以及更多的争议。 毫无疑问,一个能写诗,进行简单情感和基于常识的对话的小冰机器人,是几年前全世界范围表现上乘的对话式通用人工智能模型。 图源:小冰官网 沈向洋主导的团队不可能不懂搜索,更不可能不懂人工智能。而沈向洋从微软出走和小冰的“独立”,加之微软CEO纳德拉主导的对OpenAI的投资和合作绑定,其实是中美最顶级的人工智能操盘手,在通用人工智能模型领域的一次正式的分道扬镳。 那么,今天的小冰,还写诗么?它在做什么? 这两年,小冰早就不写诗了。它在忙着商业化。它成立了游戏工作室,为游戏提供NPC脚本对话内容;它与冬奥会合作,提供自由式滑雪空中技巧视觉评分系统;它为万得资讯提供人工智能生成的上市公司公告文本摘要;它给万科等企业定制了客服专用的虚拟数字人……它在努力地成为一家“赋能”各行各业,同时让自己能造血赚钱的人工智能解决方案公司。 一句话,昔日代表了通用自然语义人工智能模型较高水准、中国人撑起全部格局的人工智能团队,现在成了一个生成式人工智能与决策型人工智能混合的、为具体的场景提供具体解决方案的人工智能供应商。 你不能说这是小冰的“堕落”,毕竟它只从资本市场融资了数亿元人民币。按照ChatGPT的模型训练方法,这些钱一天就花完了。没了微软的护身庇佑,小冰得自己顾自己的命。可是,我也从来没听说过百度、腾讯或者字节跳动,想过要投资小冰,支持它继续搞通用自然语义人工智能的大模型。 不仅仅是小冰。过去几年中国也有其它从事通用人工智能自动建模和异构计算,让国内外7-8种芯片通过该模型接入软件的创业团队,但只要是拿这个模型出来融资,就搞不定任何的一个投资人。中国的投资机构从未表现过对通用人工智能模型的兴趣,和哪怕一点点的想象力。 “超过85%的投资人一上来就要求我们介绍产品的场景,我们说我们帮GPU对接软件生态,连英伟达都用我们的模型,投资人说这个不算场景。我们说我们也有客户,卫星、码头、智慧城市和智慧工业的研究,他们说你干得太散了,我们不投”。这是我自己听到过的做通用人工智能模型的创业者对我的吐槽。 众所周知,中国的VC是最喜欢“教育”创业者的,当然也少不了教育从事人工智能创业的科学家。“你得在这个行业有点数据”,这是他们最爱教育AI创业者的一句话。 在某一个行业有数据,而且要专注在某一个细分领域提供解决方案,这是中国大多数号称投资人工智能的VC和PE们的思维定式。然后看的就是“场景有多大”,安防摄像头的场景足够大,于是估值模型就变成了中国这么大,能安多少个摄像头?每个摄像头多少钱?总的摄像头盘子有多大?好,盘子足够大,摄像头这个细分领域我们投了。再看看港口智慧物流,中国有多少个港口?有多少个是深水港口?每个港口码头能为AI解决方案付多少钱?原来就付这么点儿钱啊,看来“港口”这个场景不够大,那我们不投。AI虚拟数字人做客服?能跟元宇宙挂上啊,那有故事有想象力,好,我们可以投投试试。 所以,你看到的情况就是,中国的人工智能“四小龙”基本都在做摄像头和人脸识别的生意,都变成了AI的项目实施和集成商,商业模式一如30年前的东软和软通动力,自己活得举步维艰,巨额亏损,还得撑着中国人工智能产业的排面,撑着人工智能这一领域的估值和想象力。 在相当长的一段时间内,几乎没有哪个人工智能领域的投资人发自内心地相信一个通用的模型能在各个行业复用。其中偶尔有几个对通用模型有点耐心和兴趣的,基本都是人民币基金,美元基金对中国团队搞通用模型的尝试真的是兴趣阙如。你以为是他们通过对比OpenAI和Google这样的公司的模型训练难度和水平,从而觉得中国团队做起这个事来有差距?那你还真是想多了。他们知道GPT模型研发是怎么回事的时间,也就是最近这俩月的事。 那些大言不惭“在我眼里商汤和旷视就是卖安防摄像头的”的一线投资经理,那些傲然地跟创业者说“你这个模型又不是场景”的一线投资合伙人,更遑论那些历史上几乎不投人工智能,过去这么多年一直在鼓捣中国创业者“出海”搞加密货币的美元投资基金的合伙人,今天都突然摇身一变,宣称要支持创业者搞“中国的ChatGPT”了。那么你倒可以想想,他们的信誓旦旦和踌躇满志,含有几分对通用人工智能模型的理解和真诚,又有几分是投机和算计。 你更可以想想,一个超级自然语义模型的训练可能一天就得烧几千万甚至上亿人民币,更何况现在提供大模型训练的算力模块——世界顶级的GPU,因为美国的无理禁运而变得越来越难以获取。以那些投资人过去这么多年的心性和行事风格,他们又能坚持得了几天,肯说服投委会投多少笔钱进去,还是能帮这些创业团队搞定GPU的问题?不定哪天,弄不好也就半年之后,他们就又开始催着这些做通用模型的团队,尽快“在细分领域实现商业化”。 以百度对飞桨PaddlePaddle模型投入的坚持,尚且不可避免它从一开始就将这个模型产业实践化,尽快追求在不同行业的商业化。而在很大程度上,通用人工智能大模型的训练,存在着海量数据、高质量有创造力的内容输出和产业应用落地的“不可能之三角”。...
文章《人工智能时代的知识生产与消费》
AI律师助手

文章《人工智能时代的知识生产与消费》

本文探讨了人工智能对职业的影响及知识生产的挑战。ChatGPT等大语言模型展示了人工智能在法律、工程、创作等方面的潜力,引发了关于知识生产、知识消费以及知识公正性的讨论。文章强调了机器学习在预测模型中的应用,并指出了其在处理现实问题及偏颇数据方面的局限性。此外,作者提出了在大模型时代,知识生产者应该如何面对挑战、探索新的知识产生方式等问题。
ChatGPT在中短期内的产业化方向及对法律行业的影响
AI律师助手

ChatGPT在中短期内的产业化方向及对法律行业的影响

文章主要探讨了ChatGPT在法律领域的应用及潜在产业化方向。中短期内,ChatGPT可应用于归纳性文字类工作、代码开发相关任务和图像生成领域。尽管其在某些测试情境下的表现优于人类,但目前仍存在诸多局限性,如无法区分真实与虚构信息,无法完全替代职业律师。然而,随着更多数据和案例的输入,ChatGPT有望进一步优化。对于法律行业从业者而言,提高自身创造性和专业素质将成为关键。
《ChatGPT崛起:对职场的影响与应对策略》
AI情感助手

《ChatGPT崛起:对职场的影响与应对策略》

近日,ChatGPT成为热门话题,这是一种由美国人工智能研究实验室OpenAI开发的全新聊天机器人模型。它可以进行自然语言交互,完成各类任务,甚至能帮助领导人撰写演讲稿。然而,它的出现也可能对一些职业构成威胁,如技术工种、媒体工作者、法律行业工作者等。然而,我们不应过于恐慌,因为AI的发展仍能帮助人类解决许多问题,提高生活质量。对于普通人来说,适应并了解AI,不断提高自身能力,才能更好地应对未来的挑战。
“ChatGPT与法学界的应对”研讨会在天津大学法学院举办
AI律师助手

“ChatGPT与法学界的应对”研讨会在天津大学法学院举办

(通讯员 郭金石 摄影 郭贵雨)2023年2月10日,由天津大学法学院与智算学部联合主办的“ChatGPT与法学界的应对”学术研讨会在法学院330会议室召开,法学院院长孙佑海、副院长蓝蓝、党委副书记杨漫路、卓越教授张恒山、讲席教授熊文钊、吕凯教授、田野教授、刘霜教授、李春晖副教授、王燃副教授、王蕾凡副教授;智算学部王博副教授、戴维迪副教授等出席会议。研讨会由蓝蓝副院长主持。 孙佑海院长介绍了此次会议的背景。2022年11月30日,由人工智能实验室OpenAI研发的通用聊天机器人ChatGPT正式上线。仅仅两个月,ChatGPT的全球注册用户即突破1亿,与此相关的多个话题持续登录各种热搜头条。ChatGPT为何如此火爆?它将给人类社会生活的方方面面带来怎样的影响?法学界应当如何看待并应对ChatGPT所带来的一系列影响?针对诸多疑问,我们召开此次研讨会共同探讨研究。 智算学部王博副教授、戴维迪副教授从ChatGPT发展演变的进程、相关技术原理、ChatGPT在知识、表达和交互方面具有的新意、所引发的相关伦理与法律问题等方面作了全面而深入浅出的介绍,使老师们在技术层面上增强了对ChatGPT的理解。 在学术研讨阶段,法学院专家学者从法学界如何应对的角度发表了各自的观点。 卓越教授张恒山指出,ChatGPT在教育领域的使用可能是利弊共存。一方面,人们担心它根据提示生成几乎任何主题的原始文本,包括文章、论文、故事甚至诗歌,给使用者带来学术造假、学术剽窃、侵犯知识产权的便利;还担心学生使用ChatGPT应对做题、考试,以至造成考试作弊,降低学生学习能力,等等。但是,另一方面,ChatGPT的使用将带来的好处也是难以估量的。首先,ChatGPT的使用将迫使我国传统的注重的知识存储性教育理念和方法加以改变。该程序的使用,将使得绝大多数中国学生,尤其是中小学生,从代价巨大、精力耗费最多的记忆型学习中解放出来。由于该程序的互动式的特点,ChatGPT将引导孩子们主动寻求知识。我们的教育需要转向引导学生通过探照灯式的自主性寻求知识的学习模式上,当然,最基本的知识教育还是必不可少的。其次,ChatGPT将给大学生们、研究生们的论文写作提供参考性的主题框架、主题观点、资料来源,这将大大节省研究者们对某一问题研究、论文写作的框架性思考的时间,使得研究者能将宝贵的时间用于创新性思考中。ChatGPT是利弊共存的工具,关键在于我们如何使用它。 讲席教授熊文钊指出,首先,ChatGPT作为续写智能机器带来了新的技术革命,尽管“Al”作为技术工具力图“把话说透”,但仍然存在不同主权国家立场和意识形态取向。我国应在秉持国家利益和国家安全立场上,研究开发属于中国的智能“机器人”。第二,智能续写机器人的开发利用,应当在国家政治和宪法框架结构中展开,不得妨害国家的、社会的和他人的权利和自由。第三,智能续写“机器人”的算法规则、技术伦理、国家安全、商业秘密、个人隐私等应当纳入法治监管体系,及时制定出台监管规则和实施细则。第四,面对ChatGPT带来的技术革命,国家应当提前布局,制定发展规划和应对措施,登高望远,统筹谋划,激励创新,力争赶超,推进新时代的新技术革命和更加广泛尤其是在法治领域和教育领域的应用。 田野教授指出,ChatGPT的流行引发一系列问题和挑战,其中对就业的影响最为引人关注。一种广泛的舆论担忧认为,ChatGPT的广泛使用和不断升级可能消灭一部分工作,对人类的就业造成严重冲击。不过国际上也有观点认为,这可能是一个创造性破坏(creative destruction)的过程,其在消灭一些重复性的低端劳动岗位的同时,可能会创造一些新的更高端形态的就业机会。对因技术进步取代人力可能导致就业机会减少的忧虑不是从今天开始的,而是很早就存在了,但事实证明了创造性破坏理论的正确性,ChatGPT可能是这一故事在数智时代再次上演的新版本。当然,实际的影响还有待于在发展中观望。 刘霜教授指出,OpenAI的ChatGPT是生成式人工智能技术(AIGC)浪潮的一部分。ChatGPT发布后,OpenAI的估值达到290亿美元。根据UBS发布的研究报告显示,ChatGPT在1月份的月活跃用户数已达1亿,成为史上用户数增长最快的消费者应用。在被ChatGPT惊艳的同时,也应当正确面对和提前防范ChatGPT可能存在伦理道德风险、知识产权风险、传播虚假信息风险、侵犯公民个人信息等风险。如果ChatGTP作为中立技术行为被恶意作为网络犯罪的工具,其开发者、设计者、使用者能否以技术中立作为规避责任的抗辩事由?为何在工业4.0时代,大数据、新科技、新技术在法律方面的应用却远远落后于时代?ChatGPT能否运用于智慧司法、数字法治?能否如实践经验丰富的法官一样做到天理国法人情的高度统一?因而,法律人应保持理性立场,既接受新技术革命带给我们的便利,也保持一种法律人的冷静与审慎。 李春晖副教授指出,除了作品可保护性、知识产权权属、主体资格、取代人力等AI老问题之外,ChatGPT会产生什么新问题?ChatGPT比此前已让法学学者们大费脑筋的老一代AI看起来更加智慧,其突出性能仅仅是AI范畴的量变,还是在法学研究范畴内产生了质变,足以引发新问题?这取决于其优异表现所产生的新应用产生的现实问题,例如,在ChatGPT足够优秀从而让人产生相当程度信赖的情况下,其提供内容的错误或对其能力的滥用如何处理?对此,李春晖副教授认为有两方面的问题可以研究(但不限于此):(1)与科技界和伦理学界相结合,研究如何细化和实施科技和人工智能伦理规范,并上升至立法;(2)考虑“AI产品”之产品责任的可能性。如果AI的充分发展令其承受了相当一部分人类的相当程度的信任,则其是否应承担相应的责任?而考虑到其工具性质,则其开发者或者以其提供产品或服务者是否应承担一定的责任或者监管义务? 王燃副教授指出,近期,ChatGPT如横空出世匹黑马,迅速席卷了各行业,法律科技领域也不例外。目前看来,ChatGPT仍未突破既有的关于“AI vs.法律人”这一主题的探讨,但技术上仍有发展空间。可以肯定的是,ChatGPT不会直接替代律师、法官,但它可以辅助完成一些重复性、繁琐性的法律任务。华宇元典的相关专家(张博文)对ChatGPT在法律检索、合同审查、量刑建议、合规义务识别、法律文书生成、法律要素抽取、法律咨询等领域的表现做了初步的测试。发现ChatGPT在通用型任务,内容生成类的能力上比较强,但是所有匹配法条,识别法条之类的场景里都会更弱一些。关于AI技术在法律领域的应用,可进行更深入的思考。有两条不成熟的思路:一是分别抽取技术标准与法律业务标准,进行匹配对应,从而将“人”“机”的任务及角色厘清;二是构建诉讼标的与人机服务的关系模型,标的越小(不仅仅指金额方面)的法律诉讼,对AI接受度越高;标的大的法律诉讼,则仍应当寻求专业而有经验的法律人服务。作为法律人,我们应适当掌握基本的数据技术或其应用技能,同时坚持不懈地提升专业的、不可替代的法律能力。 田源副教授指出,ChatGPT如同一柄双刃剑,在带来巨大技术红利的同时,也存在侵犯知识产权、传播虚假信息、操纵舆论民意等风险挑战。对ChatGPT的风险应对,应聚焦开发者、销售者、使用者等各类主体,覆盖研发、推广、应用等多元场景,实现全流程、全链条、全方位防治。防治手段上,既要依靠良法善治,发挥法治固根本、稳预期、利长远的保障作用,也应不断丰富科技伦理植入、社会道德规训等治理工具箱。具体施策应审慎稳健,尊重保护ChatGPT作为新生事物的发展动能,引导其更好服务社会、造福全民。 王蕾凡副教授指出,首先,国家对此类新兴颠覆性科技立法规制需要审慎,一是此类科技的社会影响需要一定时间、空间才展现出来,立法者不能仅基于自己想象而对科技予以规制而应基于新兴科技产生的真实社会影响进行精准规制,合理调整相关的社会关系与影响;二是国家间科技立法存在竞争,一国如果过早、过严规制此类科技会促使相关科技创新人才与创新科技企业流动到规制较少、环境较宽松的国家,从而抑制本国的科技竞争力及产业经济发展空间。其次,前期可以通过伦理、指南、行为准则等软法形式对此类科技的开发与适应进行引导,推动科技向善。第三,chatGPT的具体应用问题,如学校将如何对待学生用chatGPT写出的论文?如何识别用chatGPT写出的论文? 孙佑海院长总结发言。他指出,ChatGPT的出现提升了自然语言处理能力的上限,既可以是提升效率的工具,解答人们的各种问题、创作出一定水平的文字作品,甚至编写代码,同时,也可能被绕过安全机制,用于实施危害社会的活动。从教育界和法学界关心的领域看,后者的行为,包括违反公序良俗的伦理道德行为、侵犯知识产权等违法行为、危害公共管理等政治行为,随着ChatGPT语言学习能力的不断增强,这些方面的忧虑还会不断加深。希望法学院的老师和同学们敢于面对挑战,深入开展学习研究,一方面适应新技术的发展,用好新的技术工具,同时,要针对现实问题,积极为党和国家献计献策,为我国新时代的发展和安全贡献更大的力量。 此次学术研讨会是法学院与智算学部学科交叉融合的一次成功探索,未来双方还要进一步强化学科交叉,寻求科研合作新范式。
合规与审查:ChatGPTlegalandethicalchallenges
AI律师助手

合规与审查:ChatGPTlegalandethicalchallenges

这篇文章由深圳市蓝海大湾区法律服务研究院合规委员会主任撰写,主要讨论了人工智能技术ChatGPT带来的法律和道德伦理挑战。作者曾担任埃森哲亚太区区域法律部董事总经理和大中华区法律部董事总经理,因此具有丰富的科技和法律审查经验。文章分析了ChatGPT和法律规定的挑战,强调了积极关注立法和实践之间的差异的重要性,同时也提供了对ChatGPT进行法律规制的相关建议。
律师深度测评ChatGPT(二):诉讼领域问答
AI律师助手

律师深度测评ChatGPT(二):诉讼领域问答

?扫码免费试用熊猫AI 体验AI智能审合同的魅力? 月半整理(转载请联系:xm-planet) 自2月初突然爆火,大半个月过去了,ChatGPT依旧热度不减。 这款人工智能聊天机器人火爆全球,除了可以用来写论文、改代码、做翻译,还能用来咨询法律问题、撰写法律文书,这不禁让人们思考:法律人会被取代吗? 月半这就来深度、理性测评一下,ChatGPT的回答质量到底如何—— 测试情景:以企业、个人两种身份进行提问,模拟客户向律师咨询的对话向ChatGPT提问。 测试领域:合同、诉讼、婚姻家庭、劳动、交通肇事、借款六大领域的法律问题(因篇幅问题,本篇为测评系列第二篇:诉讼领域,剩余测评请看今日第一、三篇推送和明天的推送,或者点击→#人工智能查看)。 点评嘉宾:特意邀请几位3—5年级的律师,请律师对这些问题的回答进行点评。 二、诉讼领域 企业身份提问: Q1 对于一些生产销售类型的企业来说,客户信息十分重要。一旦员工离职带走客户资源,将给公司造成巨大的损失。那么,客户信息属于商业秘密吗?公司老板是否能要求离职员工赔偿? ▋ ChatGPT:客户信息可以被视为商业秘密,因为它包含公司的关键业务信息和竞争优势,因此离职员工带走客户信息可能会对公司造成重大的经济损失。 在大多数国家,包括中国和美国,公司可以通过保护商业秘密来维护其经济利益。这意味着,公司有权采取法律措施防止其商业秘密泄露或被利用,包括禁止离职员工使用、披露或转让公司的客户信息。 在某些情况下,公司可以通过起诉离职员工或寻求诉讼和赔偿来保护其商业利益。但要注意的是,在采取法律措施之前,公司必须能够证明其客户信息是商业秘密,并且离职员工已经盗取、使用或披露了这些信息。否则,公司可能会被视为在试图限制离职员工的竞争自由,而遭受反垄断或不公平竞争的指控。 因此,建议公司在员工离职前建立保护客户信息的制度和规定,并与员工签订保密协议。此外,公司应该进行定期的员工培训,以确保员工了解公司的保密政策,并认识到泄露公司机密信息的严重后果。 (上下滑动查看) ▋