预见·科技|“ChatGPT之父”突遭董事会罢免 专家解读:行业正常现象封面新闻2023-11-18 19:06封面新闻2023-11-18 19:06
AI律师助手

预见·科技|“ChatGPT之父”突遭董事会罢免 专家解读:行业正常现象封面新闻2023-11-18 19:06封面新闻2023-11-18 19:06

封面新闻记者 欧阳宏宇 今年38岁的山姆·阿尔特曼(Sam Altman)最终还是拿到了乔布斯在30岁时所经历的剧本。 当地时间11月17日,人工智能初创公司OpenAI突发声明,宣布公司首席执行官山姆·阿尔特曼将离开公司,公司现首席技术官米拉·穆拉蒂(Mira Murati)被任命为临时首席执行官。OpenAI称,接任CEO的人选仍在确认过程中。 根据声明,阿尔特曼的离职是在董事会进行审议审查后做出的,审查的结论是,他在与董事会的沟通中并不一贯坦诚,阻碍了董事会履行职责的能力。董事会对他继续领导OpenAI的能力不再有信心。 作为OpenAI的创始人之一,阿尔特曼离开的理由是否值得信服?又是什么原因让他被赶出公司?阿尔特曼的离开对OpenAI,乃至整个AI产业将产生什么影响?对此,北京市社会科学院副研究员、南昌理工数字经济研究院院长王鹏博士在接受记者采访时解读到,从企业管理的角度,阿尔特曼的离开是行业的正常现象;创始人的离开对任何一个组织而言,都是发展过程中会面临的问题。“阿尔特曼给ChatGPT甚至全球AIGC的发展打下了强烈的个人烙印,这或许会给OpenAI的发展带来一些影响,但总体上,该公司未来的发展潜力仍然非常巨大。” 山姆·阿尔特曼(Sam Altman) 创立OpenAI八年后 “ChatGPT之父”退场 2015年,阿尔特曼与时任特斯拉和SpaceX首席执行官的埃隆·马斯克共同创立了OpenAI。四年后,阿尔特曼成为了该公司的首席执行官。去年底,该公司发布了聊天机器人程序ChatGPT,开启了全球AI大模型时代,阿尔特曼也被媒体称为“ChatGPT之父”。 和1985年时30岁的乔布斯向董事会提交辞呈离开公司前,苹果公司已经因为丽莎电脑项目的失败而开始亏损不同,阿尔特曼被董事会通知离开十分突然。 根据董事会在11月17日突然发布的声明,阿尔特曼的离职是“董事会经过深思熟虑的审查过程后决定的”,“董事会认为他不再有能力继续领导OpenAI”。但他走后,CEO一职由公司首席技术官暂时担任,董事会也还在选择接任的CEO人选。这时,ChatGPT移动端收入刚刚创下新高,只是在巨大的收入基数下,显得其增速放缓了。 人工智能初创公司OpenAI突发声明,宣布公司首席执行官山姆·阿尔特曼将离开公司 一夜之间,AI圈变天,但从企业管理的角度看却也正常。“根据Open AI的声明,可以明确的是,阿尔特曼和董事会在未来战略的沟通中出现了一些问题。”王鹏分析称,但客观看待该事件,Open AI作为一家管理规范的科技公司,突然宣布CEO离开具有合规性,也属于正常的行为。 在王鹏看来,阿尔特曼之所以离开,归根到底的核心因素是他个人的领导力,以及同管理层的沟通,甚至未来业务的选择出现了分歧。“从这个角度看,阿尔特曼的离开是一个非常正常的现象。” ChatGPT热度不减 Open AI仍有巨大潜力 对于从Open AI离职一事,阿尔特曼随后在社交媒体上回应表示:“我热爱在Open AI的这段时光,它改变了我,也希望它能改变世界。最重要的是我曾和众多才华横溢的人一起工作。” 阿尔特曼在社交媒体上的回应 在阿尔特曼管理下,Open AI于2022年11月30日发布了ChatGPT,当时便在全球范围内引发人工智能的浪潮,短短5天,其注册用户数就超过100万,成为历史上增长最快的消费者应用程序,至今热度不减。 此前,有媒体报道称,Open AI在今年10月对外宣称,得益于ChatGPT的贡献,该公司的年化标准收入达到13亿美元,公司的整体价值或超过800亿美元。 “阿尔特曼为Open AI的发展立下了汗马功劳,也给生成式人工智能大模型的发展打上了很大的个人烙印。”王鹏也表示,企业管理人员,尤其是主创团队的变动,对于任何一个处于发展过程中的公司或组织机构而言,都必定会面临的问题。这一变化对组织而言,是改革和多元化发展的契机,可以使之获得新生,但有时也会对企业的未来产生负面影响。 事实上,在几天前就有消息称,Open AI正计划向微软寻求新的资金支持,用来打造更复杂的人工智能模型。同时,该公司还计划在明年推出一个团队,专注于探索其ChatGPT人工智能平台在学校中的潜在应用。 王鹏对此谈到,作为已在全球范围内产生影响的生成式人工智能企业,从Open AI最近推出的创新计划看,其仍然具备非常巨大的发展潜力,尤其是其业务的应用前景和公司本身的实力还是非常强。“我觉得,Open AI仍然能够继续保持其原本的创新力,并在AI大模型领域当中继续起到引领作用。” 有人欢喜有人忧 阿尔特曼的未来值得期待 从行业层面看,阿尔特曼的离开Open AI令人惋惜。 韦德布什证券分析师丹尼尔·埃夫斯(Daniel Ives)就表示,阿尔特曼是OpenAI成功的关键因素。他认为,随着时间的推移,Open AI罢免风波的全面影响将会逐渐显现。 此外,研究公司Forrester的分析师表示,阿尔特曼的离开虽然具有破坏性,但只反映出了个人问题,并不会影响生成式AI的普及、以及Open...
ChatGPT可以取代律师和法官吗?
AI律师助手

ChatGPT可以取代律师和法官吗?

ChatGPT可以取代律师和法官吗? 文/周跃立 三年前在美国旅行的时候,与一位大学同学一家团聚,他的女儿女婿正好在硅谷工作,而且就是从事人工智能方面的研究。席间,我至今清楚的记得:他家的女婿问我:周叔叔,你认为人工智能会不会(能不能)取代律师和法官? 我略加思索后回答说:虽然我对人工智能是个外行,但是就我现在的认知来看,我觉得人工智能“部分取代”律师和法官的工作是有可能的——尤其是那些程序化的、不需要更多创意的工作,完全可能由人工智能替代。转眼三年时间过去了,人工智能也取得了突飞猛进的发展,你可以说叫做质的飞跃。尤其是近期被热议的ChatGPT,就是一个特别值得关注的现象。 近段时间,ChatGPT已经成了一个霸屏的热词。不管在哪里,不管在什么场合,好像不聊上两句ChatGPT,你就已经out了,你就已经落伍了,而且很快就会被这个世界淘汰了。 ​ 我也稍微关注一下有关ChatGPT的有关信息,感觉众说纷纭,莫衷一是。我虽然不能够完全看懂,但是有一点我还是比较肯定的—— ChatGPT不管再怎么智能化,哪怕它可以写文章,写处方,写判决,但是只要是需要“创意”的地方,比如律师要分析一个复杂的案件,恐怕ChatGPT还一时半会儿学不会。因为,这当中没有什么模式可循,人工智能暂时还达不到这个地步。 按照我的理解:作为人工智能,它一定是由人来设计的。既然是由人来设计,他就一定是站在人类已有的历史经验基础之上的,那就只能借助于人类已有的智慧经验,哪怕是错误教训。如果是人类历史上还没有遇到过的问题,虽然人工智能已经有了一定的学习能力,但是这种“学习”一定要有蓝本,要有对象,如果连学习的蓝本和对象都没有,人工智能恐怕就达不到,因为他自己无法进行“创造性“的思考。 当然,今后会怎么样,我也不敢下结论。所以很多人说,人工智能要毁灭人类,这个恐怕不是我们现在能够回答或者关心的问题。 ​ 作为一名有三十年执业经验的资深律师,可以说是身经百战,办理过各种各样的疑难案件,也对付过各种妖魔鬼怪。我认为一个优秀律师最核心的能力,就是在面对各种完全不同类型、复杂多变的案件时,有一种可以破解各种疑难杂症的“万能钥匙”,这把万能钥匙实际上就是一种“思维模式”。 这种“思维模式”很难用一两句话解释清楚,需要在大量的司法实践当中去细心的琢磨和体会。所以律师这个职业仅仅靠教授在教室里面讲理论是培养不出来的,只能由师傅带着徒弟,在实战当中一点一滴的成长。但只要具备了这种思维模式,今后不管面对什么样的案件,面对什么样的对手,都可以从容应对。就像当年的样板戏《红灯记》当中李玉和的那句台词:有您这杯酒垫底,什么样的酒我都可以对付。 我曾经有一位助理,跟着我办了不少的案件,在分析案件的能力上已经具备了一定的功力。也就是说学会了一种方法,在面对一个复杂的案件时,知道怎么去入手,怎么去寻找突破点。或者说,他逐渐的学会了一种思维模式,这种思维模式,也就是我说的万能钥匙,在面对任何疑难案件时都可以一通百通。 ​ 当时有一件事情我印象很深,我都这位助理有一个男朋友,是一位双料博士,是一个真正的学霸。每天到律师事务所来陪他女朋友的时候,都是抱着一个大部头,手拿红黄蓝三种颜色的笔,一笔一划的做读书笔记。这样的画面让旁观者感叹:学霸真不愧是学霸,连读书都这么牛逼! 有一次,偶然的机缘巧合,我把一个不算太复杂的案件交给这位助理,而她男朋友又正好在旁边,我就开玩笑的说:你们俩一起来分析一下,然后我来听听你们的分析意见,如何?两个人都欣然应允。可能女助理想要一露身手,而男学霸在心里可能想:这点小事怎么可能难得到我? 几个小时过后,我们又坐在一起聊天,我先请双料博士谈谈看法,他显得很焦灼、很茫然,说现有的理论和法律规定都没有这种情况,让人也不知道该怎么办?我感觉他对这样一个案件,就像面对一个满身是刺的刺猬,根本无法下嘴。但是他的女朋友却很快找到了解决的方法,这是因为他在几年的实战当中已经找到了,或者说已经学会了一种思维模式——面对一个复杂的案件,如何去入手,去寻找突破点,用那把万能钥匙,不管是什么样的锁,都是一捅即开! ​ 在我看来,人工智能也好,ChatGPT也罢,都很像这位双料博士。当然ChatGPT的知识储存量以及学习能力,可能会比双料博士要强很多很多倍。但不管强多少倍,它始终缺少一种创造性的思维方式,所以在面对一种理论——人类的经验和法律的规定—— 无法囊括的问题时,它就会束手无策,甚至漏洞百出。 也许我对人工智能的这种认知是肤浅的,但是至少表达了我的一种希望:希望人工智能今后能够朝着这个方向前进,能够具备一种创造性的思维方式。如果真的到了这种地步了,人类可能真的就要警惕了,要早点儿未雨绸缪,考虑好如何来对付这个人类自己制造出来的掘墓人了。 ​
《智能时代的挑战与选择:AI公正与透明的寻求》
AI律师助手

《智能时代的挑战与选择:AI公正与透明的寻求》

在智能数据时代,我们正面临前所未有的挑战。AI系统的不透明性可能导致公平性问题,尤其是涉及到医疗诊断、法律判决等重要领域。提高AI系统的可解释性和透明度已成为研究的重要方向。此外,OpenAI的CEO山姆·奥特曼在短短时间内经历了一场价值观冲突,引发了人们对AI未来发展方向的思考。
爆火的ChatGPT隐藏着这些法律风险,与你我都有关,切勿踩坑
AI律师助手

爆火的ChatGPT隐藏着这些法律风险,与你我都有关,切勿踩坑

这几天网络热点的当红炸子鸡当属ChatGPT莫属了!这款起源于“美国AI梦工厂”OpenAI制作的聊天机器人软件,让撰写邮件、论文、脚本,制定商业提案,创作诗歌、故事,甚至敲代码、检查程序错误等都变得易如反掌。不少和ChatGPT“聊过天”的网友纷纷感叹,“只有你想不到,没有ChatGPT办不成的”。 但同时,由于ChatGPT的广泛应用而引致的法律问题,也值得关注和思考。 一、虚假信息法律风险问题。 ChatGPT可以针对任何事物轻而易举生产无限且近乎免费的信息,这一点很容易被一些不良商家或者营销段子手加以利用,漫天盖地炮制出无数对他们有利的各种信息,再结合所谓的SEO技术,让这些信息无处不在,对人们进行洗脑,让社会大众失去判断力,甚至又不知会产生多少类似魏则西这样的悲剧事件,随之而来的监管和法律风险问题也不得不让我们关注,而这又给社交媒体平台和监管机构带来了新的挑战。 二、知识产权合规风险问题。 用ChatGPT生成的文章或论文,最大的问题在于知识产权归属和责任确定问题。如果作品的观点或内容出现问题,例如出现了谬误、不恰当、造假,甚至是抄袭剽窃,该谁负责?又该如何追责?另外,ChatGPT还可能引发版权问题,因为AI生成本身并没有创造能力,而需要“投喂”大量的人类画作进行训练,在这过程中,AI学的实在太像了,以至于很多画作直接与模型库中的人类画师风格完全一致。虽然AI没有完全盗用画师的作品,但对风格上的抄袭也是很会让原作者很难以接受。 正是基于此,法国巴黎政治学院于当地时间1月27日,率先宣布禁止使用 Chat GPT和所有其他基于人工智能的工具,以防止欺诈和剽窃。 三、国内AI领域立法 我国在国家层面的人工智能专门立法正处于预研究阶段,还没有正式的立法计划或者相关的动议草案,当前只有《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》等两部与之相关的监管条例,其余的则是一些零散分步在《民法典》、《数据安全法》、《网络安全法》、《个保法》、《网络音视频信息服务管理规定》、《网络信息内容生态治理规定》等法律法规中的个别条款规定以及一些支持产业发展性质的文件,总体来说还没形成完整体系。   相信随着这波由ChatGPT引发的AI普及热潮,相应的监管及立法工作也会加快进程。 关注我们 设置星标,更多法律干货,教你规避风险: 声明:部分素材来源于网络,“找大状”微信公众号刊载此文,是出于传递更多信息之目的,若侵犯了您的合法权益,欢迎致电400-166-1638,我们将及时更正、删除,感谢您的关注! 点个“在看”每天收到最新资讯
别和数据分析的互动中,组织的领导者们需要平衡不同的因素,包括创新、实用性、道德和社会责任等在这个高度复杂和不确定的领域中,领导者们的决策和行动会对公司的未来产
AI律师助手

别和数据分析的互动中,组织的领导者们需要平衡不同的因素,包括创新、实用性、道德和社会责任等在这个高度复杂和不确定的领域中,领导者们的决策和行动会对公司的未来产

本文探讨了人工智能和大数据的发展中所面临的价值观冲突。从OpenAI的山姆·奥特曼被罢免到后来的事件发酵,展现了AI技术发展中的道德、伦理和价值观问题。如何在技术和社会伦理之间找到平衡,成为了一个亟待解决的问题。
美新闻出版界指控ChatGPT“非法剽窃”参考消息2023-11-02 11:31参考消息2023-11-02 11:31
AI律师助手

美新闻出版界指控ChatGPT“非法剽窃”参考消息2023-11-02 11:31参考消息2023-11-02 11:31

参考消息网11月2日报道据美国《财富》杂志网站11月1日报道,如果生成式人工智能(AI)不合法会怎样?2022年11月,这项技术随着ChatGPT的发布进入公众视野。但自问世以来,它一直与媒体机构处于不稳定的休战状态。如今,差不多一年过去了,最大报业联盟——核心成员包括《纽约时报》和《华尔街日报》——开始表态,而且措辞严厉。 美国 新闻出版商认为,ChatGPT的母公司人工智能研究中心和谷歌公司等开发者,一直在非法使用他们受版权保护的作品来训练聊天机器人。 代表2200多家媒体机构的行业组织“新闻媒体联盟”10月31日发布一份77页的白皮书,称一些最受欢迎的AI聊天机器人,如ChatGPT和谷歌的“巴德”,严重依赖新闻文章来训练它们的技术。由于这些聊天机器人的训练方式,它们生成的答案几乎与受版权保护的内容相同。 这份报告称:“尽管生成式AI让消费者、企业乃至整个社会充满期待,但它是在创造性贡献者的支持下构建和运行的商业产品。” 大语言模型是一种理解并生成书面文本的AI,它们通过分析大量数据和模仿写作模式来训练,同时输出看似百科全书般的知识。然而,由于许多开发者并没有公开透露哪些内容被输入他们的模型进行训练,所以不可能确切地知道哪些数据被引用或复制。但“新闻媒体联盟”认为它知道。 “ 新闻媒体联盟”主席兼首席执行官丹妮尔·科菲在接受《纽约时报》采访时表示:“它真真切切地成了我们劳动成果的替代品。你可以看到,我们的文章被投喂后又一字不差地吐出来。” 科菲补充说,该新闻集团将与开发者“在法庭上打一场非常有胜算的官司”。 报道称,生成式AI的兴起一直是悬在媒体头上的达摩克利斯之剑。如果聊天机器人能够提取大量信息,并将其总结为可读的准确文本,那么从理论上讲,它可以让记者失业。(编译/卿松竹) 举报/反馈
罗翔老师经典案例:张三行为解读
AI律师助手

罗翔老师经典案例:张三行为解读

这篇文章主要探讨了罗翔老师所提到的经典案例“张三行为”。作者通过对该案例的深入剖析,阐述了其背后的法律原理和道德观念,为读者提供了理解和把握法律知识的有效途径。同时,文章还强调了法律意识和道德修养在现实生活中的重要性,提倡大家积极学习和践行社会主义法治精神。
《超级AI的崛起与控制:IlyaSutskever的言论及我国企业动态》
AI律师助手

《超级AI的崛起与控制:IlyaSutskever的言论及我国企业动态》

本文主要涵盖了多个领域的新闻和事件,包括人工智能、汽车、酒类和电子产品等。其中,OpenAI创始人Ilya Sutskever表示,预防超级AI失控是首要任务;vivo发布自研蓝河操作系统BlueOS;百度上线文心一言专业版;多家新能源车企公布2023年10月造车成绩单;特斯拉Autopilot自动辅助驾驶系统在美加州案中获得无罪判决;零跑汽车创始人承诺未来10年内不转让股份;苹果公司预计明年推出Apple Watch Series 10,新增血压趋势监测和睡眠呼吸暂停检测功能;微信键盘正式更名为微信输入法,已覆盖iOS、Android、Windows、macOS平台。
第九届版博会|ChatGPT等模型抓取数据学习是否侵权?专家们这样看→重庆日报2023-11-25 21:42重庆日报2023-11-25 21:42
AI律师助手

第九届版博会|ChatGPT等模型抓取数据学习是否侵权?专家们这样看→重庆日报2023-11-25 21:42重庆日报2023-11-25 21:42

2022年11月,生成式人工智能(AI)随着ChatGPT的发布进入公众视野。一年来,以ChatGPT为代表的大语言模型风靡全球,中文世界也诞生了文心一言等同类产品。不过,在ChatGPT诞生的美国,开发该技术的谷歌等公司被视为一直在非法使用受版权保护的新闻作品训练聊天机器人,这样抓取数据学习的过程,涉嫌侵权。 ▲研讨会现场。主办方供图 在11月24日下午举行的第九届版博会子单元——“保护知识产权 促进创新发展——著作权法配套法规修订热点问题研讨会”上,来自高校、司法机关、仲裁机构等领域的专家展开探讨时,ChatGPT等大语言模型抓取数据是否侵犯了著作权话题引发热议。专家们认为,是否构成侵权,还得综合多方面因素来看。 ChatGPT等大语言模型是一种理解并生成书面文本的AI,它们通过分析大量数据和模仿写作模式来训练,同时输出看似百科全书般的知识。然而,由于许多开发者并没有公开透露哪些内容被输入他们的模型进行训练,所以不可能确切地知道哪些数据被引用或复制,是否获得相关著作权权利人授权使用,更不得而知。 不久前的10月31日,代表2200多家美国媒体机构的行业组织“新闻媒体联盟”发布一份77页的白皮书,称一些最受欢迎的AI聊天机器人,如ChatGPT和谷歌的“巴德”,严重依赖新闻文章来训练它们的技术,“我们的文章被投喂后又一字不差地吐出来”,直接导致了它们生成的答案几乎与受版权保护的内容相同。 针对类似争议,中国社会科学院法学研究所李明德教授认为,如果开发公司在预先训练ChatGPT等大模型时,使用了有著作权的作品等文本数据,且用于商业用途,本身就是侵权。这些在侵权基础上训练学习后创作的作品,版权算谁的?正在修订中的著作权法实施条例如何认定,目前还不得而知。他提醒,要保证侵权行为不存在,那就一定要强调数据挖掘和文本发掘是用作“非商业性”的使用。 如何看待机器学习数据挖掘,华东政法大学知识产权学院院长丛立先教授提出了个人看法,“假设给机器数据挖掘合理使用的便利,也就是说,它在形成作品之前具有极大便利,然后机器学习产生的所有作品又都不受版权保护,会产生一个什么问题?直接的后果就是,机器学习领域有可能会置身于版权法之外,这值得思考。” 丛立先称,现在知识应用场所的数字挖掘和人工智能会带来很大的知识进步,对社会有很大帮助和支持。如果在机器学习的前端给它便利,同时它产生的作品也受人类控制,那么机器学习生成的便利符合人类可持续发展需要,也应该给予知识产权保护,“但这不同于人身权和财产权保护,相关制度可通盘考量,可以叫‘有限著作权保护’,以此促进人工智能的发展,促进其他的知识利用者,进行相应的知识学习和利用。” 华东政法大学法律学院教授王迁则强调,谈到AI训练、机器学习,有两个问题需要重点关注:一是输出端问题,AI训练要重点解决输入端问题;二是涉及演绎权的问题,包括人工智能对文本数据的改编、翻译和汇编等。 “从《著作权法》的角度看,AI诞生开始就面临着未经许可将他人作品作为训练数据使用,是否构成著作权侵权的问题。”王迁介绍,目前包括欧盟、英国、日本都有了相应的立法,主要限于AI训练方式的“非商业目的”。今年8月,国家网信办也已联合多部委出台了一个生成式人工智能的管理办法,“随着AI越来越强大,与其等到有一天我们被动应对这些难题,不如早一点为AI立法。”王迁称。 举报/反馈