AI律师助手
1、Twitter再次成为被告:去年大规模裁员涉嫌违法 2、错称澳大利亚官员行贿坐牢 ChatGPT或首次被提起诽谤诉讼 3、美媒:别被AI的智能吓到,真正可怕之处是它被高估被滥用 1、Twitter再次成为被告:去年大规模裁员涉嫌违法北京时间4月5日早间消息,据报道,当地时间周二,Twitter再次遭遇诉讼。原告方指控,这家社交媒体巨头在去年被埃隆·马斯克(Elon Musk)收购后,在没有提前通知的情况下违法辞退外包合同工。这表明,Twitter此前大规模裁员的影响仍在持续发酵。这起集体诉讼已经提交至旧金山联邦法院。诉讼称,Twitter去年11月解雇了人力资源公司TEKSystems派遣的大量外包员工,但没有按照美国全国和加州法律的要求,提前60天通知相关员工。该法院同时还在审理另外五起案件,指控Twitter违反劳动法,针对女性员工进行裁员,以及歧视残疾员工。对此,Twitter否认存在不当行为。去年11月初,Twitter裁员约3700人,占员工总数的一半,这是马斯克采取的一项成本削减措施。此前,马斯克以440亿美元的价格收购了Twitter。在此之后,又有数百名员工辞职。Twitter和总部位于马里兰州的TEKSystems在诉讼中被列为被告。两家公司尚未对此做出回应。在所有这些案件中代表原告方的沙朗·里斯-里奥丹(Shannon Liss-Riordan)在电子邮件中表示:“尽管马斯克似乎认为,他通过逃避这些义务为公司省了钱,但我们计划向他表明,如果不履行责任,他可能会付出更大的代价。”她表示,她还代表1700多名Twitter前员工和外包员工在非公开仲裁中提出申诉,这些员工与公司签署了通过仲裁解决劳动纠纷的协议。与此同时,TEKSystems派遣的外包员工没有签署这样的协议。里斯-里奥丹还代表那些向美国劳工委员会投诉Twitter的员工。这些员工声称,他们因批评公司、试图组织罢工和其他受美国联邦劳动法保护的行为而被辞退。目前,Twitter尚未对这些指控做出回应。(新浪科技)2、错称澳大利亚官员行贿坐牢 ChatGPT或首次被提起诽谤诉讼北京时间4月5日消息,澳大利亚一位地方郡长周三表示,如果OpenAI不纠正ChatGPT关于他曾因行贿入狱的错误说法,他可能会起诉OpenAI。如果他真的采取法律行动,这将是ChatGPT在全球首次被提起诽谤诉讼。去年11月,布莱恩·胡德(Brian Hood)在墨尔本西北120公里的赫本郡(Hepburn Shire)当选郡长。公众告诉他,ChatGPT错误地把他列为了一桩21世纪初海外贿赂丑闻的犯罪方,这桩丑闻涉及澳大利亚储备银行的子公司澳大利亚印钞公司。随后,他开始担心自己的声誉。胡德的代理律师称,胡德确实在澳大利亚印钞公司工作过,但他是向当局揭发该公司贿赂外国官员以赢得印钞合同的人,从未受到犯罪指控。律师们表示,他们在3月21日向ChatGPT的所有者OpenAI发送了一封关切信,要求OpenAI在28天内修复有关其委托人说法的错误,否则该公司可能面临诽谤诉讼。据胡德的律师透露,OpenAI尚未回复他们发出的法律信。OpenAI尚未回应置评请求。如果胡德提起诉讼,这可能是第一次有人起诉ChatGPT的所有者,就这款自动化语言产品的说法提出索赔。自去年推出以来,ChatGPT已经风靡全球。微软公司在今年2月将ChatGPT整合到旗下必应搜索引擎中。微软发言人尚未置评。“从某种意义上说,这可能是一个具有里程碑意义的时刻,因为它将这项诽谤法应用到了人工智能和IT出版的新领域,”胡德所聘请律师事务所Gordon Legal的合伙人詹姆斯·诺顿(James Naughton)表示,“他是民选官员,他的声誉对其职位至关重要。胡德当选靠的是曝光企业不当行为的公开记录。因此,如果他所在社区的人能看到这些材料,对他来说就会有所不同。”澳大利亚诽谤损害赔偿的上限通常在40万澳元(约合185万元人民币)左右。诺顿称,胡德不知道有多少人接触过关于他的虚假信息,这是赔偿金额的决定因素,但诽谤言论的性质已经足以严重到他可能会要求超过20万澳元的赔偿。诺顿说,如果胡德提起诉讼,他将指控ChatGPT因没有添加脚注而给用户一种错误的准确感觉。“很难有人从背后说出‘算法是如何得出这个答案的?’”诺顿说,“这非常不透明。”(凤凰科技)3、美媒:别被AI的智能吓到,真正可怕之处是它被高估被滥用4月5日消息,过去六个月以来,强大的人工智能(AI)新工具正在以惊人的速度扩散,从能够进行类似真人对话的聊天机器人,到自动运行软件的编码机器人,再到无中生有的图像生成器,所谓的生成式人工智能(AIGC)突然间变得无处不在,并变得越来越强大。但是在上周,针对这股AI热潮的反弹开始出现。特斯拉、推特首席执行官埃隆·马斯克(Elon Musk)为首的数千名技术专家和学者签署了一封公开信,警告“人类面临的严重风险”,并呼吁暂停AI语言模型的开发六个月。与此同时,一家AI研究非营利组织提出申诉,要求美国联邦贸易委员会(FTC)调查ChatGPT的创建公司OpenAI,并停止其GPT-4软件的进一步商业化发布。意大利监管机构也采取行动,以数据隐私侵犯为由,彻底封杀了ChatGPT。有人呼吁暂停或放缓AI研究,或许这是可以理解的。几年前看起来不可思议甚至深不可测的AI应用程序现在正在迅速渗透到社交媒体、学校、工作场所甚至政治领域。面对这种令人眼花缭乱的变化,一些人发出了悲观预测,认为AI最终可能导致人类文明消亡。好消息是,对全能AI的炒作和恐惧可能被夸大了。虽然谷歌的Bard和微软的必应给人留下深刻印象,但它们和成为“天网”相差还很远。坏消息是,人们对AI快速进化的担忧已经成为现实。这不是因为AI将变得比人类聪明,而是因为人类已经在利用AI,以现有组织没有准备好的方式来压制、剥削和欺骗彼此。此外,人们认为AI越强大,他们和企业就越有可能将其无法胜任的任务委托给它。除了那些令人悲观的末日预言之外,我们可以从上周发布的两份报告初步了解AI对可预见未来的影响。第一份报告由美国投行高盛发布,主要评估AI对经济和劳动力市场的影响;第二份报告由欧洲刑警组织发表,主要讲述AI可能被刑事滥用的情况。从经济角度来看,最新的AI潮流主要是将曾经只能由人类完成的任务自动化。就像动力织布机、机械化装配线和自动取款机一样,AIGC有望以比人类更便宜、更高效的方式完成某些类型的工作。但是,更便宜、更高效并不总是意味着更好,任何与杂货店自助结账机、自动电话应答系统或客户服务聊天机器人打交道的人都可以证明这一点。与之前的自动化浪潮不同,AIGC能够模仿人类,甚至在某些情况下冒充人类。这既可能导致广泛的欺骗,也可能诱使雇主认为AI可以取代人类员工,即使事实并非如此。高盛的研究分析估计,AIGC将改变全球约三亿个工作岗位,导致数千万人失业,但也会促进显著的经济增长。然而,高盛的评估数字也不一定准确,毕竟他们曾经有过预测失误的历史。在2016年,该行曾预测虚拟现实头戴设备可能会变得像智能手机一样普及。在高盛的AI分析报告中,最有趣的是他们对各个行业进行了细分,即哪些工作可能被语言模型增强,哪些工作可能被完全取代。高盛的研究人员将白领任务的难度分为1到7级,其中“审查表格的完整性”为1级,可能被自动化的任务为4级,“在法庭上就一项复杂的动议做出裁决”为6级。据此得出的结论是,行政支持和律师助理工作最有可能被AI取代,而管理和软件开发等职业的生产效率将会提高。该报告乐观地预测,随着企业从掌握AI技能的员工那里获得更多好处,这一代AI最终可能会使全球GDP增长7%。但高盛也预计,在这个过程中,大约7%的美国人会发现他们的职业会被淘汰,更多的人将不得不学习这项技术以维持就业。换句话说,即使AIGC带来了更积极影响,其结果也可能导致大批员工失业,办公室和日常生活中的人类将逐渐被机器人取代。与此同时,已经有许多公司急于走捷径,以至于将AI无法处理的任务自动化,比如科技网站CNET自动生成错误百出的财经文章。当AI出现问题时,已经被边缘化的群体可能会受到更大的影响。尽管ChatGPT及其同类产品令人兴奋,但当今大型语言模型的开发商还没有解决数据集存在偏见的问题,这些数据集已经将种族歧视偏见嵌入到人脸识别和犯罪风险评估算法等AI应用中。上周,一名黑人男子再次因为面部识别匹配失误而被错误监禁。更令人担忧的是,AIGC有些情况下可能会被用于故意伤害。欧洲刑警组织的报告详细说明了AIGC如何被用于帮助人们实施犯罪,比如进行欺诈和网络攻击等。举例来说,聊天机器人能够生成特定风格的语言,甚至模仿某些人的声音,这可能使其成为钓鱼诈骗的有力工具。语言模型在编写软件脚本方面的优势可能会使恶意代码的生成大众化。它们能够提供个性化、情境化、循序渐进的建议,对于那些想要闯入民宅、勒索某人或制造管状炸弹的罪犯来说,它们可以成为万能指南。我们已经看到合成图像如何在社交媒体上散布虚假叙事,再次引发人们对深度造假可能扭曲竞选活动的担忧。值得注意的是,使语言模型容易受到滥用的原因不仅仅是它们拥有广泛的智慧,还有它们在知识方面存在根本缺陷。当前领先的聊天机器人经过训练后,当检测到有人试图将它们用于邪恶目的时会保持沉默。但正如欧洲刑警组织指出的那样,“只有在模型理解它在做什么的情况下,防止ChatGPT提供潜在恶意代码的安全措施才有效。”正如大量记录在案的技巧和漏洞所表明的那样,自我意识仍然是这项技术的弱点之一。考虑到所有这些风险,你不必担心世界末日的场景,就会看到AIGC的发展步伐放慢,让社会有更多时间来适应。OpenAI本身是作为非营利性组织成立的,前提是AI可以采用更加负责任的方式构建,而不会有实现季度收益目标的压力。但OpenAI现在正在一场势均力敌的竞赛中领先,科技巨头正在裁减他们的AI伦理学家,而且无论如何,这匹马可能已经离开了马厩。正如学术AI专家萨亚什·卡普尔(Sayash Kapoor)和阿尔文德·纳拉亚南(Arvind Narayanan)所指出的那样,现在语言模型创新的主要驱动力不是推动越来越大的模型,而是将我们拥有的模型集成到各种应用和工具中。他们认为,监管机构应该从产品安全和消费者保护的角度来看待AI工具,而不是试图像遏制核武器一样遏制AI。也许短期内最重要的是让技术专家、商业领袖和监管机构抛开恐慌和炒作,更加深入地理解AIGC的优点和缺点,从而在采用它时更加谨慎。如果AI继续发挥作用,无论发生什么,它的影响都将是颠覆性的。但过高估计其能力将使其危害更大,而不是更小。(网易科技) 更多新闻请点击进入爱集微小程序 阅读 1.追随美国脚步后,日本出口管制也给自己下了“紧箍咒”? 2.日本计划到2030年普及柔性太阳能电池板 减少对中国依赖 3.美国议员将会见苹果CEO库克 4.铠侠和西部数据推出218层3D闪存 已开始样本出货 5.为研发独家GPU,三星美国子公司大举征才 6.追随美国脚步后,日本出口管制也给自己下了“紧箍咒”? 7.日本计划到2030年普及柔性太阳能电池板 减少对中国依赖 8.美国议员将会见苹果CEO库克 9.比亚迪王传福谈自动驾驶:是忽悠!高级辅助驾驶才是实实在在的 10.特斯拉Q1交付量创新高 预计上海工厂贡献近一半 球分享 球点赞 球在看