法律顾问AI“嘟嘟”——游客在景区受伤,谁来担责呢?
AI律师助手

法律顾问AI“嘟嘟”——游客在景区受伤,谁来担责呢?

  法律顾问AI“嘟嘟” 为您解答!   AI   婚姻家事、物权纠纷   劳动用工、侵权损害   未成年保护……   你犯愁的法律难题   统统帮你解答!   AI嘟嘟——   你身边的智能法律顾问!   点击精彩内容   嘟嘟,旅游本来是放松身心、陶冶情操的一件美事,但如果在途中不幸受伤,那真是又恼人又麻烦。如果游客在景区受伤,到底应该谁来担责呢?   我先来跟大家普及一下,游客在旅行过程中遭受人身、财产损害,可以向哪些主体主张赔偿责任?根据《最高人民法院关于审理旅游纠纷案件适用法律若干问题的规定》第七条“旅游经营者、旅游辅助服务者未尽到安全保障义务,造成旅游者人身损害、财产损失,旅游者请求旅游经营者、旅游辅助服务者承担责任的,人民法院应予支持。因第三人的行为造成旅游者人身损害、财产损失,由第三人承担责任;旅游经营者、旅游辅助服务者未尽安全保障义务,旅游者请求其承担相应补充责任的,人民法院应予支持”的规定,旅游者在履行过程中遭受损害,可以向旅游经营者及旅游辅助服务者,以及实施侵害行为的第三人主张侵权赔偿义务。   游客在景区受伤的原因和情况有很多,根据受伤原因、情况的不同,旅行社及其他旅游辅助服务者需要承担的责任也不同。要跟大家强调的是,以下情形,旅行社及其他旅游辅助服务者必须为旅游者遭受的损失承担赔偿责任。据《民法典》第一千一百九十八条规定“宾馆、商场、银行、车站、机场、体育场馆、娱乐场所等经营场所、公共场所的经营者、管理者或者群众性活动的组织者,未尽到安全保障义务,造成他人损害的,应当承担侵权责任。因第三人的行为造成他人损害的,由第三人承担侵权责任;经营者、管理者或者组织者未尽到安全保障义务的,承担相应的补充责任。经营者、管理者或者组织者承担补充责任后,可以向第三人追偿。”还有,《中华人民共和国旅游法》第七十一条规定:“由于地接社、履行辅助人的原因导致违约的,由组团社承担责任;组团社承担责任后可以向地接社、履行辅助人追偿。由于地接社、履行辅助人的原因造成旅游者人身损害、财产损失的,旅游者可以要求地接社、履行辅助人承担赔偿责任,也可以要求组团社承担赔偿责任;组团社承担责任后可以向地接社、履行辅助人追偿。但是,由于公共交通经营者的原因造成旅游者人身损害、财产损失的,由公共交通经营者依法承担赔偿责任,旅行社应当协助旅游者向公共交通经营者索赔。”   由此可见,旅行社的安全保障义务主要包括安全提示、风险防范、危险制止和安全救助等。譬如提醒旅游者正确放置行李、系好安全带、注意道路湿滑等;在旅游者因意外受伤后,应当及时施救。如旅行社未尽到法定的安全保障义务,旅游者可据此要求对方承担赔偿责任。   在这里也要提醒广大旅游者,为了确保自己旅行途中的合法权益,大家在与旅行社签订合同之前请一定要仔细阅读合同条款,对不理解或理解上与旅行社存在分歧的条款,要求旅行社进一步予以明确说明或签订补充协议。部分旅游项目对参团者的年龄、身体状况提出要求,如果合同中有这种条款,消费者应该如实向旅行社告知,刻意隐瞒自身身体情况,可能造成大部分的损失及责任,需旅游者自行负担的后果。同时,注意根据自身需求选择购买适合的人身意外伤害保险。   在旅行途中,一定要听从旅行社和导游的合理安排,如果确需独自行动,一定要在事先征得导游或者领队的许可。在面临陌生环境或选择高风险旅游项目时,应从自身实际情况出发,避免风险。   最后要提醒大家的是,一定要妥善留存或及时向旅行社索要旅游合同及付款凭证。如果遇到旅行社和履行辅助人有违约或侵权行为,一定要通过照片、视频、录音等方式及时固定相关证据。一旦产生纠纷,也要积极通过协商、向旅游行政主管部门或消协投诉、提起诉讼等方式及时主张权利。   AI
网友用AI“复活”已故明星,律师:未经家属同意属侵权行为
AI律师助手

网友用AI“复活”已故明星,律师:未经家属同意属侵权行为

极目新闻记者 康旭阳 最近,AI“复活”亲人在网络流行,有网友则利用该项技术“复活”了已故明星。例如,一位博主就用AI技术“复活”了已故明星乔任梁,相关视频在网络传播并引发热议。乔任梁父亲看到后表示极度不适,希望对方尽快下架。 除乔任梁外,张国荣、李玟、高以翔等已故明星也通过AI技术重新出现在屏幕前。由此也引发网友争议:能随意用AI技术“复活”已故明星吗? 业内人士称,这些已离世的公众人物同样享有肖像权,未经家属同意,随意使用他们的照片和音频,通过AI技术手段“复活”并在互联网传播,不仅侵犯了死者的肖像权,也会让亲属遭受痛苦,家属可以通过法律手段追究制作者和传播者的侵权责任。 AI“复活”离世明星引热议 “大家好,我是乔任梁,其实我并没有真的离开……” 近日,有博主用AI技术“复活”了乔任梁。视频中,乔任梁不仅有表情、能说话,还举起手和屏幕前的网友打招呼。 3月16日,#父亲希望AI复活乔任梁视频尽快下架#话题登上微博热搜。据报道,乔任梁父亲看到网上传播的视频后表示,无法容忍AI技术使儿子复活,这让他感到极度不适,“我希望对方能尽快将视频下架,他们未征求我们同意,这是在揭伤疤。” 用AI“复活”已故明星,在最近成为一股热潮。社交平台上,一些网友还用AI“复活”了张国荣、李玟、高以翔等,无论是神态和声音都和本人高度相似。当这些已离世的明星们通过AI技术再次出现在屏幕前,有粉丝看到后表示“泪目”,也有网友表示“如果未经家属授权,这种行为不尊重逝者,也不尊重其家属”。 极目新闻记者搜索发现,想要“复活”已故明星其实很简单,只需将该明星的半身正面照片及一段音频发给商家,很快就能制作完成。电商平台上,提供该项技术服务的商家不少,根据买家的不同诉求,收费也不等,少至10元,多达上百元。 不过,对于“复活”明星,有商家表示担心会带来侵权风险。 电商平台上一名提供AI“复活”亲人服务的商家告诉极目新闻记者,提供该项服务的初衷是为了帮助顾客缅怀逝去的亲人朋友,用明星照片制作视频的订单一律不接,“我们担心视频会被滥用,有侵犯他人肖像权的风险。” 家属可依法追究相关方责任 那么,究竟能随意用AI技术“复活”已故明星吗? “尽管有的AI‘复活’意图和出发点是善良的,但也要遵守法律规定、尊重伦理秩序。”河南泽瑾律师事务所主任付建表示,已经离世的公众人物同样享有肖像权,未经家属同意,随意使用逝者的照片和音频,通过AI技术手段“复活”并在互联网上传播,不仅侵犯了逝者的肖像权,也会使其亲属遭受痛苦。 付建表示,如果商家在明知没有家属合法授权,而且该视频可能用于其他非法场景的情况下,仍然接单制作,并提供给客户使用的,构成肖像权侵权,同样需要承担侵权责任。家属可以通过法律手段追究制作者、传播者等相关方的侵权责任,包括要求下架相关视频以及进行赔偿等,侵权者有义务配合处理下架视频和赔偿事项。 天使投资人、资深人工智能专家郭涛此前在接受极目新闻采访时也表示,AI“复活”技术,存在泄露隐私、侵权、诈骗等风险。首先,用户提供给商家的照片,可能会被不法分子用于其他目的,比如制作假新闻、进行诈骗等。其次,如果没有得到照片中人物的同意,就将其“复活”,可能涉及侵犯肖像权的问题。此外,一些不良商家还可能会利用用户对亲人的思念,进行欺诈。 “需要建立一套完善的法律法规,对AI技术的应用进行规范。同时加强对AI技术的监管,确保其在合法、合规的范围内使用。”郭涛表示。 (来源:极目新闻)返回搜狐,查看更多 责任编辑:
普法数字人亮相,律师会被AI取代吗
AI律师助手

普法数字人亮相,律师会被AI取代吗

转自:上观新闻 打造市场化、法治化、国际化的营商环境,数字技术能够带来哪些变革?代表“高智商人类”的律师群体也会担心人工智能取代自己?在5月10日举办的“智慧法治赢在虹桥”法律科技交流展示活动暨2024长宁法治文化节主场活动上,伴随“大虹桥法治会客厅”的揭牌,位于长宁区尤其是虹桥开发区内的企业和专业法律机构有了更开放的交流平台。 此次成立的“大虹桥法治会客厅”位于娄山关路上的大虹桥营商服务中心,现场提供查询、办理等数字便企服务,涉外公证、法律咨询等多元法律服务,还聚焦长宁“3+3”重点产业特征,深度开展律所、企业、院校间的跨界交流,推动大虹桥营商服务中心法治功能再升级。 长宁法治文化节主场活动现场 近年来,长宁区积极落实“智慧法治”决策部署,聚焦数字化转型新赛道,相继发布“加强数字转型法治保障的实施意见”,推出“法律科技十大行动”。当天会上新成立的“长宁区法律科技应用与发展联盟”将聚焦区域产业特征,搭建法律科技应用服务的桥梁。联盟首批签约成员包括科大讯飞、甄零科技、上海市君悦律师事务所、上海九州丰泽律师事务所、上海市海华永泰律师事务所、北京炜衡(上海)律师事务所等10余家企业和20家律所,以及长宁区司法局、华东政法大学、上海政法学院等单位。 长宁法治文化节主场活动现场 联盟第一时间发布了“长宁数字产业热点问题法律服务指引”,聚焦数据资产化、数据合规、数据业务合作、知识产权保护路径等企业发展的热点议题,提出法律解决方案。全市首位区域数字普法形象大使“宁宁AI法”也首度亮相,将在“大虹桥法治会客厅”等政务服务场景为企业和市民群众提供普惠、便捷、高效的数字法律服务。 “律师之间经常进行同业交流,对于职业是否会被人工智能代替,大家逐渐达成共识,即以工作的复杂程度和重复程度为坐标,来衡量律师工作的价值。”在“大虹桥法治会客厅”成立后举行的首场法律科技交流分享会上,案牍智能科技上海公司负责人吴丽阳提到,根据人工智能技术在律师工作中的应用潜力,替代可能性较低的律师工作包括重大法律问题的专业判断、法律研究、交易结构设计、合同审核及风险分析等。而替代可能性较高的工作则包括访谈及电话咨询、资料归档整理、尽职调查事实摘录、法律翻译、文档及合同起草等。 长宁法治文化节主场活动现场 记者注意到,这些工作的可替代性程度与法律工作者的从业年限有直接关联,也与所涉及的社会资源息息相关。为此,今年以来,长宁区持续整合区域内各类法律服务资源,搭建了由政府牵头、法律服务机构与数字化企业跨界合作、高校院所提供理论支撑和人才支持的四方联动工作机制。 当天会上,长宁发起成立了优化营商环境法治保障共同体,首批成员集中签约,将聚焦法治营商中跨地区、跨部门、跨领域问题的解决方案,围绕虹桥国际中央法务区建设,在强化行政执法监督、发挥司法保障职能、优化纠纷化解机制等方面积极推动更高水平的制度型开放。 记者从会上获悉,今年长宁法治文化节期间,长宁区还将围绕“法治惠民生”推出十大系列活动,即面向基层打造十条可漫步、可阅读、有温度的“法治文化研游路线”,面向校园开展“沪小信进校园”普法宣传,面向企业推出“文旅知识产权普法教育”等系列项目,面向机关单位全面推进“法律书架”工程,打造老百姓随时皆可参与的市民节日。 长宁区领导表示,长宁将继续以优化市场化、法治化、国际化一流营商环境为目标,积极促进法律科技应用与法治文化融合发展,下一步将深入推动法治城区、法治政府、法治社会一体建设,以高效能法治助力区域高质量发展。 内文图片:作者拍摄 海量资讯、精准解读,尽在新浪财经APP
全球首部AI全面监管法规即将生效,影响如何|律师解读
AI律师助手

全球首部AI全面监管法规即将生效,影响如何|律师解读

当地时间5月21日,欧洲理事会将正式批准欧盟《人工智能法案》,该法案基于风险分类,将AI系统划分为四类,即不可接受风险、高风险、有限风险和极低风险。 全球首部人工智能(AI)领域全面监管法规即将生效。 欧洲理事会官网显示,当地时间5月21日,该机构将正式批准欧盟《人工智能法案》(下称《AI法案》)。该法案基于风险分类,将AI系统划分为四类,即不可接受风险、高风险、有限风险和极低风险,并针对不同风险类别采取了相应监管策略。 随后,《AI法案》将在欧盟官方公报上公布二十天后生效,法案内容将分阶段适用。具体来说,法案中规定禁止的做法将在生效6个月后适用;通用型人工智能(GPAI)的相关义务和规则将在生效12个月后适用;法案生效24个月后,该法案完全适用,但一些高风险AI系统的规则将在生效后36个月适用。 在国际上,欧盟一直希望能在数字监管领域抢跑。然而,随着AI技术的发展突破日新月异,如何避免法规和技术的发展出现“错位”?在数字经济领域,欧盟近年来已经推出了《通用数据保护条例》(GDPR)、《数字服务法案》、《数字市场法案》,这是否会给企业造成合规责任不清晰的问题,又该如何应对? 北京金杜律师事务所合伙人吴涵律师在网络安全和数据合规领域有多年执业经验,他在接受第一财经记者专访时表示,在数字立法上,欧盟常以事前监管为重点,构建涵盖事前、事中和事后的全链条监管体系。 吴涵认为,《AI法案》采用的“以风险为进路”的管理方法可以看作一种初级灵活管理框架,在医疗、金融、自动驾驶等其他领域立法也是常见的监管方案。 “权宜之计” 第一财经:《AI法案》以风险为导向进行分级管理,怎么评价这种管理思路?欧盟内部对此的立场是否统一? 吴涵:我理解以风险为导向的分级管理,通常是对于新生技术/应用缺乏进一步有效管理措施的“权宜之计”。在这一套机制下具体的风险分级标准和AI系统类目,也是其漫长立法进程中摩擦不断的原因之一。 一方面,有欧盟专家痛批《AI法案》为“充斥着对行业游说的让步,对执法和移民当局最危险的AI使用的豁免”。欧洲数据保护委员会(EDPB)和欧洲数据保护监督员(EDPS)也曾指出,《AI法案》的高风险AI清单存在遗漏,没有涵盖使用AI确定保费或者评估医疗方法适用于健康研究目的等场景。 另一方面,对于AI企业和具备AI发展战略的欧盟成员国而言,尤其是法国、德国和意大利来说,对于《AI法案》过度、提前监管的态势颇有微词。在2023年底,法国、德国和意大利曾对《AI法案》提出明确的反对意见,包括反对并提出对于通用模型的两层风险分级方法,即以是否为具备“系统性风险”的通用模型来设定合规义务的方法的替代方案。 由此可以看到,这一管理思路的弊病也许就在于“两头不讨好”。这种具体立法的功能性危机,可能不仅是《AI法案》,而是人工智能时代乃至技术时代立法需要不断直面的“技术局限”。 值得注意的是,这种局限性是所有对于新技术监管的局限性,在AI领域尤其明显,因为它应用过于广泛,且对于对齐等问题还未有更深入研究,但部分风险已经发生,必须边管理边观察补充。所以风险分类分级是在局限性中当前既能管理风险又避免“一刀切”的领先思路。 当然,参考GDPR实施至今的经验教训,《AI法案》从对AI乃至AI“操纵”等涉及较重合规义务的高风险人工智能相关定义的语焉不详,以及对应义务的模糊表述可能也会损伤其法律确定性,导致新应用、新技术企业在无法明确自身义务边界的情况下面临合规难题。即便《AI法案》自身已有一定机制来保证其灵活性,考虑到分阶段生效的漫长周期,落地执行时的效能也还有待进一步观察。 第一财经:《AI法案》是否有机制确保自身跟上AI技术和应用场景的迅速迭代? 吴涵:《AI法案》在序言中提到,为了对AI系统采取有效、成比例的约束规则,应当遵循“以风险为进路”的方法,即根据AI系统可能产生的风险范围与风险程度,调整对AI系统的具体监管规则。 结合《AI法案》现有规定,可以看出,欧盟在立法时的确作出了一定程度上的努力,以便法案规定的监管规则具有相应的灵活性,适应AI技术的发展。 比如说,充分考虑AI技术发展快、专业性强的特点,《AI法案》授权欧盟委员会每年度评估禁止使用的AI系统目录是否需要修订。同时,欧盟委员会还需在《AI法案》生效后的四年内对法案本身例如高风险AI系统清单进行评估和审查,并于此后每四年评估和审查一次,最终向欧洲议会和欧盟理事会报告。 同时,在通用AI模型方面,《AI法案》依据设置的每秒执行的浮点运算次数(FLOPs,被广泛用来评估处理器或系统的计算能力)阈值,将通用AI模型进一步区分为具有系统性风险的通用AI模型。而FLOPs阈值的参数并非绝对不变的,而是随着时间的推移、技术的革新而变化。 此外,欧盟还新设了人工智能办公室,在促进《AI法案》的统一适用外,还重点监测由通用AI模型产生的不可预见的风险,从而为及时应对新生风险留出一定的空间。 然而,考虑到《AI法案》还未正式生效,相关机制保障《AI法案》快速适应AI技术和应用场景迅速迭代的效果有待后续实践的观察。 企业合规方面是否会遇到“麻烦” 第一财经:欧盟治理数字经济的法案很多,是否可能出现“意大利面碗”现象?比如,同时适用AI Act和GDPR但合规责任不清晰,这种情况是否多发? 吴涵:《AI法案》并不是空中楼阁,想要与正在制定中的以及既存的欧盟数字经济法案取得协调不会是易事,其中可能涉及规范重叠、空白和不一致性等诸多问题。 举例而言,欧盟《数字市场法案》的“守门人”相关制度条款均正好也已于2024年3月生效,欧盟委员会首次指定的六家“守门人”企业,Alphabet、亚马逊、苹果、字节跳动、META和微软需要尽快确保被指定的核心平台服务符合“守门人”相关要求。不难发现,这些企业几乎也都是AI市场的领头羊,因此他们会如何处理欧盟数字《市场法案》与《AI法案》的交叉竞合会是很棘手但也很有意思的问题。 例如,欧盟《数字市场法案》规定“守门人”应根据企业用户及其授权第三方的要求,免费向其提供对于包括个人数据在内的汇总和非汇总数据的有效、高质量、持续和实时地访问和使用服务。考虑到《AI法案》和欧盟《数字市场法案》对于数据集、数据库等概念的定义并不一致,欧盟《数字市场法案》也并未就此为AI提供特殊规则。这意味着,守门人需要思考将用户数据用于AI训练时,如何做好数据隔离等措施来保障自身对于训练数据集的权益,并同时满足法律要求。 第一财经:高风险AI系统的主要监管制度下,《AI法案》指出了在AI供应链的相关责任主体,但其中是否存在责任界定不清晰的问题? 吴涵:首先从责任主体和行政责任来讲,针对高风险AI系统的上下游供应链,欧盟《AI法案》已初步构建起围绕AI系统提供者、分销者、进口者等相关主体的价值链,明确了提供者以外的利益相关主体对于高风险AI系统投放市场、投入使用应承担的合规义务。同时,《AI法案》第99条也已就相关主体违反法案规定的行为,设置了最高1500万欧元或上一财政年度全球营业总额3%的罚款。 然而,就包含高风险AI系统、通用AI系统在内的AI系统所造成的实际损害责任分配机制而言,即AI系统价值链中的各方参与主体如何就损害分配,相应的法律责任仍然处于模糊不清的状态。 例如,某个企业通过某高风险AI系统向用户提供服务,但这一系统是基于某通用AI模型提供者提供的AI模型生成的。如果该系统主要由提供者输入数据进行优化,企业仅能输入有限数量的数据对系统进行训练,当最终该AI系统生成的内容对用户造成了实际损害,该企业是否需就相关损害独立承担责任、企业是否能要求通用AI模型提供者共同承担责任?如企业和通用AI模型提供者需共同对损害承担法律责任,则双方各自需在多大程度上承担责任?考虑到通用AI模型复杂的上下游应用关系,其中一方责任主体是否能在满足特定情形时免除责任?如一方主体的责任有可能被豁免,需满足何种条件方可触发豁免?前述问题均能体现,目前欧盟《AI法案》的责任分配机制存在一定的不确定性,更为具体的责任分配规则可能有待欧盟相关监管部门在后续的个案执法中予以体现。 此外,还有一种观点认为,《AI法案》对AI系统相关主体责任分配机制的留白是欧盟AI监管立法的“有意为之”。考虑到AI技术更迭、发展迅猛的特点,结合AI系统自主学习而可能引发的“算法黑箱”等问题,在对未来AI系统的应用场景、可预期作用目标、可能给社会、公民造成的权益损害等均具备一定程度不确定性的现阶段,保留责任分配机制的适当模糊性可能有助于欧盟的AI监管部门在个案中调整责任分配策略,始终实现维护个人健康、安全等基本权利的最终目标,同时避免部分企业在明确清晰的责任分配框架下通过调整业务模式等方式转移其本应承担的法律责任。
静安律师法律科技周开幕,探索AI浪潮下法律服务智能化升级
AI律师助手

静安律师法律科技周开幕,探索AI浪潮下法律服务智能化升级

5月29日,“AI浪潮下的法智探索——静安律师法律科技周”系列活动正式启动,进一步推进法律与AI等科技的融合发展,激发法律科技企业、法律服务机构的创新动力和发展活力,构筑律师行业发展新优势。 本次系列活动将从律所业务、企业实务、产品应用、合规管理、律所管理等主题,持续为行业人士搭建合作平台,推动法律科技前沿技术向现实生产力转化,实现法律服务智能化升级和创新,催生新模式、新动能,以科技创新引领未来法律服务业高质量发展。 现场,上海市律师协会静安律师工作委员会分别与上海大学计算机工程与科学学院、上海合合信息科技股份有限公司、上海金桥亦法信息技术有限公司、上海市静安区科技创新创业联盟促进会签署了合作协议。各方将加强合作,致力于推动法律科技创新,促进多元创新主体深入交流、携手共赢。 静安区坚持“创新驱动、智慧引领、融合赋能、协同发展”的发展思路,致力于打造新兴技术策源地和创新发展先导区,同时静安区法律服务业在上海中心城区有着传统的优势地位和坚实的发展基础,聚集了一批国际化、高端化、品质化的优质律师事务所。目前,部分律师事务所已率先在数字经济新赛道上取得进展。未来,静安区法律服务业将深化科技与法律的双向赋能,构建良好的法律科技生态,以助力营商环境的不断优化,为加快建设卓越的现代化国际城区,打造中国式现代化城区样本注入强大动能。 在主旨演讲环节,来自相关领域的优秀代表从多维度深度解析了科技与法律的交织关系,为法律从业者在AI新浪潮中找准方向、洞见真谛提供了宝贵启示。 在“科技赋能法律服务”圆桌对话环节,国浩律师(上海)事务所合伙人陈枫主持,5位国内法律科技领域代表性的企业团队负责人及律所代表同台输出,探讨数智化时代律所发展。 本次活动期间还设置了法律集市,邀请多家法律科技公司、部分应用法律科技的律师事务所展示其最新或适用于法律实务的技术,加强公司和律师之间的交流和互相了解。 接下来,“静安律师法律科技周”系列活动还将推出“重塑商事纠纷化解与律所业务”、“立志山移,起九层台——法律AI大模型基础”、“AIGC(人工智能生成物)在企业实际业务应用中的保护与合规”等9个分论坛。 本次活动由上海市律师协会和静安区司法局指导,静安区科技和经济委员会提供支持,上海市律师协会静安律师工作委员会主办,上海市律师协会法律科技委员会协办。   作者:周渊 文:周渊图:主办方供图编辑:史博臻责任编辑:张懿
🔥GPT-4革命:打破学术界限?未来教育的颠覆者?🤔错还是对?🔥
AI律师助手

🔥GPT-4革命:打破学术界限?未来教育的颠覆者?🤔错还是对?🔥

GPT-4,OpenAI的新代超大规模多模态模型,在专业学术模拟测试中表现优秀,SAT数学考试得高分,但在某些学科如AP英语中得分较低。它存在缺陷和限制,可能不如初次使用时印象深,但改进了协作性和处理大量文本的能力。尽管会犯错,但相较于前代减少扭曲事实的错误率。定价相对,公司提供Evals以评估其模型性能,并且在AI市场竞争中,如 Anthropic等初创企业也在迅速跟进。
ChatGPT火了,国内AI界是否该‘下修’?超大规模预训练模型的挑战与法律人工智能的未来之路
AI律师助手

ChatGPT火了,国内AI界是否该‘下修’?超大规模预训练模型的挑战与法律人工智能的未来之路

ChatGPT是一款语言预训练大模型,参数量高且数据量大,能生成多样文本并展现优秀转准确度,目前国内外使用较少。尽管如此,它在AI领域仍具有一定影响力,但法律应用前景面临挑战,尤其是开源问题和复杂法律规则的处理。法律人工智能更多采用精调模型,未来可能结合预训练和行业特定模型。法律语言结构化清晰但实际标注困难,案件事实构建涉及要素识别、消歧融合和重构,运用深度学习和技术进行知识驱动推理。
人工智能侵权大诉讼?纽约时报告OpenAI和微软,ChatGPT面临版权危机?
AI律师助手

人工智能侵权大诉讼?纽约时报告OpenAI和微软,ChatGPT面临版权危机?

美国《纽约时报》因指控OpenAI和微软侵权使用其文章训练ChatGPT等AI机器人,将其告上法庭,要求停止使用并销毁相关数据。这场版权官司认为这可能导致独立新闻减少和社会真空,尽管没有具体经济索赔,但要求赔偿损失。作为首例科技巨头版权诉讼,此案可能对AI法律框架产生深远影响,并揭示了AI语言模型存在的“AI幻觉”问题。
数据危机:ChatGPT未来何去何从?
AI律师助手

数据危机:ChatGPT未来何去何从?

生成式AI面临数据瓶颈,著名科学家Stuart Russell警告ChatGPT等工具可能因缺乏全球文本数据而无法充分训练,这将影响其未来发展。他预测人工智能将在语言处理方面取代人类。OpenAI等公司正面临如何有效收集和使用数据的问题,特别是公共数据的短缺,引发了审查以及对私人数据购买的争议。OpenAI最近被指出在GPT-4模型中使用了私人数据来补充训练,这凸显了高质量数据的紧迫性。同时,OpenAI已表示正在探索利用更少数据的新技术。
AGI临近?科技巨头预测与争议的背后,我们是否已触及人工智能新高度?
AI律师助手

AGI临近?科技巨头预测与争议的背后,我们是否已触及人工智能新高度?

科技大佬对AGI何时到来预测不一,AGI定义不清成争议焦点。NVIDIA CEO黄仁勋预计未来5年内通用人工智能可能实现,但目标定义影响实现时间;OpenAI、DeepMind等公司致力于AGI研发,其中OpenAI的GPT-4模型引发了与特斯拉CEO马斯克关于AGI是否已实现的诉讼。尽管AI技术进步明显,但专家认为目前的人工智能大模型离AGI尚有距离,主要缺乏复杂推理和避免愚蠢错误的能力。