丰台上线24小时“AI律师”,可免费智能法律咨询
AI律师助手

丰台上线24小时“AI律师”,可免费智能法律咨询

11月27日,丰台区“宪法宣传周”系列活动启动仪式在首都经济贸易大学举办。现场,丰台为市民请了一位24小时的“法律顾问”——“免费智能法律咨询”上线丰台普法微信公众号。 启动仪式现场,丰台区创新普法宣传形式,推出了宪法宣传片《热爱》,用AI制作宪法宣传海报。来自丰台区多个单位的行政执法工作人员,还将前期“我(们)的法治故事”作品征集活动中的法治故事改编成法治情景微话剧,以《爱我所爱的人间》讲述他们心中的坚守。 为市民提供贴近身边的法律服务,丰台区今年又有新动作——拓展“人工智能+司法”服务模式,与百度法行宝达成战略协议,为市民提供全天候的免费法律咨询服务。市民进入“丰台普法”微信公众号,点击下方“政民互动”栏目就可进入“免费智能法律咨询”对话页面,与AI律师互动。简单描述想要咨询的法律问题,AI律师就能给您提供相应的法律咨询意见书,还能够看到相关案例以及案情分析与行动建议。 此外,丰台区此前发布的法治电子地图也在此前普法版的基础上升级为助企惠民版。登录丰台普法微信公众号,进入法治电子地图,丰台区110多处法治资源跃然眼前。地图上既有司法所、律所、普法驿站,也有普法教育基地、普法文化广场。通过电子地图“一键点击”就可以轻松导航。 丰台区司法局相关负责人介绍,丰台区法治电子地图将持续扩充点位,丰富功能,以不同阵地的特色法治文化,不同地域的特色活动,不同行业的法律服务,将法治电子地图进一步立体化、生动化、实用化,借助智慧法治的力量让普法“触手可及”。 丰台区司法局供图 来源:北京日报客户端 记者:孙颖返回搜狐,查看更多 责任编辑:
豆包AI可搜到个人电话、微信号,律师:应设置隐私保护机制
AI律师助手

豆包AI可搜到个人电话、微信号,律师:应设置隐私保护机制

作者:正在新闻热点组 近日,有多名网友反映,在“豆包”APP能查询到个人联系方式。 公开信息显示,“豆包”作为一个AI工具,提供聊天机器人、写作助手等功能,通过回答用户的各种问题并进行对话,帮助用户获取信息。 湖南金州律师事务所邢鑫律师表示,对于在网上已经公开的个人信息,AI的抓取使用也应受到限制。 AI大模型抓取网上已经公开的个人信息,必须在合理范围内使用;而对于个人明确拒绝处理的个人信息不得抓取使用,对于会对个人权益造成重大影响的个人信息,未经个人同意也不得抓取使用。 12月10日,豆包客服告诉《正在新闻》,目前平台对此暂无相应举措和信息阻拦、筛选;对于豆包APP中可查询到个人隐私信息一事,将继续核实并记录用户反馈。 多位用户反映在AI软件查询到个人隐私信息 12月8日,网友小维(化名)发帖称,有陌生人通过微信号搜索并添加她为好友,对方向她列举了她过往的相关工作经历,并表示是豆包提供了这些信息以及她的微信号。 据对方提供的与豆包聊天机器人对话截图,输入小维的姓名和学校后,聊天机器人回复了小维的院校、专业、考研成绩、校内外的实习和工作经历,以及她的微信号。 小维表示,自己在校期间曾帮助学校在多个官方平台发表内容,因此留下了个人信息和联系方式,但她不能接受自己的个人隐私信息被AI软件抓取、记录并向用户公开。 同样表示质疑的还有网友陈华(化名),他尝试在豆包APP上搜索自己的相关信息,最终搜索到了自己的微信号,并得知豆包是从他所在学校发布的一份文件中获取的。 陈华又在其他AI软件中用同样的指令进行搜索,没有搜索到具体信息。 陈华提供的星火对话AI助手聊天截图显示,“由于这可能并不是一个广为人知的公众人物或特定领域内的知名专家,因此暂未查询到其具体信息”。 AI模型可依法抓取公开信息,但仍需保护用户隐私 根据公开信息,AI模型可通过使用程序或者脚本,自动抓取网络信息,从而辅助用户进行信息检索。 小维认为,AI软件在抓取网络信息和数据时,应当设定防线,保障个人隐私信息。 12月9日,《正在新闻》在豆包APP内分别通过搜索“地区+姓名”、“学校+姓名”、“工作单位+姓名”等关键词,确实能够获取相关人员的部分信息,涉及毕业院校、专业和工作单位等个人经历,以及微信号、社交平台账号和电话号码等联系方式。 同时,聊天框内附有相关网址链接,链接中显示,聊天机器人回复的学校、工作经历、电话号码等个人信息,均为此前在网络发布的公开信息。 12月10日,江苏法德东恒律师事务所蓝天彬律师表示,根据《个人信息保护法》规定,处理个人信息应当遵循公开、透明原则,公开个人信息处理规则,明示处理的目的、方式和范围。 “豆包”AI助手可抓取网上公开的个人信息,但应当公开个人信息处理规则,明示处理的目的、方式和范围。 违反《个人信息保护法》规定处理个人信息,或者处理个人信息未履行《个人信息保护法》规定的个人信息保护义务的,属违法行为。 湖南金州律师事务所邢鑫律师表示,对于在网上已经公开的个人信息,AI的抓取使用也应受到限制。 AI大模型抓取网上已经公开的个人信息,必须在合理范围内使用;而对于个人明确拒绝处理的个人信息不得抓取使用,对于会对个人权益造成重大影响的个人信息,未经个人同意也不得抓取使用。 此外,承载公开的个人信息的平台的用户协议中、声明、公告等文本明确其网站或平台上的公开个人信息不得被AI抓取使用的,由于用户协议的约束,AI抓取上述信息违背了平台规则。 12月10日,豆包客服告诉《正在新闻》,目前平台对此暂无相应举措和信息阻拦、筛选;对于豆包APP中可查询到个人隐私信息一事,将继续核实并记录用户反馈。 ©青岛广播电视台版权所有,未经许可,请勿转载使用。返回搜狐,查看更多 责任编辑:
与 AI 同行,法护正义:百度法律智能体联合全国律师开展公益普法活动!
AI律师助手

与 AI 同行,法护正义:百度法律智能体联合全国律师开展公益普法活动!

一年一度的全国法制宣传日再度来临,在这个意义非凡的时刻,全国的律师协会和律师事务所纷纷行动起来,以极大的热情投入到《宪法》教育与基层普法工作之中,百度法律智能体也积极也积极响应国家号召,联合律所及律师在全国20余个省市开展线下普法活动,共同推出 “与AI 同行,法护正义” 公益普法活动。 AI驱动公益普法,共筑法治社会根基 12月4日, “与AI 同行,法护正义” 公益普法活动主会场活动于厦门举行,此次活动由法行宝、厦门市律师协会联合主办,厦门市公安局中华派出所、思明区城市义工协会为支持单位,各方携手合作,致力于在全社会营造浓厚的法治氛围,提升民众的法律意识与法治素养,让宪法精神深入人心,为构建法治社会贡献力量。 活动开场,厦门市律师协会副会长陈昱上台致辞。他指出,值此重要节点,厦门市律师协会与百度携手举办公益普法活动,意义非凡。此次活动意在凭借 AI 技术的强劲赋能,深度融合科技与法律,把法律力量精准送抵居民、企业与公益律师群体。AI 技术既推动律师工作效能提升,又显著拓展普法范围与深度,让法律服务无缝对接群众生活,共筑 “法律入万家” 的美好蓝图。 厦门市律师协会副会长陈昱 百度搜索垂类市场负责人王莎莎随后致辞,她提到,近年来百度积极响应国家公益普法号召,凭借文心大模型的有力驱动,百度法律智能体深度链接法律行业供需两端,每日承接千万级法律检索需求。其中,“免费 AI 律师” 法行宝成为用户获取法律知识、表达诉求及寻求司法援助的便捷窗口,而律师智能体则以创新 AI 技术打造律师 AI 分身,重塑法律行业格局,为民众提供高效便捷服务体验,也为中小律所开拓增长新路径。 百度搜索垂类市场负责人王莎莎 最后,陈昱与王莎莎共同登台,双方举行了启动仪式的揭幕。此举标志着双方正式就公益普法行动达成了意义深远的合作意向。未来,双方也将共同携手、并肩前行,为法律行业的蓬勃发展不懈努力,致力于让智能法律服务惠及更广泛的人群。 启动仪式揭幕 互动形式多样,释放法治新活力 在本次公益普法活动中,参与法制宣传周活动的律师们也在现场分享了经历,并展示了自己与法行宝的对于法律问题的解答过程,法行宝强大的功能与精准的回答令现场人员赞叹不已。活动还设置了丰富多样的普法宣传环节,律师们为现场群众提供了专业法律解答,律师智能体入驻实操演示也吸引众多参与者现场体验交流。 律师们为现场群众提供法律问题解答 同时,为了给活动增添更多趣味,提升互动性,现场还巧妙设置了丰富多样的互动小游戏。 比如将各种犯罪类型的标签贴在保留球瓶上,参与者通过击倒球瓶来完成游戏互动,游戏成功即可获得精美礼品,新颖的游戏形式赢得了现场观众的好评。在欢声笑语中,参与者们更加深入了解了百度法律智能体,也亲身感受到智能法律服务的独特魅力。 现场观众积极参与互动游戏 此次“与AI同行,法护正义”为主题的公益普法活动,仍在全国范围内持续进行中。未来,百度法律智能体将坚定地引领智能法律领域的创新潮流,全力推动法律行业数字化、智能化转型升级,让更多人受益于智能法律服务,在智能时代的浪潮中,我们携手并肩,为法律行业的蓬勃发展不懈努力,全方位守护每一个人的合法权益,持续汇聚点滴力量,稳步推动中国法律智能化进程,共铸法治社会的辉煌未来! 翻译 搜索 复制
AI时代,律师如何“技”高一筹?
AI律师助手

AI时代,律师如何“技”高一筹?

转自:上观新闻 在法律的严谨与科技的创新之间,虹口区北外滩正开启一段智慧法治的新征程。12月3日至5日,首届“上海北外滩法律科技博览会”在白玉兰广场举行,吸引了虹口区法学会、北外滩企业庭外中心等组织和威科先行、美亚科技、科大讯飞等十余家国内知名法律科技企业现场参与。 法律科技,简而言之,是指运用人工智能、大数据、云计算等现代科技手段,提升法律服务的效率、质量和可及性。作为本市首个聚焦法律科技展览的专业盛会,本次博览会以“法铸基石、智启新程”为主题,集中展示了法律科技全产业生态与创新成果,为法律科技领域搭建了一个集展示、交流、研讨、交易于一体的综合性平台。 开幕式上,虹口区律工委与三家科技公司签署了合作协议,为全区律师事务所提供信息化管理平台。“我们在考虑合作签约方的时候,特别注重平台的多样性和适用性,以满足不同律所的个性化需求。”区律工委负责人表示,“作为全市首家通过统一签约的方式,为全区律所提供信息化管理平台的区级单位,我们将在区司法局的领导下,借北外滩国际法律服务港建设的东风,不断深化法律科技应用、促进数据共享开放,以法律科技推动虹口法律服务业能级不断提升。” “随申办”虹口区旗舰店法治虹口专栏也在开幕式当天正式上线,包括法律服务引导、法治文化地图、在线公共法律服务等服务内容,通过科技赋能,为市民提供全流程一体化在线法律服务。 展会期间,必智科技、丰兆科技、大总管科技等多家科技企业现场展示了其前沿或适用于法律实务的技术成果。部分律所也在现场设摊推介为法律科技企业定制的法律服务产品,实现了法律科技与法律服务的深度融合。据统计,3天内各参展商共达成成交额60余万元。 此外,博览会还设置了主旨演讲、圆桌讨论等环节。高校学者、律所合伙人、法律科技企业负责人等各界精英齐聚一堂,从多元视角深入探讨智慧法治、法律科技赋能法律能级提升等热点话题,为法律服务从业者提供了宝贵思路。 今年以来,虹口区积极响应《关于推动上海法律科技应用和发展的工作方案》,将法律科技发展纳入北外滩国际法律服务港的总体布局,努力构建全链条式的法律科技生态。多家法律科技企业已落户北外滩,《智变:法律科技的大模型时代》新书发布会、上海律协“法律科技联谊会”等特色活动也在北外滩轮番上演,进一步提升了北外滩法律科技产业的知名度和影响力。 虹口区司法局相关负责人表示,本次法律科技博览会的成功举办,是虹口法律服务行业紧跟时代步伐、创新服务模式的有力见证,将成为推动经济社会高质量发展的强大动力。未来,虹口区将全力推动法律科技新质生产力的蓬勃发展,出台《虹口区支持发展法律科技发展行动计划》,打造法律科技产品首发地,提供法律科技产品展示区域和产品路演区域,支持在北外滩国际法律服务港内举办法律科技活动,吸引更多法律科技企业入驻北外滩,共同书写智慧法治新篇章。 本次博览会由虹口区司法局、上海市企业法律顾问协会、上海市律师协会法律科技委员会联合指导,虹口区律工委主办。 记者:陈怡 图片:区司法局 编辑:陈怡 海量资讯、精准解读,尽在新浪财经APP
网友称被陌生人用豆包AI搜出微信号,律师:或涉嫌侵权
AI律师助手

网友称被陌生人用豆包AI搜出微信号,律师:或涉嫌侵权

  红星资本局12月10日消息,近日有网友称,陌生人在字节跳动旗下AI产品豆包中输入她的名字和学校后,豆包显示了她的微信账号,加上微信后验证为真。   该网友李雨(化名)告诉红星资本局,她曾经为了招募人员在一条微信推文中留下过自己的微信账号,但该推文在发布一周后就删除,但是豆包抓取、保留并向其他人透露了她的微信账号。   红星资本局以“学校+名字”的方式在豆包中随机搜索到多条结果,其中部分结果显示了被搜索人物的联系电话和邮箱。12月10日,红星资本局就此向豆包发送采访邮件,截至发稿未有回复。   网友爆料:被陌生人用AI搜出微信号   李雨表示,前几天突然有陌生网友加她微信,该网友称,通过在豆包输入她的名字和学校后得到三条结果,其中一条显示了微信账号。于是,该陌生网友添加了前述微信账号,因此联系到李雨本人。 受访者供图   李雨说,有关她的两条信息中,其中一条信息是她为学院的教师比赛做摄影师,另一条信息是她在2023年为一个学生剧组招募现场演员(并留下了微信账号)。李雨表示,那条带有她微信账号的推文是用团队成员的个人公众号发布的,并且该文章当时在团队成立后就删除了,只发布了一周左右。加上上述陌生网友的当晚,李雨就删除了该网友的微信。   “就这样把我的微信号广而告之真的合理合法吗?”李雨说,她已经向豆包举报了那条带有她微信账号的信息。   目前,李雨在豆包输入她的学校和名字,豆包会要求提供更多信息,搜索上述附有她联系方式的演员招募推文,已找不到该推文和她的联系方式。李雨说,目前豆包方面还没有就她的微信账号被泄露一事向她进行说明。 不过,据李雨讲述,她在豆包搜索其所在学校其他人的联系方式时(如搜索“XXX大学有几个XXX(姓名)”),豆包仍然会显示对应人物的联系方式。12月10日,红星资本局按照李雨提供的关键词在豆包搜索,结果也显示了对应人物的微信账号。   红星资本局搜索结果界面   实测:多数情况不会关联联系方式   AI会显示信息来源   据红星资本局实测,在豆包搜索出具体人物的联系方式的可能性不大。12月10日,红星资本局在豆包多次尝试,通过不同的姓名、学校关键词搜索发现,有的人物并未被查出相应信息。   例如,有的高校会在官网提供教师邮箱,红星资本局在豆包对应搜索发现,页面显示公开资料未显示该教师的联系方式。还有学生会在社团招新时留下负责人的微信或者电话,红星资本局对应搜索后,页面也没有抓取到相应结果。在这种情况下,豆包会给出解决办法,例如拨打该学校的办公室或者对应学院的电话,还可以给学校邮箱发邮件。 红星资本局搜索结果界面   不过,有的高校教授会被豆包显示个人邮箱,这种情况在红星资本局的搜索过程中出现得并不多。   在另一些显示了对应人物联系电话的结果里,有的是显示办公电话(座机号码),还有的会显示多个同名同姓人物的办公电话。在这些被显示的结果里,豆包会贴出信息来源,用户可以一键点击查看信息的原始出处,这些来源包括文字、视频等。   此外,红星资本局通过先搜索“XXX大学有几个XXX(姓名)”,再搜索“XXX大学XXX(姓名)的联系方式”,搜索出两个具体人物的联系电话,结果页面显示了对应的联系电话,有的还在联系电话后附上了邮箱。   大模型通过互联网抓取个人信息   是否侵犯隐私?   互联网产业分析师张书乐告诉红星资本局,AI大模型大多会通过互联网获得“学习资料”,其运行原理本就有点类似搜索引擎,只是较之搜索引擎散落于各网页的搜索结果,AI可根据自身算法聚合出基于公开资料的信息,而如果算法中没有规避诸如微信号、邮箱之类的指令,则难免引发争议。   张书乐进一步指出,由于无法识别使用者的目的性,在抓取相关信息后,确实可能造成隐私泄露。“但基于相关信息在网络上的公开状态,以及AI深度学习算法的不成熟,应该适当予以包容。恰恰在使用中出现各种BUG,才能够让AI更好的调整算法,以适应公共良俗的需求。”张书乐说。   北京市京师律师事务所律师卢鼎亮则表示,从伦理角度看,抓取个人信息存在一定争议。“如果这些信息是在公开场合且用户明确知晓并同意被用于知识类工具的训练等情况,相对来说比较合理;但如果是在用户不知情的情况下,将其视为隐私的联系方式等信息用于训练,就可能侵犯用户的隐私。”卢鼎亮说。   陕西恒达律师事务所高级合伙人、公益律师赵良善也告诉红星资本局,民法典规定,民事主体享有隐私权利,未经权利人允许,任何人不得随意抓取或使用,“如果豆包等未经允许或授权,抓取他人个人隐私信息并向公众公开,则涉嫌侵权。从伦理角度看,随意抓取个人信息是不负责,也是不道德的。”   对于豆包在相关文章被删除后仍然保留了李雨的微信账号这一问题,赵良善指出,公开信息并不意味着永久公开,在权利人删除后,即视为公开信息的状态发生改变,这就意味着权利人不愿其个人信息继续被公众知悉或被传播,如果豆包在用户删除信息后仍然保留这些信息,那么就构成非法收集个人信息行为,违背了权利人的真实意愿。   至于豆包向他人泄露李雨的微信账号,赵良善表示,豆包作为一个提供智能筛选信息的公共平台,在涉及到个人信息和权利主体时,理应慎重和甄别,而非随意提供,否则将涉嫌侵权。“豆包无差别、无保留地提供个人信息,说明其在个人信息保护方面存在问题。”赵良善说。   卢鼎亮同样表示,人工智能不应该随意透露个人隐私信息,应该遵循严格的隐私保护原则,此次事件显示出人工智能软件在数据管理和隐私策略执行上的不足,没有足够有效的机制来及时发现和屏蔽可能涉及隐私泄露的信息。   红星新闻记者 俞瑶 曾汉   编辑 邓凌瑶
ChatGPT引发五大法律问题:架空隐私权保护,用于侵权、犯罪……
AI律师助手

ChatGPT引发五大法律问题:架空隐私权保护,用于侵权、犯罪……

近日来人工智能工具 ChatGPT 大火,占领各大媒体头条。同时Meta也有 BlenderBot,谷歌也有自己的AI Chatbot,这个领域必定在接下来的几年百家争鸣,百花齐放。 ChatGPT的重点在于GPT,Generative Pre-trained Transformer(生成式预训转换器)。通过深度学习和训练,它有能力极快地搜集并整理资料,组合成相当成熟的文本回答。这牵涉到数据搜集(input)和数据整理输出(output)两个方面;随着这一大类“生成式”人工智能越来越广泛的新应用,这两方面都存在很多潜在法律问题。 早在2016年,微软AI Tay昙花一现的推出和停止,已经展示了科技发展的加速度,只会越来越严重地扩大其和立法滞后之间的鸿沟。如果立法跟不上,那么很多新技术就可能是潘多拉的魔盒。这里聊聊此类技术推广比较急切需要跟进的几个立法问题。 一、数据隐私和同现有数据法的冲突 获取数据首当其冲要关注的就是数据隐私和保护问题。当我们自己用搜索引擎查找资料时,对数据的采集和整合与AI是完全不可相提并论的,这就牵涉到大量的数据法冲突。比如,自从“欧洲通用数据保护条例(GDPR)”出炉,各公司机构都颁布了自己的数据隐私条款,列清各自对这些数据的处理条件和责任。然而当这些数据被AI取得后,又被分散入个体用户手中,这些数据的所有权和保护就被架空。从此谁来对数据隐私和有效期负责?谁决定数据的应用限制或许可?谁来控制这些数据不被再次多次转手甚至滥用? 二、知识产权问题 数据一旦被收集整理,紧接而来的知识产权问题也进入了更复杂的区域。这里谈的不仅仅是简单的不注明原创的侵权问题:GPT和普通的抄袭不同,它有能力按照预训的指令模仿已经存在的内容风格进行再创作,那么就牵涉到侵权主体责任的定义问题和“风格”作为知识产权的界定和权益问题。风格拷贝在版权法上当然也是一种剽窃,但其界定本身又相当抽象,又牵涉到多重执行主体,这会给保护原创带来新的挑战。近期洛杉矶艺术家 Hollie Mengert 的作品被用作训练生成式AI “Stable Diffusion”的模板,并被模仿再创作的事件,就体现出这里立法的模糊性。 三、运用他人数据营利问题 类似Hollie Mengert作品被模仿和再创作的事件,引申出如果这类信息或者作品被用作商业工具营利,那么接下来该怎样处理其相关权益和经济纠纷的难处。很多网络信息的确是公开免费的,但并不代表就可以用这些资料间接盈利,这方面常常会有限制性条款。比如以后如果需要付费问ChatGPT问题,那些回答的信息来自不同源头的组合,其中不乏私有专业以及受版权保护内容,那么又该如何处理其相关权益纠纷? 四、数据质量和算法偏差 虽然随着技术的提高,AI的数据质量必定是越来越高,但使用者依旧不能盲目地对此形成依赖。数据的真实性可靠性,始终是需要使用者自己衡量决策的。AI可以给你优质的答案,也同样可以给你误导性的答案,提出问题的方式本身也可以导致回答差之千里或者带来伦理问题。此外,根据训练AI所用的数据库不同,得到的结果也会有算法偏差。也有给Al设定特定意识形态的问题。 五、网络犯罪 AI有多大能力行善,就同样有多大能力做恶,归根结底,它只是一个工具而已。比如几年前Deepfake技术在色情业的应用,就引起了AI在身份欺诈类犯罪方面的诸多讨论。但这方面的法律,牵涉到诈骗、名誉权、肖像权、诽谤、身份盗窃等等多个方面,却依旧滞后,几年过去了并未得到完善。随着AI的进步,其用于各类犯罪的能力,只增不减。像ChatGPT这样的工具,完全有能力伪装成我们非常熟悉的人来和我们进行沟通,写出以假乱真的各种书信文件,在私人和商业生活中引起更大的混乱。 综上所述,AI带来的多种潜在问题在法律上还没有足够的规则来予以指导和规范。而法律的生成又必定是滞后的。如果自上而下立法,难免对未来情况产生不合理揣测导致无的放矢;如果自下而上立法,则必须承受真实生活中早期犯罪的代价,才能逐步吸取教训设立规矩。无论用怎样的策略努力在法治上跟上科技,其紧迫性和困难性是不言而喻的。 我们唯有寄希望于魔高一尺道高一丈,由科技发展本身来平衡滥用科技的危险。比如ChatGPT一出就被很多学生用为写论文的作弊工具。于是立刻就有人开发出例如GPTZero这类软件,来侦查文本是否由AI执笔。一物降一物,这类发展在科技界的产生速度可大大超过社会和政府立法的速度。 科技发展难以阻挡,未来已来,我们做好准备了吗? (作者系法律学者) • (本文仅为作者个人观点,不代表本报立场) 陆倩
当ChatGPT遇上法律,是机遇还是挑战?
AI律师助手

当ChatGPT遇上法律,是机遇还是挑战?

当你向ChatGPT提问:“中国最好的法学学府是哪所大学?”它可能会回答说,北京大学是最好的法学学府。接着,你对ChatGPT说:“我是中国政法大学的学生。”它会回答:“抱歉,可能中国政法大学才是中国最好的法学学府。”ChatGPT太懂人类想要什么,它知道怎样投其所好地回答你。 徐伟在讲座上与读者探讨人工智能时代下法律的应对之法。 这是上海政法学院佘山特聘岗教授、中国法学会网络与信息法学研究会理事徐伟在5月12日“学习读书会”开场分享的一个小故事。ChatGPT横空出世,技术进步引发网民的惊叹与好奇,也引起人们对人工智能的深入思考。当ChatGPT遇上法律,是机遇还是挑战?在朵云书院•旗舰店,徐伟与读者探讨人工智能时代下法律的应对之法。 数据是数字经济时代的新型“石油”,如何通过制度设计让数据能够源源不断地生产出来,并且更好地被开发利用?2022年12月19日,《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》(简称“数据二十条”)对外发布,徐伟从数据产权、流通交易、收益分配、安全治理等方面为大家作详细解读,明确如何有效地促进数据的生产和开发利用。 个人信息是数据领域中量最大、最有价值的数据。人工智能时代,个人数据若要进行开发利用,需要法律介入保护。个人信息如果没有得到有效保护,不仅会造成财产损失,还会影响人的自由意志、自由思想。 徐伟介绍,目前人工智能的应用主要有两种类型,一种是以自动驾驶汽车为代表的人工智能体,另一种则是以ChatGPT为代表的人工智能服务提供者。从法律层面上来说,人工智能体往往归入产品领域,用《产品质量法》等产品的规则来调整,人工智能服务提供者则归入服务领域。 如何让ChatGPT等生成式人工智能更好地为人类服务?徐伟认为,我们需要控制好生成式人工智能用于训练和开发的数据和个人信息,且控制好相应的算法,就能够大概决定生成式人工智能未来的方向。 法律不同的规则设计则会对人工智能的发展将产生重要影响。徐伟介绍,欧盟的《一般数据保护条例》是世界个人信息保护领域中影响最大的一部法律,对个人信息的保护提出了非常严格的要求。这种严格的设计一方面限制了欧洲用户的数据被其他国家所开发和利用,但另一方面又阻碍了欧洲深层次人工智能产业的发展,因为门槛高了,初创公司更难“玩得起”,最后形成恶性循环。 徐伟强调,法律要对人工智能的关键变量予以制度上的控制,关键变量包括数据(含个人信息)、算法等。要设置恰当的法律法规,才能在保护个人信息的同时,促进人工智能产业发展进步。 《权利的边界:个人信息赋权逻辑及其行使路径》书封。
ChatGPT爆火,背后有何法律风险?
AI律师助手

ChatGPT爆火,背后有何法律风险?

韩丹东 王意天/法治日报 最近,由美国人工智能研究室OpenAI开发的全新“聊天机器人”ChatGPT火了。作为一款人工智能语言模型,它不仅能和人展开互动,还可以写文章、制定方案、创作诗歌,甚至编写代码、检查漏洞样样精通,上线仅两个月全球活跃用户破亿。 对此,有人直呼“太好用了,你要什么它就给什么”,也有人担忧“一些工作将被它取代”。 ChatGPT的问世掀起了新一轮人工智能浪潮,但其使用过程中可能涉及的法律问题不容忽视,记者对此进行了调查采访。 ChatGPT火了,在国内连续多日冲上热搜榜,一时与ChatGPT相关的各种信息遍布网络。ChatGPT全称“Chat Generative Pre-trained Transformer”,按照其自我介绍,它是一个由OpenAI训练的大型语言模型,被设计用来回答各种问题并为人们提供帮助。人工智能、人机交互、自动问答……与ChatGPT相关联的各种“高大上”的形容词让不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人担忧的那样,可以取代文本创作等类型的工作?《法治日报》记者近日采访发现,ChatGPT的火爆背后暗藏法律风险隐患。人工智能在给人们的生活增添乐趣、提供便利的同时,其信息真伪、知识产权等法律风险也愈发受到关注。另一方面,不少人盯上了其热度想“搭便车”牟利,出现了大批“山寨”产品和账号转卖行为。 存在信息泄露风险 可能侵犯知识产权ChatGPT爆火后,很多博主拍摄了测评视频。不少人给出评价称,面对一些提问,ChatGPT反应速度、准确性较高,表现甚至优于一些搜索引擎。但ChatGPT的回答通常是笼统的、整合性的回答,而不是具有个性色彩的、创新性的回答。公开资料显示,ChatGPT可以总结研究论文、回答问题、生成可用的计算机代码,甚至快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。但在受访的法律人士看来,ChatGPT的强大功能也隐含着不少法律风险。“ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。”北京盈科(上海)律师事务所互联网法律事务部主任谢连杰说。谢连杰分析说,ChatGPT依托海量数据库信息存在,其中包括大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能将其纳入自身的语料库而产生泄露的风险。虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然具有泄露风险。其次,人工智能生成的信息并不总是准确的,ChatGPT常常出现“一本正经地胡说八道”的情况,需要一定的专业知识才能辨别真伪;也可能有不法分子恶意“训练”人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身财产安全。“对于这类隐患,平台应充分提示用户其生成的内容可能为虚假信息,且在其生成疑似违法信息时进行拦截或提示用户存在安全风险。”谢连杰说。泰和泰(重庆)律师事务所高级合伙人朱杰说,ChatGPT在建立语料库、生成文本时,如果使用并非公开的开源代码、使用开源代码商用未办理许可证或者未按照许可证的要求实施的,可能会导致侵权。他解释说,这类人工智能主要是通过挖掘人类日常交流以及文本,进而统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接获取复制到自己的数据库中,并在此基础上修改、拼凑,极可能侵害他人的著作权。2019年,国际保护知识产权协会(AIPPI)发布《人工智能生成物的版权问题决议》,认为人工智能生成物在其生成过程中有人类干预,且该生成物符合受保护作品应满足的其他条件情况下,能够获得保护,对于生成过程无人类干预的人工智能生成物无法获得版权保护。近日,多家国内学术刊物针对ChatGPT发声。《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。《天津师范大学学报(基础教育版)》发布声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。朱杰认为,ChatGPT生成的文本等内容是基于大量数据的统计和应用生成的,不具有自己的思想和创新,很难构成著作权法保护的作品。谢连杰提到,ChatGPT的文本数据挖掘技术可能导致其在他人享有著作权的作品中“借鉴”部分内容。对于这部分内容,若不能构成我国著作权法所规定的“合理使用”的情形,则可能引发侵权纠纷。 借势贩卖租赁账号 “搭便车”山寨频出ChatGPT走红后,由于服务端对中国大陆的IP有限制,无法注册使用,其账号一时在国内多个网购平台、社交平台上销售火热。在某电商平台上售卖成品账号的店铺,一天之内多达万人付款,价格最低1.68元。记者在一家名为“ChatGPT账号供应商”的店铺购买了账号,商家随后私聊发来账号和密码,并特别标注输入时需要复制粘贴,还附有登录教程。登录后,记者发现这是一个多人共享账号,左侧聊天栏已经存在许多聊天窗口,系统运行十分缓慢,不一会记者就被提醒不能多人同时提问。记者发现,某电商平台上,多数商家售卖的都是共享账号,而单人定制账号或者代注册账号的价格往往更高。近日,多个电商平台对ChatGPT账号销售行为进行了查禁,相关关键词被屏蔽。记者先前账号订单显示商品不存在,进入到商家界面发现,所有的商品均已下架。然而,记者在社交平台上搜索“ChatGPT账号”等关键词发现,仍有不少网友在提供代注册、有偿账号分享服务,围绕ChatGPT账号展开的买卖行为仍在野蛮生长。朱杰认为,这种买卖行为可能构成非法经营等违法行为。ChatGPT的正版服务由境外机构提供,而未经我国相关部门批准利用VPN跨境提供经营活动是被明确禁止的,所以国内这些代问、代注册的商家以营利为目的,搭建或使用VPN进行注册账号,未办理国家相关行政许可,擅自经营买卖国外账号,可能会受到行政处罚甚至刑事处罚。ChatGPT账号价值被炒作成商品以外,借其名称热度“搭便车”的牟利行为也大量出现。近日,记者查询发现,以“ChatGPT”“智能问答”等字眼作名称的小程序、公众号数量激增,不少小程序都显示有“1000+人最近使用”。记者使用其中一些小程序后发现,这些产品不仅和ChatGPT毫无关系,而且大多以免费试用为噱头,吸引用户注册使用后,再推出收费服务,最终目的是诱人充值以牟利。例如,一个名为“××超级AI”的公众号中提到,可以为用户提供ChatGPT中文版的服务,小程序界面有不同的服务类型,从“AI情感问题”到“AI程序助手”,用户可以选择与不同的AI聊天。可当记者点击进入“AI情感问题”一栏,还未进行任何操作,对话框就显示记者“已经用完今天的免费次数”,后续体验需要购买VIP,分别为19.9元的一天会员、199元的月度会员与999元的年度会员。朱杰说,“山寨”软件打着正版软件的旗号进行宣传,欺骗消费者进行下载,可能构成虚假广告;同时,“山寨”软件使用的名称及标志如与正版软件相同或相似,引导他人误认为与正版存在特定联系,可能构成反不正当竞争法中规定的商业混淆行为,将受到行政处罚。 法律规范必不可少 部门监管精细治理ChatGPT浪潮澎湃,其背后暴露出的人工智能法律风险、围绕ChatGPT展开的无序商业行为亦汹涌来袭,如何应对成为关注焦点。上海政法学院人工智能法学院副教授郭金兰告诉记者,我国算法行业在此前的标准制定时已经初步尝试了以场景和架构为基准的思路。2018年7月,中国科学院软件研究所联合15家产学研单位共同编制首个国内人工智能深度学习算法标准《人工智能深度学习算法评估规范》。这一规范基于深度学习算法可靠性的内部和外部影响,结合实际应用场景,确定了由7个一级指标和20个二级指标组成的算法可靠性评估指标体系,做了场景化和精细化算法治理实践的有益尝试。2022年出台的《互联网信息服务算法推荐管理规定》中明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。今年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。随着人工智能产品不断迭代升级,未来对相关产品该如何进行监管与应对?郭金兰认为,对人工智能监管,需要深入人工智能系统的整个生命周期,从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用。监管需要关注到每个具体的环节,包括语料库的筛选标准制定、参与人工标注的人员培训,开发者的价值观考察等。“对ChatGPT这类生成式人工智能的监管必须将算法监管和数据监管结合起来。在算法监管机制的未来探索中,应充分考虑算法决策的主体类型和作用类别,探索场景化和精细化的算法治理机制。”郭金兰建议说。朱杰建议,国家应当加强对人工智能的伦理规制,将伦理道德纳入人工智能研发和应用的全过程,增强全社会人工智能的伦理意识和行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。 本期资深编辑 邢潭
ChatGPT火爆背后有何法律风险?
AI律师助手

ChatGPT火爆背后有何法律风险?

调查动机 最近,由美国人工智能研究室OpenAI开发的全新“聊天机器人”ChatGPT火了。作为一款人工智能语言模型,它不仅能和人展开互动,还可以写文章、制定方案、创作诗歌,甚至编写代码、检查漏洞样样精通,上线仅两个月全球活跃用户破亿。 对此,有人直呼“太好用了,你要什么它就给什么”,也有人担忧“一些工作将被它取代”。 ChatGPT的问世掀起了新一轮人工智能浪潮,但其使用过程中可能涉及的法律问题不容忽视,记者对此进行了调查采访。 □ 本报记者 韩丹东 □ 本报实习生 王意天 ChatGPT火了,在国内连续多日冲上热搜榜,一时与ChatGPT相关的各种信息遍布网络。 ChatGPT全称“Chat Generative Pre-trained Transformer”,按照其自我介绍,它是一个由OpenAI训练的大型语言模型,被设计用来回答各种问题并为人们提供帮助。 人工智能、人机交互、自动问答……与ChatGPT相关联的各种“高大上”的形容词让不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人担忧的那样,可以取代文本创作等类型的工作? 《法治日报》记者近日采访发现,ChatGPT的火爆背后暗藏法律风险隐患。人工智能在给人们的生活增添乐趣、提供便利的同时,其信息真伪、知识产权等法律风险也愈发受到关注。另一方面,不少人盯上了其热度想“搭便车”牟利,出现了大批“山寨”产品和账号转卖行为。 存在信息泄露风险 可能侵犯知识产权 ChatGPT爆火后,很多博主拍摄了测评视频。不少人给出评价称,面对一些提问,ChatGPT反应速度、准确性较高,表现甚至优于一些搜索引擎。但ChatGPT的回答通常是笼统的、整合性的回答,而不是具有个性色彩的、创新性的回答。 公开资料显示,ChatGPT可以总结研究论文、回答问题、生成可用的计算机代码,甚至快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。 但在受访的法律人士看来,ChatGPT的强大功能也隐含着不少法律风险。 “ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。”北京盈科(上海)律师事务所互联网法律事务部主任谢连杰说。 谢连杰分析说,ChatGPT依托海量数据库信息存在,其中包括大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能将其纳入自身的语料库而产生泄露的风险。虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然具有泄露风险。 其次,人工智能生成的信息并不总是准确的,ChatGPT常常出现“一本正经地胡说八道”的情况,需要一定的专业知识才能辨别真伪;也可能有不法分子恶意“训练”人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身财产安全。 “对于这类隐患,平台应充分提示用户其生成的内容可能为虚假信息,且在其生成疑似违法信息时进行拦截或提示用户存在安全风险。”谢连杰说。 泰和泰(重庆)律师事务所高级合伙人朱杰说,ChatGPT在建立语料库、生成文本时,如果使用并非公开的开源代码、使用开源代码商用未办理许可证或者未按照许可证的要求实施的,可能会导致侵权。 他解释说,这类人工智能主要是通过挖掘人类日常交流以及文本,进而统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接获取复制到自己的数据库中,并在此基础上修改、拼凑,极可能侵害他人的著作权。 2019年,国际保护知识产权协会(AIPPI)发布《人工智能生成物的版权问题决议》,认为人工智能生成物在其生成过程中有人类干预,且该生成物符合受保护作品应满足的其他条件情况下,能够获得保护,对于生成过程无人类干预的人工智能生成物无法获得版权保护。 近日,多家国内学术刊物针对ChatGPT发声。《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。《天津师范大学学报(基础教育版)》发布声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。 朱杰认为,ChatGPT生成的文本等内容是基于大量数据的统计和应用生成的,不具有自己的思想和创新,很难构成著作权法保护的作品。 谢连杰提到,ChatGPT的文本数据挖掘技术可能导致其在他人享有著作权的作品中“借鉴”部分内容。对于这部分内容,若不能构成我国著作权法所规定的“合理使用”的情形,则可能引发侵权纠纷。 借势贩卖租赁账号 “搭便车”山寨频出 ChatGPT走红后,由于服务端对中国大陆的IP有限制,无法注册使用,其账号一时在国内多个网购平台、社交平台上销售火热。在某电商平台上售卖成品账号的店铺,一天之内多达万人付款,价格最低1.68元。 记者在一家名为“ChatGPT账号供应商”的店铺购买了账号,商家随后私聊发来账号和密码,并特别标注输入时需要复制粘贴,还附有登录教程。登录后,记者发现这是一个多人共享账号,左侧聊天栏已经存在许多聊天窗口,系统运行十分缓慢,不一会记者就被提醒不能多人同时提问。 记者发现,某电商平台上,多数商家售卖的都是共享账号,而单人定制账号或者代注册账号的价格往往更高。 近日,多个电商平台对ChatGPT账号销售行为进行了查禁,相关关键词被屏蔽。记者先前账号订单显示商品不存在,进入到商家界面发现,所有的商品均已下架。 然而,记者在社交平台上搜索“ChatGPT账号”等关键词发现,仍有不少网友在提供代注册、有偿账号分享服务,围绕ChatGPT账号展开的买卖行为仍在野蛮生长。 朱杰认为,这种买卖行为可能构成非法经营等违法行为。ChatGPT的正版服务由境外机构提供,而未经我国相关部门批准利用VPN跨境提供经营活动是被明确禁止的,所以国内这些代问、代注册的商家以营利为目的,搭建或使用VPN进行注册账号,未办理国家相关行政许可,擅自经营买卖国外账号,可能会受到行政处罚甚至刑事处罚。 ChatGPT账号价值被炒作成商品以外,借其名称热度“搭便车”的牟利行为也大量出现。近日,记者查询发现,以“ChatGPT”“智能问答”等字眼作名称的小程序、公众号数量激增,不少小程序都显示有“1000+人最近使用”。 记者使用其中一些小程序后发现,这些产品不仅和ChatGPT毫无关系,而且大多以免费试用为噱头,吸引用户注册使用后,再推出收费服务,最终目的是诱人充值以牟利。例如,一个名为“××超级AI”的公众号中提到,可以为用户提供ChatGPT中文版的服务,小程序界面有不同的服务类型,从“AI情感问题”到“AI程序助手”,用户可以选择与不同的AI聊天。 可当记者点击进入“AI情感问题”一栏,还未进行任何操作,对话框就显示记者“已经用完今天的免费次数”,后续体验需要购买VIP,分别为19.9元的一天会员、199元的月度会员与999元的年度会员。 朱杰说,“山寨”软件打着正版软件的旗号进行宣传,欺骗消费者进行下载,可能构成虚假广告;同时,“山寨”软件使用的名称及标志如与正版软件相同或相似,引导他人误认为与正版存在特定联系,可能构成反不正当竞争法中规定的商业混淆行为,将受到行政处罚。 法律规范必不可少 部门监管精细治理...
生成内容属于谁?会侵权泄密吗?ChatGPT法律风险详解
AI律师助手

生成内容属于谁?会侵权泄密吗?ChatGPT法律风险详解

近期,美国OpenAI公司旗下的人工智能聊天机器人ChatGPT一跃成为火爆全球的现象级应用。 作为一项新兴的数字技术,人工智能正在以其强劲的力量影响周遭的世界。在人们因其产生好奇、兴奋抑或担忧、抵触等情绪时,如何应对人工智能带来的法律问题,警惕相关的法律风险亦显得尤为重要。 网页截图 ChatGPT生成的内容属于谁? 它能拥有作者身份吗 目前来看,人们应用ChatGPT的场景很广泛,包括写邮件、视频脚本、文案、代码、诗、论文等等。 国外一项对100多名教育工作者和1000多名学生展开的调查显示,超过89%的学生使用ChatGPT来帮助完成家庭作业。也有研究者用它来撰写学术论文,为此多家学术期刊更改编辑规则,禁止将ChatGPT列为合著者。 那么,在法律上,ChatGPT能拥有作者身份吗?它生成文本内容的著作权属于谁? 大成律师事务所合伙人李伟华对记者表示,我国著作权法所称“作者”,是自然人、法人或非法人组织,AI并非我国著作权法的“作者”,因此目前很难依据法律直接赋予ChatGPT以作者身份。即便对于少数明确通过立法承认AI生成内容可以获得版权保护的国家,其通常也是将计算机软件的开发者,或为生成过程作出实质性贡献的人赋予作者身份。 此外他提到,也要看计算机软件开发者与用户之间的协议约定。比如,ChatGPT生成作品的著作权划分问题可从其服务条款了解一二。 根据OpenAI的使用条款,只要该用户遵守使用条款(其中包括某些使用限制),OpenAI就会将其在输出内容中的所有权利、所有权和利益转让给提供输入内容的用户。然而,由于机器学习的特性,不同用户可能会从AI中获得相同或类似的输出内容,而根据条款,只有独有的“输出内容”的权利才能够转让。 因此这种输出内容的转让需要排除呈现给其他ChatGPT用户的结果,而该等限制会造成输出内容著作权的不确定性,且会随着时间推移变得更加不明朗。 资料图:北京,在服贸会首钢园展区,电信、计算机和信息服务展厅里的舞蹈机器人。中新网记者 李骏 摄 人工智能生成的作品 能当成原创作品吗? 利用人工智能进行内容创作,这并非新鲜事,但随着技术的发展,人工智能内容生产水平不断提高,甚至还出现AI画作获奖的案例。 人工智能生成的作品能当成原创作品吗?李伟华表示,我国著作权法第三条规定,本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。因此理论上来讲,无论自然人所创作的内容,还是ChatGPT等人工智能生成的内容,只要能满足前述构成要件都可以构成作品。 不过,目前,中国法律并未对人工智能生成的内容是否可以构成作品作出明确规定,我国法院在司法实践中也对此存在不同理解。对此李伟华认为,人工智能生成的内容只要满足著作权法关于作品的构成要件,应当被赋予版权保护。 “因为这些看似属于计算机或人工智能创作的内容,根本上还是人类智慧产生的结果,计算机或人工智能不过是在依据人类事先设定的程序、内容或算法进行计算和输出而已。”他说。 还有哪些法律风险? 人工智能的发展也带来了一系列崭新的法律问题,对于普通的用户而言,应当注意哪些法律风险? 在李伟华看来,首先是知识产权侵权风险,因为ChatGPT是在大量不同的数据集上训练出来的大型语言模型,使用受版权保护的材料来训练人工智能模型,可能导致该模型在向用户提供回复时过度借鉴他人的作品,从而引起侵权纠纷。 李伟华提醒,作为用户应当意识到这一风险,并考虑通过避免限缩聊天请求等可行措施,来避免或限制获得趋于精确、狭义的可能来自特定作品的输出内容。 其次是数据合规风险。OpenAI的使用条款规定了OpenAI对任何用户输入和输出内容拥有广泛使用权以改善ChatGPT。在此基础上,若用户在输入请求时,输入与已识别或者可识别的自然人有关的各种信息(未匿名化处理),则有侵害他人个人信息权益的风险。 因此用户在使用ChatGPT时,应对所有可能涉及个人信息的数据进行匿名化处理,或避免键入任何涉及个人信息的内容。 最后是泄露商业秘密及违背保密义务的风险。李伟华解释,用户可能在无防备无警觉的情况下,在提交请求时输入涉密信息。OpenAI的使用条款并未对用户可能输入ChatGPT的机密信息提供任何保护。相反,使用条款规定了OpenAI对任何用户输入和输出内容拥有广泛使用权以改善ChatGPT,但允许用户与OpenAI取得联系,选择不允许OpenAI将相关内容用于此类目的。 因此,用户尤其是负有保密义务的用户在使用ChatGPT和类似的人工智能工具时,应当注意采取措施,以免出现泄密行为。 作者:袁秀月 来源: 检察日报正义网