AI律师出道,「倒贴」100万美元帮人类打官司
AI律师助手

AI律师出道,「倒贴」100万美元帮人类打官司

丰色 发自 凹非寺 量子位 | 公众号 QbitAI 悬赏100万美元,如果你用我们的AI律师在最高法院上帮你辩护。 就在今天,来自美国一家机器人律师公司的CEO发了这样一条抓人眼球的消息。 瞬间,网友们就炸开了锅。 “什么?AI已经可以帮人打官司了?” “什么?让AI打官司,还需要付出这么大的代价来“倒贴”吗?” 信息点太多,我们一个一个来看。 100万美元,只为让AI与人类律师在最高法庭上交锋 这家公司名叫DoNotPay(关于这个略显奇怪的名字,后文将会解释)。 它用来帮你打官司的AI律师,其实就是一个AI聊天机器人(主要基于GPT),通过录音帮你分析场上的交锋,提出论点进行辩护。 由于一些规定和限制,这个AI律师不能直接在法庭上“发言”,我们要做的就是戴上AirPods听它怎么说,然后重复给法庭。 眼下,DoNotPay已经有两场官司要打了。 这两场都是关于超速罚单的,其中一场下个月的某个时间就要举行了。 这在人类历史上都将属于首次——即AI机器人首次在人类法庭上帮人辩护。 DoNotPay看起来也对自己很有信心,因为它承诺,如果败诉,将承担被告的所有罚款。 当然 ,也可能是为了感谢被告帮助“做实验”。 尽管我们可以说这是AI在律师行业迈出的重要一步。但有挑事儿的认为,交通法庭对AI来说太简单了。 CEO约书亚·布劳德(Joshua Browder)一听:好啊,你说这个简单,那我们就去美国最高法院上证明自实力。 于是,就有了开头提出的那个疯狂的招募。 现在,布劳德豪迈的决心是表好了,却不得不面临两个问题: 一是最高法院能不能让带AirPods进?(能不能用AI辅助不用太担心,法律没有这方面的明文规定) 二是有没有律师或个人愿意在这么重要的案子里用AI律师? 首先,对于前者,美国最高法院有明确的规定不可以带电子产品进法庭。 前面所说的超速罚单案子能够用AirPods是因为他们依据听力无障碍标准,找到了一个允许使用AirPods的“漏洞”。 *(但耳机那头是AI,法官还并不知情,因为他们担心法官知道实情后不同意所以没有告知。 Ps. CEO有信誓旦旦地表示,大家在听证会上不会明显地意识到AI的辅助作用。)* 另外一点是,这俩案子只是普通的超速罚单案,要求可能就没有那么严格。 但对于最高法院来说,事情就没有那么“随意”了,我们现在真的无法知道允不允许携带AirPods进场。 好在规定里有这么一句: 如果确定违禁物品是必要的并且出于医疗或其他特殊需要,最高法院有权破例。 或许还有几分可能。 再看第二个问题。这才是最大的坎儿。 有观点表示,虽然DoNotPay的招募是认真的,但律师接受的可能性真的很小。 因为最高法院受理的案件都比较复杂,任何头脑清醒的律师都不会冒险将辩护交给AI机器人。 换言之,AI的能力是大家最质疑的点。 另外,有网友也提到,很多法院规定律师根本不可以带智能手机或平板电脑等进入辩论现场。能不能用AI也很难说。 目前,正如大家推断的那样,DoNotPay还没有找到人来接受挑战,但CEO表示已经收到了很多律师们“非常认真的提议”。...
五个月狂吸300万美金,产品总收入超6亿,这家乌克兰公司把互动短剧和AI陪伴一起打通了?
AI情感助手

五个月狂吸300万美金,产品总收入超6亿,这家乌克兰公司把互动短剧和AI陪伴一起打通了?

文 | 扬帆出海,作者丨汪酱 十一假期前,一款名为My Drama的新短剧APP火了,但比它更火的,是背后的厂商——一家名为Holy Water Limited的乌克兰公司。 应用火到什么程度?自今年4月上线以来(4月上线Google Play,6月上线App Store),仅用了5个月时间,便获得了100万用户和300万美金营收,在Insightrackr发布的8月海外短剧应用下载榜上位列TOP6,仅次于畅读科技的MoboReels。 (图源:Insightrackr 下载量数据为iOS和Android总和后经估算) 为什么公司也火了?是因为其作为一家海外厂商,在短剧这条赛道上跑速超前,推出的My Drama这款应用结合了短剧和AI聊天机器人,用户不仅能在APP上看短剧,还能在短剧内外和有真人演员形象授权的AI机器人进行互动。不久后,Holy Water Limited还即将推出AI伴侣应用AI Companion,用户甚至还能够在这一平台创造属于自己的角色。凭借这一点,有外媒认为My Drama在未来将会与Character.AI“同台竞技”。 此外更为特别的是,这家公司在推进模式上,和短剧出海头号种子枫叶互动高度一致,除了打造短剧应用和AI伴侣外,旗下还有小说产品My Passion、互动故事平台Interactive Stories两款产品,这些产品中除了还未正式上线的AI Companion,其余三款均覆盖了190+国家,总下载量超过2000万,且为Holy Water带来了超6亿的总收入(折合美金达到9000万+)。 综合而言,这家公司,已经成为了今年短剧/AI赛道最值得关注的一匹黑马,甚至有可能在未来成为一家横跨短剧、AI、游戏、泛娱乐领域的独角兽公司。 ReelShort的成功模式并非无法复制 枫叶互动的短剧验证模式,相信大部分从业者都不陌生。枫叶互动旗下有着互动游戏平台Chapters、网文平台Kiss和短剧平台ReelShort,我们过去在分析这家公司时,认为其多平台交叉验证的模式是打造爆款短剧最有效果的方式,而这一矩阵,也是枫叶互动特有的优势壁垒之一。 但现在,Holy Water Limited(下文简称Holy Water)“杀”出来了。根据我们了解到的信息,Holy Water成立于2020年,成立之初组建了一支6人团队,在测试了四种商业模式后,最终选择以动态壁纸APP打入市场。从结果来看,这款应用帮助他们在两个月内收入从1000美金增至10万美金,到第十个月,增加到了100万美金。 有了启动资金,Holy Water趁势又推出了5款以上的产品,成功了3款,有两款分别正是其小说产品My Passion,和互动故事游戏My Fantasy(就是后来的Interactive Stories)。 从发展历程来看,枫叶互动也是在2017年率先以文字互动游戏和网文入局,Holy Water的发展路径跟枫叶互动“不谋而合”。 得益于在网文领域的积累,为My Drama打下了非常良好的IP基础。据悉,My Passion平台上有超过上千部网文小说,主要是爱情题材。由于本身的地域优势,其平台网文大多数为本土爱情小说,题材上不乏霸总、狼人、吸血鬼等,非常契合海外用户的审美偏好,除此之外,My Passion也引进过一些其他国家地区的优秀小说,为其扩散至全球市场提供了便利。 (图源:App Store) 2021年,或许是由于My Passion和My...
医院上线AI系统辅助问诊陪诊 线上平台“AI开处方”或越界
AI医师助手

医院上线AI系统辅助问诊陪诊 线上平台“AI开处方”或越界

早上8点,四川省绵阳市游仙区忠兴镇兴合村村医宋文卓来到卫生室,第一件事就是打开电脑登录AI(人工智能)辅助诊疗系统,这是他近段时间养成的一个新习惯。 “宋医生,我心跳有点快,感觉上不来气,偶尔还会咳嗽几声。”卫生室刚开门,年近九旬的村民涂婆婆便在老伴的陪同下前来看诊。宋文卓一边询问症状,一边将病情输入系统,然后点击AI辅诊按钮,系统迅速与拥有海量多发病、常见病等病例的国家核心知识库对接,通过提取和分析患者的历史病历信息,给出“急性上呼吸道感染”等诊断建议。宋文卓结合自己的临床经验进行综合评估,最终确定涂婆婆是急性上呼吸道感染。 随后,系统根据医生的选择,给出了推荐用药,列出推荐依据、检查建议等。宋文卓参考选定治疗药物,让老人先吃药观察。 在宋文卓看来,AI辅诊系统的应用,不仅提高了诊断的准确性和效率,还能帮助医生更好地应对复杂病例,降低误诊漏诊风险,看病用药也更加安全放心。 AI辅助诊疗系统在绵阳市游仙区基层医疗机构的应用,是我国推进“AI+医疗”的一个生动缩影。《“十四五”医疗装备产业发展规划》明确提出加快智能医疗装备发展;《关于进一步完善医疗卫生服务体系的意见》提出发展“互联网+医疗健康”,加快推进互联网、人工智能等在医疗卫生领域中的应用……近年来,我国不断加强顶层设计,推进“AI+医疗”的发展。 多名业内人士和专家在接受《法治日报》记者采访时指出,医疗领域已经成为探索AI应用的重要场所,目前在一些医院主要应用于分导诊、预问诊、病历生成等场景,助力患者就医更加便捷,提升了医疗服务质量,未来AI辅助诊疗将会成为一种趋势,但也需要警惕背后隐藏的法律风险,这些风险不仅涉及患者个人隐私保护,还关系到算法透明度和公平性等问题。 多地上线AI辅诊 提升患者就诊体验 近日,记者来到北京大学人民医院进行甲状腺和瘢痕检查,检查项目包括B超、血液检查等。缴费完成后,医生提醒可在系统预约检查时间。记者打开手机,像“自助值机”一样,在可选时间段,把检查项目约在相对集中的时间,这样就可以“一次跑完”,在最短的时间内完成所有检查,避免了因现场排队改约和检查时间不同而带来的反复奔波。 这只是AI辅助医疗的一个缩影。记者梳理公开资料发现,“AI+医疗”目前已在多个医院落地。 在华中科技大学同济医学院附属协和医院,如果患者不知道挂哪个科室,AI可以来帮忙。 该院今年5月推出了“AI智慧门诊”,涵盖智能分导诊、智能加号等功能。以彼时的“智能加号”功能为例:患者可点击“挂号服务”“在线挂号”,进入需要预约的科室,如果选择的专家号“满诊”,则可点击下方的“申请加号”,在跳转页面选择该专家的加号日期。确定免费预约后,AI会自动发起对话,询问病情等相关情况,然后生成“病情卡片”,再综合评估病情严重程度,判断加号资格,最后发送给专家确定是否通过。 此外,该院还推出“智能候诊室”功能。患者挂号后,由“医生数字人”与患者先进行沟通,提前了解患者症状、病程等,为医生面诊做准备。 在浙江省人民医院,数字健康人“安诊儿”可以陪伴患者就诊。 据了解,“安诊儿”可以为患者提供覆盖就医前、中、后的AI陪诊服务。诊前,患者可以向其描述自己的症状,“安诊儿”根据症状为患者匹配科室和医生,帮助患者预约挂号;诊中,“安诊儿”可合理安排就诊流程,全程提供AR智能导航,还可以让患者在线上直接取号,并提供叫号提醒,甚至能在支付宝上完成医保缴费,节约患者的就医时间;诊后,患者离开医院,其还会继续提供电子病历、处方和报告查询等服务。 在北京友谊医院,AI能帮医生写病历。 今年5月,云知声门诊病历生成系统在北京友谊医院应用。该系统能在复杂的医院环境中识别医患对话,精准捕捉关键信息,分离医患角色,并从中剔除与病情无关的内容,生成专业术语表达的信息摘要,以及符合病历书写规范要求的门诊电子病历。数据显示,在门诊病历生成系统的帮助下,北京友谊医院相关科室门诊病例录入效率大幅提升,医生问诊时间大幅缩短。 法律风险不容忽视 警惕算法歧视问题 多名受访的业内人士指出,人工智能在医疗领域的广泛应用,能为患者提供更便捷的服务,提高了医疗服务的效率和精准度,让优质医疗资源更普惠,但其背后的法律风险也不容忽视。 在山西大学法学院讲师陈川看来,传统医疗诊断过程强调医生对患者人格尊严和自主权的尊重与保护,医生在作出医疗决策时,需综合考虑患者的既往病史和当前症状,并依照相关法律法规与伦理规范,制定适宜的治疗方案。然而,医疗人工智能存在“自动化偏见”风险,即医生在诊断过程中可能会过度依赖人工智能技术,从而忽略自身专业判断和对患者个体需求的考虑。这种过度依赖可能导致医生将困难的医疗决策不恰当地交给人工智能处理。当医生过度依赖人工智能时,患者的治疗决策可能被剥夺,转而交由机器进行处理,导致患者失去对自身健康管理的自主权。 此外,算法透明度不足和算法歧视问题也不容忽视。“虽然2023年7月国家网信办联合国家发展改革委等部门公布的《生成式人工智能服务管理暂行办法》提出了算法透明性要求,但在具体实施过程中,算法的实际工作原理和决策过程往往难以被外界理解和监督。由于算法透明度不足,患者无法了解医疗人工智能是如何得出诊断结论的,导致其知情权和选择权无法得到充分保障,可能会侵犯患者的知情同意权和自主决定权。”陈川说。 她提出,算法歧视问题还会导致不同地区在医疗资源上的不平等现象。不同开发者在训练算法时可能无意间引入偏见,导致生成式人工智能在面对不同群体患者时作出歧视性决策。例如,某些医疗人工智能系统在筛查病人时,诊断结果不准确或存在系统性低估。再比如,算法模型的训练数据如果主要来自某些特定群体,可能会导致其面对特殊群体时产生偏见。 陈川认为,目前,人工智能在医疗领域的应用仍处于探索阶段,易因误诊、数据泄露等行为引发问责和归责问题。我国民法典规定医疗损害责任适用过错责任原则,也考虑到医疗器械所致损害的责任承担问题。但人工智能能够独立生成医疗诊断结果或建议,因此在现行法律框架下,对医疗人工智能应用的追责十分复杂,传统的责任形式难以简单套用到医疗人工智能上。 线上购药本末倒置 审核环节形同虚设 除了“AI+医疗”作为一种新兴模式在实际应用过程中可能存在一定法律风险外,一些线上医疗问诊、线上购药平台在引入AI辅助后,虽然给患者带来便捷,但也暴露出不少问题。 记者在调查中发现,一些互联网医疗平台采用“先选购药品,再因药配方,甚至由人工智能软件自动生成处方”这样本末倒置的操作方式。 记者前不久在某购药平台下单处方药骨化三醇软胶囊后,平台提示“请选择线下已确诊疾病”。记者在“疾病栏”随机勾选了几项,“处方/病历/检查报告栏”空着,并确认“已确诊此疾病并使用过该药,且无过敏史、无相关禁忌证和不良反应”,很快便通过了验证,提交清单后,系统跳至问诊版块。 紧接着,有“医师”接诊,连续发来数条信息,其中第一条强调“互联网医院只对复诊用户提供医疗服务”,后续几条信息均为确认有无过敏史或处于特殊时期。在记者没有回复的情况下,对方就发来一张处方单和购买链接。 北京市民杨木(化名)也有过类似经历,他怀疑屏幕背后接诊的不是真的执业医师:“在××平台购买处方药时,感觉对方跟机器人没有差别,只要打字过去,对方就会在几秒钟内迅速同意,根本没有给出任何专业意见。”有一次,他故意描述一些不是欲购药品适应病症的情况,结果对方仍然很快开了处方。 多名业内人士认为,“隔空”诊疗并不适合所有患者,常见病、慢性病的复诊,是较长时间以来互联网诊疗的定位。不过,对于何为复诊,业内一直缺少具体标准,导致出现一些监管真空。 “假如是正规互联网医院,有执业资格的医生开具的电子处方,应该有医生的签名、互联网医院电子章。不排除有些小型互联网医疗平台存在用人工智能、机器人等工具自动生成处方,一些大平台会用AI等来辅助医生问诊,比如问病人几岁、哪里不舒服等,但是处方必须要求医生来开。”北京某三甲医院一刘姓医生说。 他还注意到,不少平台为谋取利益,采用“AI开处方,客户直接取药”的模式,处方开具、审核环节形同虚设,要么直接跳过开具处方这一流程,要么对用户上传的处方并不实际审核,这类行为严重违反了我国药品管理制度,也给患者用药安全埋下风险隐患。 在线上健康平台咨询问诊会不会泄露个人信息,也是多名受访患者提出的疑问。 有一次,杨木的后背上起了不少红疹子,便在某健康平台进行问诊,结果没过几天,他就陆续接到多个广告电话和短信,有询问是否需要植发的、有推销护肤产品的,甚至还有借贷公司打来的推销电话。 “问诊时,平台采集的个人信息和健康情况能不能保存好,这些信息会不会流向第三方?”杨木很是担心。 此前,工信部曾通报过多个互联网医疗App在个人信息收集及使用方面存在严重问题,包括超范围采集个人隐私信息、未经本人同意向他人提供个人信息、收集与医疗服务无关的个人信息等。 “与其他类型App相比,医疗类App泄露个人信息可能会导致更严重的法律问题。如果个人健康信息被泄露,不法分子可能利用这些信息实施精准诈骗,比如利用‘病急乱投医’的心理向患者非法售卖或推广药品。”前述刘医生说。 完善相关法律框架 切实保障患者权益 受访专家指出,为了有效应对“AI+医疗”在实际应用中潜在的法律风险,需要从法律和政策两个层面进行系统化完善。只有建立健全法律框架和监管机制,明确医疗大模型的责任归属和数据使用规范,才能在推动医疗人工智能发展的同时,切实保障患者的合法权益。 “首先要建立完善医疗人工智能法律框架。目前,《生成式人工智能服务管理暂行办法》未涉及医疗领域人工智能规定,需要在其基础上结合医疗领域的特点制定相关法律法规,突出强调医疗人工智能的辅助作用。”陈川说,为了帮助医疗工作人员、患者更好地使用人工智能系统、了解人工智能得出诊断结果的运行机制,我国可以配套制定医疗人工智能使用指南,以增强医疗人工智能系统及其结果的可解释性;还需完善其他法律规定,数据安全法、《涉及人的生命科学和医学研究伦理审查办法》等为制定医疗人工智能管理办法提供了基础,应依据人工智能发展现状出台适用医疗人工智能的管理办法。 陈川还提到,强化医疗人工智能算法监管刻不容缓。一方面,为确保医疗人工智能的安全性和可靠性,应成立算法审查专门机构,对医疗人工智能进行严格的安全性、透明性、伦理性审查;另一方面,基于数据的动态性和人工智能技术的不断迭代升级,应要求研发者提前研判算法应用过程中产生的安全风险并提出针对性应对措施,在算法生命周期内定期开展算法风险监测工作,针对算法的数据使用、应用场景、影响效果等进行自我安全评估。此外,可开启公众监督举报、监管部门巡查等多种措施。 北京中医药大学法律系教授邓勇也认为,随着医疗大模型的发展,这一产业合规运营与监管显得越发重要,需要确定自身的产品定位并获取对应的资质,避免无资质开展相应活动。“合规方面,首要应当确定自身的产品定位,如属于互联网诊疗产品的,需要联系或建立对应的实体医疗机构并申请设置相应的互联网医院,并在医师资源、病历管理、药品配送、处方开具上满足相应要求,如仅作健康管理,不涉及诊疗活动的,必须明确自身产品不具有‘医疗目的’,仅‘预期用于健康管理、目标人群为健康人群、记录统计健康信息’用。” 他提出,还应当采取数据清洗等方式确保去除公开数据中的违法和不良信息及个人信息,保证训练数据合法合规。医疗大模型收集用户数据的要求,需要遵循合法、正当、必要的原则,不收集与所提供服务无关的个人信息。...
冰鉴科技CEO顾凌云:AI金融产品是「鸡肋」还是「鸡腿」?
AI金融助手

冰鉴科技CEO顾凌云:AI金融产品是「鸡肋」还是「鸡腿」?

为什么不少AI金融产品都很鸡肋? 作者  周舟 金融科技这一行,存在两种「伪AI产品」。一种是温室花朵,产品性能在实验室和小数据场景中表现优越,然而一旦放在枪弹雨林的复杂业务环境中,系统立马崩溃。好比碰到欧美球队的中国男篮。二是画蛇添足式产品,很多IT问题,明明可以用简单、传统的技术方法就能解决,但企业非得让客户使用更贵、更复杂的产品。犹如高射炮打蚊子。金融行业到底需要什么样的人工智能?为此,雷锋网《AI金融评论》策划了「AI能否解决金融刚需问题」系列选题,借同一个话题,对不同背景的受访者、产品和客群各异的企业们进行采访,期望在不同的商业和技术认知下捕捉观点碰撞的火花。本系列选题的第一篇文章,由冰鉴科技CEO顾凌云讲述他眼中AI和金融之间的关系。以下为顾凌云的所感所想: 闻见鱼腥味儿的“鲨鱼” 90年代末,我在CMU计算机学院攻读博士,当时选择了AI作为研究方向。其实在21世纪的第一个十年里,人工智能从商用角度来讲,始终是阳春白雪,难以落地。直到深度学习爆发后,我才意识到,AI的时代要来了。于是在2015年,我创办了AI金融风控公司———冰鉴科技。「冰鉴」拥有上百家客户,其中也包括工商银行总行、中国银行总行等大客户,投标经历,不可谓不丰富。当年有一家国有行,在网上公开招标,这一赛道里的金融科技公司,听到这条消息后,都像嗅到了血腥味的鲨鱼一样。那次POC极其惨烈,一共来了29条“鲨鱼”。这29家公司中不仅有做人工智能算法的、有做IT系统的,甚至,连咨询公司都来凑份热闹。这么多公司只选出5家进入第二轮竞争,而「冰鉴」是这5家公司当中「技术标」第一名。当然,这并不意味着我们最终赢得胜利,后面还有竞争更为激烈的「商务标」。商场如战场,这5家公司中,有一家在圈内比较知名的公司砸了一个极低的价格。但幸运的是,这家大型银行的商务标的百分比调的没有那么高,技术标的百分比也调的没那么低。最后,我们争得了技术标和综合标的第一名,成功拿到了这一单。这是我印象最深刻的一次POC经历。当然,POC测试也好、投标经历也罢,要想成功竞标,拥有一支技术铁军,永远是第一位。 别把AI当成炫技的道具 管理一支卓越的技术队伍,最基本的原则就是,领导者能够清晰地定义问题,清楚地知道每一种AI方法的能力和边界。我之前听一些专家谈到这么一个观点,如果能用上个世纪的传统方法很好地解决问题,那就别轻易用最新的算法。其实在金融风控领域也同样如此,很多业务根本用不到先进的机器学习模型,一个简单的决策树或逻辑回归就能完成。但很多AI公司犯了一个比较致命的错误,认为凡事都该用前沿和复杂的方法。最后把AI这个实用的工具,弄成了炫技的道具。这非常可悲。AI不是一个筐,任何东西都可以往里装。从CMU读书到创办冰鉴科技,虽然一直都在和AI打交道,但我不认为AI就是放之四海而皆准的真理、不认为在任何场景下AI都可以应用地比现有的技术都要好。张口闭口谈AI,却对以往的信贷风控方法嗤之以鼻,那它基本不是一家AI公司。AI不是「排他型」的技术,不会一路走来像坦克碾压一样,把历史上所有的算法或方法都扔进垃圾桶。在我们做数据处理时,数据的来源越是繁杂、越是难以用人工分析,AI所发挥的功能越强。当每一个物理变量都非常清晰,我们为什么还一定要用AI画蛇添足?但是,这并不意味着企业要减少科学家团队的招募力度。根据我多年经验来看,搭建一个特别昂贵的机器学习团队,非常必要。冰鉴85%以上的员工是技术人员,很多来自CMU、MIT、斯坦福等高校,他们无论是工程师还是产品经理,撸起袖子就可写代码、整整领子便能谈商务。一家科技公司靠一个算法或者一个特别复杂的机器学习模型,就想长期领跑行业,几乎不可能。科技在不断变迁,研究的方向也在不断改变,一家公司能在某一技术领域领先其他对手6~9个月,就已经非常了不起。我认为,能够保证我们在最新的领域中始终保持自己独到的见解,甚至再进一步,引领行业新的研究方向,才是我们打造昂贵机器学习团队的最终目的。 “鸡肋”的人工智能 目前人工智能在金融行业中有着非常多的应用,企业也不断在拿锤子找钉子。但很多时候,AI在一些看似热门的应用领域,其实际效果并不理想。在计算机视觉当中,有个非常传统的研究领域叫OCR,说白了就是识别图片上的文字,然后提取出来,变成可编辑的文档。这些数据电子化后,我们做模型就会非常方便。听起来很简单,但实际操作却非常困难。如果OCR扫描的是高考试卷,哪里放照片、哪里写姓名、哪里填数字,每一张试卷的格式都一样,那么OCR可以很快捷的识别。但是如果每一张纸的内容不同,就很难处理了。每一次上法庭前,律师都需要准备大量的材料。每份材料都有相对应的观点,需要一一分类。这些事,全靠法律实习生或者实习律师,通过查阅浩如烟海的文献资料,归纳总结出来。律师事务所就在想,这些法律材料比如公司的营业执照、组织机构代码、财务文件、合同等等都是打印出来的图片。能否通过OCR将这些图片扫描,然后通过自然语言处理,找出相关内容,放到律师的观点下。这样律师上庭的时候, 不用自动归纳总结,用AI技术就可以轻松搜证。这是一个听起来,目前技术可以解决的问题。但是真正操作起来,即使用最好的NLP技术,50%的正确率也达不到。换言之,和扔硬币没区别,我扔硬币的准确率还50%。法务这样的一个场景,很多公司都在做,都希望赚钱,但实际上AI的实际应用效果一点都不好,而且价格高昂。你可以去任意一家律师事务所询问,有没有人采购这种可以轻松分析大量法律文件,归纳总结并拿去上庭的AI产品。一定不会有答案。 AI没能帮助律师事务所处理这个问题,实际上是因为底层的技术本身还不够强劲,从理论到实践还有很长的路要走。想要解决这个问题,AI企业第一要做的是将基础算法再往前推进一步,第二点是在数据采集的过程中,保证采集的数据更加清晰、干净。此外,在非常火热的智能营销领域,由于用户有多元化的需求,然而市场上的产品较少,导致推荐效果并不理想。我们的方法则是用很多跟AI相关的算法,对流量进行分层。一家公司不管好坏,只要购买了流量,我们就能根据非常有限的信息,对每一个客户进行一次用户画像。画像后,进行分层,分层后,对不同的人群和不同的流量,进行最优化,然后匹配。 让AI成为“鸡腿” 食之无味、弃之可惜,如何让AI这只“鸡肋”变成“鸡腿”,一直是金融和科技公司在思考的问题。银行需要一些客观的标准来鉴别哪家金融科技公司AI实力更强,随着合作的愈发紧密,甲乙两方也逐渐摸索出一套比较通用的技术指标。其中第一个标准叫「KS值」,KS是俄罗斯两位科学家的名字,因为两个人的名字太长,世界上没几个人能记得,所以把他们名字的第一个字母提取出来。这是一个用来衡量AI模型好坏非常通用的指标。另外一个指标叫「AUC」(Area Under Curve),就是在一条曲线下的面积到底有多大,在这个曲线下的面积越大,说明这个模型效果越好,反之模型效果越差。还有一个指标叫「F-score」,当准确率变得越来越高的时候,效果也会越来越好,可以把更多的坏人挡在门外。刚才讲了三个指标,但是如果你的模型覆盖率太低,那也没用。假如某个模型的目标是覆盖1000万人,即便你测试了1000人,达到了测试标准,但是这并不代表你的AI产品一定就是好的。此外,AI模型也是有时效性的,随着时间的变化,它的性能是否会大幅下降?AI模型在更新的过程中,是否需要大量时间和金钱?AI模型和银行的核心系统在对接的过程当中是否简易?AI模型本身是否做的很标准化?这些都是在技术指标之外,银行使用AI产品时,必须要考量的标准。金融业务十分复杂,每项业务所需要的AI能力也不尽相同。我们知道,人工智能的三大技术分支:计算机视觉、语音语义、机器学习,对实际业务的改善效果也各有千秋。计算机视觉在人脸识别、生物特征识别上应用的更多,具体到金融业务中,在支付方式上应用的就很广泛,现在很多人去商店购物都是刷脸支付;当你去银行或者证券公司开户,也普遍使用这样的技术。当一家企业开完户后,你如果要申请贷款或者理财时,语音语义(自然语言处理)所具备的舆情分析能力就变得很重要。计算机视觉、自然语言处理一般是应用在贷款过程中。贷款后,金融机构需要判断个人或者企业发展稳不稳定,是否能还钱。而机器学习算法本身就可以帮助金融机构决定谁先还款、如何还款。在贷后管理环节,还可以应用语音识别技术。利用人工智能客服,可以大大减少人力成本、提高效率。此外,教育客户什么是AI、怎么用AI也是非常重要的一点。我们的方式是联合建模,手把手地和客户共同完成一个项目。联合建模比咨询更进一步,大家肩并肩坐在一起,我告诉你我是怎么一步一步把这个模型建出来的,你跟着我用你的数据重复一遍,这种方法是教育不太懂AI的客户最好的方法。当然,银行在评估金融科技公司的产品时,也会有自己自有的一套指标或者方法。比如说某些消费金融机构,会执行一套客观的指标。以24小时、7天或者30天为一个期限,他们会时时刻刻监控模型的效果,一旦模型的效果超出规定范围,马上就会根据期限调整产品。即使你本身的模型效果很稳定,他也会每3个月做一次测评,每6个月做一次测评,每一年对供应商进行一次重新的测评和调换。通过这种方法来保证他们使用的产品,一直由最佳技术实力的公司提供。 我的一些思考 从业这么多年,我不断地在加深一个认识:科技和监管之间的关系到底是什么?很多人认为这两者之间是一对冤家,监管越严,科技公司发展得越困难。我觉得不是。监管本身跟谁都没有仇,监管是为了能够让金融和科技在合法、合规的框架中更好的发展。监管,实际上监管的都是金融机构,当然金融公司受到了影响,科技公司也会受到影响,但这并不意味着监管直接对科技产生了影响。大多时候,监管限制了金融机构的发展,却促进了金融科技公司的长远进步。没有监管,科技本身将裹足不前。因为没有监管,银行和金融机构赚钱太容易,从而不会在技术上有大规模的投入。但是,一旦有了监管,金融机构就戴了锁链,还想赚钱就必须提高自己的竞争力,而提高自己竞争力最好的方法是拥抱科技公司,所以最终监管暂时抑制了金融公司的发展,促进了科技公司的发展, 最终促进了两者的共同发展。监管的本质是良币去驱逐劣币,监管打击的是劣币,促进了真正的科技公司的发展。科技公司一般都比较前卫,研究的东西也比较新颖。人们于是认为科技公司开着一辆法拉利跑车,嗡地一声就开出去很远,监管可能还骑着一辆二八大杠的自行车,在后面追也追不上。实际上不会这样。因为「监管」在整个道路上面设计了网格化。网格化就是红绿灯、限速、停车等标志,跑得再快的法拉利,到了路口,也要停下来。红绿灯的时间由「监管」来调控,如果监管觉得科技可以跑得更快,就让绿灯亮的时间更长;如果觉得科技已经跑得太快了,有超速的倾向,监管可以将红灯的时间调得更长。最后,我也想对金融科技的创业者和优秀技术人才说几句话。如果你是悲观主义者,那就别再往AI金融行业里跳了,它早已不是蓝海,而是一片看不到头的红海,你还往里跳什么,即便你穿着救生衣,带着游泳圈跳进来,不淹死你,也能挤死你。如果你是乐观派,你们赶紧来吧,AI金融和其他所有行业比起来,属于近水楼台先得月,是离国民经济最核心的地方。在这样的行业中,对于科技的渴求是最强烈的,是最容易做出一番事业、最容易发挥我们技术人才聪明头脑的。推荐阅读封面图来源:电影《万物理论》
AI律师来了!数字人替律师打工!
AI律师助手

AI律师来了!数字人替律师打工!

代表“高智商人类”的律师群体也会担心被人工智能取代吗? 运用大模型技术把问题和答案都装入AI数字人律师“大脑”,可以掌握上万条法典条例,叠加了几十万条互联网问答,又结合了律所的丰富实践经验,他既能回答你专业性的法律问题,又能在你需要法律咨询时提供及时的解决方案和法律援助,点点屏幕就能和律师交流互动。越来越多的数字人律师、数字人保险经纪人、数字人助理形象正逐渐走进人们的生活,使人们无需奔波,就能十分方便地享受各种服务。 AI替律师打工,效果杠杠的! 数字人律师不仅拥有庞大的法律知识库,还将人工智能技术与实际应用场景相结合,能够精确模拟真人的面部表情、神态、口型和动作,使得口型效果极为逼真,表情动作流畅自然。此外,通过深度学习真人语料库克隆出来的声音,也能流畅自然地表达,无论是在发音、咬字、语调还是韵律上,都与真人无异。 来看看下面的数字人律师,你能分辨出真假吗? 这是风平智能的数字人律师助理。 日常工作中,律师经常需要处理大量的法律文件,有了数字人律师,可以代替真人更快速准确地完成这些工作,大大提高工作效率。 有业内人士担心:真人律师会不会被数字人律师所取代?律新社在调研中发现,多数人认为不会。目前的数字人还是倾向于真人复刻的形象展示,在问题的回答方面需要AI加持,目前AI在法律方面还是以法条知识回答为主,没有真人律师的主观性;所以不用担心数字人律师会完全取代真人律师的作用,它只是帮助律师去解答一些基础问题,并节省时间。 目前数字人技术已应用到教育、电商、游戏、医学等领域,据《虚拟数字人深度产业报告》预计,2030年我国虚拟“数字人”市场规模将达到2700亿元。
AI陪伴的晚年离我们有多远?这场沙龙探讨AI如何赋能养老
AI情感助手

AI陪伴的晚年离我们有多远?这场沙龙探讨AI如何赋能养老

随着中国老龄化程度加深,发展银发经济已是我们积极应对老龄化的客观要求。今年,国家出台了一系列支持、指导银发经济发展的政策文件,“智慧养老”是其中的关键词之一。近年来人工智能(AI)技术的发展为科技赋能银发产业带来了新契机,一些试点的落地案例亦初步验证了AI参与养老服务的可行性。AI技术将为我们的老年生活带来哪些改变? 11月28日,由南方都市报主办的“AI陪伴的晚年,你期待吗”——银发经济高质量发展沙龙第一期在北京举行。多位老龄、人工智能领域的资深研究者、实践者出席活动,并就AI如何服务老人生活、能否承担辅助照护与银发经济的AI治理等话题建言献策。 与会嘉宾强调,AI技术或可解决当下智慧养老产业面临的研发难、推广难等困境,在此基础上,企业仍要走到老人身边,做深度的需求调研。可以预见,技术的发展能够带来更高质量的老年生活,但养老服务仍不可缺少人文关怀,其中的“温度”不是机器可以代替的。 11月28日,由南方都市报主办的“AI陪伴的晚年,你期待吗”——银发经济高质量发展沙龙第一期在北京举行。 智能养老产品为何总是昙花一现? 要完善定价制度,看到老人切实需求 活动中,中国人民大学国家发展与战略研究院研究员、老龄产业研究中心主任黄石松直言,AI陪伴晚年是可预见的发展趋势,在未来,AI技术将介入老龄社会的各个场景。 中国人民大学国家发展与战略研究院研究员、老龄产业研究中心主任黄石松在活动中发言。 目前智能养老产品仍面临着市场困境。黄石松表示,首批防跌倒、防走失的智能产品早在十年前面市,但这些年来,这些智能产品“火热出厂”后往往都很快败走市场,仅仅是昙花一现。 黄石松分析称,老人的个人喜好、身体状况各有不同,需要企业深耕“小而精”的产品才能打开市场。此外,养老产品必须和服务紧密结合,要求企业做长期的售后服务跟进,这也提升了养老产品研发、测试、推广的难度。 黄石松还观察到,近年来,AI技术实现突破性进步,并进一步向养老产业深入,为拨开以上困境带来了曙光。他表示,随着大数据、算力算法的进步,个性化的老年需求在研发阶段就能得到尊重。 北京市科学技术研究智慧养老研究所研究员、北科院智慧健康养老与服务工程重点实验室主任、北科院学术委员会委员刘建兵在活动中发言。 北京市科学技术研究院智慧养老研究所研究员刘建兵介绍,ChatGPT出现以前,业界普遍认为机器人和人工智能在养老领域应用还很遥远,但在ChatGPT出现后,乐观的预计未来3-5年内,就会出现第一批老年照护机器人,“老年人+机器人”或“老年人+机器人+服务人员”将会是未来的一种养老服务模式。聊天、购物、扫地、端茶递水……机器人可以协助老年生活,为老人提供情绪价值,在社会层面大幅度降低护理比或对人员服务的需求。 “居家养老产业为什么发展不起来?企业直接上门推销,老人一定会砍价,产品服务的价格没有经过检验,老人会担心吃亏。”黄石松还强调,完善养老产品服务的定价制度并与技术突破相结合,可逐步明确合理的产品价格,让老人买得起、放心买,精准匹配供需两端。 中国老龄科学研究中心原副主任党俊武在论坛中发言。 中国老龄科学研究中心原副主任党俊武在沙龙中表示,智慧养老产业还要关注AI技术的适老性,要满足老人们的切实需求。他认为,企业应把老年人真正当作客户看待,而不仅仅是需要关怀的对象。 “老年人有哪些细分需求,这一块我们做得不够,才刚刚起步。”党俊武表示,养老产品设计应走出办公室,与老人们踏踏实实地站在一起,做深入的企业性调查,列出老年群体的“刚需清单”。 具体来看,不仅要注意挖掘家庭中个体尤其是高龄老年人的使用需求、情感需求,还要关注养老院、社区、老年大学等具有公共服务性质的场景需求,以及产业背后的技术公司、调查公司、养老服务公司对AI技术的消费需求。他提及,要为老年人提供更优质的服务,未来养老产业势必面临更为严格的监管,而建立精密庞杂的监管体系,同样需要AI辅助。 AI如何融入养老服务? AI可辅助失能失智老人照护,但不能代替人的参与 AI如何融入活力老人的养老服务?是否能承担辅助照护工作?又会给养老服务带来哪些新的伦理问题?沙龙探讨期间,与会嘉宾还就以上话题参与了讨论。 当下,“60后”开始步入退休年龄,这些“新老人”普遍身体健康、活力不减,比“老老人”有更多教育经历,也有更高的消费能力与更强的消费意愿。“60后”党俊武表示,低龄健康活力老人在学习、再就业、健康、走出家门等方面有着多样需求。“即便退休之后我们也要出门办事,希望AI能带来一些革命性颠覆性的改变,比如在银行办业务能一键搞定。”他说。 在使用电子产品时,老年人面临着“上手难、学习难”的困境。刘建兵表示 ,AI技术有助于简化数字产品的操作界面,实现一键操作、语音控制、图形界面,让老年人快速上手。这也有利于老人快速了解数字产品的各项功能,降低学习成本。此外,AI也能担任机器人客服,但人工客服也不能缺位。 腾讯研究院高级研究员徐一平在会上介绍了机器人在养老应用的长期价值。今年9月,腾讯Robotics X实验室宣布推出其第五代机器人——“小五”(The Five),标志着机器人技术在人机交互和自主执行任务方面取得新进展,目前“小五”在广东一家养老院测试。 徐一平介绍,形态设计上,研发人员有对“小五”进行环境适应性改造。例如,四腿轮组式设计带来更好的平衡性与负载能力,也能适应多样的行动环境。操作能力层面,“小五”具备自主移动、抱扶老人和推轮椅等多种安全人机物理交互能力。徐一平表示,帮助失能老人移动,从而让他们有更多的机会开展社交、融入社会,以缓解认知衰老。她还展望,随着多模态大模型的突破发展,机器人“大脑”有望通过捕捉气味、表情等多模态信号,理解失智老人未能表达清楚的需求指令。 “人工智能可以替代部分服务,降低照护强度,降低护理比或人员需求,也能提供某些靠人力很难提供的服务,如24小时的实时监护,但不能完全替代人的照护。”刘建兵说。多位嘉宾都在沙龙中强调,老人个体情况、家庭环境都有很大差异,当下,人类照护很难被智能机器人代替。与此同时,人类照护带来的人文、亲情关怀,也是机器人不能完全提供的。 AI时代如何保护老人的隐私与尊严? 专家建议这样规避风险 在对老人的照顾服务中,也要关注对他们尊严、隐私的保护。刘建兵表示,AI技术的介入更加凸显了老人的隐私风险。 北京乐活堂养老服务促进中心理事长秦金月在活动中发言。 据观察,一些社区提供的上门服务,会在独居老人家中安装传感器、摄像头等设备,跟踪监测老人的生活状态。北京乐活堂养老服务促进中心理事长秦金月在会中表示,老人有着更为敏感的低自尊心态,在保障隐私的基础上,社区服务人员应向老人交代清楚安装智能设备的目的,并提醒老人做自己安全的第一责任人,提升他们接纳共享信息的意愿。此外,还要打造由子女、邻里构成的关心网络。 刘建兵表示,未来,“老人+机器人”“老人+机器人+服务人员”的养老服务模式,也会带来更为复杂的责任划分,“为了确保安全,管理方可能会加强对人工智能的监控力度,这其中的边界在哪里,也是需要讨论的问题。”他还提到,老人沉迷与人工智能沟通,还可能会疏远身边人。 黄石松认为要冷静客观地看待银发经济中的AI伦理问题。他强调,AI技术首先会在通用领域实现应用突破,此后再经适老化改造进入养老产业。“既然已在通用领域使用,很多伦理问题便已经得到解决。AI技术通用性、适用性的突破,能够大大降低产品成本,也有利于大规模的市场推广与应用。”他说。 采写:南都记者王森 发自北京
人工智能医院怎么就医问诊?
AI医师助手

人工智能医院怎么就医问诊?

在人工智能医院就医问诊,可以通过以下几个步骤进行: • 智能分诊:患者可以通过智能分诊系统,输入自己的性别、年龄以及主诉,系统会通过自然语言处理技术识别患者的症状,并推荐最合适的科室和医生。 • 在线预约挂号:通过智能分诊系统给出的就诊建议后,患者可以进行线上挂号,系统会映射到医院的分科规则,为患者提供多渠道线上“一键”挂号服务。 • 智能预问诊:在正式看医生之前,患者可以利用智能预问诊(IPC)产品,通过智能理解患者主诉、模拟医生问诊思路协助患者系统梳理病情,输出规范诊前报告,帮助医生更全面了解患者,提高问诊效率。 • AI就医助手:患者可以通过AI就医助手(AMA)获取就诊流程指引、快速找医生、智能导科室、病情咨询、用药指导等多维度功能,724小时为患者解答就诊全流程中的难题。 • 远程问诊:对于身处不同城市或偏远地区的患者,可以通过AI远程问诊终端与医生进行一对一的看病就诊,缓解医疗资源分布不均、服务水平差异大等问题。 • 智能问诊智能自助终端:患者可以在AI问诊智能自助终端上选择“智能问诊”模块,按照AI提问选择自己的症状等,AI问诊智能自助终端就能智能判断病人的病情,并生成报告和治疗方案。 • 电子病历和处方查询:诊后,患者还可以通过智能系统查询电子病历、处方和报告,方便患者跟踪自己的健康状况。 通过上述步骤,人工智能医院能够提供从分诊、挂号、预问诊、远程问诊到诊后服务的全流程智能就医体验,提高就医效率和患者满意度。
AI金融公司赚钱难的「原罪」
AI金融助手

AI金融公司赚钱难的「原罪」

深度学习的强大之处在于,在参数化的神经网络里,工程人员可以实现任何复杂的变换。但是,数据与算法不安全性,就像是深度学习这项技术的阿喀琉斯之踵。 “几乎所有的AI企业都没有赚到钱,而根源问题在于人工智能技术本身的缺陷——数据与算法的不安全性。” 对于目前AI企业的生存困境,清华大学人工智能研究院院长张钹院士的这番话很直接。张钹院士向雷锋网《AI金融评论》说到,在AI技术驱动的产业中,全球前40个独角兽企业遍布了所有的领域,估值70亿到500亿之间。然而,这些独角兽都面临的问题在于:估值极高、销量极小,一家100亿估值的企业,其销售额不到一个亿。这不是国内知名学者第一次直陈AI产业的问题。事实上,深度学习的不可解释等“原生性”的问题,在目前看来,仍然没有很好的解决办法。即便是金融这样有着较高信息化基础、问题定义更加清晰的领域,再快的落地速度也掩盖不了AI的可靠性、安全性、可解释性等问题。 同时,银行等金融机构对数据的“敏感”程度和监管力度,让数据几乎没有离开本地的可能,不解决数据安全与隐私保护的问题,AI企业赋能金融的未来,也必然囿于数据孤岛之中。 诸多的AI企业,困在了“数据和算法”里。 深度学习的“阿喀琉斯之踵” 当前,AI基础设施建设的重心集中在数据平台、算力平台上,主要为各类AI解决方案提供基本的运算条件,为AI提供基础生产力,相当于是解决了AI的温饱问题。在这些基础设施的支撑下,数据和算力的快速增长作为“外部驱动力”,带动了AI产业在包括人脸识别、语音识别等领域的一波浪潮,驱动AI产业“第一增长曲线”的出现。但是,传统行业由于场景复杂和隐私保护等限制,真正可以使用数据往往并不充足,同时算力的增长也解决不了算法能力上限的问题。深度学习发展到今天,一个核心特征是神经网络模型变得越来越复杂,训练集越来越大。例如,今年最火爆的AI机器是GPT-3。GPT-3的网络层数可以达到96层,参数可以到1750亿,模型大小700G。经过了将近0.5万亿个单词的预训练,在不进行微调的情况下,GPT-3可以在多个NLP基准上达到最先进的性能。张钹院士表示,深度学习的强大之处在于,在参数化的神经网络里,工程人员可以实现任何复杂的变换。“换句话说,任何一个图像、文本输进去,都可以用参数化的神经网络将其变成所需要的结果。不管多么复杂,因为这是一个通用的函数映射。”但是,数据与算法不安全性,就像是深度学习这项技术的阿喀琉斯之踵。张钹院士表示,算法不安全的原因主要有三点:特征(伪语义)——语义空间映射是多对一;语义空间不是距离空间,是离散的层次空间;缺少语义的基于条件概率建模的“黑箱”学习方法;而这三点原因也决定了AI模型的推广能力很差。“马跟石头的语义距离很远,但是在形式空间里的距离又很近,形式空间里做出来的区别,不能保证在语义空间是安全的。这就是为什么AI模型非常容易受到干扰的攻击。这也就造成现在企业为什么难以做大做强,必须扩大应用产品的安全性和鲁棒性。”RealAI联合创始人刘荔园向AI金融评论表示,AI的可靠性、安全性不高带来的深层次问题在于无法应用到关键场景中的核心问题上,核心决策问题,一定对AI的这些要素要求非常高。她认为,用户并不是需要一个工程化的机器学习建模平台,而是不管有没有这个平台,都能知道业务可解释的点在哪里,保证模型上线之后是可控的。这是RealAI选择切入的市场。因此,RealAI想要解决的是各个行业的核心——“决策”问题,而要解决这样的问题,不单是需要提供算法能力,同时还有AI应用可控方面的因素共同支撑。这也就是清华人工智能研究院提出“第三代人工智能”的出发点。在2018年的CCF-GAIR峰会上,张钹院士就提出,今后发展的方向是把第一代人工智能知识驱动的方法和第二代人工智能数据驱动的方法结合起来,发展安全、可信、可靠和可扩展的人工智能技术,从而推动人工智能的创新应用。从这个角度来说,第三代人工智能技术体系,包括了贝叶斯深度学习、可解释机器学习、AI安全对抗攻防、新一代知识图谱、隐私保护机器学习等技术。就以贝叶斯深度学习为例,通过对变量之间的关系及神经网络参数进行概率建模,将数据和预测结果中天然存在的不确定性纳入算法,从而实现可靠、可解释的AI。清华大学人工智能研究院基础理论研究中心主任朱军教授评价到,它(贝叶斯深度学习)既有贝叶斯本身的可解释性,可以从少量的数据里边来学习;另外又有深度学习非常强大的拟合能力。 支付宝首席科学家漆远也曾向AI金融评论强调,AI发展方向之一,是必须成长为经得起攻击的博弈智能体,而贝叶斯机器学习就是将不确定性和小概率事件的研究,和推理能力、理解能力结合到一起,实现对AI对抗攻防能力的提升。 地平线机器人创始人兼CEO余凯也曾表示,深度神经网络其实更加适合做感知,而贝叶斯理论的核心是推理,只有从感知到推理才能到决策。因此,未来的AI发展需要拓宽“数据”和“算力”之外的维度,在相同的数据、算力条件下,更好的支撑AI赋能行业的深度应用,打开AI产业化全新的市场空间。 搭建AI的原生基础设施 近日,由清华大学人工智能研究院、北京智源人工智能研究院、瑞莱智慧联合主办的“2020第三代人工智能产业论坛暨瑞莱智慧RealAI战略发布会”在北京召开。本次战略发布会上,隐私保护机器学习平台RealSecure和人工智能安全平台RealSafe2.0版本相继发布,而发布这两款产品的公司——瑞莱智慧RealAI,则是一家从清华园里走出来的AI企业。瑞莱智慧CEO田天是清华大学计算机系博士,曾获评西贝尔学者,清华大学特等奖学金,为计算机系十余年间唯一研究生获奖者。他向AI金融评论表示,在应用中碰到技术难题时,我们不是见一个解决一个,修修补补;而是发现一个问题就看到一类问题,并通过底层技术框架、平台的突破,帮助产业进行升级。从全行业内来看,RealAI的出身和这种“平台化”打法,有些类似于国内的商汤:2001年,商汤创始人汤晓鸥教授一手建立了香港中文大学多媒体实验室,深入探索计算机视觉领域的研究工作,这间实验室的初创团队就是成立商汤科技的前身。RealAI则是依托清华大学人工智能研究院设立的人工智能企业,由清华大学人工智能研究院院长张钹院士、清华大学人工智能研究院基础理论研究中心主任朱军教授共同担任首席科学家。从研发背景来看,两者都拥有国内最顶尖的技术、人才资源。“学者型”特质的公司强在科研和技术能力,可以直接定位到AI产业发展的最前沿,而这类公司的最终目标是实现平台型产品的AI赋能,一旦成功,想象空间巨大。但是,除了“学者型”气质浓厚的创业公司,AI行业里还有诸多“接地气”的传统厂商。田天认为,渠道占优的行业厂商,是在传统解决方案的基础上加上一部分AI进行升级改造,进而快速实领域内的增量式提升。就以安防行业为例,无论是传统的安防企业诸如海康威视、大华股份,还是人工智能初创企业商汤、旷视等都在加大AI安防领域的投入。然而,如果AI能力不强或者只是实现一些“同质化”的浅层应用,在红海市场中会面临激烈的竞争。此外,AI在行业里落地,一大困难在于“应用场景的碎片化”,最终容易让创业公司沦为一个个的“项目制”公司,导致运营成本高居不下,难以实现技术和产品的高“复用性”。田天认为,正如社交领域的“微信”,电商领域的“淘宝”,平台型公司如果能选择一个好的方向,满足产业价值非常高的功能点,推广成本被摊薄后,成长速度会比聚焦在某个领域的公司更快。但是,走这条路线的公司,具备较长的布局周期和极强的技术和资源粘性,这对于一般的创业团队来说,是一个不小的挑战。 两款新平台:数据安全与算法安全 RealAI在这次发布会上共发布了两款新品,还是从数据安全和算法安全两方面入手。 首先是,隐私保护机器学习平台RealSecure。隐私保护机器学习平台:从“雕版印刷”到“活字印刷”数据安全主要涉及两方面:一是要解决隐私保护的问题,二是解决数据所有权的问题。 从实现第三代人工智能的思路出发,企业需要用更好的方法打通数据,保证数据隐私安全前提下最大化的挖掘数据价值。 这个过程中,受保护的、可用不可见的数据交互非常重要。在很多高价值商业场景,如金融、医疗、交通场景中,有价值的数据常常分散在不同的机构和用户手中,形成了大大小小的数据孤岛,明显制约了AI能力的提升。早在2016年,谷歌就提出了联邦学习的概念,可以实现“数据可用不可见”。近几年,在产学研的联合推动下,国内外诸多科技巨头,均已开始搭建联邦学习的研究与应用团队。国内也出现联邦学习、共享智能、知识联邦、联邦智能和异步联邦学习等多个相关研究方向,AI金融评论也以多篇文章和数次系列公开课,跟进隐私保护与数据安全的研究进程。RealAI所提出隐私保护机器学习与其同属一类技术范畴,但更强调隐私保护属性。不同于传统机器学习,隐私保护机器学习是分布式、密码学、人工智能三个领域的结合,这就意味着,企业想要做隐私保护机器学习,之前搭建起来的人工智能团队、经验等方法论不能直接拿来复用,需要重新搭建隐私保护机器学习体系下的团队与方法论。田天表示,重新堆人力将原有机器学习代码一点点的改写成联邦学习代码,这种方式显然并不落地,可落地的联邦学习平台,必须是与原有机器学习生态一脉相承的。而“一脉相承”有两层含义:一是算法的一脉相承,指机器学习算法与隐私保护机器学习算法应是继承关系,而非完全重构的关系,原有的AI算法积累,可以通过平台自动实现隐私保护化,实现两大生态的统一。二是应用的一脉相承,建模使用上需要符合原有数据科学家的建模流程,交互方式上既能支持UI的业务级一键建模,还可以支持以jupyter的形式建模,大幅度提高应用灵活度,让数据科学家能够以最熟悉的方式使用联邦学习。田天说到,数据科学家还是数据科学家,本地怎么建模、隐私保护就怎样建模,分布式、加密的工作全部一键自动完成。这也是RealAI推出隐私保护机器学习平台RealSecure(RSC)的两点考虑,据AI金融评论了解,这款平台是业内首款隐私保护AI编译器。以底层数据流图的视角揭示机器学习算法与对应分布式隐私保护机器学习算法的联系,通过“算子”组合将两端的生态打通,解决企业搭建隐私保护生态面临着的性能差、易用性差、黑盒协议等诸多难题。如何理解这里定位的“编译器”?田天解释道,在与传统处理方式相比,RSC能够将机器学习算法一键编译成隐私保护机器学习算法。“如果说此前的改写方式像‘雕版印刷’一样,RSC则实现了‘活字印刷’,将模型代码解构到‘算子’级别,通过算子的灵活组合来适配各种各样的机器学习算法,摆脱重复改写的繁琐工作,实现灵活‘制版’。”据AI金融评论了解,在底层编译的加持,以及融合密码技术与算法的优化,RSC能够实现性能的大幅提升。比如,在某实际风控场景中,RSC模型训练相比某主流国产开源框架性能提升40倍,耗时从4小时40分钟缩减至6分钟。人工智能安全平台:AI算法的“杀毒软件”现在,AI应用随处可见。目前市面上的手机均不同程度地配备了人脸识别方案;在公共场所,地方政府也已经部署了人脸识别摄像头,用于嫌疑犯追踪。最出名的莫过于“张学友的演唱会”,在2018年,张学友演唱会上就累计拿下了近80名违法犯罪分子。但是,随着人工智能规模化应用加速,其面临的安全风险也日益凸显出来。去年,RealAI就实现了通过一副印有特殊纹理图案的眼镜,解锁了他人的手机;针对安防监控的场景,通过穿上印有特殊纹理图案的衣服,就能逃过人体检测算法实现隐身。田天表示,目前,最广泛使用的深度学习技术,是通过查看数据集中许多的示例进行学习从而建立出模型的。与人类不同,深度学习模型没有可以利用的基础知识,它们的全部知识完全取决于训练的数据。当数据集中的数据被攻击者有意的操纵,植入秘密的后门时,模型就会学习到后门中的特征,比如图片中的向日葵。那么在实际运行中时,这个向日葵就会触发模型出错。解决人工智能安全问题的核心,在于理解为什么人工智能模型学习的模式如此脆弱。然而,对于广泛使用的最新机器学习算法(例如深度神经网络)是如何学习和工作的,人们了解得很少,即使在今天,它们仍然在许多方面仍是黑盒的。因此,RealAI推出了首个针对人工智能模型的“杀毒软件”和“防火墙”——RealSafe平台,一方面能够对模型的安全性进行全面检测,另一方面提供多种增强安全性的方案。在本次发布会上,RealSafe平台迎来2.0升级,在模型安全性检测方面,能针对对抗样本攻击,给出安全评分以及将检测场景从人脸识别拓展到了目标检测、图像分类外。此外,RealSafe 2.0还增加了模型后门检测功能,能够在不获取模型结构及参数等具体信息的情况下,分辨出仅在特定输入情况才会识别出错平时表现正常的被植入后门的模型。除了能够对安全性检测以外,平台也提供了安全性提升方案。 通过内置的对抗样本去噪方法,可以帮助用户在人工智能应用中,破坏掉攻击者恶意添加的图像噪声,使模型能够正常运作。 通过内置的对抗样本检测方法,可以帮助用户检测输入数据是否存在恶意添加的图像噪声,避免其进入人工智能系统的业务流程。 通过提供平台自动化生成的、能够使被测模型出错的对抗样本,帮助用户进行对抗训练,训练出更加鲁棒的算法模型。 目前,RealSafe平台已在工信部重大建设项目以及某电网公司落地应用。RealAI产品副总裁唐家渝表示,未来还将在RealSafe平台中集成更多安全风险的检测能力,包括数据逆向还原风险、成员推理风险、模型窃取等安全风险。虽然,AI算法界的“杀毒软件”这一说法由RealAI最早提出,但满足类似功能的产品在市面上也并非独此一家。比如,行业内早有一些人工智能对抗技术的工具包,例如foolbox、IBM的ART以及谷歌的CleverHans。田天认为,这些公司推出的技术,更多还是停留在学术研究阶段,还没有进入到商业应用的阶段。“很多学术机构发布的工具,是一种白盒的算法,如果要商用,要去检测某款AI系统的安全性,我们不可能要求对方把所有的源代码都给我们,他们会觉得更不安全。”因此,人工智能安全平台在提供检测方案的时候必须要具备“黑盒”的检测能力。据AI金融评论了解,RealAI目前在金融、工业、公共服务三大领域中进行布局。田天也向我们表示,这几大领域都有很好的机会,基本处于同步推进的状态。但是在落地速度上,金融领域会相对快一些。这也取决于金融业本身已有的信息化基础、金融问题的定义更加清晰。而在工业领域,由于这个行业的改造周期更长,项目推进的周期也更长。以金融场景为例,风控场景中数据有偏问题尤其突出,如何评估没有贷后表现的拒绝客群、挖掘其中的优质客户一向是行业难题。RealAI利用自研的半监督回捞模型,提高对拒绝客群质量的识别能力,实现捞回客群与原风控放款客群风险一致下,帮助金融机构无成本提升20%的资产规模。刘荔园也向AI金融评论透露,很多金融机构已经在使用黑盒模型,但是金融机构还是希望在可解释性上更进一步。“这个机会不仅仅是留给第一波吃到螃蟹的人,而是让更多的用户能够更安心、更大面积的使用这些模型。”田天说到,“短期内,我们需要做出一些效果突出的行业解决方案;长期来看,我们希望逐步把生态体系打造出来,对AI赋能所需要的各方面能力(算法、数据)进行集成,让解决方案提供商完成一系列AI应用的搭建,这个能体现出我们作为一家平台型公司的价值。” 推荐阅读
湖南芙蓉律师事务所周沛华律师探讨AI科技生活的未来展望与法律问题
AI律师助手

湖南芙蓉律师事务所周沛华律师探讨AI科技生活的未来展望与法律问题

11月25日,湖南芙蓉律师事务所第63期芙蓉开放日活动如期举行,特邀芙蓉律所高新科技企业法律部部长、管委会秘书、信息系统监理师、软件设计师周沛华律师作主题分享。 活动伊始,芙蓉律所监事、案件质量管理中心主任何志坚律师分别为周沛华律师和秦勇律师颁发了芙蓉律所”高新科技企业法律部部长”、”高新科技企业法律部副部长”聘书。该部门是以985高校复合型法律人才为核心的先驱团队,团队核心成员均具备计算机科学与技术、电子信息工程、信息管理等专业教育背景和高科技行业从业经验,旨在填补湖南省高新科技与新兴领域法律服务方面的短板,提供了解行业、懂企业高管所思、专业的法律服务。同时,也将推动律所法律服务的多元化发展,提升律所高新科技领域的竞争力和影响力。 随后,主谈人周沛华律师围绕《AI科技生活的未来展望与法律问题探讨》这一主题,进行了深入而精彩的分享。她从交通、医疗、教育等多个角度描绘AI为生活带来的变革与无限可能,同时深入剖析生成式人工智能训练阶段与应用中涉及的知识产权争议、数据来源合规、个人信息保护、公开数据不当抓取利用、责任归属等复杂法律问题。 活动结束,大家一起合影留念。至此,第63期开放日活动圆满结束。芙蓉开放日活动的举办,不仅为业界同仁提供了一个交流思想、碰撞智慧的宝贵平台,也充分展示了芙蓉律所在法律服务领域的专业素养和开放包容的企业文化。芙蓉律所将不断努力,助力更多优秀的律师在这里成长和发展,共同为法律事业的繁荣做出更大的贡献。 来源:指尖新闻 作者:戴晨曦 编辑:易赛楠 返回搜狐,查看更多 责任编辑:
你的生意 我的权益丨《今日说法》播出北京互联网法院全国首例AI生成声音人格权侵权案、AI陪伴案
AI情感助手

你的生意 我的权益丨《今日说法》播出北京互联网法院全国首例AI生成声音人格权侵权案、AI陪伴案

随着人工智能的高速发展,AI声音、AI图像、AI视频都开始涌现,相应的法律问题也相继产生。北京互联网法院党组成员、副院长赵瑞罡,审判委员会专职委员孙铭溪做客CCTV1《今日说法》,解读全国首例AI生成声音人格权侵权案、AI陪伴案。 全国首例 AI生成声音人格权侵权案 “未见其人 先闻其声”,这句俗语表明每个人的声音都具有一定的辨识性。而随着人工智能技术的快速发展,人工智能也可以编辑制造出某个人的声音。 殷女士是一名配音师,2023年5月份左右她发现,网络平台上出现了不少使用她的AI声音进行配音的视频。涉案AI声音为某某工坊的产品,用户输入想要配音的文字,该产品就能将文字转化成相应的声音。殷女士曾与一家文化传媒公司合作,录制了两部有声读物,该公司将录音制品提供给了某软件公司。某软件公司则以殷女士的录音作为素材进行了AI化处理,生成了一款文本转语音产品,通过经销商对外出售。最终,配音软件某某工坊所在的某科技公司采购了这款产品,在没有经过技术处理的情况下生成了一款文本转语音产品并在软件上出售。殷女士认为自己的声音权益受到了侵害,将录音制品转手他人的某文化传媒公司、运营某某工坊软件的某科技公司等共五家公司起诉到了北京互联网法院,要求停止侵权、赔礼道歉并赔偿60万元的经济损失。 自然人的声音是以声纹、音色频率为区分,具有独特性、唯一性、稳定性等特点。经过当庭勘验,法官认为AI声音和殷女士的音色、语调、发音风格等具有高度一致性,听到AI声音能够联系到这是殷女士的声音。涉案AI声音具有可识别性,应该受到法律保护。 声音作为一种人格权益,具有人身专属性,对殷女士录制的录音制品享有著作权不等于自动拥有了殷女士的声音权。被告某文化传媒公司在未经殷女士授权的情况下,对其声音进行AI化处理并利用属于侵权。 运营某某工坊产品的某科技公司称,其从一家经销商那里购买到涉案文字转语音产品,只是正常采购,支付了合理的对价,没有过多的审核义务。法院认为,其仅承担停止侵权的责任。在殷女士起诉之后,某科技公司下架了殷女士的AI声音,侵权的行为已经停止。 在这条侵权链条上,提供有声读物的某文化传媒公司和将殷女士声音进行AI化处理的某软件公司应对侵权结果负责,承担相应赔偿责任。最终,法院综合考量了侵权情节、同类市场产品价值、产品播放量等因素,判决某文化传媒公司、某科技公司向原告殷女士赔偿损失共计25万元。一审宣判后,双方当事人均未提起上诉。这起案件是全国首例AI生成声音人格权侵权案。 科技的发展会伴随产生一些法律问题,法官们希望通过这起案件引发大家的思考。作为自然人,需要注意保护自己的声音;对于涉及相关行业的企业来说,尤其要注意获得授权,否则容易引发系列诉讼。如今,一些有声读物音像制品开始使用AI声音配音,这降低了成本、带来了便利,然而便利的同时更要遵守法律底线。 AI陪伴案 电影花费80元,此时你的“偶像”会关切地问你和谁一起去看电影了,甚至显得有些吃醋;如果生病了,“偶像”还会说心疼,让你照顾好自己。这是一款手机记账软件,其特色功能为用户可以在里面自行创设、添加AI陪伴者,并与之聊天。这个陪伴者可以是虚拟人物,也可以是现实生活中的人物。软件也会自动推送一些知名度较高的公众人物用来吸引用户。 何某是一名公众人物,他发现自己被不少用户设置成为了虚拟陪伴者。在这款记账软件里选择一个AI陪伴者后,用户还可以随意设置彼此之间的关系、称谓等。用户在软件里进行记账之后,AI陪伴者会发送对应的评论、表情包等,以拟人化的方式进行回应,甚至嘘寒问暖。了解了这款软件的一些设置之后,何某觉得这款软件涉嫌侵权。运营这家记账软件的是上海某人工智能科技公司,何某的律师随后给这家公司发函沟通,但是这家公司认为他们没有侵权不承担责任。何某向北京互联网法院提起诉讼,要求对方赔礼道歉、赔偿经济损失 被告上海某人工智能科技公司称,其不应承担责任,因为何某的图片、表情包甚至个性化的回复文字都是其他用户上传和设定的,被告只是服务的提供者。在收到何某的律师函之后,被告及时在软件里删除了何某的相关内容,不应该再承担侵权责任。 被告介绍,如果有多个用户申请同一个AI陪伴者,那么系统会开放“调教”功能,用户进入调教页面输入希望得到的回复、表情包等,软件会记录并保存。比如,某用户存入了何某的图像表情包并对这个角色进行了调教,系统将这些内容录入相关的资料库,当下一位用户进行记账,系统接收到一定的关键词后,就会发出定制化的回复和表情包。如果一个AI陪伴者经过较多的调教,那么他回复用户的语言就可能会更加丰富。法官表示,能看到涉案AI陪伴者的回复比较贴近何某的真实人设。 因为软件中涉及一些技术问题,所以在庭审中法院邀请了专门的技术调查官参与。技术调查官围绕算法和推送功能详细询问了被告。了解清楚相关的技术问题后,法官认为,被告不仅仅是提供了技术服务那么简单。被告作出的产品规则设计和算法应用直接决定了这款产品的服务核心和功能实现,该软件更类似于提供了内容而并非简单的通道。所以,被告作为内容服务提供商应该承担侵权责任。 被告并未获得何某的许可,使用了何某的姓名、肖像,构成对何某姓名权、肖像权的侵害。此外,AI陪伴者还系统地使用了何某的整体形象,也侵犯了何某的一般人格权。最终,2021年8月,北京互联网法院判决被告上海某人工智能科技公司向原告何某公开赔礼道歉,赔偿经济损失18.3万元、精神损失2万元。这起案件入选了最高人民法院“民法典颁布后人格权司法保护典型民事案例”。 法官提示,虽然网络上的虚拟形象并不是真实的主体,但发布相关言论和使用其形象时,可能会涉及对他人人格尊严的贬损。尤其一些公众人物,其整体形象具有很大的商业价值,未经允许擅自使用很有可能涉嫌侵权。企业创新发展过程中要时刻注意法律的边界。网络用户利用新的技术去满足个人情感和文化需求的同时,也要充分尊重他人的人格权益。 编辑:任惠颖、刘宛月