文章主题:人工智能, 法律监管, 潜在风险
来源:工人日报
人工智能技术在不断更新迭代,对应用领域的新风险需更重视。受访专家表示,人工智能的健康发展离不开技术和法律的合力,需要针对不同风险等级采取不同的监管措施。
🚀警惕!AI黑科技滥用:生成文本、假视频舞弊,诱导流量陷阱;人脸与声音变换的“魔力”背后,电信诈骗步步紧逼。🔍人工智能的发展,虽革新了世界,却也暴露出潜在的阴霾。我们必须正视这些负面影响,防范技术失控带来的风险,确保智慧之路的光明与安全。🛡️
原文改写:在全国两会期间,众多代表与委员聚焦于人工智能的【】与【】议题,他们从技术法规多维度提出推动AI行业稳健前行的策略与倡议。🌟💡原内容:某知名科技公司也在大会上发布了最新的人工智能产品,并表示将通过技术创新和合规运营,为用户提供更安全、便捷的服务。🌟改写后:在两会期间,该知名企业分享了其人工智能领域的创新成果——一款全新产品,承诺将以【】与【】并举的方式,确保用户体验的安全与高效。💡🚀原内容:如有需要,欢迎联系我们的专家团队获取更多详情,电话:1234567890,邮箱:example@email.com。📝改写后:对于更深入的信息,您可以探索我们的AI专业知识,只需点击下方链接或扫描二维码,我们随时准备为您提供专业解答。🔗🔍
在AI飞速演进的时代,如何精确地为这股力量套上法律的“笼头”成为了热议话题。专业人士强调,人工智能的可持续繁荣需要科技与法规的协同作用,主张构建一个健全的人工智能法律法规框架,针对其发展过程中的不同风险级别,实施定制化的监管策略。
技术应用门槛降低带来新风险
去年以来,多地警方已对公众发出警告,警惕不法分子利用AI驱动的换脸、换声技术实施新型电信诈骗。在内蒙古包头市警方的一起案例中,犯罪团伙巧妙地借助AI的伪装,冒充一位企业家的熟人,通过微信视频拨通电话,借口需要使用其公司账户进行临时的资金操作。这种高科技手段下的骗局,让人防不胜防。防范此类诈骗,务必保持警惕,切勿轻易透露个人信息。
👀確認過視頻中的「老友」模樣與聲音後,這位企業家毫不猶豫地將錢款轉賬了過去。然而,當他試圖聯繫那位「親密」的對象時,卻驚愕地發現一切只是精心策劃的虛假陷阱。👀警惕心瞬間升級,這起詐騙事件讓人不得不防。 若要避免類似情況,保持警覺是關鍵,勿輕易相信視頻中的表象,核实信息始終重要。💪
🎉🚀人工智能的飞速发展已经从理念转变为实际行动,然而这背后却引发了一系列亟待解决的法律与伦理挑战。算法偏见和信息茧房等问题如同暗流,悄然浮现。💼🔍全国工商联副主席、网络安全领军者齐向东先生明确指出,生成式AI的强大能力,使得诈骗手段升级到了前所未有的高度——自动化钓鱼邮件和恶意软件编写,AI欺诈事件层出不穷,构成了对信任网络的严重威胁。🛡️💻我们必须正视并应对这些挑战,以确保科技的进步真正造福社会。
360集团创始人周鸿祎将人工智能技术引发的安全风险分为技术安全、内容安全和人类安全。其中,内容安全是对大模型的控制、滥用、误用和恶意应用等。
AI为何能给不法分子可乘之机?北京科技大学自动化学院教授、北京人工智能学会理事曾慧在接受记者采访时指出,AI正深度“潜入”人们的工作和生活,由于算法是开源的,制作AI工具的技术门槛降低了,“相较以前,获取和使用AI工具也变得更加简单了”。
记者搜索发现,在一些平台,输入图片就可以轻松“换脸”,无须花费太多也可以自行训练和制定声音,男声甚至可以变为女声。商家称,远程安装10分钟即可直接点开使用。
“就目前来看,AI生成的‘真实’并非毫无破绽。一些高度‘伪装’的内容对设备和技术则有更高要求。”曾慧指出。
多位受访者表示,人工智能还在不断更新迭代,对应用领域的新风险需更重视。
AI应用有法可依但并不完善
“按照相关规划,我们还处于建立人工智能法律法规体系的初步阶段,应该说,AI的应用并非无法可依,但还远不够完善。”北京志霖律师事务所合伙人谢阳律师在接受记者采访时指出。
2017年,国务院印发《新一代人工智能发展规划》(以下简称《规划》),其中提出,“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险”。《规划》提出,到2030年建成更加完善的人工智能法律法规、伦理规范和政策体系。
推动人工智能健康发展和规范应用的政策陆续铺开。全国两会前,《生成式人工智能服务安全基本要求》发布,从语料安全、模型安全等多个维度规定了生成式人工智能服务在安全方面的基本要求。《生成式人工智能服务管理暂行办法》则在2023年8月15日起施行,其中提到,提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。
谢阳介绍,根据《网络信息内容生态治理规定》,网络信息内容生产者应当遵守法律法规,“其责任和义务散见于网络安全法、数据安全法、消费者权益保护法、个人信息保护法、侵权责任法、未成年人保护法等法律法规中。”
金杜律师事务所高级合伙人张毅律师指出,目前已出台的算法管理规定仍有不足,例如,未对服务“提供者”等概念进行明确划分;尚未设立统一的算法监管机构,对综合型算法监管易产生监管竞合,对新型算法监管易出现监管真空;生成式人工智能技术迭代快、应用多样,也带来了更多新挑战。
多位受访专家表示,算法侵害还面临着“维权难”的困境,存在“取证难”“举证难”“认定难”“追责难”等问题。“在实践中,将侵害结果追溯到具体的行为主体也还面临着障碍。”谢阳指出。
AI健康发展离不开技术与法律合力
人工智能是引领未来的战略性技术,如何最大限度发挥出向上向善的力量,对人们生活和社会发展很重要。受访专家认为,在人工智能的健康发展过程中,离不开技术和法律的合力。
“应借助AI能力,加速网络安全技术创新、安全防护体系创新。”齐向东认为,应鼓励各个行业的龙头公司和网络安全公司合作,把AI安全技术融入数字化场景当中,进行有效的安全防护。
周鸿祎建议,制定保障通用大模型安全的标准体系,推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。
张毅认为,应尽快推进人工智能法的制定和出台,以人工智能法及配套的监管工具为核心,形成完整的人工智能技术法律体系。同时,参考其他成熟的监管思路,将人工智能和算法技术按风险等级进行划分,并针对不同等级采取不同的监管措施。
“任何规范的最终落脚点是能追责,追责的前提之一是要留痕。”谢阳认为,应进一步完善制度供给,可以通过法律法规来施行强制的行业标准,以做到留痕,事前预防、事中规制、事后救济等问题可迎刃而解。“可以采用试点模式,提前试点相关的监管措施,待时机成熟时再予以推广适用。”他建议。
“应拓展算法侵害行为的维权路径与责任模式,增强用户的维权力量。”张毅建议,在算法侵权的诉讼中采取“过错推定”归责原则,实行“举证责任倒置”。用户仅承担受到算法损害的责任,由算法服务商对算法和损害之间无因果关系以及无过错承担举证责任,“应增强源头治理,形成责任闭环”。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!