近日,中北大学学生团队成功开发了国内首款多角色AI心理疗愈大模型以及AI心理情感服务平台,旨在更有效地解决高校学生的心理健康问题。通过算法识别、筛选、分析出社交媒体上的疑似自杀风险信息,发现高风险有自杀倾向的人群后组织人力实施救援,尽可能找到其亲朋好友,预警并采取相应救援行动……日渐成熟的AI技术在心理方面的应用逐渐深入。近年来,AI技术赋能心理服务已不新鲜,AI心理医生正好补齐当前精神与心理健康服务的一些短板,其发展前景应该被看好。
截至2021年底,我国登记在册的重性精神障碍患者有660万人,心理处于亚健康状态的人更是不在少数。相比之下,我国精神科医生仅有6.4万人。精神与心理专业医生奇缺,导致很多患者只能苦熬硬撑。但AI心理医生不知疲倦且可以量产,进而可以填空补缺,让更多患者及时获得相应诊疗。目前一些AI心理医生已发挥出了巨大作用,比如“北小六”AI心理服务机器人至今已在医院场景服务约1万人次,AI帮助“优质心理治疗人人可得”逐渐成为现实。
AI心理医生具有不少独特优势。比如智能产品可把心理评估和干预的程序熟记在内,做到评估过程规范,结论十分精准。为患者制定心理干预程序,以及实施科普宣教等,智能产品也能做到高度标准化。智能产品还是能力超强的“学霸”,可以阅读大量相关病例,并做到过目不忘。AI心理医生按照设定的程序行事,且脾性好、不使性子,不会因情绪波动导致医患关系紧张。
不过,也要看到,AI心理医生的弊端也十分突出。尤其是,机器人虽然讲规则,按程序行事,能坚守冰冷的原则性,是“铁面无私”的好楷模,却缺乏随机应变的灵活性,对人类的情感与情绪难以理解和把控,更无法开展感性互动。精神与心理疾病多涉及情感与情绪,心理咨询需要感性交流,医生善解人意才能做好这项工作。人工智能产品理性有余、感性缺失,无法提供“带温度”的服务。
更重要的是,人工智能技术也有被滥用的风险。目前一些语音智能产品辱骂用户或带有性别歧视等恶习,说明AI心理医生深度学习的数据质量也要引起高度重视。假如有人给某种AI心理医生产品喂“有毒的数据”,该产品完全可能“学坏”,甚至出现教唆自杀等极端行为。现在已有医疗机构开展AI医生与真人医生的一致性评测,这种评测对提升智能产品的质量大有好处。但除了质量要更有保障,更应该采取措施,避免AI心理医生沾染恶习、沦为工具。
医疗类人工智能产品既关乎健康与生命,又涉及个人敏感隐私,且人工智能的存储与记忆功能均很强大。AI心理医生所掌握的诊疗信息一旦管理和使用不当,就会对患者产生很大的杀伤力。因此,这种工具在获取健康数据方面有哪些权限,以及数据的运用、储存、销毁等有哪些规定,都亟待明确。
AI心理医生的能耐再大,也只能作为人类的助手,不能过度依赖,或任由其单独诊疗。兵法上讲,“不尽知用兵之害者,则不能尽知用兵之利”。对AI心理医生也应该如此,只有“尽知其害”,并对质量标准、伦理规范、行为准则、监管方式等加以明确,才能在“尽用其利”的同时,规避可能出现的风险,守住智能产品的安全底线,确保AI心理医生等智能产品平稳行驶在发展的快车道上,造福于社会但不给社会添乱。
文l罗志华