·伦敦证券交易所全球战略客户技术总监诸赞松在接受澎湃科技采访时表示,金融领域大模型的构建方式比较特别,由于对数据安全的要求很高,现在普遍要求模型私有部署,即在加密环境中使用私有数据训练模型。

·微软(中国)金融行业总经理沈菲称,微软承诺不会使用客户的任何数据来训练和改进语言模型,客户的所有数据都会存放在只有客户可见和可用的环境中,没有任何第三方,包括OpenAI本身,能够获取这些数据。

今年,以ChatGPT为代表的生成式人工智能突然崛起,也开始迅速波及整个金融行业。伦敦证券交易所集团全球战略客户技术总监诸赞松近日在接受澎湃科技(www.thepaper.cn)采访时表示,金融领域大模型的构建方式比较特别,由于对数据安全的要求很高,现在普遍要求模型私有部署,即在加密环境中使用私有数据训练模型。“数据是私有化,模型也是私有化,通过私有化来控制相关数据和模型的安全风险。”

7月4日,伦敦证券交易所集团(LSEG)2023市场展望夏季论坛在上海中心举办。在主题为“金融 GPT: 构建、赋能和规范”的圆桌讨论环节中,3位来自金融机构、企业等领域的行业人士,就人工智能与金融行业的最新趋势和发展方向进行探讨。

金融大模型的构建与挑战:要求私有部署,安全合规是关键

7月4日,伦敦证券交易所集团(LSEG)2023市场展望夏季论坛在上海中心举办。

未来多模态会在金融领域发挥重要作用

金融GPT即面向金融行业的大语言模型,是金融行业与人工智能相结合的重要实践,是一个全新的产业领域。微软(中国)有限公司金融行业总经理沈菲在讨论中介绍,金融行业本身有丰富的结构化数据,多样的场景,适合做生成式人工智能或泛人工智能领域的应用。诸赞松也认为,大模型在金融领域有许多应用场景,例如投资研究、风险管理、智能客服。

关于大模型技术如何在金融行业落地,诸赞松表示,“从技术角度展望,通用模型与垂直领域模型将会是百花齐放的局面。”“能提供通用大模型的厂商不会太多,而大厂在算力和数据方面有一定的先发优势,但这并不是说其他提供垂直领域大模型的厂商没有机会,反而垂直领域大模型未来将是一片蓝海,他们会利用大模型提供的超级智能,结合各行业的领域数据,通过模型微调等方式深耕行业领域模型,有效解决行业中的业务痛点。在金融行业的体现是私域化模型。”

诸赞松在采访中表示,金融行业一般不会使用云计算,由于涉密程度较高,一般也不会选择让数据流通起来。

在会上,浦发银行创新实验室副处长李旭佳也表示,银行通常倾向于私有化部署模型,这就导致对大模型进行重复投入,涉及投入产出的会计核算问题。她表示,银行可以根据自己的业务需求,对开源模型进行微调和优化,“每个银行都在适用市面上的开源模型,包括国内学术界和大厂开发的模型。”

除技术创新以外,制度创新也十分重要。“一个新技术应用能够落地并且大规模推广,与制度创新是不可分割的。”李旭佳表示,“AI技术想要在一家金融行业大规模落地,需要遵循‘10、20、70法则’,10%指AI和区块链新技术的突破带来变革的想象力,20%指在传统企业里包括金融、IT团队、云迁移等工程化能力的配套等,剩下70%是指这家公司或者银行组织业务流程的转型、人才的储备和变迁等一系列制度治理的能力。”

此外,诸赞松认为,未来多模态也会在金融领域发挥重要作用。目前,整个人工智能的流程分为感知、决策、执行三部分,而ChatGPT集中于决策部分,执行部分现在只有文本。“将来我们希望在感知部分加入语音、图像、声音,让模型可以处理更加复杂的金融问题。”诸赞松说,“例如,将来给大模型输入一个K线图,大模型可能就会产生一些相关的投资建议,或者在大模型中输入客户投资理财的偏好,模型就会根据相应产品产生理财方面的推荐视频,这是未来我们可以期望实现的一些场景。”

“安全可控是重中之重”

金融行业是受到强监管的行业,随着大模型的发展,数据的合规性和安全性成为亟待解决的问题。前段时间,OpenAI被指控训练ChatGPT时使用从互联网上抓取的数据,大规模侵犯了无数人的版权和隐私。微软的沈菲强调,“大模型的安全可控是重中之重。微软一直在全球政府、行业间积极奔走和投入,尤其是大模型的规范和全球监管。”

在数据合规方面,沈菲介绍,微软有几项重要举措。第一,微软承诺不会使用客户的任何数据来训练和改进语言模型。第二,客户的所有数据都会存放在只有客户可见和可用的环境中,没有任何第三方,包括OpenAI本身,能够获取这些数据。第三,微软会对客户的数据进行加密,并支持企业使用自己的密钥,同时会设置基于权限和职能的访问控制。第四,在服务等级协议(SLA)方面,OpenAI实际上是微软PaaS(平台即服务)的一项服务,所以微软承诺它享有与微软其他服务相同的SLA标准。

在安全方面,为防止服务被滥用或者生成有害的内容,微软额外构建了一套内容管理系统,它会与语言模型协同工作,并使用特定算法检测和监控可能发生的服务滥用或有害内容生成情况,以确保整体模型符合人类社会价值观。

李旭佳表示,在金融行业,新技术的应用需要遵循一定的规范和边界。制度方面,浦发银行内部制定了“三禁止两鼓励”的原则,如“数据不能出境、数据不能出行”等,两鼓励指,在不碰客户数据、不碰内部规则制度的情况下可以去尝试。

技术层面,目前大模型构建面临的难点是输出结果不够准确,容易产生歧义。诸赞松在采访中表示,解决这一问题的常见方法是通过对模型进行领域知识的微调,利用更加精确的数据来纠正模型的偏差,也就是构建垂直领域模型。他认为不必过分担心GPT模型产生“幻觉”并胡言乱语的问题,因为最终的决策权在人类手中,人可以判断模型输出正确与否,并选择是否采纳。

“为员工创造价值同等重要”

“我们会先尝试在对内的员工赋能方面应用大模型,而对客户的服务我们会更加谨慎,因为大模型的可解释性还不够强,还需要更多的验证和测试。”李旭佳说,“为员工创造价值同等重要。”

李旭佳认为,AI或者RPA(流程自动化)可以被统一视为智能客服或风险审核岗的数字员工。伦敦证券交易所集团数据和分析业务战略客户业务总监傅罗莎也认为,与专业交易员、决策者相比,AI大模型有突出的低延时特点。“这可以很好地帮助金融机构控制风险,然后对市场做一个比较好的预判,包括可以帮助交易员去提升一些生产力和判断力。”

李旭佳建议,对员工赋能的大模型可以制定短中长期的场景规划,短期内可以实现行内制度文本的问答和对话,帮助员工掌握相关知识,提高沟通效率。中长期内可以探索多模态领域,如图文、视频生成等,增加员工的创新能力和表达能力。

诸赞松在采访中表示,金融领域大模型的应用会代替一些岗位。“一些涉及人工操作比较多的岗位,比如接打电话、手工录入等职位都能够通过自动化的方式来解决。但与此同时也会诞生一些新的岗位。”李旭佳也指出,“在我们内部,我们客服中心的同事可以转岗到人工智能的训练师,还可以变成营销岗位的专家同事,他们甚至可以考基金从业或者销售资格岗位的证书提升自己的专业技能,不仅他自己可以获得更高的技能,而且也为客户服务赋能。”

金融大模型的构建与挑战:要求私有部署,安全合规是关键