金融领域也掀起了人工智能的热潮,彭博社推出了专为金融界打造的大型语言模型(LLM)——BloombergGPT。
彭博社是一家主要从事金融数据的公司,旗下数据分析师在公司四十年的历史中积累了大量的金融文件,涵盖了多个主题,形成了广泛的金融数据档案。我们将这些数据整合到公共数据集中,创建了一个超过7000亿个标签的大型训练语料库。
根据彭博社最新发布的报告,BloombergGPT是迄今为止最大的特定领域数据集,并训练了专门用于金融领域的LLM,该模型参数达到500亿,表现远超现有模型,同时在通用场景上也表现出色。该模型依托彭博社的大量金融数据源,构建了一个3630亿个标签的数据集,支持金融行业内的各类任务。
通常来说,NLP领域的模型参数量和复杂程度成正相关,GPT-3.5模型的参数量为2000亿,GPT-3的参数量为1750亿。
实验结果表明,彭博社的混合训练方法极大地提升了模型在金融任务上的表现,而在通用场景下,模型的表现相当甚至优于现有模型。
比如,报告指出,在金融领域中的自然语言处理在通用模型中也很常见,但是,针对金融领域,这些任务执行时将面临挑战:
以情感分析为例,一个题为“某公司将裁员1万人”,在一般意义上表达了负面情感,但在金融情感方面,它有时可能被认为是积极的,因为它可能导致公司的股价或投资者信心增加
彭博社的结果已经通过论文发表,如下图。
有意思的是单从第一作者名字来判断,应该是华人学者(当然严谨的说,需要仔细考证)。结合之前报道关于openAI chatGPT团队众多华人参与者,可以看出华人的聪明才智,在大模型时代依然有所担当。