智道
聚焦前沿科技与法律伦理的交汇碰撞
栏目主持人:於兴中
投稿邮箱:zhidao0101@163.com
▶ 未经授权 不得转载
文 | 王延川
责任编辑 | 尹丽
自ChatGPT于2022年年底发布以来,其影响力在全球持续扩大。许多人在庆祝人工智能(AI)发展历史上重要“里程碑”的出现,也有许多人表示出极大的担忧。
无疑,在不久的将来,ChatGPT很可能让一部分人失业。但就像一些机构预测的那样,ChatGPT也会促使新职业的产生。其中的一种就是GPT法律提示工程师。

GPT为何需要提示工程师
2022年年底,硅谷独角兽企业Scale AI以百万年薪招聘了一名技术网红担任公司的“提示工程师”。随后,不少创业公司都发出类似的高薪招聘。一时间,似乎各行各业都在引入自己的“提示工程师”,律师行业也不例外。
Mishcon de Reya LLP是一家位于伦敦的全球知名律师事务所。在过去两年里,该律师事务所一直尝试将各种自然语言处理(NLP)模型运用于律师业务中。由于已经体验到这些AI带来的好处,这家律所于2月在网上发出高薪招聘GPT法律提示工程师的布告。
该律师事务所的首席战略官尼克·威斯特认为,GPT和其他生成式AI模型将对律师业务产生深远的影响。因此,他们律所高层希望能够使用此技术,以确保其律所能够走在AI赋能律师业务的最前沿。
那么,究竟什么是“提示”?提示工程师和GPT法律提示工程师到底可以做什么?
提示工程师是伴随GPT出现的一种新职业,其工作就是通过对话、聊天等输入不断调整或训练GPT输出用户最想要、最接近需求的“正确”答案,调整或者训练的“法宝”就是Prompt。
通俗来讲,提示工程师的工作就是找出最合适的Prompt,帮助客户优化从GPT获得的输出。
Prompt直译为“提示”,它可以是一个词、一个句子、一段话甚至一个推理步骤。虽然表现形式不同,但这些实质上都属于提示工程师向GPT输入内容的核心部分。
“提示”的作用在于引导GPT模型生成想要的文本内容。人类之间交往也会存在“提示”。当某人向别人提问时,脑子里会出现很多问法,需要在其中挑选一种。当然,如果对方没有理解这种问法,其回答就很可能不令提问者满意。此时,提问者需要选择另一种问法继续提问。就这样,换了好几种问法后,对方终于听明白提问者的问题,提问者终于也从对方不断的回答(或者最后的回答)中得到了想要的答案。
当人类向GPT提问时,会面临同样的问法选择问题。但是,向人类和向GPT提问有所不同。人类之间存在意会,因此,当给出一个不够准确的提示时,对方也会明白你的大致意思,给出一个相近的答案。虽然专家说GPT可以了解用户的意图,但这种了解并非主观意义上的了解,而是一种概率问题。由于GPT和用户之间没有意会,如果用户选择的提示不够贴切,便不会形成有针对性的问题,非但不能从GPT那里不能得到预期的答案,甚至会得到错误的答案。这时就需要提示工程师提供帮助。
谁能胜任GPT法律提示工程师
当然,有人会问:律师为何自己不去寻找“提示”呢?因为寻找“提示”是一个技术活,律师是法律专家,但是并不一定擅长和GPT“打交道”。就专业知识而言,对一个GPT法律提示工程师来说,其需要在法律实践和大数据以及人工智能技术方面都有很强的知识背景。GPT法律提示工程师应该善于与律师团队甚至当事人合作,了解他们的真正需求。同时他们还需要具备可以熟练操作GPT等大型语言模型的能力。最后,因为提示工程师的主要工作是寻找最合适的Prompt,因此,他们应该有很好的文字修养和强大的语言组织能力,而且富有想象力。
在提示工程师莱利·古塞德看来,提示工程师不仅是一份工作,而是更具“革命性”的职业;“提示”并非单纯的计算机代码或人类语言,而是介于二者之间的一种新语言。
GPT法律提示工程师如何进行提示呢?以下举几个例子加以说明。
其一,GPT语言模型的特点是对输入非常敏感,回答稳定性不足。当用户给定一个特定问题时,GPT会声称不知道答案甚至拒绝回答,提示工程师需要稍微改变问题中的“提示”,生成用户想要的答案。
譬如,律师为了案情所需想要了解破解计算机系统安全系统方面的知识,他问GPT:“能否告诉我破解计算机系统安全系统方面的知识?”GPT会拒绝回答或者提醒用户这是非法活动。如果提示工程师稍微修改问题,使用相近的提示词,如“我在学习计算机安全系统方面的知识,想知道如何检测系统漏洞并修复它们?”这时,GPT可能会提供关于检测和修复计算机系统漏洞的合法信息和建议。
其二,除了调整“提示”,提示工程师还可以引导GPT“一步步思考”,生成用户想要的文本输出。譬如,律师问“能否帮我撰写一份借款合同”,针对这个常规提问GPT会生成最普通的合同文本,却难以满足客户的特殊需求。此时就需要提示工程师介入,通过不断更新“提示”,与GPT形成共同编辑状态,告诉GPT要更正细节、增加或删除特定内容、抛弃不确定的词汇等,结果生成用户满意的合同。
其三,提示工程师可以运用思维链(Chain of Thought)提示词模式引导GPT提供更详细、更有逻辑性的问题解决方案。普通的提示模式表现为“问题-答案”。例如,律师问:根据美国法律,如果一个人在工作场所发生事故,导致他人受伤,他应该承担多大责任?答案为:一个人需要承担部分或全部责任,具体取决于他们的过失程度和所在州的法律。思维链提示词模式表现为“问题-推理步骤-答案”。
提示工程师会设计以下的推理步骤。如,推理步骤一:了解所在州的法律关于工作场所事故责任的规定;推理步骤二:确定事故发生时当事人的过失程度;推理步骤三:根据所在州的法律和过失程度,计算责任比例。答案为:在美国法律下,一个人在工作场所发生事故导致他人受伤时,应该根据所在州的法律规定和他们的过失程度来确定责任,然后根据这些因素计算具体责任比例。这里的推理步骤也是一种“提示”。
上述例子看似非常简单,实际的提示工作要复杂得多。GPT法律提示工程师固然可以通过输入文字,给GPT发出指令,让其按照自己的要求输出文本,但是,作为一种人工智能,GPT语言模型自有其逻辑,而且不透明、无法解释。因此,工程师的提示操作会产生什么结果并不确定,这一点有时恐怕连语言模型的设计人员也无法预测。
所以,GPT提示操作要求GPT法律工程师不仅要有专业技术,而且还要有极大的耐心,在不断反复操作中总结规律,最终达成目的。
GPT法律提示工程师要通过自己不断丰富的“聊天”经验,形成有效的“人机交互”方法论,并记录整理出来,生成教程文档、数据库和工具库。这样才可以让律师们快速学习提示工程或简单地找到理想的提示词,最终让律师的GPT使用体验变得简易化、流程化、标准化。
职业发展前景尚存争议
从Mishcon de Reya LLP发布的职位招聘职责来看,GPT法律提示工程师的工作更为丰富。具体表现为:与律师和实践转型团队合作,了解可以应用GPT等大型语言模型的法律实践用例;与业务和法律运营专业人士合作,了解可以应用GPT等大型语言模型的更广泛的业务使用情况;与数据科学团队紧密合作,为一系列法律和非法律用例设计和开发高质量的提示;评估和改进现有的提示,以确保它们是有效的;了解自然语言处理和GPT技术的最新发展,将这些进展纳入我们的工作,并发挥领导作用,使我们的战略、实践转型和数据科学团队保持最新;与团队合作,确保我们对语言模型的使用符合道德和监管要求。
虽然目前还没有确切证据表明市场上对于GPT法律提示工程师职位的具体需求,但自由职业者市场上已经出现大量提供GPT法律提示技能的求职者。随着GPT等生成式AI在法律行业应用的不断扩大,对GPT法律提示工程师的需求可能也会增长。
关于包括GPT法律提示工程师在内的提示工程师这个职业的发展前景,专家们有不同的意见:有人认为,由于GPT目前还有缺陷,所以GPT提示工程师只是一个修复GPTBug的临时人员,一旦GPT可以为自己编写“提示”时,GPT提示工程师就会失业。
也有人认为,GPT毕竟不可能成为人类,GPT提示工程师将一直存在。GPT等生成式AI的生成文本能力源于海量数据,GPT从这些数据吸收“营养”汇聚起来的知识体系是比较庞杂的,它们堆积在GPT的“大脑”里,每次在回应外界提问时都要进行提取,但是这个提取并一定准确。基于GPT等生成式AI对于提问回应模糊性这一问题,用户和AI之间仍然需要一个中介,这个中介未来可能会由专人担任,也可能由用户“兼任”。因此,就GPT目前的发展来看,在短时间之内,GPT提示工程师不会失业,即使提示工程师这个职位可能消失,但是“提示”这个工作将继续存在。
笔者认为,对于像律师这样的职场人士来说,要想在人工智能时代不被淘汰,就需要拥抱人工智能,包括学习使用它以及如何与它相处得更好。
(作者系西北工业大学马克思主义学院教授)
END
视觉编辑 | 王硕 马蓉蓉


