文章主题:人工智能, GPT, 提示工程师, 自然语言处理
智道
聚焦前沿科技与法律伦理的交汇碰撞
栏目主持人:於兴中
投稿邮箱:zhidao0101@163.com
▶ 未经授权 不得转载
文 | 王延川
责任编辑 | 尹丽
自2022年年末ChatGPT的问世以来,其在全球范围内的影响力不断攀升。一方面,人们纷纷欢呼人工智能发展的重大“里程碑”,另一方面,也有一部分人表达了强烈的担忧。
在未来一段时间内,ChatGPT的出现将给部分行业带来冲击,导致一些人失业。然而,正如某些机构所预测的,ChatGPT也将催生新的职业领域。其中,GPT法律提示工程师便是一个典型的例子。
GPT为何需要提示工程师
在2022年的年底,硅谷一家名为Scale AI的独角兽企业以高额年薪百万美元聘请了一位技术网红作为公司的“提示工程师”。这一消息发布后,引发了一场热潮,众多创业公司纷纷效仿,也开始推出类似的 high-salary job offer 招聘“提示工程师”。在这股潮流的影响下,连法律行业也未能幸免,开始流行起“提示工程师”这一职位。
Mishcon de Reya LLP,一家总部位于伦敦的国际知名律师事务所,近年来一直在积极探索将先进的人工智能技术,尤其是自然语言处理(NLP)模型,融入到律师行业中。经过实际应用,他们已经充分感受到了这些技术带来的显著优势。因此,该律所于今年二月在官方网站上发布了招聘GPT法律提示工程师的高薪职位广告。
一项由该律师事务所首席战略官尼克·威斯特提出的观点指出,GPT及其他生成式AI模型将给律师行业带来重大变革。因此,该律所期望能借助这一技术,确保其在AI驱动律师业务的发展中保持领先地位。
那么,究竟什么是“提示”?提示工程师和GPT法律提示工程师到底可以做什么?
在人工智能领域中,工程师们正在迎接一种全新的职业挑战,那就是与GPT共同合作。这种职业的主要任务是通过对话和交流等方式,不断优化和调整GPT的输出结果,使其能够更好地满足用户的需求。在这个过程中,调整和训练GPT的关键工具就是Prompt。因此,工程师们在与GPT的合作中,不仅需要掌握专业的技术知识,还需要具备出色的沟通和协调能力,以便更好地利用Prompt这个强大的工具,提升GPT的性能和效率。
通俗来讲,提示工程师的工作就是找出最合适的Prompt,帮助客户优化从GPT获得的输出。
Prompt直译为“提示”,它可以是一个词、一个句子、一段话甚至一个推理步骤。虽然表现形式不同,但这些实质上都属于提示工程师向GPT输入内容的核心部分。
“提示”的作用在于引导GPT模型生成想要的文本内容。人类之间交往也会存在“提示”。当某人向别人提问时,脑子里会出现很多问法,需要在其中挑选一种。当然,如果对方没有理解这种问法,其回答就很可能不令提问者满意。此时,提问者需要选择另一种问法继续提问。就这样,换了好几种问法后,对方终于听明白提问者的问题,提问者终于也从对方不断的回答(或者最后的回答)中得到了想要的答案。
当人类向GPT提问时,会面临同样的问法选择问题。但是,向人类和向GPT提问有所不同。人类之间存在意会,因此,当给出一个不够准确的提示时,对方也会明白你的大致意思,给出一个相近的答案。虽然专家说GPT可以了解用户的意图,但这种了解并非主观意义上的了解,而是一种概率问题。由于GPT和用户之间没有意会,如果用户选择的提示不够贴切,便不会形成有针对性的问题,非但不能从GPT那里不能得到预期的答案,甚至会得到错误的答案。这时就需要提示工程师提供帮助。
谁能胜任GPT法律提示工程师
当然,有人会问:律师为何自己不去寻找“提示”呢?因为寻找“提示”是一个技术活,律师是法律专家,但是并不一定擅长和GPT“打交道”。就专业知识而言,对一个GPT法律提示工程师来说,其需要在法律实践和大数据以及人工智能技术方面都有很强的知识背景。GPT法律提示工程师应该善于与律师团队甚至当事人合作,了解他们的真正需求。同时他们还需要具备可以熟练操作GPT等大型语言模型的能力。最后,因为提示工程师的主要工作是寻找最合适的Prompt,因此,他们应该有很好的文字修养和强大的语言组织能力,而且富有想象力。
在提示工程师莱利·古塞德看来,提示工程师不仅是一份工作,而是更具“革命性”的职业;“提示”并非单纯的计算机代码或人类语言,而是介于二者之间的一种新语言。
GPT法律提示工程师如何进行提示呢?以下举几个例子加以说明。
其一,GPT语言模型的特点是对输入非常敏感,回答稳定性不足。当用户给定一个特定问题时,GPT会声称不知道答案甚至拒绝回答,提示工程师需要稍微改变问题中的“提示”,生成用户想要的答案。
譬如,律师为了案情所需想要了解破解计算机系统安全系统方面的知识,他问GPT:“能否告诉我破解计算机系统安全系统方面的知识?”GPT会拒绝回答或者提醒用户这是非法活动。如果提示工程师稍微修改问题,使用相近的提示词,如“我在学习计算机安全系统方面的知识,想知道如何检测系统漏洞并修复它们?”这时,GPT可能会提供关于检测和修复计算机系统漏洞的合法信息和建议。
其二,除了调整“提示”,提示工程师还可以引导GPT“一步步思考”,生成用户想要的文本输出。譬如,律师问“能否帮我撰写一份借款合同”,针对这个常规提问GPT会生成最普通的合同文本,却难以满足客户的特殊需求。此时就需要提示工程师介入,通过不断更新“提示”,与GPT形成共同编辑状态,告诉GPT要更正细节、增加或删除特定内容、抛弃不确定的词汇等,结果生成用户满意的合同。
其三,提示工程师可以运用思维链(Chain of Thought)提示词模式引导GPT提供更详细、更有逻辑性的问题解决方案。普通的提示模式表现为“问题-答案”。例如,律师问:根据美国法律,如果一个人在工作场所发生事故,导致他人受伤,他应该承担多大责任?答案为:一个人需要承担部分或全部责任,具体取决于他们的过失程度和所在州的法律。思维链提示词模式表现为“问题-推理步骤-答案”。
提示工程师会设计以下的推理步骤。如,推理步骤一:了解所在州的法律关于工作场所事故责任的规定;推理步骤二:确定事故发生时当事人的过失程度;推理步骤三:根据所在州的法律和过失程度,计算责任比例。答案为:在美国法律下,一个人在工作场所发生事故导致他人受伤时,应该根据所在州的法律规定和他们的过失程度来确定责任,然后根据这些因素计算具体责任比例。这里的推理步骤也是一种“提示”。
上述例子看似非常简单,实际的提示工作要复杂得多。GPT法律提示工程师固然可以通过输入文字,给GPT发出指令,让其按照自己的要求输出文本,但是,作为一种人工智能,GPT语言模型自有其逻辑,而且不透明、无法解释。因此,工程师的提示操作会产生什么结果并不确定,这一点有时恐怕连语言模型的设计人员也无法预测。
所以,GPT提示操作要求GPT法律工程师不仅要有专业技术,而且还要有极大的耐心,在不断反复操作中总结规律,最终达成目的。
GPT法律提示工程师要通过自己不断丰富的“聊天”经验,形成有效的“人机交互”方法论,并记录整理出来,生成教程文档、数据库和工具库。这样才可以让律师们快速学习提示工程或简单地找到理想的提示词,最终让律师的GPT使用体验变得简易化、流程化、标准化。
职业发展前景尚存争议
从Mishcon de Reya LLP发布的职位招聘职责来看,GPT法律提示工程师的工作更为丰富。具体表现为:与律师和实践转型团队合作,了解可以应用GPT等大型语言模型的法律实践用例;与业务和法律运营专业人士合作,了解可以应用GPT等大型语言模型的更广泛的业务使用情况;与数据科学团队紧密合作,为一系列法律和非法律用例设计和开发高质量的提示;评估和改进现有的提示,以确保它们是有效的;了解自然语言处理和GPT技术的最新发展,将这些进展纳入我们的工作,并发挥领导作用,使我们的战略、实践转型和数据科学团队保持最新;与团队合作,确保我们对语言模型的使用符合道德和监管要求。
虽然目前还没有确切证据表明市场上对于GPT法律提示工程师职位的具体需求,但自由职业者市场上已经出现大量提供GPT法律提示技能的求职者。随着GPT等生成式AI在法律行业应用的不断扩大,对GPT法律提示工程师的需求可能也会增长。
关于包括GPT法律提示工程师在内的提示工程师这个职业的发展前景,专家们有不同的意见:有人认为,由于GPT目前还有缺陷,所以GPT提示工程师只是一个修复GPTBug的临时人员,一旦GPT可以为自己编写“提示”时,GPT提示工程师就会失业。
也有人认为,GPT毕竟不可能成为人类,GPT提示工程师将一直存在。GPT等生成式AI的生成文本能力源于海量数据,GPT从这些数据吸收“营养”汇聚起来的知识体系是比较庞杂的,它们堆积在GPT的“大脑”里,每次在回应外界提问时都要进行提取,但是这个提取并一定准确。基于GPT等生成式AI对于提问回应模糊性这一问题,用户和AI之间仍然需要一个中介,这个中介未来可能会由专人担任,也可能由用户“兼任”。因此,就GPT目前的发展来看,在短时间之内,GPT提示工程师不会失业,即使提示工程师这个职位可能消失,但是“提示”这个工作将继续存在。
笔者认为,对于像律师这样的职场人士来说,要想在人工智能时代不被淘汰,就需要拥抱人工智能,包括学习使用它以及如何与它相处得更好。
(作者系西北工业大学马克思主义学院教授)
END
视觉编辑 | 王硕 马蓉蓉
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!