咨询热线:0756-8812662
专业文章丨ChatGPT火出圈?是否能够取代律师? 更新日期: 2023-02-27 浏览:464


本文作者:张佩

最近,ChatGPT火出圈了。它不仅可以写诗、写歌、写代码、扮演"推销员"为潜在客户推销产品,还能为学生写课程论文,甚至通过了谷歌的技术面试,拿下18万美金年薪的offer。甚至于,哥伦比亚的一名法官还承认自己在判决书中引用了ChatGPT的答案,形成了判决的论点基础。这让AI会不会取代人类部分工作这个古老的话题再次热了起来,也有一些文章在讨论ChatGPT有没有可能代替法官、律师,或者律师助理。作为一名律师,秉承没有调查就没有发言权的原则,本人决定体验一番,看看ChatGPT与以往的AI有什么根本不同,是否能够取代律师。


ChatGPT是什么?

本文对于ChatGPT 的介绍,选自它本身的回答。

答:我是一个由 OpenAI 训练的大型语言模型,名为 ChatGPT。我能够回答各种问题,提供信息和帮助,并且可以进行对话。最初的版本是在2018年发布,在之后的几个版本中不断优化和扩展,增加了更多的训练数据和模型参数,提高了性能和效果。我的知识截止到 2021 年,并且我在不断学习和改进。

我使用大量的未标记数据进行预训练,并使用一定量的人工标记数据进行微调。在语言模型训练中,我需要大量的语料数据,这些语料数据来自网络上的文章、新闻、书籍、社交媒体等。训练数据是通过一定的预处理技巧整理出来的,其中包括删除噪声、去除重复、提取特征等。

训练过程需要一定的人工介入。首先,需要确定训练模型的架构和参数,以及训练的目标和评估指标。然后,训练数据要经过预处理和整理,将其分为训练集、验证集和测试集。最后,进行训练,不断调整模型参数以提高评估指标。

训练过程需要大量的计算资源,例如GPU和TPU,以及大量的时间。需要训练的语料数据也非常庞大,数据的质量和多样性也直接影响模型的质量。因此,我的训练是一个非常复杂的过程,需要高水平的技术支持。

附一首ChatGPT模仿李白的自我介绍诗。


我们从以上自我介绍中可以看出,ChatGPT作为一个通用对话型人工智能,是一个大型语言模型,它的知识来自于训练者所提供的数据集,这些数据集一般包括新闻文章、网页、书籍、论文等,经过某种方式的训练,最终凝聚成知识库,使其具备了语言输出的能力。在训练开始阶段,它进行的主要是无标注的学习,就是说投喂给他训练的数据集不需要进行人工语法标注、道德倾向标注、倾向性标注等等,只要人把收集到的文本资料给他即可。它将在这个阶段学习人类语言的语法,并积累知识库,在初步成型以后,人工可以介入它的训练,即人类对数据集进行人工标注,标注文本的特殊语法、事实准确性、道德或法律问题等,它会使用这些语料继续训练,从而提高精度、修正偏见、屏蔽错误信息和纠正道德倾向,避免提供违反道德或法律的回答。

以上是关于ChatGPT是什么的梳理,只有了解其原理,才能准确评估其当前表现和潜力,也就是说,当我们发现他的表现不及预期时,才能知道哪些不如人意是可以在现有技术路线上修正的,哪些不足是其技术路线所带来的固有缺陷,暂时没有修正的潜力,这样才能更准确地回答这个问题:ChatGPT能否取代律师,现在,或者是未来。


ChatGPT在法律问题上的具体表现

ChatGPT作为一个自然语言处理模型,已然突破了AI研发在自然语言领域的难点,集中表现在对用户输入的语义理解非常准确,能从对话中识别用户意图。在输出语言的组织上,不仅有完整通顺的语句、段落,还有严谨的上下文逻辑,甚至可以玩一些花活,模仿某些句式或者风格,就连模仿李白介绍自己也不在话下。但法律毕竟是一个非常严谨、专业,且在不同国家和地区差别巨大的一个领域,ChatGPT的表现还会这么精彩吗?让我们来具体看一下。

示例一:



从这个示例中,可以看到ChatGPT的表现可谓出乎意料,在输出法律文本方面,它不仅准确识别出用户的意图,实现格式定制化,而且从输出内容来看,虽然还有待完善,修正,但也提供了不错的内容框架。

示例二:



示例三:




从以上两个示例可以看到,ChatGPT虽然可以生成准确和流畅的自然语言,能理解上下文,记住用户此前说过的话,但对于一些特定法律问题的输出,其模型表现不够理想,出现了不准确、模棱两可或混乱的输出结果。它会一本正经的说出错误回答,被质疑后“秒怂”,给出另外一个答案,例如前面示例中回复受贿罪的法定量刑档次以及受法律保护的利率这样的问题时,一旦用户指出它的错误,它会给另外一个答案——但可能依然是错的。

在法律问题上的这种大面积错误,其实都是有根可循的,ChatGPT的模型训练方法和数据标注方式就注定了它在一些专业领域如律师行业上的“先天不足”。

首先,ChatGPT适用法律的实时性无法保证。因为他是一个预训练模型,所谓预训练,就是提前使用大量语料生成绝大部分知识库,在回答时主要依赖这些提前生成的知识库进行,而很难实时更新数据。这是受训练成本制约的必然——据说GPT模型每次训练,光电费就要消耗数百万美金,更不要提它使用的大量基础硬件的费用了。正如他自己所说,ChatGPT当前版本的知识截止于2021年。这种预训练方式导致它的知识库天然落后于现行法律,因而在解答法律问题时无法给出最新的法律依据。

其次,ChatGPT的法律知识和事实的准确性无法保证。因为ChatGPT的知识来自于投喂给他的训练数据,也就是所谓"语料",而一次训练需要极为庞大的语料,这些语料显然不可能都经过人工筛选,因此,本身语料的准确性就不能保证。虽然在初步训练以后,还有人工介入的环节,理论上可以进一步提高精度和准确性,但这一步受到标注人员本身素质和能力的极大限制。即使是人工标注语料,也会因为标注人员自身缺乏专业性而给出错误的标注,它作为一个机器模型,无法主动识别这些语料中的错误和矛盾之处,只能通过猜概率的方式给出一个正确率更高的答案,这就造成了其回答准确性差。因此,它更擅长输出正确的语法,而并不总是会顾及事实的准确性——因为它可能不知道到底什么是准确的。特别是,法律是一个与社会经济基础、文化传承紧密相关的领域,在不同的国家和地区差异极大,即使在同一个国家,也仍然有大量的法律问题是地方性法规所规范的,这种巨大的差异性对ChatGPT造成了极大的挑战,它可能很难区分这其中的具体差异。实际上,在使用ChatGPT时,很容易就发现其回答中浓浓的西方法理痕迹,杂糅在中国具体法律条款中,出现在同一个回答里,这正是无法区分不同法律的不同导致的错误。

此外,ChatGPT的回答不具有法律推理的严肃性。ChatGPT的推理过程难以被人类理解和解释。即使对同一个问题,ChatGPT的回答也并不确定和唯一。这其实是深度学习模型所固有的问题,在AI专业领域被称为"人工智能的不可解释性",意思是因为神经网络的模型极为复杂,人类可能很难理解ChatGPT的具体回答背后的决策路径到底是什么样的,ChatGPT为什么做出这个回答而不做出那个回答,无法用人类惯用的“知识+推理”的方式去解释。甚至于,在相同的环境中即使在提问时词句上有一些不同,也会导致其在决策时选择一条预期之外的路径,乃至于给出一个不同的答案。而法律是一个相当严肃的领域,所有的法律论证都必须基于“知识+推理”得出的结论,也就是法律推理和逻辑推理,不应当随意且不可预测,但这种不可解释性却是根植于其技术选型的必然,很难得到改善。

可见,ChatGPT在法律领域的表现仍然是差强人意,虽然说其事实准确性可能随着训练预料质量的提高、标准人员质量的提高得到改善,但这会带来高昂的成本。实际上,当前ChatGPT的开发和训练成本已经远超普通公司所能承受的水平,只有谷歌、微软,国内的百度、阿里等巨头有足够的资源可供支撑。由于受到成本的限制,其准确性和实时性在短期内恐怕都难以得到改善。退一步讲,即使可以不计成本的提高其准确性,但一是如果投入的成本超过了其收益,它是否还具有现实世界的可用性?二是其不可解释性仍然限制了它在法律这一个严肃场合的表现。


律师工作的不可替代性

从上文我们可以看出,ChatGPT不仅在短期内难以代替律师,其技术路线决定了在未来很长的一段时间内,它的一些固有缺陷都难以得到解决,或者解决的成本过于高昂而不具备事实上的可行性。除此以外,律师本身的工作也有很多方面,远不止于“提个问题给个答案”,而这些方面ChatGPT都不能覆盖。

首先,律师在案件中的一个重要工作是发现并准确的归纳出争议焦点,找到案件的症结点,这本身就是个专业活。在很多情况下,确定争议焦点对于整个案件的走向具有决定性的意义,所谓提出一个好的的问题等于解决了一半的问题。在这一点上,ChatGPT和以往的AI一样,仍无法取代律师,因为它的回答是基于过往的语料的推断,因此他更加注重于"回答问题本身",会忽略"问题以外的因素",在沟通对话中无法主动询问关键点,无法进一步获取信息,也就无法在纷繁复杂的法律事实中拨冗存真,找到案件的真正症结点所在。

其次,案件的客观事实是很复杂的,个案与个案之间一个小小的不同就可能导致完全不同的结果,而这些不同往往隐藏在一些细节中,非常容易被忽略。这依赖于律师通过实地考察、阅卷、调查等方式来发现。比如之前我经手的一个案子,因为无法确定被告一直无法立案,后来通过翻阅了大量政府网站,通过一个招标文件终于明确了被告。这不仅需要律师有充足的法律知识,还需要律师敏感、执着,需要来自于律师在常年训练中积攒的经验和逻辑判断能力,一些案件办理更需要勇敢,坚持。而ChatGPT是基于过往语料进行推断的,它缺乏真正的“推理能力”,在面对事实模糊时,它就很难区分其中的具体差异,甚至很难说明要采取哪些手段厘清这些模糊事实,做出正确的决定。面对一些特殊情况,不符合一般场景时,而ChatGPT又会因语料库的缺乏而无法作出回复。

归根到底,法律知识的积淀固然重要,律师更重要的武器其实是“方法论”,也就是如何厘清事实,如何收集证据,如何在复杂的法律体系中选择正确的法律依据,如何在纷繁的法律事实中确定真正的焦点。这就使得律师能够从容面对不同时间、不同地区、不同案件的差异性,构建正确的推理链条并寻找相关的依据去论证之。但基于语料训练的ChatGPT其实只是“从文本到文本”,通过对以往文本的提炼,产生一个正确可能性较高的"过往成功经验"而已,即使过往的语料全都不存在冲突且绝对准确,但个别法律依据的更新就可能导致基于以往语料的推理完全失效,因为ChatGPT甚至无法意识到新的法律依据会完全推翻旧的语料,而这种推翻很可能还没有形成新的语料来提醒他——比如尚未形成第一个判例的新实施法律。这个缺陷在动辄极大影响个体发展甚至命运的法律领域,显然是不可接受的。

因此,基于律师的工作的这些不可替代性,ChatGPT在法律领域表现或可提升,但仍不能完全取代律师和其他法律专业人员。


ChatGPT能否为律师所用?

虽然存在这样那样的“先天不足”,但正如通用对话人工智能从只能完成简单任务的“智能音箱”进化成现在有着惊艳表现的ChatGPT一样,ChatGPT也会不断的进步、进化,带来越来越精彩的表现。即使是当前这样一个并不够专业的版本,他在大量语料中快速检索资料的能力仍然极为出众,特别是他可以与人进行多轮对话,不断细化、深入用户的真实意图,给出越来越准确、专业的回答。或许在不远的将来,ChatGPT这样的人工智能将和网络一样,成为我们生活中的基础设施,作为一个新时代的律师,也应当学习和接受这样一个新的东西,争取“为我所用”。我认为,ChatGPT已经展现了相当的潜力,能够在现在和未来为律师提供帮助。

首先,ChatGPT能够辅助律师做快速的检索。当律师构建起一个“推理链条”以后,往往还需要大量法律事实和法律依据的补充,或需要查阅大量的相似案例,补充完善这个推理链条。这个过程以往是非常繁琐和低效的,我们往往需要辗转于不同的网站做大量的搜索和汇总。但现在ChatGPT可以帮我们直接做类似的工作,而借助他的多轮对话能力,我们还可以在初步的检索结果上做快速的筛选而不必人工筛查,节省了大量的精力。

其次,ChatGPT能够帮助律师查漏补缺。他的回答毕竟脱胎于海量的过往语料,一些经验性的做法对新的案例当然也可以有借鉴意义,与传统搜索引擎不同的是,搜索引擎极度依赖于律师本身的关键词,假如律师自己忽略了某个点,他可能不会去搜相关内容,也就很难发现自己的疏漏。但ChatGPT则会在模糊的情境下给出过往案例的关键信息和处理思路,这些信息虽然未必准确,但提示意义很大,很可能帮助律师发现推理链条中存在的疏漏之处,成为律师个人能力的“增强器”。

此外,正如上文的示例一所展示的,ChatGPT在一些制式法律文本的制作上表现突出,虽然说他的回答需要适当的审查和验证,但格式符合要求、思路比较清晰、内容基本完整,遣词造句也比较准确,只要经过简单的修改就可以输出,可以极大提高律师在一些重复性工作上的效率。

当然,ChatGPT在准确性方面的不足,对律师的专业性也提出了要求,我认为,越是专业细致的律师,越能扬长补短,用好他做自己的助手。

从前景来看,ChatGPT及其同类产品在法律上的表现会越来越好,因为OpenAI在不断开发和改进它的语言模型,增强知识库的实时性和准确性。一些中文大厂如百度的“文心一言”,在中文领域的表现可能会有一定的改善。而未来,专注于法律领域的类似产品也有可能诞生,它可能会接受更高质量的法律文件、案例的训练,由专业的法律人士进行人工标注调优,在法律领域的表现自然会更好。我们有理由期待,未来一个专业律师加一个ChatGPT,或许能抵得上现在的一个小型团队,这对于我们律师来说当然也是挑战与机遇并存的。

最后让chatGPT自我评价,认为自己会不会取代律师呢?

问:你会替代律师的工作吗?

答:不,我不能替代律师的工作。律师是专业的法律顾问,负责代表客户处理法律问题,并在法庭上为客户作证。我是一个人工智能语言模型,可以回答问题并提供信息,但不能提供法律建议或在法庭上代表客户。

不过,ChatGPT在某些方面也可以为律师工作提供帮助。例如,ChatGPT可以快速搜索和整理相关法律资料,为律师提供法律依据;此外,ChatGPT可以通过对法律词汇和术语的理解,帮助律师更准确地理解法律文件。

总的来说,ChatGPT并不能完全取代律师的工作,但是可以在某些方面提供帮助。未来,随着AI技术的进一步发展,ChatGPT在律师行业的作用也将进一步扩大,但是完全取代律师的可能性仍然很小。

答:有几个原因为什么我不能替代律师的工作:

法律需要专业知识:律师需要通过长期的学习和培训来获得专业的法律知识。作为人工智能语言模型,我不具备法律专业知识。

法律有变化:法律经常发生变化,并且在不同的地区和国家有不同的法律。作为人工智能语言模型,我的知识涵盖到我训练的最后一天,因此不能保证始终是最新和准确的。

法律建议需要个人判断:律师需要根据客户的独特情况和需求来提供法律建议。作为人工智能语言模型,我不具备判断能力,不能为客户提供个性化的法律建议。

因此,如果您需要法律建议,请咨询专业律师。

律师简介

张佩律师

北京市京师律师事务所合伙人律师,京师律所刑委会理事、金融犯罪研究中心研究员 。专业领域:诉讼、仲裁法律服务、刑事辩护。


咨询热线
咨询热线: 0756-8812662 0756-8812686
留言咨询
来访路线
公众号
小程序
回到顶部