点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

人工智能司法应用亟待回应的若干问题
广西壮族自治区高级法院 潘玮璘
人工智能是新一轮科技革命和产业变革的重要驱动力,日益成为全球竞争的战略制高点,但其也带来前所未遇的风险挑战,需要加强人工智能治理。习近平总书记在主持二十届中央政治局第二十次集体学习时指出:“要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则。”最高人民法院《关于规范和加强人工智能司法应用的意见》首先坚持伦理规则先行理念,提出建成具有规则引领和应用示范效应的司法人工智能技术应用和理论体系。依据中央关于加强新时代审判工作的意见要求,当前人民法院正在全面建设数字法院,且不断向智能法院发展。一方面,法院人案矛盾压力大,亟待借助人工智能司法应用提升审判质效;但另一方面,在司法审判中引入人工智能较为敏感,背后的伦理原则与司法规律并未获得充分阐述和共识,特别是人工智能辅助办案的界限并非技术的边界,而是要考虑伦理原则及司法规律的边界。因此,人工智能司法应用应在技术发展之上进一步研究理念、方法、规则、界限等问题。
考察当前欧洲人工智能技术的治理和应用情况,其中司法领域主要呈现以下特点:一是思想上极为谨慎。欧洲普遍基于伦理和人权原则,认为人们不可被机器所审判,人们有权只接受法官的审判,司法裁判是一种独特的思维过程,必须且只能由人类法官所负责。例如法国对外明确宣称法院不采用人工智能,人工智能辅助办案的提法也不被允许。二是技术上限制门槛极高。今年生效实施的《欧洲人工智能法案》将司法列为高风险领域,对人工智能应用提出极高程度的透明、可控、可监管等技术管制要求,这几乎客观上将人工智能驱离司法领域。三是实践中曾有所尝试。如法国法院曾在损害赔偿金的计算中运用人工智能系统,但立刻引发了社会极大争议,人工智能的“黑箱”特性引发公众不信任,同时认为法官放弃了思考,司法在裁判过程中丧失了其应有作用,甚至因无法完全公开所有计算细节而认为当局怀有整体压低赔偿金的阴谋,最终法院弃用了这一系统。四是面向未来有所规划。西欧各国也面临中心城市的法院案件压力大、审理时间过长等问题,案件平均用时在2年以上,为提高审判效率,一些国家的司法部正在为法院部署智能化技术支持,但仅涉及案件信息储存和检索、程序性文件生成等事务性工作,目前实施起来还遇到欧洲经济下行政府预算极为紧张的困难。基于欧洲人工智能治理实践和经验的启发,除技术及资金问题外,我国在司法应用人工智能时需要着重考虑并回应以下问题:
第一,关于法官主体的伦理问题。人类法官不可被替代,人工智能仅为辅助,这一点大家已达成共识。但客观来看,人工智能在大算力支持下通过深度学习可具有强大的判断决策能力,当其比任何一位法官所阅读过的书籍文章、所阅知的法规政策、所阅学的案例事例等都远远更多时,当未来其草拟的裁判建议均能符合法官本意时,甚至其释法说理的表述更为精彩时,当其以其强大功能顺利满足当事人、律师、政府等的一些司法需求时,其所积累的社会信任很可能将其无限推近于裁判者之地位。我们必须认真审视“AI法官”的问题,必须更为严肃、正式地思考并回答:为什么人类法官不能被替代?一是人与人之间的纠纷本质上需要人来化解。服判息诉工作本质上是感性工作,在法律逻辑演绎的幕布下,法官需要运用共情力来识别当事人之间的“心结”,需要运用感性的方法来松解他们之间的感性羁绊。二是法院判决有引领社会导向的作用,人类社会要由人类自己来引领。适用法律的过程一定程度上是立法的延伸,法院判决能够影响形成社会规范,法是“活的”,人类民族、国家、社会在发展历程中产生的司法需求和行为习惯,需要人类自己去感知、提炼、评判以及指引。三是人类相对于人工智能具有不可被支配的伦理要求。人不可被机器所审判,这与审判结论是否正确无关。基于人的主体性原则,每个人有权要求只接受人对自己进行审判,这已成为人权保护的基本表述。四是人工智能无法全量掌握法官真实办案中的所有依据和因素。人工智能无法真正理解审判,无法真正理解公平正义,人类司法裁判的过程蕴含诸多潜意识,人类意识一定程度上也是一种“黑箱”,法官的“内心确信”无法被完全描述为逻辑演绎公式,其决策的所有依据和因素也无法完全列举。综上,无论人工智能发展到如何“智慧”的水平,也不能代替人类法官作出裁判。
第二,关于人工智能辅助办案的界限问题。目前在立法上并没有明确人工智能可否以及如何应用于司法审判,各国司法界都较为谨慎,欧盟法案将其定位为人工智能高风险领域而采取强管制模式,最高人民法院在指导意见里确定了人工智能辅助属性的定位。但问题的复杂性在于,辅助属性仍可能与司法规律相冲突,辅助办案的平衡与界限在哪里。司法规律首先要求“让审理者裁判”,这意味着审理是一个过程,审理的“亲历性”是作出裁判的基础。人工智能不仅能够替代机械性、重复性、执行性的体力工作,还具有归纳总结、分析研判等脑力工作的能力,如果法官的思考过程以及形成内心确信的过程很大程度得以辅助甚至替代,则很难保证法官还有能力作出足够准确且妥当的裁判结论。实际上,不少案件中法官内心确信的天平是很敏感的,一些看似未达到决定性程度的办案步骤,例如梳理证据材料、归纳当事人诉求、搜索可参考的类案、检索的可适用的法条、选择法律解释方法、草拟裁判理由等,都有可能影响司法判断与裁量的最终定夺。辅助办案的界限把握应坚持两方面原则:一是应当承认事物的规律,即拟稿者或建议者一定程度上参与了决策过程。深度嵌入审判全过程的人工智能必须确保安全、可靠、可信、可控,需要最高法从顶层设计的角度确定算法模型、数据训练、辅助环节、使用方法等,以赋予司法人工智能足够的标准化权威,让社会公众认可智能化辅助办案系统。二是应当充分论证并划清“辅助”的界限,这一限制并非技术的边界,而是司法规律的边界,例如裁判理由自动生成、裁判结论智能推荐等。一旦划定,即使未来发展出足够成熟且能胜任的人工智能,也不可“越界”应用。
第三,关于数据训练的方法问题。除算法与算力之外,数据是塑造和决定人工智能水平的关键。当前人民法院正在建设数字法院,所有案件的全流程各环节以统一标准形成高质量的司法数据。对于辅助办案的人工智能系统,是否要对全量数据训练学习?或者如何进行训练?具体应注意以下四个方面问题:一是体系性问题。成文法的复杂在于其具有体系性,对于法条之间的体系结构以及背后的审判理念、政策导向、解释方法等,不能仅交由人工智能自己对法律文本和现有案件予以训练和归纳,而是要直接且明确地设定好体系结构、司法政策、裁判方法等问题。二是完整性问题。一个案件的信息远超裁判书的文本,一项裁判结论的依据和考量也往往不限于裁判文书,数据训练不能仅限于裁判文书,而是要含盖完整的卷宗材料,包括影响案件办理的各类会议记录或纪要。三是典型性问题。训练是否以全量数据数量为范围,或是否仅以典型案例为训练对象?人工智能时代下,不能局限于典型案例库的思维,大规模的数据训练旨在“涌现”出具有思考能力的智慧体,在学习各类层级的典型案例基础上,还需要对生效案件、被发改案件以及被评合格、瑕疵或不合格案件等所有情况予以全量学习。四是差异性问题。法律在很多条文中赋予法官个案裁量权,这些裁判尺度有的需要在全国范围统一,有的可以在各省有所区别,而有的仅限于地方个案处理,且在社会发展的不同时期也有所不同。故现有大量案件中,有的裁量是合适恰当的,但有的裁量则有待纠正统一或随着时代发展而相应调整。这种情况下不宜完全由人工智能自己依靠训练予以判断,而须由上级法院常态化地向人工智能明确或更新裁量标准。
第四,关于司法流程的重塑问题。中央关于加强新时代审判工作意见提出,要以数字化、智能化推动审判流程、诉讼规则、司法模式变革。人工智能场景应用首先体现为“人力替代”,最高法提出全流程辅助办案,意味着从立案、编卷、开庭、合议到案例检索、文书制作、校对排版、电子送达等各环节均可能运用智能化辅助,这会造成诸多流程节点的工作方式发生变化,归纳起来主要涉及三个层次问题:一是关于是否替代的问题。有些流程节点可以被替代,甚至向完全替代发展,例如卷宗归目,开庭记录、文书排版等体力性工作;有的仅可辅助性替代或半替代,需要人工检查核定,例如文书核校、案例检索、数字计算、程序文书生成、要素式文书拟写等事务性脑力工作;有的领域则不可替代,涉及辅助界线的问题,例如裁判预测、判决建议、判决说理等判断决策环节。二是关于替代后的质检问题。替代完成的工作原则上应设置核验质检人员,以克服人工智能的现有缺陷以及确保符合司法审判规律。但应注意考虑是否对每个被替代的岗位或职责都设置质检人员,考量标准是处理同量工作下质检人力应当明显少于替代前的人力。三是责任归属问题。岗位职责原则上不因智能化辅助而改变,无论是院庭长、审判长、主办法官还是法官助理、书记员等人员均应当依职责范围对案件负责,其职责内部可包含人工智能辅助及其质检人员,如果智能系统出现差错或质检人员失职失误,这些问题均应由本来的岗位职责人所负责,之后可再追究内部责任。
第五,关于当事人的知情选择问题。人工智能引入司法审判领域,并不仅限于提高审理效率,还旨在促进裁判质量和效果的提升。换言之,人工智能辅助办案一定程度上会对案件审理产生影响,进而影响当事人权益,故当事人主张知情似乎有一定道理。在知情的基础上,当事人又是否有选择权?即能否拒绝法官使用人工智能辅助办理自己的案件,反之能否主动要求使用人工智能?实际上,人工智能是在各个岗位的审判人员自身职责下的辅助工具,是否运用以及如何运用应当由其掌握决定权,当事人的知情要求不应当突破现有司法公开制度,办案方法本身不属于司法公开范畴,当事人主要对案件基本信息、办理进度节点、裁判理由及结论等具有知情权,目的是确保当事人充分参与审判过程,而非赋予其审视法官办案方法的权利。当然,从促进服判息诉的角度,在把握好公开范围和方式的前提下,法官的审理方式应尽可能取得当事人的信任和认可。此外,当事人能否拒绝将自己的案件用于人工智能数据训练?对于做了隐名化规范处理的案件,实际上已成为一种公共资源,应该服务于促进司法公正与审判质效的提升,当事人不具有处分的权益。
当前人工智能技术更新迭代极快,从体力替代不断向脑力替代演进,不仅赋能效率同时也增强能力,各行各业都在尽可能拓展人工智能的应用场景。但我国法院在积极拥抱人工智能技术革命的同时,必须更为清醒和审慎,既要厘清司法伦理的界限,又要符合司法运行规律,司法审判权作为中央事权还要更加注重人工智能司法应用的顶层设计。
