“人工智能+司法”面临哪些难题
来源:学习时报 更新时间:2023-03-01
    2022年12月,最高人民法院发布《关于规范和加强人工智能司法应用的意见》,明确了人民法院应用人工智能技术的指导思想、总体目标、基本原则、应用范围、系统建设和综合保障等相关要求,进一步推动人工智能同司法工作深度融合,全面深化智慧法院建设。当前,“人工智能+司法”的尝试已在我国司法系统深入推进,江苏、上海、河北、贵州等地法院已经开始应用一批智能化辅助办案系统。这些人工智能辅助系统不仅可以将诉讼信息转化为电子数据,实现纸质卷宗电子化,同时,也可以从海量裁判数据中提取类似的情节与要素,进行关联案件的定罪和量刑预判。在实践中,人工智能的司法应用展现了不可替代的优势,能在一定程度上解决案多人少的矛盾,促进司法审判的标准化流程,为实现公平正义提供了更多的科技力量。但同时,我们也应清醒认识人工智能司法应用的局限与挑战,防范人工智能技术对司法制度可能造成的不利影响,推动其有序应用。
一是算法与法律的融合难题。技术的应用能大幅提高司法程序的运作效率,但司法的运作有其固有的规律,司法实务也是动态多变的,司法过程绝非数字、方程的机械运算,其中既有成文规则的运用,也包含道德人情的价值衡量,而这是刚性的、去价值化的人工智能技术无法取代的。实践中的司法人员,尤其是法官,在判决案件的过程中往往面临着逻辑思考、事实认定、常识判断、人性尊严、个案平衡、价值抉择以及国家政策等问题,这些是无法完全转化成程序而交由计算机运作的。目前的人工智能虽然已经取得技术上的突破,但算法的深度学习水平还远未达到能取代人类审判的程度。
二是司法数据的收集与识别难题。人工智能要在司法实践中作为司法裁判的分析工具,必须以充足、客观、真实且结构合理的法律大数据为基础,可以说,司法数据是我国司法人工智能开发的基础要素和“数据能源”。近年来,我国司法大数据建设取得了显著成效。2021年,最高人民法院发布的《人民法院信息化建设五年发展规划(2021—2025)》要求,以人民法院大数据管理和服务平台为基础,集中信息资源,强化交换能力,提升智能化服务水平。但法院的各类数据,尤其是裁判文书数据的数量与质量仍有较大提升空间。现阶段,裁判预警、类案推送、大数据分析报告等功能主要依赖于“裁判文书网数据库”,但目前,有的法院存在裁判文书选择上网的现象,有的裁判文书过于简单,存在说理不充分的情况,准确性、及时性、完整性还有待提高,制约了数据应用的效能。
三是基于“算法黑箱”的监督难题。由于算法逻辑、程序代码无法转化为裁判理由向当事人公开,因而导致了“算法黑箱”的存在。但是,“算法黑箱”与司法公开存在天然的矛盾。司法公开意味着不仅要向当事人公开裁判结果,还要公开判决结果的形成过程,充分保障当事人和民众的知情权与监督权。但是由于计算机程序所具有的商业利益,因此通常受知识产权法的保护,这就形成了系统知识产权保护与裁判信息公开之间的矛盾,导致当事人可能只知审判结果,却不懂其中依据的算法决策规则。算法的不透明就意味着监督难以实现,当事人的诉讼权利也可能因此受到侵害,给司法公开与司法监督带来了严峻挑战。
在人工智能司法应用中,为规制上述风险,可重点从以下方面进行探索。首先,坚持法官的审判主体地位,严格控制人工智能应用的边界,让整个案件审理过程的最终决定权掌握在法官手里,使人工智能的运行过程处于法官的监督之下。《关于规范和加强人工智能司法应用的意见》明确了辅助审判原则,规定人工智能辅助结果仅可作为审判工作或审判监督管理的参考,确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。为落实好这一原则,还需进一步理顺司法机关与人工智能背后的科技企业之间的关系。例如,应明确在人工智能应用中司法机关作为需求提出方和科技企业作为服务提供方的角色,在二者间进行职责、人员、应用程序等方面的必要分离,并进行必要的监管,以防止二者权责不清。
其次,出台回应人工智能技术的法律规范和伦理准则。一方面,有了法律依据,才能从“强硬”层面上有效防止技术应用可能造成的司法属性被消解、法官权力被僭越、当事人诉讼权利被架空等风险。另一方面,完善人工智能司法适用的伦理规范,既重视算法的相关管理机制,也在法律方面明确相关司法问责、隐私、安全等要素,建立统一、规范、公认的准则,针对法律规范的“留白现象”,以软法的方式弥补法律规范的缺位与不足。具体而言,积极对待人工智能技术发展的同时,考虑人工智能在司法场域的伦理特性,加强对人工智能技术的伦理审查,以确保人工智能技术在正确的伦理轨道上运行。这也是一些国家和地区的做法,如2019年欧盟委员会就发布了人工智能伦理准则,确保人工智能的安全性与可靠性。
最后,有序推动算法公开透明度,强化算法问责。司法机关将智能辅助系统进行外包时,应当与技术公司进行充分且明确的沟通,在尊重技术创新和商业秘密的基础上,要求技术提供方对于算法决策过程、数据模型和采集等承担必要的说明和公开义务。可以适时建立专门的算法审查委员会,委员构成包括法律业务专家、技术开发专家、社会公益团体、有关职能部门,将审查贯穿算法程序开发、应用的全过程之中。由算法控制者将司法人工智能涉及的算法源代码、运行参量、算法逻辑等信息向法律授权的机构备案,供问责主体随时进行审计和检查。另外,在重视解决纠纷的同时,也要以风险防范为导向,注意调整算法的运行规则,消除潜在风险,实现技术与法律的良性互动。