《数字法治》

《数字法治》由最高人民法院主管、人民法院出版社主办,最高人民法院民事审判第三庭、研究室、审判管理办公室协办。作为全国性数字法治领域唯一的学术期刊,已与“中国知网”和“北大法宝”就数字出版开展合作,是人大复印报刊资料重要转载期刊。


数字法治
刊号:CN10-1879/D

点击图片即可订阅本刊
为方便阅读,省却注释。全文请参见《数字法治》2026年第1期,第132—142页。转载或引用请注明出处。
人工智能辅助证据审查的应用场景与规范路径
— 江苏省南京市中级人民法院课题组 —
课题主持人:赵雪雁(江苏省南京市中级人民法院副院长)
课题组成员:王玉刚(江苏省南京市中级人民法院行政审判庭副庭长); 严松(江苏省南京市中级人民法院研究生工作站研修人员)
目次
一、问题的提出
二、人工智能辅助证据审查的现实背景和应用场景
(一)人工智能辅助证据审查的现实背景
(二)人工智能辅助证据审查的应用场景
三、人工智能辅助证据审查的困境与风险
(一)技术风险:人工智能理解力和可靠性有瓶颈
(二)法律风险:司法权力让渡与程序正义价值的冲突
(三)诉讼结构性风险
四、人工智能辅助证据审查的规范路径
(一)构建“法律+技术”的复合规制框架
(二)推进可信赖人工智能技术的研发与应用
(三)健全人机协同的司法证据审查机制
(四)强化伦理风险防范能力建设
内容提要:人工智能介入司法证据审查,是数字法治发展的必然趋势。在实践中,人工智能在电子证据处理、形式合法性校验和证据链条初步筛查方面展现出明显优势,有效缓解了海量证据与有限司法资源之间的矛盾。但人工智能在证据审查中的深度介入仍面临技术、法律与制度等多重困境,包括算法“黑箱”与可解释性不足、数据样本有限、法律地位模糊、程序规则缺失及庭审质证实效不足等。同时,其应用亦可能对诉讼结构的平衡性带来挑战,需警惕可能出现的控辩平衡问题和对法官裁量空间的不当压缩。通过明确人工智能在证据审查中“辅助而非替代”的定位,确保实质性判断和裁判权始终由法官掌握,构建“法律+技术”的复合规制框架,确立算法透明与责任划分机制,完善质证程序与权利保障,并强化人机协同与伦理监督等方法,可以实现技术应用与司法公正的平衡。
关键词:人工智能 证据审查 司法公正 辅助定位 规制路径
一、问题的提出

当前,我国已有部分司法机关尝试将人工智能应用在证据审查中。比如,上海市高级人民法院开发的“上海刑事案件智能辅助办案系统”(以下简称上海“206系统”),运用人工智能、大数据等技术,将统一证据标准嵌入办案系统中,辅助司法人员规范办案流程。又如,贵州省公安厅、贵州省人民检察院、贵州省高级人民法院联合制定了统一的证据标准,并以大数据技术为依托,将要素化、结构化的证据标准嵌入办案系统中。但是,当前人工智能系统在证据审查中侧重于对证据形式的合法性审查,在深度审查以及证据实质审查方面还存在一定的障碍。也即,人工智能审查尚无法实现对证据规则语言的全部转换,证据规则也尚未全部嵌入人工智能证据审查系统中。
然而,学界对人工智能在司法证据审查的专门研究并不多,现有研究多侧重于人工智能在司法中的适用场域、功能定位及应用风险等研究。关于人工智能在司法中的适用场域,部分学者重点关注人工智能在辅助量刑、刑事侦查等领域的适用等问题。关于人工智能在司法中的功能定位,多数学者认为,人工智能不可能取代或替代司法人员办案,只能是司法人员办案的辅助工具。关于人工智能在司法中的应用风险,有学者认为,其存在合法性、公正性、有效性等争议;有学者则认为,人工智能的技术缺陷易导致司法缺乏实质合理性。
因此,基于现有研究存在的空白之处,本文首先从人工智能在司法审判证据审查的现状出发,梳理当前人工智能在电子证据处理和初步筛查方面的成效,为智慧法院建设提供技术支撑。其次,通过对现有研究梳理和实践现状考察可以发现,人工智能在司法审判证据审查中主要面临以下三重挑战:第一,人工智能在证据审查中处于“黑箱”状态,算法可解释性不足;第二,人工智能在证据审查中的法律责任有待清晰;第三,人工智能在证据审查中的复合型人才相对匮乏。然后,针对人工智能在证据审查中的主要挑战,本文提出了法律、技术、伦理风险防范等系统性优化路径,以有效规制人工智能审查证据的风险,发挥人工智能服务司法的积极作用。最后,指出人工智能在司法证据审查中的应用仍处于“浅层赋能”阶段,核心的证据实质审查必须坚持由法官主导。
二、人工智能辅助证据审查的现实背景和应用场景

目前,人工智能技术在司法审判证据审查领域的应用已从理论构想逐渐步入实践探索阶段,展现出了蓬勃的生机活力,但是人工智能应用的广度、深度以及实际效果仍存在一定程度的不均衡和局限。
(一)
人工智能辅助证据审查的现实背景
1.智慧法院建设的主要内容
我国人工智能司法应用的快速发展,根植于国家层面“智慧司法”和“数字法治”的战略导向。最高人民法院连续发布《人民法院信息化建设五年发展规划》《关于加快建设智慧法院的意见》等纲领性文件,明确将人工智能作为提升审判能力现代化水平的技术支撑。在此背景下,各级各地法院积极推进以人工智能应用为重要内容的数字法院建设,而证据的智能化处理成为其中至关重要的应用场景。从最高人民法院统筹推进的“智慧审判系统”到地方法院(如北京、上海、杭州、广州)自主创新推出的各类智能化办案平台,证据的电子化提交、智能归目、关联分析、辅助审查等功能已成为这些系统的普遍功能或重点模块。例如,上海“206系统”的核心功能之一便是对刑事案件中的证据进行合法性、合规性校验以及证据链条的完整性审查,旨在防范冤错案件。国家层面的政策引领及资源投入,为人工智能辅助司法证据应用提供了强大的规范驱动和基础设施保障。
2.司法实践的迫切需求
随着信息化与数字化的加速发展,电子证据逐渐成为司法审判,尤其是刑事案件审理中重要的证据类型。而电子证据的本质特征在于数量庞大、结构复杂、载体虚拟化,呈现出“高技术性、海量化、分散性”的典型特点。与传统的物证、书证相比,电子证据多以电子邮件、即时通信记录、网络日志、交易流水等形式存在。这些证据不仅体量巨大,而且相互之间往往隐含着复杂的逻辑关系。
在这种情况下,单纯依赖人工进行电子证据审查,往往会遇到严重的效率瓶颈。一方面,审判人员需要在有限的时间内对成千上万条电子记录进行筛查与比对,容易出现疏漏;另一方面,传统人工审查注重静态文件的逐一核对,缺乏对数据之间内在逻辑链条的动态把握,可能难以全面呈现案件事实。由此导致的“证据过载”问题,使得司法实践迫切需要借助人工智能技术,协助法官从海量信息中提炼出关键证据,梳理证据链条。
除了数量问题之外,证据审查还承担着保障裁判公正与程序正义的功能。在复杂案件中,如何确保证据的合法性、完整性与关联性,是提升审判质量与效率的共同目标。若缺乏智能化工具,司法人员可能难以在有限时间内完成对证据合法性要件的全面把握。例如,在网络犯罪案件中,电子证据往往跨越不同设备与地域,其收集和传输过程中面临较大瑕疵风险。人工智能的介入,能够对证据收集过程中的程序要件进行自动化核验,并在发现潜在漏洞时进行提示,从而避免因程序缺陷导致证据排除或案件重审等情况。这些实践表明,在审判效率与证据合法性校验的双重目标下,人工智能介入证据审查已成为司法实践的客观需求。
(二)
人工智能辅助证据审查的应用场景
1.主要集中于电子证据的初步筛选与审查
从目前人工智能在司法证据审查的应用场景来看,人工智能在证据审查中的优势,最为显著地体现在对海量电子证据的处理环节。这主要是源于电子证据的数字化、结构化特性天然与人工智能自动化处理能力契合。例如,杭州互联网法院司法区块链利用分布式账本和加密技术,实现对电子数据生成、传输、存储全流程的可信存证与验证,帮助化解电子证据易篡改、难认定的痛点。再比如,基于关键词、主题模型、命名实体识别等技术,人工智能可以对电子文档、邮件、聊天记录等自动生成内容摘要、提取关键信息、识别敏感内容并按照预设的证据规则进行初步分类归档。可以看出,此类功能在处理涉及海量聊天记录、邮件往来信息的金融、网络犯罪或复杂商事纠纷时尤为有效,显著提升了法官处理电子证据的效率。
2.通过建立证据指引,规范证据标准,提升审查质效
人工智能系统与司法实践相融合的首要前提是法律规范文本的数据化、算法化。具体的方法是由相关部门制定出计算机能够识别、理解并运用的证据规则、证据标准。在制定证据指引规则这一实践上,上海“206系统”将现行证据规则和标准以“清单化”的方式嵌入系统之中,对八类法定证据的收集、固定和审查环节作出细化指引,帮助司法人员在办案过程中有章可循。而贵州法院则采取了另一种路径,突破传统证据分类模式,按照犯罪构成要件和案件逻辑重构证据规则,强调证据审查指引与实际办案需求的衔接与适配。
人工智能系统能够在立案阶段提前发挥“过滤器”作用,对证据材料进行初步审查,及时拦截证据不足或存在瑕疵的案件,从而避免问题证据进入后续程序、浪费司法资源。在具体技术应用上,系统通过光学字符识别(OCR)、深度学习等方法,对讯问笔录、鉴定意见等单一证据进行自动化校验,提高审查的全面性与客观性。上海“206系统”利用命名实体识别、关系网络分析等技术手段,可以绘制案件的全景式图谱,直观展示案情脉络,并及时提示不同证据之间的矛盾点和逻辑冲突。相比之下,贵州法院的做法更强调要素提取与内在关联分析,尝试通过逻辑化方式重构证据链条,为司法人员证据审查提供系统参考。
三、人工智能辅助证据审查的困境与风险

尽管人工智能为司法证据审查带来了新的机遇,也有诸多实践已切实提高证据审查质效,其深度应用却仍然遭遇了技术瓶颈、法律伦理困境以及实践适配等多维度挑战。如不能妥善应对此类挑战,将会制约人工智能应用的实际效能发挥,甚至可能影响司法公正。
(一)
技术风险:人工智能理解力和可靠性有瓶颈
1.“算法黑箱”与可解释性困境
当前主流的深度学习模型具有高度的不透明性,其内部决策逻辑难以被人类直观理解,“输入数据”到“输出结果”的过程呈现出“黑箱”状态。在司法证据审查中,当人工智能给出证据关联性提示、风险预警或证明力评估结果时,法官、案件当事人及其律师往往难以获知其具体的推理路径、权重分配和决策依据。这种不可解释性严重阻碍了法官对人工智能结论的信任与采纳。并且,法官难以像审查鉴定意见那样,对人工智能的推理过程进行有效的质证和确认。同时,当事人也难以针对人工智能生成的结论进行有效质疑和辩论。虽然“可解释人工智能”是当前研究热点,但是,在处理司法证据这种高度复杂且依赖上下文语境的任务时,要生成既高度准确又足够透明、符合法律人思维习惯的解释,仍然面临着较大的技术困境。
2.语义理解与情境化推理的局限
证据审查的核心在于理解证据所蕴含的意义及其在具体案件情境中的价值,这要求对自然语言和复杂情境有深刻把握。当前,自然语言处理技术虽然在语法分析和浅层语义理解上取得了进展,但在深度语义理解、语境把握、识别言外之意、理解复杂社会关系等方面与法官的经验和常识仍有显著差距。例如,人工智能可能难以准确判断一份看似中立的证词背后是否隐藏着偏见,或难以理解特定行业术语在具体语境中的精确含义。在证据链的构建与推理上,人工智能主要依赖统计关联和模式匹配,呈现出一种遵循相关关系的逻辑链条,缺乏真正的因果推断能力和对人情事理的深刻洞察,难以处理需要高度情境化、情理法交融判断的证据审查工作,如判断证人证言的可信度、评估行为动机的合理性等。
3.证据真实性核验的技术瓶颈
对证据(尤其是电子证据)真实性的实质性核验是司法审查的核心和难点,如审查证据是否经过篡改、证据来源是否可靠、证据内容是否真实。虽然区块链等技术为固定存证提供了新方案,但其主要解决的是存证之后的防篡改问题,对于存证之前证据是否已被污染或伪造,人工智能的检测能力仍然有限且持续面临着“道高一尺魔高一丈”的问题。同时,人工智能本身也很难像人类一样,通过察言观色、经验直觉、情理分析等综合方式去判断言词证据的真伪。
4.技术标准与评估规范的缺失
目前,我国尚未建立权威、统一的人工智能司法应用技术标准、安全规范、性能评估指标(如准确性、公平性、可解释性应达到何种水平)和准入认证机制。不同厂商提供的智能系统质量参差不齐,法院在选择、采买、评估和使用时缺乏客观的可靠依据,增加了人工智能在证据审查应用时的风险。
5.数据依赖与偏见传导风险
人工智能模型的性能高度依赖其训练数据的质量、规模和代表性。如果用于训练司法证据智能审查模型的数据本身就存在系统性偏差或者数据覆盖的场景不够全面,那么人工智能模型在应用中就可能学习并不断放大这些偏见。例如,模型可能基于历史数据中对某类职业证人证言的高采信率,进而忽略本案的具体情境和潜在问题(如取证程序瑕疵),对当前案件中类似证言更容易自动给出“证据可采”的不准确结论。这种“算法歧视”会以更隐蔽、更显“客观”的方式损害司法公正。
(二)
法律风险:司法权力让渡与程序正义价值的冲突
1.司法裁量权让渡风险
证据审查,特别是对证据证明力的判断和内心确信的形成,是司法裁判权的核心组成部分,承载着法官的理性、经验与价值判断。过度地依赖人工智能的关联分析或证明力预测,可能导致法官思维惰化,不自觉地将其作为裁判依据,实质上造成司法裁量权向算法让渡。这不仅削弱了法官的主体责任,更可能使司法决策被嵌入算法中的技术逻辑和潜在偏见所干扰,偏离法律理性和个案正义的要求。
2.责任归属的模糊地带
当人工智能辅助审查出现错误,例如,遗漏关键证据、错误提示风险、给出有偏差的证明力评估结果并导致裁判不公时,责任应如何划分?是技术研发设计者的责任,还是法院作为使用者的责任,抑或法官个人的审查失职责任?法律对此尚未作出清晰的界定。这种责任真空不仅使得错误难以追究和救济,也增加了法官使用人工智能的顾虑和风险。
3.正当程序与质证权的冲击
诉讼程序的核心原则是直接言词原则和质证原则,要求证据必须在法庭上出示,当事人有权进行询问和辩论。当人工智能生成的证据审查报告、关联图谱或证明力评估结果被用作裁判的参考时,其本身的性质是什么?当事人是否有权知悉其生成的具体算法逻辑?庭审双方又如何对一份由复杂算法生成且其自身都难以解释的报告进行有效的交叉质询?如果这些问题得不到妥善解决,人工智能的介入就可能在一定程度上架空当事人的质证权。
4.透明公开原则的挑战
司法裁判要求说理公开透明。当法官的裁判部分参考了人工智能分析结论时,如何在裁判文书中清晰说明人工智能的辅助作用及其结论对裁判形成的影响?如何解释法官最终判断与人工智能建议存在差异的原因?算法的复杂性和可能涉及商业秘密问题的保密性,使得这种说理需求面临困难,可能损害裁判的透明度和公信力。
(三)
诉讼结构性风险
1.诉讼专门机关趋同化,削弱制约关系
不同的诉讼法授予不同机关以不同的专门诉讼职权,各机关依法律授权行使不同职权。在刑事诉讼中,侦查、检察与审判机关各自承担不同的角色,形成分工、配合与制约的诉讼格局。但人工智能辅助办案系统的推广,往往由同一套技术平台提供服务,且为人工智能投喂同质的数据本身就可能导致输出结果的同质性。这些问题都有可能导致诉讼中不同的专门机关依赖相同智能系统或数据输出结果,进而形成不同机关间的“趋同化”判断。如此一来,原本应有的制衡关系被削弱,诉讼结构的均衡性受到破坏。
2.刑事诉讼中控辩不平等问题加剧,辩护方的防御权受限
一般来说,刑事诉讼中的控诉方往往掌握更为完备的技术资源与数据资源,而辩方因条件所限,难以获得同等的技术支持。当控方借助人工智能工具辅助生成证据分析报告,而辩方却无法进行有效对抗时,控辩双方的平等地位将受到影响。而这种不平等也限制了辩护方的防御权,使其难以在庭审中展开充分辩护。
3.法官的裁量权可能被技术结论侵蚀
证据审查的最终目的在于帮助法官行使案件裁量权。然而,当人工智能提供的结论以高度精准和权威的姿态呈现时,法官可能在心理上产生过度依赖,甚至不自觉地将其作为裁判的依据。这种“技术依赖”将使司法人员的主体性与责任感被削弱,最终导致裁量权让位于、屈从于技术结论,进而动摇司法审判的核心价值。有效运用司法活动中的人工智能系统,要求法官、检察官、律师不仅精通法律,还需对技术原理、应用边界、潜在风险等问题有基本认知。当前法律职业群体仍然需要提升数字素养和人工智能素养,以期更为有效地驾驭、监督和质疑人工智能工具,否则容易导致对技术的不当使用或过度依赖。
综上,人工智能在司法证据审查领域的深度应用,面临着技术理解力与可靠性的瓶颈、法律伦理上权利让渡与程序正义的冲突,以及实践中成本标准、人才等适配难题。这些挑战相互交织,构成了一个复杂的系统性问题。解决这些问题,需要技术、法律、伦理、管理等多方面的协同创新和制度构建,以确保技术赋能真正服务于司法公正的提升。
四、人工智能辅助证据审查的规范路径

人工智能在司法证据审查中面临诸多挑战,其优化路径绝非单一维度的技术改进或规则修补,而需构建一个融合法律规制、技术创新、人机协同机制完善以及伦理风险防范的系统性框架。目标在于确保人工智能在提升司法效率与形式理性的同时,始终作为辅助性工具,服务于法官对实体公正与程序正义的终极追求。
(一)
构建“法律+技术”的复合规制框架
1.明确人工智能的法律地位与辅助性边界
在立法或司法解释层面,亟须清晰界定人工智能在证据审查中的法律属性与作用边界。核心原则是确立其“辅助工具”的根本定位。人工智能生成的任何分析报告、关联图谱、风险提示、证明力预测等信息,其性质应明确为“法官办案的参考信息”或“智能化工作辅助材料”,而非法定证据种类,更非具有预决效力的“电子法官”意见。在裁判文书中引用人工智能分析结论时,必须清晰说明其参考性质以及法官形成裁判的具体过程,强调法官的最终裁量权和对结果的责任担当。这从法律上防止了司法权对人工智能的实质性让渡。
从证据审查的功能定位来看,人工智能只能发挥辅助性作用,而不能承担独立的审查职能。这不仅是因为人工智能技术仍受限于“算法黑箱”“算法歧视”等问题,更在于其仅具判断能力而不具备责任承担能力,无法替代法官在审查过程中的法律责任与伦理约束。
就适用范围而言,当前人工智能在证据审查中的应用仍主要局限于形式审查、数量审查及单一证据合法性审查等技术性环节。尽管这些环节与司法人员的部分工作内容相似,但二者在审查深度与范围上存在本质差异。以单一证据审查为例,人工智能通常只能识别并评估证据的形式合法性要件,而法官不仅要审查形式合法性,还需综合判断证据的真实性、可信性及证明力强度。因此,人工智能的功能应定位于司法审查的技术支持与信息辅助,而非替代人类法官进行实质性事实认定和法律判断。
2.确立算法透明与可解释性义务
针对“算法黑箱”问题,应通过法律或行业规范强制要求司法人工智能的证据审查系统满足最低限度的可解释性标准。这并非要求完全公开算法的核心源代码,而是要求系统能以法官和当事人可理解的方式,解释其关键输出的主要依据和推理逻辑,如证据与事实的关联性判断、证明力评估结论等。在这种语境中,人工智能系统应具备提示哪些证据特征被赋予较高权重、识别出的关键矛盾点具体是什么、参考了哪些类型的相似案例模式等关键信息的能力。同时,可以探索建立针对司法应用的算法备案审查制度,由独立第三方对拟在司法领域部署的人工智能系统进行基础性、安全性、公平性和最低可解释性评估,评估主体可以是司法行政机关或专门委员会。
不可否认的是,人工智能在证据的初步形式审查、海量证据的筛选方面有着强大的处理能力,但是,在证据审查的核心领域——即对证据真实性的实质性核验、对证据证明力的最终判断、对全案证据是否达到证明标准,例如,在“事实清楚,证据确实、充分”“排除合理怀疑”或“高度盖然性”方面,人工智能的介入深度和能力仍然有限。法官可以通过人工智能进行信息处理和初步筛查,但在涉及价值权衡、经验判断、情理分析等核心环节,仍然主要依靠自身的专业素养和审判经验。人工智能提供的关联分析或证明力预测,通常仅能作为参考信息,法官会结合全案情况独立判断其合理性与采纳程度。
因此,目前人工智能对于证据的审查应当属于证据的初步筛查阶段,其仅能对证据的数量、种类以及形式合法性等进行审查,无法完全模拟司法审判人员对证据审查的系统思维。通过立法或司法解释限定人工智能的运用情境,例如,在简单案件中可广泛使用其证据校验功能,而在重大疑难案件中则应严格限制。也可以在证据标准中增加弹性设置,允许司法人员在系统提示证据不足时,凭借经验裁量进入下一程序,并辅以重点标记与责任说明,以此平衡技术刚性与司法裁量权。
3.完善质证程序与权利保障规则
从贯彻法治原则的角度出发,必须将人工智能辅助审查结论纳入正当程序框架。其中,保障当事人知情权与质证权是关键,当事人应有权知悉案件审理中使用了何种人工智能工具、其输出的主要辅助性结论是什么。在涉及对当事人权益产生重大影响的人工智能分析结果时,应允许当事人及其律师在法庭上对此进行质疑。这可能需要进一步完善专家辅助人制度,由具备人工智能技术背景的专家出庭,协助当事人理解并向法庭解释人工智能结论的可能局限性、机器所用数据的问题或潜在的偏见风险。法官有义务在裁判文书中回应当事人对人工智能输出结论的合理质疑。
4.建立清晰的责任划分规则
(1)技术研发者(提供者)责任。对因智能系统设计缺陷、训练数据存在系统性歧视或未达到承诺性能标准而导致错误结论并造成裁判不公的,应追究其相应责任。(2)技术使用者(法院、法官)责任。法院有责任审慎选择、合理使用人工智能系统,并对法官进行必要培训。法官负有独立审查判断人工智能输出信息可用性、可靠性的最终责任。如果法官盲目依赖人工智能结论而未进行必要的独立审查验证,或使用已知存在问题的系统且存在重大过失,则应承担相应的责任。上述责任规则的确立旨在督促各方审慎行事。
(二)
推进可信赖人工智能技术的研发与应用
集中研发资源,攻关适用于司法证据领域的可解释人工智能体系,以增强人工智能在司法实践中的透明度与可问责性。具体而言,可重点发展以下四项核心技术能力:其一,研发面向法律人的解释模型,使人工智能生成的解释结果契合法律推理逻辑,围绕证据的关联性、合法性、真实性及证明标准等核心要素展开论述,使用法律术语而非过于技术化的表达;其二,推动案例对比与类比解释,通过展示与当前案件证据模式相似的历史案例及其裁判结果,帮助法官理解人工智能分析的依据与合理性;其三,实现关键特征归因可视化,明确标识对人工智能结论影响最大的证据特征或片段,使审查过程更加直观与可检验;其四,发展反事实解释技术,说明在关键证据缺失或发生变化的情况下,人工智能结论将如何相应调整,从而帮助法官评估模型推理的稳健性与合理性。与此同时,应提升人工智能对复杂证据的理解与情境化推理能力,重点加强其在深度语义理解、上下文语境把握及社会常识融入等方面的研发,探索结合知识图谱、先进的神经符号模型及大语言模型在复杂推理中的潜力,使人工智能能够更全面地理解证据所指向的案情背景、人物关系、行为动机及特定情境下的合理性,从而更好地服务于司法判断的逻辑结构与事实认定的严谨性。
(三)
健全人机协同的司法证据审查机制
应当明确“人类中心、人工智能辅助”的协同原则,确立不可动摇的准则——法官是证据审查的唯一责任主体和决策中心。人工智能的角色是信息处理者、模式识别者、风险提示者和效率提升者,为法官的独立判断提供更丰富、更清晰的信息支持和参考视角。法官必须保持批判性思维,对人工智能的输出进行实质性审查、验证和独立判断,特别是在涉及证据真实性、证明力核心评价、证明标准判断等关键环节。同时,应当构建“人机互验”的校验机制。鼓励在关键证据或复杂环节建立人工与人工智能相互校验的机制。例如,人工智能进行初步筛查后,由法官或助理进行抽样复核;法官对人工智能的关联分析存疑时,可手动调整图谱或要求人工智能提供更多解释;对于人工智能提示的高风险证据,必须进行更严格的人工重点审查。
(四)
强化伦理风险防范能力建设
应当制定司法人工智能伦理准则,推动出台专门的司法人工智能应用伦理指南。其核心原则应包括:辅助性、公平性与非歧视、透明与可问责、安全可靠、尊重人权与隐私。这些原则能为研发、部署、使用各环节提供伦理指引。在此基础上,应建立全流程伦理审查与风险评估机制。在人工智能系统研发立项、部署前、运行中及升级迭代等关键节点,进行系统的伦理影响评估和人权影响评估,及时识别潜在风险并制定防范措施。同时,应大规模提升法律职业群体数字素养。将法官、检察官、律师的人工智能素养纳入职业必修内容。培训内容应涵盖人工智能基本原理与局限、司法证据人工智能应用场景与风险、人机协同方法、数据隐私保护、算法偏见识别、对人工智能输出的批判性评估方法等方面,并鼓励高校法学院开设法律与科技交叉课程。此外,还应培育跨学科复合人才队伍,重点支持既精通法律又掌握计算机科学的“法律与科技”复合型人才的培养和引进,使其在系统研发、评估、部署、维护、应用培训及规则制定等环节中发挥关键的桥梁作用,为司法人工智能的科学化、规范化与可持续发展提供坚实的人才保障。
人工智能在司法证据审查领域的深化应用,是一场深刻的变革。其优化路径的核心在于坚守司法本质,以法治原则引领技术创新,通过构建坚实的法律规则、发展可信赖的技术、完善人机协同机制并筑牢伦理防线,使人工智能真正成为法官“接近事实真相”的智慧助手,赋能司法公正与效率在更高水平上的统一。这是一项持续演进、需要多方协作的系统工程。
编辑:周利航


点击图片即可订阅本刊

数字法治
《数字法治》由最高人民法院主管、人民法院出版社主办,最高人民法院民事审判第三庭、研究室、审判管理办公室协办,是面向海内外公开发行的全国性数字法治领域唯一的学术期刊,逢双月出版。本刊恪守求新、务实、严谨的理念,弘扬兼容并蓄的学术传统,注重数字经济治理、网络法治、数据法治、人工智能法治等相关领域的重大理论与实践问题,旨在推动贯彻实施网络强国战略,加快数字中国、法治中国建设的理论研究,为推进中国式现代化提供有力的学术理论支撑。

数字法治杂志公众号
聚焦数字法治研究
助力法治中国建设
《数字法治》投稿邮箱:
szfzqk@163.com
刊号:CN10-1879/D
订刊电话:010-67550595 靖老师
购买方式:点击下方阅读原文即可订阅