未成年人司法引入人工智能:潜在风险与范式重构 2025年07月23日 何挺 刘滢溪

  

   何挺

  近年来,随着数智化司法进程的加快,人工智能已在司法实践中呈现深度嵌入态势,广泛应用于立案审查、繁简分流、证据比对、卷宗解析、量刑建议、裁判文书生成等核心环节。整体来看,人工智能凭借其高速运算能力和学习识别优势,显著提升了资源配置效率、数据预测能力及案件处理效能,为传统司法模式带来赋能与变革。

  然而,人工智能应用于司法亦普遍面临数据偏见固化、算法决策不透明、责任归属模糊等缺陷,引发了有关司法公正性与权利保障的深层忧虑。当此类技术迁移至未成年人司法场域时,因未成年人群体的脆弱性及司法保护的特殊性,其潜在风险可能被进一步放大。尤其是人工智能高度依赖训练数据,难以理解涉未成年人案件中相关主体与环境因素的复杂性,可能忽略个案特殊性,对如何实现特殊、优先保护未成年人产生误判。这一状况凸显技术理性与未成年人权利保障的潜在冲突,人工智能在引入未成年人司法时,将面临更为复杂且可能进一步外溢的风险,需要予以多方面的回应。

  一、人工智能引入未成年人司法面临的风险

  首先的风险在于价值冲突。人工智能的核心逻辑是追求效率与可预测性的技术理性,其标准化的决策模式与未成年人司法所强调的个案化处理存在内在冲突。未成年人司法遵循最有利于未成年人原则,要求司法活动和决定充分考虑未成年人的身心特点、成长环境与发展需求,采取最有利于其健康成长与发展的措施;“教育为主、惩罚为辅”原则要求避免简单化处罚,侧重教育矫治与再社会化。而人工智能算法模型则倾向于将复杂个体简化为数据标签,难以充分考量未成年人成长的独特性、可塑性以及个案背后复杂的社会因素。过度依赖人工智能进行风险评估、量刑建议时,可能偏离“教育、感化、挽救”的方针,削弱司法的人文关怀与个别化裁量,最终侵蚀未成年人司法的独特价值根基。

  其次是数据依赖与偏见放大的风险。人工智能决策高度依赖训练数据的质量与代表性。未成年人司法领域的数据样本规模相对有限、来源单一,且常涉及心理评估、教育经历、家庭背景等高敏感度、强情境依赖的信息。算法基于此类有限且可能存在偏差的数据进行训练时,极易放大社会既有偏见,如在开展风险评估中,将困境儿童、留守儿童等群体简单关联为高危群体,从而对特定群体形成先入为主的标签化判断。相较于成年人,未成年人处于身心发展的关键期,表达能力与抗辩能力更弱,对算法生成的错误结论缺乏有效抵御机制。此类偏见一旦被固化于风险评估模型,将在后续司法决策中被反复援引与验证,形成偏见自我强化的闭环效应,可能对未成年人的权利保护与发展造成难以消除的负面影响。

  再次是知情权与参与权受损的风险。未成年人司法特别强调保障未成年人的知情权、参与权、表达权与救济权。然而,人工智能模型的技术复杂性与算法黑箱特性,导致这些核心权利在数字化场景下面临实质性受损的风险。未成年人及其法定代理人通常难以理解并深度学习模型的运作机理。算法结论常以科学、客观的面貌呈现,掩盖了其内在的价值选择与潜在偏差,使得当事人无法有效知悉决策依据。同时,技术过程的不可视性也会压缩未成年人的诉讼主体地位与表达空间。尤其在量刑建议、风险预测及再犯评估等关键环节,算法结论可能实质影响司法人员自由裁量权的运用,也使得未成年人的程序参与流于形式,难以进行有效质疑和辩护。对决策依据的不了解,直接阻碍了未成年人及其法定代理人寻求有效救济的路径,程序正当性亦受到挑战。

  最后是侵害隐私与污名化的风险。尊重人格尊严、严格保护隐私、促进健康成长是未成年人司法的核心要求之一。我国法律亦明确规定犯罪记录封存与隐私保护制度。然而,为提升模型精度,人工智能系统往往需要在更长周期和更广范围内持续收集、存储关乎未成年人心理状态、成长轨迹、社交网络等深度敏感信息,增加了未成年人隐私被泄露的隐患。更为关键的是,算法倾向于将复杂多维的个体信息简化为静态的量化指标和标签,如“高风险”“再犯可能性大”等。过度的标签化割裂了对未成年人人格完整性的理解,其生成的标签一旦在司法系统内部留存或泄露至学校、社区、政务平台等,极易对未成年人形成长期的数字化污名。这将导致未成年人在教育、就业等关键人生阶段面临系统性社会排斥,形成“标签强化—措施严厉化—社会排斥加剧—身份固化”的恶性循环,背离未成年人隐私保护制度和再社会化的根本目标,对其造成持久性伤害。

  究其根源,上述风险源于人工智能系统的设计仍是以成年人为默认模板,缺乏从未成年人这一特殊视角进行考量。技术追求的效率最优化与未成年人司法追求的儿童友好、权利优先、发展导向等理念存在本质冲突。人工智能应用于未成年人司法的过程,如果未充分纳入最有利于未成年人原则和我国对未成年人予以特殊、优先保护以及“教育、感化、挽救”的方针,则可能使技术赋能异化为权利侵蚀。

  二、深度融合技术理性逻辑与未成年人司法人文价值

  为应对上述风险,实现人工智能技术的真正赋能,亟须构建以法律规制、程序制衡、协同治理为三大支柱的框架,推动技术理性逻辑与未成年人司法人文价值的深度融合。

  在法律规制层面,应确立技术谦抑原则,明确人工智能在未成年人司法中的辅助性定位,禁止其主导核心裁决。相关部门可通过专项立法或出台规范性文件,制定技术应用的正面清单与负面清单,严格限制高风险技术的适用范围。在数据治理上,可建立敏感数据全生命周期管理制度,严格贯彻数据最小必要、分级授权、目的限定、定期删除等原则,严防信息滥用与不当留存。

  在人工智能应用的全流程强化制衡机制,将其融入事前、事中、事后的闭环治理体系中。具体而言,需强化事前审查,建立多层次伦理审查制度,包括算法安全评估、数据合规核验及儿童权利影响评估,对高风险模型实行一票否决;保障事中参与,开发未成年人友好型交互系统,利用可视化技术提升算法透明度,保障其知情权与有效质疑权,建立技术预警与司法偏差指标触发人工复核的双通道动态监测机制,防范算法失控;畅通事后救济,构建独立申诉渠道,赋予未成年人对算法结论的独立异议权与救济权。与此同时,建立定期算法审计与社会效果评估机制,综合考量司法效益、技术评估及未成年人发展状况,健全民事赔偿、行政问责与刑事追责的责任追溯体系,实现权责闭环。

  完善协同治理体系。人工智能技术赋能未成年人司法的合规应用需超越司法中心主义,实现多主体协同共治。司法机关承担算法筛选、部署与风险监测的主导责任,确保司法裁决的主体地位;科技企业需强化行业自律,履行合规义务,提供算法可解释性报告并定期更新,杜绝黑箱操作;第三方认证机构需建立标准化审查监督机制,确保数据合法性与模型公正性。此外,通过建设全国统一的未成年人司法技术数据库,实现相关司法数据的全程留痕和安全共享,形成跨部门监督网络。鼓励公众、媒体与社会组织依法监督,及时发现风险隐患,为权利受损未成年人提供支持,凝聚数字平权的社会合力。

  总体而言,人工智能与未成年人司法融合的本质是技术理性追求与未成年人福祉保护的价值调适。唯有坚守最有利于未成年人原则的价值基准,将法律规制、流程制衡与协同治理有机结合,方能在两种价值之间寻求动态平衡,推动未成年人司法向真正以“未成年人为本位”的友好型、恢复性司法演进,构建以儿童友好为导向、以权利保障为目标的智慧司法生态。

  【作者单位:北京师范大学法学院、北京师范大学未成年人检察研究中心。本文系北京市社会科学基金重点项目“未成年人违法犯罪体系性预防与矫治研究”(24FXA004)成果】