集萃 2022年01月27日 关仕新

  

  北京师范大学法学院教授卢建平:

  犯罪治理策略机制均须顺势而变

  在全面依法治国时代,我国刑法正在告别重罪重刑的小刑法,逐步走向犯罪圈不断扩大而刑事制裁日渐轻缓与多样的大刑法。从1979年刑法到1997年刑法,再到刑法修正案(十一)出台,刑事法网不断增大,而网眼愈加细密。由此不仅导致犯罪数量先升后降的显著变化,而且导致犯罪现象内部结构发生变化:严重暴力犯罪数量与重刑率下降,轻微犯罪数量与轻刑率上升,进而呈现“双降双升”,轻罪新罪成为犯罪治理的主要对象,与既有犯罪治理体系如规范体系、组织体系和思想观念形成冲突,为此须与时俱进,顺势而变,相应调整犯罪治理的战略策略、体制机制和手段方法。具体而言,轻罪时代的犯罪治理应该摈弃严打重刑思维,从宽严相济转向以宽为主的刑事政策,刑罚应整体趋轻,更多关注出罪和制裁多元化,更加注重常态治理和依法治理,刑事程序制度也应更加轻缓与灵活,同时营造更为宽容的社会环境。

  

  中国政法大学刑事司法学院教授刘艳红:

  人工智能可解释性的全新路径

  人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能“黑箱”释明难题决定了人工智能行为的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题。

  

  北京大学法学院副教授戴昕:

  数据界权不应受限于财产所有权

  数据价值来自聚合形成规模后在流动中获得多元、多维开发,因此数据界权不应受确立财产所有权思路的局限,而应致力于调整社会主体间围绕数据价值开发利用而形成的具体利益互动关系。霍菲尔德框架为数据界权的关系进路提供了有启发性的概念工具。无论针对个人信息、企业数据还是公共数据,法律界权都应被理解为逐步搭建,并灵活调整多元主体间法律关系网络的过程。通过在边际上不断探索有助于数据流动、共享的机制,法律界权方有望促进数据价值开发并推动公共利益实现。

  

  中国人民大学法学院副教授丁晓东:

  算法解释权应为程序性权利

  基于个人信息的算法自动化决策越来越普遍,我国个人信息保护法和相关国内外法律都引入算法解释权加以应对。但由于算法具有黑箱性、不确定性与复杂性,算法解释权是否应理解为一般性权利还是限定性权利,要求系统性解释还是个案性解释、事前解释还是事后解释、人工解释还是机器解释,都存在争议与适用困境。在原理层面,这一争议与困境源于个人算法控制论。应以沟通信任原则重构算法解释权,将算法解释权的性质视为一种程序性权利,而非实体性权利。算法解释权制度也应进行重构,建议根据自动化决策所处的行业领域、市场化程度、个案影响、企业能力而对其内容、程度、时间和方式作不同要求。

  (以上依据《政治与法律》《法制与社会发展》《中外法学》《中国法学》,关仕新选辑)