摘要

目前主流人工智能司法属于“数据驱动”类型,其试图从海量司法数据中发现相关性并形成算法模型,以之预测待决案件的结果。人工智能司法的理论预设为“基于充分数据,通过科学算法,确保结果公正”。然而,预设与现实之间的差距巨大,人工智能司法的技术逻辑在数据、算法与结果各层面都存在足以使其断裂的矛盾:第一,样本的结构性缺失、潜在因素的标记不足、低质数据的大量存在,不能满足作为技术前提的数据充分性要求;第二,虚假相关的无法排除、算法歧视的隐性生成、预测结果的不特定性,使得算法模型难以获得科学性保证;第三,价值判断的被动失效、先例数据的隐含错误、地方差异的强行拉平,构成了结果非公正性的来源,严重降低了实践应用的可接受度。以上矛盾形成了人工智能司法自我拆解的离心力。未来人工智能司法的发展重点应被置于提高算法模型的可解释性方面。

全文