工党希望使用“少数派报告”人工智能来预测谋杀。这可能会产生令人不寒而栗的后果
快速阅读: 据《大问题》最新报道,文章批评了用人工智能进行犯罪预测的做法,认为其可能导致司法误判或全面监控,违反人权。作者强调预测个体行为危险且不可靠,建议通过改善社会政策降低暴力风险,而非依赖有偏见的算法。联系作者分享看法或故事。《大问题》助力边缘群体创收,可通过购买杂志或下载应用支持。
监狱国家在进入犯罪预防领域前已面临权利争议。突然间,剥夺基本自由的理由不再局限于同龄人组成的陪审团定罪,而是可能被一台将你标记为威胁的机器随意夺走。即使这个系统是准确的,惩罚一个人可能的行为与民主正义体系完全背道而驰。然而,预测性警务模型已被证明容易出现灾难性的错误,并充满种族偏见。“垃圾进,垃圾出”这一概念令人担忧,当人工智能用于小预测时,决定谁可能是凶手的缺陷会被进一步放大。任何系统都必然依赖现有政府数据集,因此会反映其中包含的任何偏见。这些数据集并不完整,这就引出了一个问题——司法部是否愿意基于有限数据进行预测,或者需要一个全面监控体系来确保模型尽可能准确。这两种选择从根本上与人权不兼容,并将迫使英国在几乎肯定的司法误判或生活在全面监控状态之间作出选择。
目前,在英国,数据法规使得仅靠机器做出有意义的决策变得困难。人类参与是必要条件。政府正在推动改革,《数据使用和访问法案》的部分内容将让警察在使用人工智能做出生死决策时不再受约束。执法部门将从该法案中幸存下来的有限自动化决策保护中获益,这带来了一幅可怕的前景——一台机器决定警察第二天早上应该敲谁的门。
研究为何有人杀人与预测谁将杀人之间存在本质区别。深入剖析是什么驱使某人夺取生命——社会经济因素、司法系统的失败以及个人“原因”,即便这些原因毫无道理——可以提供见解,以制定政策,把社会塑造为未来杀戮风险大幅降低的地方。就个体而言,人类行为难以预测,而国家涉足占卜行为只会带来危险。判断失误将摧毁人们对司法系统的脆弱信任,要么见证国家因未能阻止死亡而受责备,要么错误地剥夺无辜者的自由——毫无疑问,有缺陷的预测性警务注定会出错。人类行为不是决定论的,完美预测谁将犯罪属于科幻范畴,而非现实。《少数派报告》仍是一部经典之作,但它绝非警务工作的模板。司法部不应将反乌托邦小说当作未来指南。
杰克·赫尔福德是“大兄弟观察”的研究和调查主管。如果你有与此话题相关的故事或观点想要分享,请联系我们,提供更多内容。
《大问题》旨在为无家可归者和边缘化群体创造赚钱机会。支持我们,请购买杂志。或从App Store或Google Play下载应用。
(以上内容均由Ai生成)