生成式 AI 的恐怖主义潜力“纯粹是理论上的”
快速阅读: 据《计算机周刊》称,英国专家哈勒认为,现有法律难以阻止GenAI被用于恐怖活动,建议采用“基于工具的责任”而非“上游责任”。他主张通过透明度报告、AI水印等措施监管,而非刑事处罚。
据英国媒体近日报道,法律专家哈勒指出,当前法律难以有效阻止生成式人工智能(GenAI)被用于恐怖活动。他认为,由于这些系统的用途广泛且不可预测,对开发者实施“上游责任”并不实际。相反,哈勒建议引入“基于工具的责任”,专门针对那些旨在帮助恐怖活动的人工智能工具。
哈勒表示,政府应考虑立法禁止创建或持有旨在煽动种族或宗教仇恨的计算机程序,但证明这些程序是专门为此目的设计的将非常困难。他强调,如果开发者确实创建了专门用于恐怖主义的AI模型或聊天机器人,他们可能会根据英国反恐法受到起诉,但这种情况较为罕见,更常见的是通用模型被恶意利用。
哈勒还提到,目前尚无证据表明恐怖分子已实际利用生成式AI,这一威胁仍属理论范畴。他认为,在现行法律框架下,调整或扩展法律来应对这种理论上的使用案例并无必要。此外,哈勒指出,即使需要某种形式的监管以防止未来风险,刑事法律责任也不是最佳选择,特别是在考虑到人工智能对经济增长和公共利益的重要作用时。
哈勒建议,替代措施包括透明度报告、行业自愿标准、第三方审计、可疑活动报告、许可制度、AI水印技术、对广告的限制、民事责任形式和监管义务等。尽管不确定恐怖组织将如何利用生成式AI,哈勒认为,这项技术最可能的影响是通过网络虚假信息传播导致社会退化,从而间接助长恐怖主义。
哈勒还提到,生成式AI可能通过引发大规模失业和加剧社会不稳定,间接促进恐怖主义的发展。尽管这些影响较为间接,但仍然值得关注。
(以上内容均由Ai生成)