作为受信任的第三方的 AI
快速阅读: 《Schneier 谈安全性》消息,论文探讨AI作为可信赖第三方解决隐私推理问题,如比较收入或风险投资等加密学难以处理的场景。虽尚处概念阶段,但展示潜在价值。
《可信赖机器学习模型解锁当前用密码学无法解决的隐私推理问题》
这篇论文堪称一篇令人着迷的研究文章。它的核心理念在于,人工智能可以成为可信赖的第三方(TTP)。当我于1993年撰写《应用密码学》时,曾探讨过人类可信赖第三方这一话题。这项研究设想,未来某一天,人工智能或许能够接替人类TTP的角色,并带来诸多额外优势,比如(1)能够审计自身的处理流程;(2)完成任务后可以删除数据并清除相关记忆。这种可能性非常大。
以下是一个典型的TTP问题。爱丽丝和鲍勃想知道谁的收入更高,但彼此都不愿透露自己的收入。(假设爱丽丝和鲍勃都有诚信,因此没有撒谎的动机。)人类TTP能够轻松解决此问题:爱丽丝和鲍勃低声告知TTP各自的收入,随后由TTP公布结果。然而,在这一过程中,人类不可避免地掌握了这些数据。我们不难想到一些用加密学难以解决的更复杂问题,例如:“这两部小说手稿中哪一部包含更多的性场景?”“这两份商业计划中哪一份是风险更高的投资?”如果爱丽丝和鲍勃能够就双方都信任的人工智能模型达成一致意见,他们便可以将数据输入模型,提出问题并获得答案,之后删除模型。对于这类问题,爱丽丝和鲍勃合理地信任该模型是可行的。他们可以将模型引入自己的实验室,反复测试多次,以确定模型是否公平、准确,或者是否具备其他期望的特性。
这篇论文列举了若干案例,说明了人工智能TTP带来的实际价值。尽管目前它还处于科幻范畴,但这无疑是一个发人深省的概念实验。
标签:学术论文,人工智能,密码学,机器学习,信任
发表时间:2025年3月28日早7:01 • 无评论
(以上内容均由Ai生成)