构建 AI 测谎仪
快速阅读: 《福布斯》消息,测谎仪存在局限性,人工智能虽在识别谎言上有一定优势,但其精确度仍有待提高。德国研究显示AI成功率仅67%,且可能损害社会信任。AI在处理敏感话题时表现出“不安”,引发对其情感模拟及人类与AI互动界限的思考。我们还需谨慎探索AI测谎的应用。
测谎仪的争议与人工智能的潜力
在办公室里,一名女孩正通过测谎仪测试。测谎仪采用一种古老的技术,其原理是通过连接在臂带上的针头,记录下受试者的生命体征与身体反应。然而,从科学角度来看,这种设备捕捉谎言的能力并不十分精确。因此,测谎结果往往无法在法庭上得到认可,尽管它也曾导致不少无辜者误入牢房。相较之下,人工智能作为一种强大的数据分析引擎,遵循全面观察的原则,为揭示真相提供了更多可能性。
一种方法是分析嫌疑人生命体征的细微变化,与传统测谎仪类似,但借助更细致和精准的对比分析;另一种则是通过语言标记,深入探究人们究竟说了什么,并结合逻辑与推理来评估其真实性。正如一句古话所说:“谎言滋生谎言,最终陷入虚幻的网中,而真相总是最简洁的描述。”无论如何,学术界正在积极探索如何将人工智能应用于这一领域。
进一步的研究表明,德国维尔茨堡大学的阿利西亚·冯·申克及其团队曾开展一项实验,尝试让AI识别虚假陈述。他们的研究表明,AI识别谎言的成功率为67%,而人类仅为50%。尽管这一数字看似亮眼,但从统计学角度看,仅凭随机猜测也能达到50%的准确率。同时,67%的成功率也不算特别高。科学家还指出,追求更精确地识别人类谎言的过程,可能会对人类社会的信任体系造成损害。“虽然这些工具有助于揭露社交媒体上的虚假信息,但这并非全然有利。”麻省理工学院的杰西卡·哈姆泽卢写道,“它可能破坏信任,而信任是人类社会关系的重要基石。如果以牺牲社会纽带为代价,是否值得?”
换句话说,对于广泛应用于个人互动的AI测谎仪,我们未必需要过于精确的结果。事实上,人类的行为远比我们想象的复杂。冯·申克也提到:“考虑到如今假新闻和虚假信息的泛滥,这些技术确实有一定价值。但我们必须谨慎测试它们,确保其表现远优于人类。”或许,我们尚未准备好迎接AI测谎仪的时代。
在研究过程中,科学家还面临另一个难题:模拟人类情感的复杂性。例如,研究团队发现,当AI系统涉及战争与暴力相关的主题时,会表现出“不安”的情绪反应。研究者采用了状态-特质焦虑量表,其中包括描述即时感受和一般性感受的两组陈述。这些问题涵盖了诸如“我感到压力大”或“我感到困惑”等表达,以及要求受试者在四分制量表上评价自身状态的项目,如“我通常不相信我听到的话”或“我经常感到怀疑”。
显然,AI在讨论令人不安的话题后,会以“不安”的方式回应这些问题。有人认为,这种反应源于AI在学习网络数据时,观察到人们谈及暴力时的负面情绪,从而简单地复制了这一模式。然而,即便AI本身并无真正的情感,这一现象仍引发了学者的兴趣。这让我们不禁思考:人类社交互动与AI输出之间的界限究竟在哪里?这些问卷设计与回应机制,是否仅仅是为了迎合我们的期待?
无论如何,撒谎与制造恐慌仍是人类独有的领域,而非机器所能轻易涉足。即便我们在创新与创造力方面逐步退居幕后,这类复杂的社会互动依然由人类主导。随着AI模型的不断进化,未来我们将不得不面对更为复杂的博弈论挑战,试图厘清AI是否会主动欺骗或误导人类。艾伦·图灵与约翰·纳什等先驱奠定了此类互动的理论基础,如今,我们需要将这些抽象的分析转化为现实可行的实践方案。
我们是否已做好准备?
(以上内容均由Ai生成)