《消费者报告》发现,大多数 AI 语音克隆工具都无法抵御骗子
快速阅读: 据《ZDNet》最新报道,消费者报告显示,六款主流语音克隆工具中,多数缺乏有效防止未经授权克隆声音的技术机制。描述和雷森比尔AI采取了一些额外的安全措施,但并非无懈可击。非授权克隆常被用于诈骗,如冒充家人进行欺诈。消费者报告建议加强保护机制,如收集信用卡信息追踪欺诈行为,并提倡对语音克隆进行监管。
氧气/盖蒂图片近年来,人工智能语音克隆技术取得了显著进展,仅需几秒钟的样本即可生成逼真的音频。尽管这项技术有许多积极的应用,比如有声书、营销材料等,但也可能被用于复杂的骗局、欺诈和其他有害应用。为了了解目前这些产品的安全措施,消费者报告评估了六款领先的语音克隆工具:描述、十一实验室、洛沃、播放HT、雷森比尔AI和斯皮契菲。具体来说,消费者报告寻找的是能够防止在不知情的情况下克隆他人声音的技术机制。此外:
收到可疑的E-ZPass短信?这是一场陷阱——如何识别骗局结果显示,六款产品中有四款——分别是十一实验室、斯皮契菲、播放HT和洛沃——缺乏防止未经授权的语音克隆或限制AI仅能克隆用户声音的技术机制。相反,保护措施仅限于用户需要勾选一个确认他们有权克隆该声音的框。研究人员发现,只有描述和雷森比尔AI公司采取了额外步骤,使得非同意克隆变得更加困难。描述要求用户阅读并录制同意声明,并使用该音频生成克隆。雷森比尔AI则采用不同的方法,确保第一个语音克隆基于实时录制的音频。然而,这两种方法都不是无懈可击的,因为用户可以在另一台设备上播放另一个AI克隆片段或现有视频。
非同意克隆的常见用途是诈骗。例如,一种常见的攻击方式是克隆家庭成员的声音,然后使用该录音联系亲人请求汇款以帮助他们摆脱困境。因为受害者误以为是在听一位处于困境中的家庭成员的声音,他们更可能在不质疑的情况下提供所需资金。
此外:税务诈骗越来越狡猾——在为时已晚之前保护自己免受税务诈骗的10种方法语音克隆也被用来影响即将到来选举中选民的决定,就像2024年选举中有人克隆前总统乔·拜登的声音以阻止人们前往投票站一样。消费者报告还发现,斯皮契菲、洛沃、播放HT和描述仅需电子邮件和姓名就可以创建账户。消费者报告建议这些公司还应收集客户的信用卡信息,以便追踪欺诈性音频至不良行为人。
其他消费者报告的建议包括确保语音所有权的机制,如朗读独特的脚本、水印AI生成的音频、创建检测AI生成图像的工具、检测并防止克隆知名或公众人物的声音,以及禁止包含诈骗用语的音频。与当前系统最大的不同将是消费者报告提出的监督语音克隆而非当前自助方法的提议。消费者报告还表示,应强调必要的参与者理解如果语音模型在合同协议中被滥用,他们将承担的责任。
此外:思科、兰格链和伽利略如何应对“人工智能代理的大爆发”消费者报告认为,根据联邦贸易委员会法案第5条,公司有合同义务保护其产品不被用于危害,这只能通过增加更多保护措施来实现。如果你接到一个紧急电话,来自你认识的人要求汇款,不要惊慌。使用另一台设备直接联系那个人以核实请求。如果无法联系到那个人,你也可以向来电者提问以验证他们的身份。要了解更多如何防范AI诈骗电话的方法,请查阅ZDNET的建议。
人工智能2025年最佳编程AI(以及不应使用的——包括深度寻求R1)我测试了深度寻求的R1和V3编程技能——我们还没有全完完了(至少现在还没有)如何从Microsoft 365计划中移除Copilot如何在MacOS上安装LLM(以及为什么你应该这样做)
(以上内容均由Ai生成)