6 家 AI 语音克隆公司中有 4 家未能防范诈骗者
快速阅读: 《eWeek 系列》消息,消费者报告评估发现,部分人工智能语音克隆工具存在严重安全漏洞,容易被网络犯罪分子利用实施欺诈。仅有两家公司采取了有效的滥用防护措施。报告呼吁科技公司加强监管并采取更严格的防范措施。企业应实施多因素认证、培训员工识别欺诈行为,并跟踪相关技术发展,以防成为受害者。
消费者报告评估揭示了网络犯罪分子利用某些人工智能语音克隆工具中的严重安全漏洞。这些漏洞让网络犯罪分子几乎毫不费力就能实施欺诈。这些发现引发了关于消费者保护和需要更严格规定以遏制由人工智能驱动的假冒所带来的日益增长威胁的紧迫担忧。
许多人工智能语音克隆公司在防止滥用方面存在不足。消费者报告评估了六家人工智能语音克隆公司——德斯克利普特(Descript)、埃莱文实验室(ElevenLabs)、洛沃(Lovo)、普赖特(PlayHT)、雷瑟姆AI(Resemble AI)和斯皮契菲(Speechify),并发现只有德斯克利普特和雷瑟姆AI拥有有意义的滥用防护措施。其他四家人工智能语音克隆工具依赖于薄弱的自我验证系统,用户只需确认他们有权克隆声音;这一漏洞为诈骗者敞开了大门。
消费者报告政策分析师格蕾丝·盖迪批评这些人工智能公司未能采取基本的保护措施来防止未经授权的克隆。她表示:“我们的评估显示,公司可以采取一些基本步骤来增加未经授权克隆他人声音的难度——但有些公司没有这样做。”
该报告呼吁科技公司采取更严格的监管和主动措施来解决这些漏洞。人工智能语音克隆如何在几秒内模仿你的声音?
人工智能系统一旦上传了声音样本,就会分析语音模式、音调和节奏,生成与原始发言者非常相似的合成音频。这项技术已经发展到可以实时对话或无缝地插入音频文件的程度。
消费者报告警告,若无更强的安全保障,人工智能语音克隆可能成为欺诈的重要工具,使网络犯罪分子能够用近乎完美的模仿欺骗受害者。
不要成为下一个受害者:企业应采取的措施
消费者报告关于人工智能语音克隆的研究结果展示了某些缺乏足够安全保障的生成式人工智能工具如何被武器化用于欺诈。为了防止成为受害者,企业必须:
1. 对敏感通信实施多因素认证(MFA)。
2. 培训员工识别语音克隆尝试。
3. 跟踪人工智能欺诈检测技术的发展。
随着人工智能生成的声音变得越来越复杂,领先于不断演变的威胁至关重要。如果没有更强大的法规,不法分子将继续利用这项技术——将声音变成欺骗的武器。
(以上内容均由Ai生成)