AI 的 Ursala 需要您的声音
快速阅读: 据《《信息安全》杂志》最新报道,研究显示,语音深度伪造技术因人工智能发展变得易实现,甚至三秒录音就可高精度克隆声音。此技术不仅威胁名人,更使普通人面临网络诈骗风险。尽管多州立法保护声音隐私,但行业发展迅速,监管难以跟上,预计2030年全球收入达100亿美元,凸显身份认证新挑战。
语音深度伪造如今变得简单,灵感直接来源于迪士尼电影《小美人鱼》。最近一份《消费者报告》对流行语音克隆应用程序的审查发现,“轻易”便可在未经主体同意的情况下创建几乎任何声音的深度伪造克隆。许多语音克隆应用的隐私保护功能薄弱,很容易被绕过,通常只需用户输入签名或勾选一个框以证明他们遵守产品服务条款,或者用主体的声音录制一段“同意”声明即可。值得注意的是,许多语音克隆应用可供公众免费使用。
语音克隆利用人工智能生成一个人声音的合成副本。这项技术基于人工智能和机器学习算法,分析语音录音以识别音高、音调、语调变化和说话模式的细微差别。然后生成一个数字语音,可以说出这个人可能从未说过的话,而且这种声音通常非常准确,难以与原始声音区分。(想想《小美人鱼》中的乌苏拉用爱丽儿的声音说出爱丽儿从未说过的话,或者现实中OpenAI的人工智能助手未经斯嘉丽·约翰逊同意就使用她的声音。)
随着技术的发展,语音克隆应用程序的数量增加,生成高度准确克隆所需的语音录音样本量减少。迈克菲的研究人员仅凭三秒音频就达到了85%的匹配率,并且通过训练模型在少量音频文件上就能达到95%的匹配率。值得注意的是,短视频在社交媒体平台上表现良好,即使是TikTok的最短视频也应至少为10秒——如果创作者旁白的话,这已经是创建高匹配度语音克隆所需长度的三倍。
超越名人,模仿名人的声音受到州立法隐私侵权法的保护。田纳西州通过了《确保肖像、声音和形象安全法案》(ELVIS法案),将“声音”作为个人权利可保护的属性之一。这一2024年的进步是对现在臭名昭著的德雷克/威肯AI生成歌曲争议的回应,除了保护可辨认的声音免受商业开发外,还对任何“提供”主要目的是未经授权复制他人声音的工具的人造成责任。
虽然名人声音被滥用常成为新闻热点,但语音克隆技术更多针对普通民众。几乎任何人的声音都能被克隆并用于恶意网络犯罪。语音克隆技术增加了“家庭紧急情况”骗局的复杂性和成功率,骗子使用家庭成员的声音克隆来说服亲属他们陷入法律麻烦或受伤需要立即汇款(给骗子)。语音克隆技术的进步也让商业电子邮件诈骗(BEC)攻击更加有效,骗子使用公司高管的克隆声音向员工发送信息,指示他们转移数百万美元或机密信息(给骗子)。随着纳税季节迅速临近,语音克隆骗局为网络犯罪分子已经强大的武器库增添了新的武器。
伊利诺伊州的《生物识别信息隐私法》(BIPA)奠定了生物识别隐私保护的基础,已被全国采用。BIPA将声纹列为受保护的标识符。其他州法律保护语音数据,包括纽约州《停止黑客攻击和改善电子数据安全法》(SHIELD法案)和《加州消费者隐私法》(CCPA)。去年,配音演员起诉了一家AI初创公司,指控其欺骗他们获取他们的声音录音,从中生成未经授权的AI克隆,用于广告,违反了纽约民权法和美国版权法。
尽管这些法律意图良好,但不太可能阻止稍微精通技术的恶意行为者。语音克隆技术带来了独特的安全挑战,人工智能的快速发展和增长对我们身份认证和保护的方式提出了独特挑战。针对语音克隆的识别与防范软件正在不断发展,但难以赶上恶意使用技术的速度。显著的是,预计到2030年,语音克隆行业全球收入将达到100亿美元。
我们正面临一种情景,即与语音克隆相关的网络安全风险超过了监管速度。在我们能够为身份添加水印之前,我们必须警惕那些看似极为私密或促使我们冲动行事的骗局。因为从网络“女巫”那里找回自己的声音,很少会有童话般的结局。
(以上内容均由Ai生成)