AI 语音劫持:您对自己的耳朵有多信任?
快速阅读: 据《帮助网络安全》最新报道,AI克隆声音威胁加剧,仅三秒音频即可模仿人声。犯罪分子借此实施虚拟绑架和企业诈骗,造成巨大财务损失。为防范风险,需升级语音认证、结合行为生物特征、加强员工培训及限制个人信息共享,多管齐下保障安全。
你有多确定你能识别出AI克隆的声音?如果你认为自己完全确定,那可能你就错了。
这是一个日益严重的威胁。仅需三秒钟的音频,犯罪分子如今就能克隆某人的声音,这很容易从网上分享的视频或社交媒体获取。一位美国母亲几乎成为虚拟绑架骗局的受害者,一个克隆的声音逼真地模仿了她女儿的呼救声。此案例展现了犯罪分子愿意采取的残忍手段。
利用AI的语音诈骗通常通过冒充家庭成员或可信人物来瞄准老年人。但现在,此类诈骗正成为对企业的一种威胁。“AI驱动的语音诈骗瞄准企业的漏洞,例如安全协议薄弱、缺乏认证方式及员工培训不足,”Visa北美首席风险官麦克·伦伯格(Mike Lemberger)表示。
利用AI的语音诈骗的财务影响
如果一名拥有公司财务权限的员工接到他以为来自CEO的来电,他们可能会成为受害者,尤其因为它依赖制造紧迫感和快速反应的需求。如果成功,此类攻击可能导致重大经济损失,并失去客户的信任、投资者和合作伙伴,这可能对业务造成长期损害。
德勤金融服务中心预测,到2027年,生成式人工智能(GenAI)可能使美国的欺诈损失达到400亿美元。意大利警方近期冻结了近100万欧元与使用AI生成的语音深度伪造相关的骗局资金。骗子假扮成意大利国防部长,要求该国顶级富豪为被绑架的记者筹款。
AI的进步正在超越语音生物特征
尽管这种方法很方便,但公司和行业用它来验证用户身份时显得不足,尤其是在金融领域。虽然这些行业依赖这项技术来确认客户身份,尤其是在呼叫中心,但它也使它们更加脆弱。
为了保持领先地位,企业必须将多因素认证(MFA)和AI驱动的欺诈检测与语音认证相结合。如果没有这些额外的保护层,仅靠语音生物特征无法抵抗生成式人工智能的发展。
“我们将会看到比以往更具说服力且危险的网络钓鱼邮件,这要归功于AI模仿人类的能力。如果再结合可以创建深度伪造音频和视频的多模态AI模型,我们可能需要在每次与他人进行虚拟互动时进行两步验证,”SecurityPal首席执行官普卡尔·哈马尔(Pukar Hamal)指出。
如何防范利用AI的语音诈骗
**升级语音认证**:基础的语音系统容易被AI攻破,因为它通常依赖单一的语音特征。使用检查个人声音多个方面的技术,比如音调和节奏。这些系统更难被愚弄。
**添加行为生物特征**:结合语音识别与行为分析,观察诸如停顿、音调变化和压力等语音模式。这些微妙的线索对AI来说难以模仿,使得更容易识别假声或操纵的声音。
**教育员工**:培训你的员工,特别是关键决策者如高管,以识别AI驱动的社会工程战术。确保他们明白骗子能用AI复制声音并操控他们采取行动。鼓励他们质疑任何不寻常的要求,特别是涉及金钱或敏感信息的要求。
**限制在线个人信息共享**:如果可能的话,限制在线共享的个人信息量,包括语音录音。犯罪分子可利用这些资源来克隆声音并实施有针对性的骗局。
总结起来,防范利用AI的语音诈骗需要技术升级、行为分析、员工培训以及信息共享的多重手段。只有综合施策,才能有效应对这一日益严峻的安全挑战。
(以上内容均由Ai生成)