Deepfake 骗局窃取了数百万美元 – 如何发现一个
快速阅读: 据《福布斯》称,深度伪造技术的进步引发了新型网络犯罪,如假冒高管诈骗2500万美元。此类攻击每五分钟发生一次,成为生物特征欺诈的主要形式。AI生成的虚假视频和音频难以辨认,导致许多受害者上当。识别假视频需关注面部动作、光线和音频特征,并核实对方身份信息。在深度伪造时代,多方确认和限制个人信息分享至关重要。
在香港的一位员工与公司的首席财务官进行了一次视频会议,但实际上与会的并不是真正的首席财务官。诈骗者利用人工智能生成了该高管的深度伪造影像,在通话过程中,他们诱使该员工将2500万美元转移到一个欺诈账户。这一现实世界的劫案展示了深度伪造技术的巨大进步。过去主要是电影中的特效,如今由人工智能生成的虚假视频和语音克隆已经成为欺诈的工具。从模仿你亲人声音的虚假“绑架”电话到伪造老板指令付款的视频,深度伪造正在引发新一轮的网络犯罪。
深度伪造骗局的兴起使逼真的虚假视频和音频比以往任何时候都更加普遍。2024年,每五分钟就发生一次深度伪造攻击,占所有生物特征欺诈的40%。Gartner预测,到2026年,由于人工智能生成的深度伪造技术的兴起,30%的企业将认为仅凭身份验证解决方案是不可靠的。即使在2026年春天,尽管深度伪造技术备受关注,许多人仍然相信实时音频和视频无法被伪造。这种错误的安全感正是骗子所利用的漏洞。技术的发展如此之快,以至于看到或听到的东西也不再能确保真实性。
为什么深度伪造如此令人信服
深度伪造之所以令人恐惧,部分原因是它们看起来极其真实。人工智能模型可以研究一个人的公开照片或录音(例如从社交媒体或YouTube获取),然后生成一个能够捕捉其外貌或语气的假视频。因此,许多人高估了自己的识别能力。iProov的一项调查显示,43%的受访者表示他们认为自己无法分辨真实视频和深度伪造视频的区别,近三分之一的人甚至不知道什么是深度伪造——这表明潜在受害者数量庞大。深度伪造利用信任:受害者看到一张熟悉的脸或听到一个熟悉的声音,所以警报不会响起。这些骗局还依赖于紧迫性和保密性(例如,“我现在需要这笔电汇——不要告诉任何人”)。当我们结合情感操纵与视觉/听觉的真实性时,难怪即使是专业人士也会被骗。在2500万美元案件中的员工注意到一些异常情况——通话突然中断,他从未直接与同事交流——但直到钱消失后才意识到这是一个骗局。
识别假视频:警示标志和工具
虽然深度伪造可能非常逼真,但并不总是完美无缺。有一些明显的迹象——如果你知道该留意什么的话。在视频中,观察面部动作和光线:这个人自然眨眼吗?他们的面部表情和唇形同步是否与音频完全匹配?注意不自然的语调或奇怪的音频特征——轻微的机器人音色或奇怪的停顿可能是合成语音的特征。最重要的是,考虑上下文:这个请求或情景是否不寻常?例如,你的老板真的会在没有任何事先通知的情况下通过视频通话要求转账吗?
在技术方面,研究人员和公司正在开发深度伪造检测工具——一些浏览器和电子邮件服务开始标记可疑内容。但这些工具尚未普及且不能保证万无一失。目前,假定任何视频或语音都有可能是假的!
核实对方的身份信息,以确保安全——在深度伪造时代保持安全
鉴于难以通过视觉检测复杂的深度伪造,重点转向了核实。如果你收到通过视频通话、电话甚至语音邮件发出的不寻常请求——特别是涉及金钱、敏感信息或任何高风险事项的请求——请退一步。通过另一个渠道核实对方的身份信息。例如,如果你接到一个似乎是你受困家人的电话,请挂断并用已知号码回拨。如果你的老板要求你购买礼品卡或转账,请尝试当面确认或通过官方公司渠道确认。这不是粗鲁或多疑——这是今天的必要谨慎。
此外,为紧急情况与亲朋好友建立秘密安全词或验证问题(深度伪造冒充者不知道的问题)。注意你在公共场合分享的内容。尽可能限制发布高质量的视频或语音录音,因为这些是深度伪造的原始材料。一些银行和服务现在对大额转账使用回拨或多重身份验证——拥抱这些保护措施。
总之,信任你的直觉:如果感觉不对劲,先核实。
(以上内容均由Ai生成)