FBI 警告 — 您永远不应回复这些邮件
快速阅读: 《福布斯》消息,FBI警告AI深度伪造攻击日益严重,已冒充官员致电外国部长。建议用户勿轻信语音信息,核实发件人身份。技术易用,威胁加剧,需提高警惕。(98字)
FBI的AI警告越来越严重。法新社与盖蒂图片社于7月10日重新发布,新增关于AI深度伪造攻击的报告,并为智能手机用户提供安全建议,以应对日益增长的威胁。AI被用来冒充国务卿马可·鲁比奥并致电外国部长的消息可能令人震惊,但不应感到意外。FBI已警告此类攻击正在展开,情况只会变得更糟。据《华盛顿邮报》首次报道,国务院已告知美国外交官,这次最新的攻击已经针对至少三位外国部长、一名美国参议员和一名州长,使用AI生成的声音冒充鲁比奥。一个假的Signal账户(Signal再次作案)被用来通过短信和语音信息发起联系。很明显,语音信息使攻击者能够部署AI伪造内容,而无需在实时通话中运行它们所带来的固有风险。
如果此应用程序安装在你的智能手机上,请立即删除它。
作者:扎克·多夫曼
FBI明确表示——除非你能验证发件人,否则不要回复短信或语音信息。这意味着一个听起来熟悉的语音信息也不能信任,除非你能确认其发送的实际号码。在你能验证之前不要回复。
更多推荐:
Darktrace的AI与战略总监玛格丽特·坎宁安告诉我,这一切都太“容易”了。这些攻击虽然“最终未成功”,但表明“生成式AI可以如此轻易地用于发起可信的定向社交工程攻击”。令人担忧的是,坎宁安警告说,“这种威胁并没有失败是因为它制作得不好——而是因为它错过了人类脆弱的关键时刻。”人们在“同时处理多项任务、在压力下以及受熟悉感引导的情况下做决定。在这些时刻,一个值得信赖的声音或看起来官方的信息很容易绕过警惕性。”
尽管鲁比奥诈骗会引发大量新闻头条,但AI伪造警告已经流传了几个月。它不会引起同样的头条新闻,但你更有可能在职业生活中通过利用现成的社交媒体联系和内容进行社交工程来成为目标。
FBI告诉智能手机用户:“在回复之前,研究一下发件号码、组织机构和/或声称与你联系的人。然后独立确认该人的电话号码并打电话核实其真实性。”这还加上了目前针对美国公民的短信攻击泛滥所给出的更广泛的建议。检查任何消息的细节。删除任何明显的虚假信息,如假收费或DMV交通违规信息。永远不要点击短信中的任何链接。而且,不要害怕挂断那些技术客服、客户支持、银行或执法官员联系你的电话。你可以之后通过公开可用的联系方式联系相关组织。
ESET的杰克·穆尔警告说,“现在克隆一个声音只需几分钟,当与社交工程结合时,结果非常具有说服力。随着技术的进步,创建逼真克隆所需的音频量也在持续减少。”
“这种伪装令人担忧,突显了生成式AI工具已经变得多么复杂,”Black Duck的托马斯·理查兹说道。“这强调了生成式AI工具被用于操纵和欺诈的风险。旧的软件世界已经消失,取而代之的是由AI定义的新真相。”
至于鲁比奥的伪造品,“国务院已经了解这一事件,并正在监控和处理此事,”一位发言人对记者说。“该部门认真对待其保护信息的责任,并不断采取措施提高部门的网络安全态势,以防止未来事件的发生。”
“AI生成的内容已经发展到很难识别的地步,”该局警告道。“如果你不确定某人是否真实想与你沟通,请联系相关的安全官员或FBI寻求帮助。”
时机恰到好处的是,Trend Micro的最新报告警告说,“犯罪分子可以轻松地用极低的预算、努力和专业知识生成高度逼真的深度伪造内容,而且深度伪造生成工具将来只会变得更加便宜和有效。”
安全团队表示,这得益于推动其他类型欺诈的相同类型的工具包,这些欺诈在今年也引发了FBI的警告,包括各种其他消息攻击。
“创建深度伪造的工具,”Trend Micro表示,“现在更加强大,由于更便宜和更容易使用,也更加易于获取。”
时机恰到好处的是,Trend Micro的最新报告警告说,“犯罪分子可以轻松地用极低的预算、努力和专业知识生成高度逼真的深度伪造内容,而且深度伪造生成工具将来只会变得更加便宜和有效。”
正如FBI年初早些时候所警告的那样,并且在目前正在进行调查的最新鲁比奥伪装事件中,深度伪造语音技术现在已经很容易部署。
“AI生成语音技术的市场非常成熟,”Trend Micro指出,列举了几种商业应用,“有众多服务提供语音克隆和专业级语音配音……虽然‘这些服务有许多合法的应用,但它们被滥用的潜力不容忽视。’”
谷歌的AI开始阅读你所有的信息——如何阻止它
作者:扎克·多夫曼
在爆出鲁比奥伪装新闻后,《华盛顿邮报》警告说,“在美国缺乏有效监管的情况下,保护自己免受语音冒充者的责任主要落在你自己身上。假扮紧急呼叫的可能性需要与家人讨论——包括是否设置密码词是过度的,可能会无意中吓到年幼的孩子。也许你会决定设置并练习一个密码短语,以获得安心。”
这个想法是由FBI几个月前提出的,即一个安全的密码词,朋友或亲戚可以用它来证明他们的真实性。
“与家人创建一个秘密词语或短语以验证他们的身份,”它在一份AI攻击预警中建议。“罪犯可以使用AI生成的音频来冒充知名公众人物或亲友,以骗取付款,”该局在12月警告道。“罪犯生成包含亲人声音的短音频片段,冒充亲密的亲属,在危机情况下要求立即资金援助或勒索赎金。”
(以上内容均由Ai生成)