使用深度伪造和 AI 的网络攻击者构成越来越大的威胁:MeitY
快速阅读: 据《印度教商业线》最新报道,印度电子和信息技术部发布《2024年数字威胁报告》,警告深度伪造技术和人工智能可能被用于网络攻击,特别是社会工程攻击。报告由多个机构共同编写,强调需警惕大型语言模型被操控传播恶意代码。部长Krishnan呼吁加强网络安全协作,并提及与印度制造商讨论美国提高进口关税事宜。
印度电子和信息技术部(MeitY)周一发布了一份名为《2024年数字威胁报告》的研究文件,其中指出,网络攻击者预计会越来越多地利用深度伪造技术和人工智能(AI)生成的内容作为强有力的入侵工具,尤其是在社会工程攻击中。
报告强调,深度伪造技术的进步使得创建高度逼真的、经过操控的音频和视频内容成为可能,这些内容能够精准模仿个人身份。报告提到:“深度伪造的声音和视频允许网络攻击者模仿高管、员工或受信任合作伙伴的声音和外貌。”
报告进一步指出,深度伪造技术的进步使得创建高度逼真的、经过操控的音频和视频内容成为可能,这些内容能够精准模仿个人身份。例如,攻击者可能会在虚拟会议中使用深度伪造视频来欺骗财务团队授权非法转账,或者使用深度伪造语音诱使个人泄露一次性密码(OTP)、多因素认证(MFA)、密码或其他敏感信息。
该报告由计算机应急响应小组(CERT-In,隶属于MeitY)、CSIRT-Fin以及全球网络安全公司SISA共同编写。
此外,报告还提到了对大型语言模型(LLM)日益增长的担忧,指出攻击者可能会尝试操控LLM或其训练数据以推广恶意库。通过污染数据集或利用模型中的漏洞,他们可以让LLM提出或生成包含篡改库的代码。
“依赖LLM进行编码协助或推荐的开发人员可能会无意间将这些恶意组件整合到他们的应用程序中,从而传播漏洞。即便是在禁止直接使用LLM生成代码的组织内,开发人员仍然可能从这些模型中寻求指导,从而增加了引入受污染库的风险。”报告进一步补充道。
此外,报告还提到了对大型语言模型(LLM)日益增长的担忧,指出攻击者可能会尝试操控LLM或其训练数据以推广恶意库。通过污染数据集或利用模型中的漏洞,他们可以让LLM提出或生成包含篡改库的代码。
印度电子和信息技术部部长S Krishnan表示:“BFSI生态系统的相互关联性质意味着单一的网络攻击可能引发系统性影响,波及初始目标之外的多个实体。这凸显了在全国和行业层面协调网络安全工作的紧迫性。CERT-In和CSIRT-Fin通过与监管机构、行业利益相关方以及全球网络安全机构合作,在减轻这些风险方面发挥着至关重要的作用,确保及时检测、响应和恢复网络事件的影响。”
与此同时,Krishnan谈及美国近期提高进口关税时说:“我们一直在定期与印度制造商保持沟通。这是我们在持续与他们讨论的问题。目前他们并不十分担忧,但这也取决于整个局势如何发展。这是一个动态的局势。”
**评论**
发布于2025年4月7日
阅读更多内容,请访问[此处](链接)
(以上内容均由Ai生成)