据报道,Anthropic、英国AI安全研究所和艾伦·图灵研究所的最新联合研究发现,大语言模型对数据中毒攻击的抵抗力远低于预期。攻击者仅需极少量的恶意文件就能在模型中植入“后门”。这项研究针对参数规模从600万到130亿不等的AI模型进行了 […]