AI尚难在社交媒体上“毒舌”,研究揭示技术局限
快速阅读: 最新研究显示,AI在象棋、数学及多领域超越人类,但在社交媒体上难以模仿真实恶意。苏黎世大学等机构研究发现,AI生成的社交媒体帖子易被识别,情感表达不及人类丰富,尤其在毒性评分上低于人类。
不要错过我们的最新故事。将PCMag设为Google上的首选来源。
人工智能已在象棋和数学等领域超越人类,并在编程、广告甚至心理治疗等领域能力日益增强。然而,研究人员认为,有一个领域是AI尚未能真正突破的:在互联网上表现出真实的恶意。
来自苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的一篇最新论文发现,由多种大型语言模型生成的社交媒体帖子可以被以70%到80%的准确率轻易区分出来,远高于随机水平。
研究人员测试了六个不同模型家族(Apertus、DeepSeek、Gemma、Llama、Mistral和Qwen)的九个开放权重大型语言模型,以及一个大规模的Llama模型,在Bluesky、Reddit和X平台上进行了实验。该研究首次由Ars Technica报道,发现这些平台上的帖子的“毒性评分”是区分AI和人类帖子的关键因素。
如果有人回复你的帖子时,用了一条特别有趣或尖锐的评论,那很可能就是由人类写的。
研究人员表示:“这些结果表明,尽管大型语言模型可以模仿在线对话的形式,但它们难以捕捉其感觉:人类互动中特有的自发性和情感丰富的表达。”
研究表明,大型语言模型更擅长模仿社交媒体帖子的技术方面,如句子长度或字数,而不是表达情感。在所有三个平台上,AI回复的平均毒性评分都低于真实的人类回复。
这一发现出现在今年早些时候AI用户抱怨ChatGPT的4o模型变得过于谄媚之后。而GPT-5在这方面又矫枉过正,导致OpenAI重新发布了更友好的GPT-4o版本,因为人们对于GPT-5的生硬回应感到不满。
研究人员还发现,未经过人类指令微调的AI模型——如Llama-3.1-8B、Mistral-7B和Apertus-8B——的表现优于经过微调的模型。他们认为这可能表明,对齐训练引入了风格上的规律性,使得文本更加机械化。
在某些情境下,模型生成帖子的能力较差。例如,在埃隆·马斯克的X或Bluesky上表达积极情绪,或在Reddit上讨论政治。总体而言,所有测试的AI模型在模仿X平台上的帖子时表现最好,而模仿Reddit上的帖子最为困难,因为该网站的“对话规范更为多样”。
(以上内容均由Ai生成)