AI影响人类交流,Sam Altman称网络对话“假”
快速阅读: OpenAI首席执行官萨姆·阿尔特曼承认AI技术存在缺陷,指出网上AI讨论显得虚假,因人们模仿机器人语言风格。研究显示ChatGPT影响了人们的词汇选择和交流方式。
主要的人工智能领导者,如OpenAI首席执行官萨姆·阿尔特曼,开始承认他们自身技术的怪癖和缺陷。阿尔特曼表示,网上的AI讨论往往显得“虚假”,因为人们开始模仿机器人的语言风格。研究发现,ChatGPT已经影响了人们的词汇选择以及他们的书写和说话方式。
甚至大型AI公司的首席执行官们也开始承认技术的问题。周一,OpenAI首席执行官萨姆·阿尔特曼在X平台上发表了一篇帖子,提到他在阅读关于公司新开发工具Codex的Reddit讨论时感到非常奇怪。“我假设这一切都是假的/机器人生成的,尽管在这个案例中我知道Codex的增长非常强劲,这里的趋势是真实的。”阿尔特曼写道。他所指的Reddit讨论对OpenAI的Codex给予了过分正面的评价,甚至提到了Anthropic的Claude Code。
“我认为有很多因素在起作用,”阿尔特曼继续说道,“真实的人们开始模仿大语言模型的语言特点,网络上的群体行为呈现出高度相关性,炒作周期表现出极端的‘过头了/我们又回来了’的态度,社交媒体平台为了增加参与度而施加的优化压力,以及相关的创作者盈利模式,其他公司对我们进行了水军操作,所以我对此更加敏感,还有更多因素(可能包括一些机器人)。”
OpenAI没有立即回应《财富》杂志的评论请求。阿尔特曼并不是第一个指出人们开始像AI机器人一样说话的人。柏林马克斯普朗克人类发展研究所的博士后研究员八浦弘章大约在ChatGPT于2022年底推出一年后注意到了自己词汇的变化。八浦及其同事分析了数百万封电子邮件、论文和其他文本,以及数十万YouTube视频和播客节目,发现在AI工具发布后的18个月内,“深入探讨”、“考察”和“探索”等ChatGPT常用词汇的使用量激增。
“储存在AI技术中的模式似乎正在反向传输到人类思维中,”该研究的合著者、同样来自马克斯普朗克人类发展研究所的莱文·布林克曼告诉《科学美国人》。另一项由加州大学伯克利分校进行的研究发现,ChatGPT的回答强化了方言歧视。换句话说,ChatGPT倾向于使用标准美式英语,这可能会让非美国用户感到不满。这表明ChatGPT有其标准的回应方式,进而影响用户的说话和写作方式。
“总的来说,现在的AI推特/AI Reddit感觉比一两年前更假了,”阿尔特曼说。然而,神经外科医生、联合国教科文组织合作伙伴维库坦南·拉贾拉特南在一篇领英文章中提到,他一直在尝试逆向工程ChatGPT,使其听起来更像是他自己。虽然他认为ChatGPT的一些优点包括词汇和语法的丰富性,以及沟通中增加的清晰度和结构,但他也指出了“真实性减弱”这一重大缺点,以及地方口音和个人声音的丧失。
“通过精心设计的提示和迭代改进,我已经调整它来反映我的语气、词汇和思维方式,”拉贾拉特南写道。“现在当我使用它时——无论是起草通讯、头脑风暴还是撰写学术作品——它常常听起来非常熟悉……因为它听起来就像我。”
尽管如此,其他高管和亿万富翁也注意到了AI的一些奇特之处和缺陷,即使他们总体上对这项技术持相对积极的态度。前《创智赢家》投资者、达拉斯小牛队老板马克·库班本周在Bluesky上发帖称,AI有一个最大的弱点:缺乏谦逊。“对于反AI群体来说,这是一个小小的安慰,”他写道。“AI最大的弱点就是无法说‘我不知道’。”“我们承认自己不知道的能力将永远给人类带来优势,”他补充道。
《财富》全球论坛将于2025年10月26日至27日在利雅得举行。届时,全球的CEO和领导人将聚集一堂,参加这场动态且仅限邀请的活动,共同塑造商业的未来。申请参会资格。
(以上内容均由Ai生成)