人工智能 – 权威的论点
快速阅读: 《Radio Free Mobile》消息,行业惯例误导公众,将新闻稿伪装成科学论文,夸大AI模型能力。同行评审缺失,数据不透明,导致公众误判AI发展水平。这对AI公司估值不利,但对人类安全是有利的。
一个极具欺骗性的行业惯例。OpenAI的最新模型再度被证实表现不佳,揭示了用产品发布新闻稿冒充科学论文的做法极具误导性,并使公众误以为这些模型的能力远超实际水平。
在人工智能行业中,传统的新闻稿时代早已结束,取而代之的是一份看似科学论文却充斥着复杂图表和技术术语的文件。科学论文的标准非常高,因为当它们被正确制作时,会经过同行评审,并以一种可重复验证其发现的方式撰写。这就是为什么一篇在科学期刊上发表的科学论文具有高度可信度,应受到尊重。科学论文的标准非常高,因为当它们被正确制作时,会经过同行评审,并以一种可重复验证其发现的方式撰写。科学论文还遵循特定的格式,包括摘要、引言、材料与方法、结果和讨论。简而言之:总结、为何进行实验、如何以及做了什么、发现了什么及其意义。这是验证和传播科学发展成果的基本方法,执行得当的话,已持续有效数十年。因此,一篇科学论文立即吸引了更高的可信度,而人工智能行业已经滥用并正在侵蚀这一过程。
十年前,人工智能研究主要局限于学术界,同行评审和正确制作的科学论文是一种可行的沟通方式,但ChatGPT的成功彻底改变了局面。我们目前正处于一场生产最佳基础模型的竞争中,由于数千亿甚至数万亿美元的利益,没有人有时间进行同行评审,甚至在许多情况下连实验都做不好。知名AGI怀疑论者加里·马库斯在他的最新博客中指出了这一点(详见此处),他指出OpenAI关于其最新模型的说法未能重现(这是一个严重的科学过失)。当OpenAI推出o3时,声称它能在一项名为ARC的困难基准测试中获得75%的分数,但其他人未能重现这一结果,他们能找到的最佳分数仅为56%。这不仅限于OpenAI,其他模型制造商对如何训练他们的模型不够透明,仅展示对其模型最有利的数据。
问题在于,这些发现随后被包装成科学论文,意味着它们似乎经过了同等严格的审查,因此是现实的准确反映。谷歌、Anthropic、Mistral、Meta、DeepSeek、阿里巴巴等公司都有这种做法,这意味着这些公司的任何发布内容都应该被视为营销新闻稿,仅此而已。只有当它们出现在同行评审的科学期刊上时,才应给予更高的可信度,但在那里,也有标准下降的迹象。
因此,当这些公司宣布新模型时,应该像苹果每次提到“苹果智能”时那样,受到同样程度的质疑。这种做法令人遗憾,因为它结合了伴随模型发布的夸张评论,正在让公众和市场相信超级智能机器就在眼前。如果这是真的,那么整个行业被严重低估了,但不幸的是,所有实证证据都指向恰恰相反的方向。这意味着,尽管人工智能仍有巨大的收入和利润机会,但机器接管90%的人类相关任务并变得比人类更聪明的时间仍然遥不可及。
这对人工智能公司的估值来说是个坏消息,但对人类种族来说是个好消息,因为机器仍然愚蠢到不足以决定人类是威胁并消灭我们。对科学而言是遗憾,但对人类而言是幸事。
(以上内容均由Ai生成)