山姆·阿尔特曼 (Sam Altman) 表示,彬彬有礼的 ChatGPT 用户正在消耗数百万 OpenAI 美元
快速阅读: 《技术点》消息,对ChatGPT说“请”和“谢谢”真的会让OpenAI损失数百万美元吗?其实并不会。Sam Altman的言论被误解,实际成本远低于传言。礼貌增加的计算成本每年约14.6万美元,远不及整体运营成本。
礼貌不会破坏环境:训练和运行人工智能模型的成本巨大。即使不考虑其他因素,仅电力一项,AI数据中心每年就需要花费超过一亿美元来处理用户提示和模型输出。那么,对ChatGPT说“请”和“谢谢”真的会让OpenAI损失数百万美元吗?简短的回答是:可能不会。
过去几天里,关于对像ChatGPT这样的AI聊天机器人过于礼貌可能增加成本的令人震惊的标题在网络上广泛传播。一些例子包括:
– 你的礼貌可能会让OpenAI付出代价——TechCrunch
– Sam Altman说对ChatGPT说“请”和“谢谢”会让OpenAI损失数百万美元——Quartz
– 对ChatGPT好可能对环境不利。原因如下——Laptop
这条新闻源于Sam Altman在X上随口的一句话。它始于一个简单的问题:人们向其语言模型说“请”和“谢谢”给OpenAI造成了多少电费损失?Altman回答说:“花得值得——你永远不知道。”
这一句话就足以让像《纽约邮报》和《未来主义》这样的媒体陷入猜测的漩涡,试图估算礼貌所需的计算成本。
逻辑是这样的:每个额外的词都会增加提示中的标记数量,而这些额外的标记需要更多的计算资源。考虑到ChatGPT的用户基数规模,这些看似微不足道的增加最终会累积起来。
不过,Altman评论背后的数学计算受到多个因素的影响。首先是每标记的实际成本。ChatGPT表示GPT-3.5 Turbo每1000个输入标记的成本约为0.0015美元,每1000个输出标记的成本为0.002美元。“请”和“谢谢”通常总共会增加两到四个标记。因此每次使用的成本仅为微不足道的几分钱——大约每交换一次为0.0000015到0.000002美元。根据粗略估计,这个金额大致相当于每天400美元,全年约146,000美元。这比“数千万美元”低了好几个数量级。
至于实际的能源成本,美国能源信息管理局的电力研究学院估计OpenAI每月的电费约为1200万美元,即每年约1.4亿美元。这个数字涵盖了所有类型的交互,而不仅仅限于礼貌性的交互。所以虽然理论上礼貌性提示每年可能超过1000万美元,但我们没有数据来细分这个数字。只有OpenAI内部的数据能够准确说明这一点。
此外,Altman的话并不是字面意思。“你永远不知道”这一后续说法表明他的评论是玩笑式的。这句话更像是一种对礼貌的机智认可,而不是真正的财务估算。他可能的意思是在一个礼貌越来越稀有的时代,也许这种小额支出(无论是400美元还是4000万美元)都是值得的。当然,机器人没有感情——但如果有一天人类需要服从超级智能的人工智能,它可能会记住谁是有礼貌的——“你永远不知道。”
**图片来源:阿巴卡通讯社**
(以上内容均由Ai生成)