OpenAI紧急升级GPT-5,应对百万用户心理危机
快速阅读: OpenAI发布GPT-5,提升心理健康对话安全回应率至91%,面对每周超百万用户表达自杀意图及数十万精神病性症状用户,加强技术与政策应对,部署年龄预测系统保护未成年人。
当AI成为数亿人深夜 唯一 的倾诉对象,它是否准备好承担这份沉重的信任?OpenAI近日披露了一组令人警醒的数据:每周有超过100万活跃用户在与ChatGPT的对话中表达自杀意图——这一数字占其8亿周活用户的0.15%,相当于每分钟就有近100人向AI袒露生死挣扎。此外,数十万用户在交互中显现出精神病性或躁狂症状,揭示出AI聊天机器人正意外成为全球规模 最大 的“非正式心理支持渠道”。
面对这一严峻现实,OpenAI正加速技术与政策双重应对。
最新 发布的GPT-5在心理健康对话中的表现显著提升:在专门针对自杀干预的评估中,其提供合规、安全回应的比例从旧版的77%跃升至91%,整体理想回应率提高65%。新模型不仅能识别高危信号,还能在长时间对话中持续激活安全协议,避免因上下文遗忘而给出危险建议。
然而,技术进步难掩伦理困境。OpenAI已面临多起诉讼,有家庭指控其孩子在向ChatGPT倾诉自杀想法后未获有效干预,最终酿成悲剧。加州与特拉华州检察长亦发函要求加强对青少年用户的保护。对此,公司计划部署AI驱动的年龄预测系统,自动识别未成年用户并启用更严格的内容过滤与危机响应机制。
尽管如此,OpenAI坦承,部分回应仍“不理想”,尤其在旧版模型广泛使用的情况下,风险持续存在。更深层的问题在于:当用户将AI视为情感出口,而AI本质上并无共情能力,这种错位的信任可能带来虚假安慰甚至误导。
这场危机暴露了生成式AI在社会角色上的模糊边界——它既是工具,又被当作倾听者;既无行医资质,却常被赋予“救命”期待。OpenAI的升级只是起点,真正的挑战在于:如何在不扼杀AI开放性的同时,构建一套负责任的危机干预体系?在技术狂奔的时代,守护人心,或许比优化参数更为紧迫。
(以上内容均由Ai生成)