OpenAI因ChatGPT用户提示报告问题面临诉讼
快速阅读: 专栏讨论AI制造商何时应报告用户异常提示,因OpenAI遭起诉而引发关注。文章分析AI审查机制、用户隐私及制造商责任,提出立法统一标准的建议。
今日专栏探讨了一个重大且悬而未决的问题:AI制造商何时应报告用户可能异常的提示。由于8月26日针对OpenAI及其广泛使用的ChatGPT和GPT-5发起的民事诉讼,这一话题最近跃居头条。马修和玛丽·雷恩起诉OpenAI及其首席执行官萨姆·阿尔特曼。本文旨在讨论当代AI设计与使用中的社会层面问题,这些问题同样适用于其他生成式AI和大型语言模型,如Anthropic Claude、Google Gemini、Meta Llama、xAI Grok等。
近年来,随着生成式AI的发展和广泛应用,AI在心理健康治疗领域的应用日益增多。我一直在深入研究和分析现代AI在心理健康方面的影响。有关这一主题的四十多篇专栏文章总结见此链接。尽管这一领域发展迅速,前景广阔,但也存在不少潜在风险和隐患。我在去年接受CBS《60分钟》节目采访时也对此进行了讨论。
大多数生成式AI用户可能不知道,他们输入的提示会被AI制造商审查。人们普遍认为这些提示是完全私密的,不会被任何人获取。然而,事实并非如此。AI制造商在其在线许可协议中明确规定,用户同意其输入的提示可被审查,以确定是否违反AI使用条款。例如,如果有人利用AI规划犯罪,或表达可能对自己或他人造成伤害的内容,这些提示将被审查。
AI制造商通常使用自动化工具初步筛查提示,标记可疑内容,再由人类员工进一步审核。这可能是在公司内部完成,也可能外包给第三方。关于AI和人类如何评估提示及相关的用户隐私问题,详见此链接。
当我在演讲中提到这一审查机制时,听众常常对此表示反对。如果只有AI审查,他们似乎可以接受;但如果涉及人类审查,他们则感到难以接受。为什么需要人类审查提示?目前我们尚未实现通用人工智能(AGI),因此,只有人类才能准确判断提示是否越界。AI无法像人类那样细致地判断提示是否超出常规。如果提示引起警觉,最好由人类复核并决定后续行动。
有人坚持认为不应审查任何提示,无论是AI还是人类。所有提示都应完全私密。然而,这种观点存在问题。假设某用户描述了详细的谋杀计划,之后实施了谋杀。社会将要求AI制造商能够预防此类事件的发生。因此,通过AI初筛和人类复核来审查提示是必要的。
目前尚未确定人工智能制造商在使用其产品时应承担何种法律责任或财务责任。显然,如果有人利用AI实施严重伤害行为,而这种行为本可以提前检测到,AI制造商的声誉将受到严重影响。
某种程度上,AI制造商处于进退两难的境地。他们一方面因似乎侵犯用户隐私而受到批评,另一方面,若用户行为不当,AI制造商又不得不以某种方式承担责任。这就像夹在两块石头之间一样尴尬。
假设我们普遍认为AI制造商检查用户提示是有益的,那么接下来的问题是,当提示内容越过界限时,AI制造商应该采取什么行动?
一种观点是,AI制造商只需联系用户并告知其行为存在问题即可。AI制造商或许会向用户发送一条特别消息,提醒他们在使用AI时存在不当行为。一旦用户收到通知,AI制造商就不再需要进一步行动。
然而,这种解决方案存在问题。用户可能会忽略通知,继续使用AI,并改变提问方式以避免被检测系统捕捉。他们也可能停止使用当前的AI,转而寻找一个尚未对其行为发出警告的AI。
同时,如果提示内容可能导致严重后果,比如伤害他人,社会仍可能认为AI制造商没有采取足够的措施。这看起来像是AI制造商对此事置之不理。AI制造商将被视为只是做表面功夫。
为什么AI制造商不向当局报告此事?
这引出了另一个复杂的议题。
设想一位用户输入了多个关于计划抢劫银行的提示。AI计算分析后认为用户可能真的会实施犯罪行为,完全基于这些提示。AI将提示转发给人类审查员,审查员阅读后确认此人可能存在犯罪意图。
随后,AI制造商联系警方,提供有关用户的信息及其与AI的对话记录。
你如何看待AI制造商的这一后续行动?
一些人认为,这使AI变成了一个巨大的告密者。显然,无论你在提示中输入什么,都可能引起警方的关注。我们正逐渐进入“老大哥”监控的领域。最无辜的提示也可能突然导致政府敲门。这是使用现代生成式AI的一个令人不安的结果。
但也有人反驳说,如果AI制造商合理地认为用户将要抢劫银行,我们应该期望AI制造商履行公民职责,通知当局。事实上,如果AI制造商不这样做,或许我们可以认为他们是间接的共犯。AI知道这件事,AI制造商也知道,但他们没有采取任何措施来应对这一令人担忧的情况。
正如我所提到的,这是一个艰难的平衡,需要审慎对待。
2025年8月26日,OpenAI在其官方博客上发布了一篇题为《在人们最需要的时候提供帮助》的文章,宣布了新的政策:
“当我们检测到用户计划伤害他人时,我们会将他们的对话路由到专门的管道,由经过培训的小团队审查,必要时可采取行动,包括封禁账户。如果人类审查员认定某案例涉及对他人的即时严重身体威胁,我们将可能将其提交给执法部门。”
此外,他们还发布了另一项新政策声明:
“目前,我们不会将自杀案件提交给执法部门,以尊重用户的隐私,考虑到ChatGPT互动的独特私密性。”
OpenAI的政策声明还提到了他们在生活建议和辅导等多个领域的持续改进努力,包括情感依赖、奉承和心理健康紧急情况等方面的安全改进措施。
一个备受争议的途径是利用监管权力制定法律,明确规定AI制造商应采取的行动。因此,与其让每个AI制造商随意决定规则,不如由立法者做出决策并将其编入法律。立法者通常代表广大民众和社会的整体偏好。
统一法规的优势在于,所有人工智能制造商将遵循同一套规则。目前,每家制造商必须自行决定进行哪些类型的检查,并确定如何处理需要跟进的情况。制定统一标准将使制造商的工作更加简便。同时,用户也将受益,因为他们无需担心不同人工智能应用之间的规则差异。当前,用户往往不清楚某个特定的人工智能应用使用了哪些规则,除非他们查阅每个应用程序的在线许可协议,但这些协议可能模糊且不够具体。
关于立法途径的激烈辩论源于法律有时可能无法达到预期效果。法律可能过于宽泛,使得制造商仍需自主决定行动方向;另一方面,法律也可能过于严苛,导致制造商不得不严重限制其人工智能的功能,从而削弱其价值。良好的初衷是否会阻碍创新?法律是否有可能使情况变得更糟,而非改善现状?双方对此都有不少忧虑。
为了分析相关法律法规的利弊,我撰写了关于伊利诺伊州新法的文章,详见链接;内华达州新法的分析文章,详见链接;以及我的总体观点,详见链接。
以ChatGPT为例,该应用自2022年11月30日发布以来,迅速改变了公众对人工智能的看法。流畅的对话能力令大众为之震撼。如今,每周活跃用户已达约7亿,而若计入其他竞争产品的用户,总用户数可能达到数十亿。这标志着我们正处于一场大规模的社会实验中,涉及数百万甚至数十亿人的日常生活。
这场实验将如何不可避免地改变社会?个人生活将受到怎样的影响?此外,一些人可能会以我们不希望或有潜在危害的方式使用人工智能。有人将当前的人工智能环境比作“狂野西部”。我注意到,人们在使用生成式人工智能时,很容易陷入某种“迷恋”状态,详见链接,这可能导致无益的行为,甚至自我伤害或伤害他人。
这场全球性的实验松散且充满重大后果。人工智能技术正以惊人的速度发展,而社会变革和适应的步伐则相对缓慢。两者必须同步,否则我们将继续在这场大规模实验中挣扎。人工智能具有双重用途,既能带来巨大好处,也可能导致令人不安甚至灾难性的后果。
亚伯拉罕·林肯曾说过:“预测未来的最可靠方法就是创造未来。”这句话同样适用于人工智能及其在人类社会中的应用。
(以上内容均由Ai生成)