中国应对AI幻觉问题进展与挑战
快速阅读: 中国AI行业迅速崛起,推出多款高性价比开源模型,但面临幻觉问题。政府通过法律手段加强监管,部分模型如DeepSeek R1幻觉现象加剧,影响信息准确性。
上一阶段见证了中国人工智能行业的崛起;中国企业现在推出了一系列高性价比、开源的人工智能模型,在许多方面可与西方同类产品相媲美。然而,这些模型也像整个AI行业一样面临幻觉问题;在某些中国模型中,这一问题甚至随时间恶化。中国已经采取了一些措施来解决这个问题,主要是通过法律体系;然而,这仍然是一个未完全解决的挑战。
2026年2月,一位微博用户报告称,他们在尝试集成到Deepseek中的老虎证券分析阿里巴巴财务报告时,对结果感到惊讶。他们核实了AI提供的数字,发现这些数字是虚构的。这成为了这些模型可能产生幻觉及其潜在危害的一个显著例子。
中国研究人员已经开始研究幻觉现象;例如,复旦大学和上海人工智能实验室的研究人员共同建立了一个中文语言模型的基准。此外,中国科学技术大学和腾讯优图实验室的一组科学家引入了一种对抗AI幻觉的工具。
到目前为止,中国的人工智能公司尚未采取强有力的措施,似乎主要关注于法律保护自身利益;例如,DeepSeek、Qwen 3和Manus的使用条款明确规定,公司不对模型产生的任何错误负责。只有两家公司在技术模型卡中简要提到了减少幻觉的问题。
在国家层面,中国正利用法律和政策手段让AI模型的创造者承担责任,并要求他们确保模型的可信度。例如,《新一代人工智能治理原则》呼吁逐步实现可信度,而《生成式人工智能服务管理暂行办法》第四条禁止虚假和有害信息的生成。该办法还要求实施有效措施以提高生成内容的准确性和可靠性,第七条则要求增加训练数据的真实性、准确性、客观性和多样性。2025年9月,中国发布了AI安全治理的第2版,将幻觉视为需要缓解的风险之一。
中国对监管幻觉的兴趣很大程度上源于其总体信息流控制政策;显然,中国政府领导层不希望看到传播虚假信息,这些信息可能会削弱其合法性或与官方国家叙述相矛盾。
尽管付出了所有努力,鉴于其模型的表现,中国仍需更加关注这一问题。例如,最近对AI模型真实性和可靠性的评估显示,中国模型仍然落后于国际模型如GPT-5和Claude系列。DeepSeek的最新R1模型比其V3前身产生更多的幻觉。
中国的模型正在获得广泛采用。目前,预计中国开源模型的全球下载量将在不久的将来超过美国模型。看来,除了意大利监管机构此前因虚假信息风险调查过DeepSeek之外,用户仍然优先考虑中国模型的廉价和开放访问,而非信息质量。
(以上内容均由Ai生成)