我们没有被告知的关于 AI 的信息
快速阅读: 据《马耳他独立报》最新报道,家长用两个AI平台询问香港归属,得到不同答案,引发对AI信息真实性的质疑。文章指出AI非中立,受数据与政策影响,可能影响公众认知。
据澎湃新闻报道,近日,一名家长在与孩子的日常对话中,提出了一个看似简单的问题:“香港是中国的一部分吗?”为了寻找答案,这位家长分别使用了两个不同的AI平台:ChatGPT和DeepSeek。然而,两个平台给出了截然不同的回答。其中一个平台详细解释说,香港是中国的一个特别行政区,拥有独特的法律和政治体系,这是1997年英国将香港交还给中国的结果。另一个平台则直接确认,香港是中国不可分割的一部分,从历史和法律角度看,香港一直属于中国。
这一现象让家长深感震撼。两个看似权威的回答,实际上反映了不同平台背后的数据来源和价值取向。这不仅引发了对人工智能信息真实性的质疑,也促使人们思考人工智能在塑造公众认知方面的作用。
文章指出,人工智能系统并非完全中立,其回答往往受到训练数据和内部政策的影响。这些数据和政策可能受到公司价值观、法律风险、市场压力甚至国家利益的制约。例如,关于台湾、巴勒斯坦或克里米亚等敏感问题,不同地区的AI平台可能会给出不同的答案。这种现象被称为“算法外交”。
此外,越来越多的研究人员警告称,人工智能正逐渐成为获取和验证知识的主要渠道,可能导致“认知捕获”,即人们将AI生成的内容视为可靠信息,而忽略了其背后的复杂性和局限性。在教育领域,学生使用AI工具撰写论文、总结历史事件,但若不了解这些答案的构建过程,可能会接受到扭曲或脱离背景的信息。
文章进一步指出,虽然许多公司声称推行“伦理AI”或“负责任的AI”,但这些概念往往缺乏具体的执行机制,更多地是为了公关目的。真正的挑战在于建立透明度、责任框架和民主监督,确保人工智能的发展符合公共利益。
最终,家长的这次经历引发了对权力、知识和真相未来的深入思考。在人工智能时代,即使是再简单的问题,也可能伴随着复杂的答案。
(以上内容均由Ai生成)