审查特朗普新计划中人工智能模型中的“意识形态偏见”引发混乱
快速阅读: 据《联邦独家新闻》最新报道,特朗普政府发布《人工智能行动计划》,要求采购AI时确保客观真实,避免意识形态偏见。该计划引发科技界担忧,部分专家认为可能影响AI中立性与创新。
据美国媒体报道,7月19日,特朗普政府发布了《人工智能行动计划》,旨在推动政府中人工智能技术的应用,并对抗所谓的人工智能模型中的“意识形态偏见”。这份28页的文件概述了多项与联邦采购流程相关的措施,强调确保人工智能系统“从源头上就考虑到言论自由和表达”,并保证政府使用的人工智能“客观地反映真相”。
该计划呼吁更新联邦采购指南,要求政府只与最先进且能确保系统客观性的大型语言模型开发者签订合同。特朗普政府已将反对保守派偏见作为一项重要政策方向,此次声明首次将此努力与政府自动化技术联系起来。不过,政府尚未明确如何审查这些模型的意识形态偏见,部分科技界人士对此表达了担忧。
电子前沿基金会的基特·沃尔什认为,此举可能反映了政府希望控制人工智能工具展示的信息。沃尔什指出,虽然政府有权决定购买哪些服务供自己使用,但不应利用此权力惩罚提供政府不喜欢内容的人工智能服务的出版商。
乔治·梅森大学的瑞安·豪瑟表示,新采购要求可能使政府技术合作伙伴面临“难以达到的标准”。他说,目前与国防部合作的公司如Anthropic、谷歌、OpenAI和xAI将不得不投入更多资源来审计其模型,确保符合新的偏见要求。
国际法与经济学中心的克里斯蒂安·斯图尔特指出,联邦采购标准的变化将对产品设计产生重大影响,特别是对依赖政府订单的小公司。他预测,如果客观性成为采购标准,企业将更明确地说明如何验证模型的中立性。
特朗普政府还提议,国家标准与技术研究院应调整其人工智能风险管理框架,移除有关多样性、公平性、包容性、气候变化和虚假信息的部分内容。这意味着,拥有联邦合同的人工智能公司将不再需要管理这些领域的风险。
一位白宫高级官员在电话会议上透露,政府预计GSA将制定具体采购条款,要求联邦政府采购的大语言模型遵循真实性标准,确保准确性和真实性,不因意识形态偏见而妥协。
卡托研究所的马修·米特尔施泰德特批评这是政策的最大失误,认为“客观性”在哲学和技术上都难以定义,且此类尝试可能适得其反,导致美国失去国际客户。
与此同时,总务管理局正在向联邦雇员推广其内部开发的人工智能聊天机器人GSAi,并积极寻求外部公司的技术支持。GSAi平台已接入Anthropic和Meta等私有模型。上周,xAI宣布其Grok模型可通过GSA采购,正值该公司因聊天机器人的反犹太主义回应受到批评之际。
(以上内容均由Ai生成)