EFF 到 NSF:AI 行动计划必须以人为本
快速阅读: 《电子前线基金会》消息, EFF呼吁政府在制定AI政策时保持透明,聚焦实际危害,优先开源工具,反对强化大公司地位,建议聚焦保护公共利益而非扩大版权保护。
今年一月,现任政府发布了一项关于人工智能(AI)的行政命令,撤销了已被废止的拜登时代命令,呼吁制定新的AI行动计划,旨在“减轻”当前AI行业的负担,推动创新并从行业中剔除“人为的社会议程”。这项针对总统的新行动计划正在制定中,并向国家科学基金会(NSF)公开征求公众意见。电子前沿基金会(EFF)以几个明确的观点作出回应:
首先,政府在采购决策技术(ADM)时必须保持透明和公众问责——不应让秘密且未经验证的算法决定谁保住工作或谁在美国失去安全庇护。其次,生成式AI政策规则必须聚焦于实际危害,并适当保护其他公共利益。最后,我们不应该通过AI许可制度强化最大的公司和守门人的角色。
政府自动化决策机制美国对AI的采购速度惊人,但缺乏透明度。通过浪费资金在未经验证的系统上,这种采购不仅巩固了最大的AI公司,还可能侵犯所有受这些自动化决策影响的人的公民自由。这些危害并非假设性的,我们已经看到在执法和国家安全领域采用实验性AI工具的趋势,包括移民管控。最近的报告还表明,政府效率部(DOGE)打算应用AI来评估联邦雇员,并根据结果决定他们的继续雇佣情况。自动化关于人类的重要决策是鲁莽和危险的。最好的情况下,这些新AI工具是无用的机器,需要更多劳动力来纠正不准确性;最坏的情况下,它们可能导致非理性且可能带有歧视的结果,而这些结果被技术的黑箱性质所掩盖。相反,采用这些工具必须遵循《行政程序法案》要求的健全的公众通知-移除流程实践。这个过程有助于剔除对AI蛇油的浪费性支出,并确定使用这些AI工具是否不适当或有害。
此外,AI行动计划应优先考虑在自由和开源软件原则下开发的工具。这些原则对于评估这些模型的有效性至关重要,并确保它们遵循更公平且科学的发展过程。此外,更开放的开发可以促进创新,并确保公共支出最终惠及公众——而不仅仅是那些最成熟的公司。
不要助长强大的守门人
由于对生成式AI的普遍焦虑,立法者基于推测起草了广泛的法规,几乎没有考虑到涉及的多重公共利益。尽管存在合理的担忧,但这种对政策的反应性方法正是我们在2023年警告过的。例如,像NO FAKES和NO AI Fraud这样的法案扩大了版权法,以偏袒大型企业巨头而非其他人的表达。NO FAKES甚至包含了一个类似于DMCA的通知-移除流程方案,长期以来受到在线创作者的批评,因为它鼓励更广泛和自动化的在线审查。其他政策制定者提出了诸如水印等技术要求,这些要求充满了实际失败点。
在这些建议中,AI许可制度的日益突出限制了AI发展的潜力,只允许出价最高的人参与。这种对公平使用的干预创建了只保护大型科技和媒体出版公司的付费墙,排除了这些许可证名义上保护的实际创作者。这就像帮助一个被霸凌的孩子通过给他更多的午餐钱来给他的霸凌者。
这是错误的方法。寻找简便解决方案如扩大版权,会伤害所有人,尤其是那些无法与行业大守门人竞争的小型艺术家、研究人员和企业。AI威胁了创意劳动的公平报酬和待遇,但牺牲衍生使用并不能解决劳工与寡头垄断之间权力失衡的根本问题。人们有权不受私营垄断集团的束缚而参与文化并表达自己。
政策制定者应专注于狭义制定的政策以保护这些权利,并将规则制定限制在经过测试的解决方案上,以应对实际危害。
您可以在这里阅读我们的评论。
电子前沿基金会关于AI行动计划的评论
(以上内容均由Ai生成)