高校AI治理迫在眉睫,政策滞后引发担忧
快速阅读: 人工智能在高校的应用已成为常态,但多数机构仍缺乏正式的治理政策,导致隐私、偏见等问题频发。2024年,美国联邦机构发布了59项相关新规,强调治理必要性。高等教育需构建多部门协作的治理框架,确保技术安全与伦理。
美国马萨诸塞州剑桥,2017年10月10日:哈佛大学标志性建筑的景象,当地居民、游客和学生在附近穿行。
随着学生秋季返校,人工智能对于高校而言已不再是可选话题,而是日常运营的现实。从个性化咨询机器人到自动生成课程大纲,人工智能正在悄然重塑高等教育的运行机制。然而,在幕后,关键的治理架构仍然缺失。
根据2025年EDUCAUSE人工智能景观研究,该研究调查了近800名高等教育专业人士,截至2025年春季,少于40%的机构制定了正式的人工智能使用政策,许多校园仍在政策制定的初期阶段或探索性讨论中。
缺乏正式的治理框架使机构容易发生《家庭教育权利和隐私法》违规、算法偏见、无障碍失败及学生信任度下降——尤其是在高风险决策由监督不明的人工智能系统驱动时。
2024年,美国联邦机构发布了59项与人工智能相关的规定,是上一年总数的两倍多,据斯坦福HAI人工智能指数显示。同时,教育部启动了对学生数据管理不当(包括州级人工智能相关问题)的《家庭教育权利和隐私法》调查。
认证机构也在适应人工智能的发展。AACSB开发了一个AI案例中心,帮助获得认证的商学院将人工智能应用与其标准相协调,并建议机构在这样做时遵循自己的治理、隐私和使用政策。全美范围内,NSF的区域创新引擎和CHIPS法案投资优先考虑与人工智能相关的研究和劳动力准备——通常倾向于能够证明数字成熟度和治理能力的机构。
信息明确:人工智能治理不是可选项,而是运营的一部分,且正在接受审计。
幸运的是,高等教育无需从零开始构建人工智能治理。越来越多的机构转向与既定标准对齐的结构化框架,如:
– 国家标准技术研究院的人工智能风险管理框架
– 《家庭教育权利和隐私法》和美国教育部的学生隐私办公室
– 《美国残疾人法案》第二部分
– HECVAT采购协议
– 新兴的ISO/IEC 42001人工智能管理系统标准
例如,2024年的一项同行评审研究考察了14所美国机构(包括几所十大联盟学校)的人工智能治理情况。研究表明,大学如何部署多部门治理结构——将信息技术、教学与学习团队、图书馆、教务长办公室和人工智能中心聚集在一起,共同塑造人工智能政策和系统使用。这成为分散监督同时保持机构一致性的复杂范例。
匹兹堡大学的一个为期一学期、由教师领导的治理设计过程展示了包容性人工智能政策如何与高等教育价值观相一致。由教务长办公室召集,跨学科委员会(包括教师、管理人员和学生)通过定期讨论、三次焦点小组会议和144名受访者调查,历时一个学期。由此,他们提出了六个“考虑要点”,指导人工智能采纳时尊重学术自由、公平、适应性和机构规范——而非强加自上而下的命令。
这些研究展示了当治理被有意地构建和修订时的可能性。
2025年秋季转折点
随着新学年的到来,压力日益增大。学生期待透明度,教师需要明确指导,资助者和认证机构提出尖锐问题,而人工智能供应商继续以大多数采购流程难以跟上的速度前进。
在我撰写的《超越学术诚信的人工智能伦理路线图》中提到,人工智能伦理不仅是一种姿态,而是一种实践。这种实践现在取决于高校能否将治理嵌入日常的审批、监督和沟通节奏中。
现在正是行动的时机。机构有机会将深思熟虑的原则转化为可持续的实践——通过建立促进创新、保障公平和赢得公众信任的政策和平台。
(以上内容均由Ai生成)