AI伦理违规激增,多国报告警示风险
快速阅读: 新报告显示,过去两年AI伦理违规事件翻倍,涉及考试作弊、招聘偏见及网络安全威胁,引发监管机构关注。OECD指出,AI伦理和运营问题自2022年来增加两倍,责任、透明度和公平性成主要担忧。
新报告显示,过去两年内,与人工智能(AI)相关的伦理违规事件数量翻了一番多。近期来自麦肯锡、经济合作与发展组织(OECD)和兰德公司的报告警告称,从考试作弊丑闻到有偏见的招聘系统和网络安全威胁,涉及AI的伦理争议显著增加,监管机构和相关机构正努力应对这些挑战。
OECD的《AI事故与风险监测》报告指出,自2022年以来,涉及AI的伦理和运营问题增加了两倍以上。常见的担忧包括责任问题——当AI出错时谁来负责;透明度问题——用户是否理解AI的决策过程;以及公平性问题——AI是否会歧视某些群体。许多模型被视为“黑箱”,产生结果而没有解释,这使得错误难以被发现和纠正。
在工作场所,AI被用于筛选简历、评估申请者和监控绩效。然而,研究表明,基于历史数据训练的AI可能会复制偏见,无意中偏向某些群体。兰德公司报告称,AI还被用来操纵信息、影响敏感领域的决策以及实施网络攻击。
麦肯锡的一项调查显示,目前近80%的组织在至少一个业务功能中使用AI,这一比例较2022年的50%有所上升。尽管采用AI有望加快工作流程并降低成本,但许多公司在部署AI时缺乏明确的政策。大学也面临类似的问题,学生越来越多地依赖AI完成作业和考试,而学术规则仍不统一。
此外,41%的专业人士表示,由AI驱动的变化正在损害他们的心理健康,年轻员工尤其担心职业安全。领英数据显示,自2023年以来,美国的初级职位减少了35%以上,63%的高管预计AI将取代初级员工目前承担的任务。领英首席经济机会官阿尼什·拉曼形容这是“对新毕业生的完美风暴”:招聘冻结、经济不确定性以及AI的冲击。领英预测,到2030年,70%的工作岗位将发生巨大变化。
斯坦福大学的最新研究证实,自生成式AI普及以来,早期职业生涯工作者在AI暴露角色中的就业率下降了13%,而更有经验的工作者或较少受AI影响的角色保持稳定。公司通过裁员而非减薪来调整,导致年轻员工被挤出市场。
在比利时,随着佛兰德斯地区医学入学考试的一起作弊丑闻,关于AI伦理和公平性的讨论更加激烈。调查人员发现三名考生在考试中使用了ChatGPT。另外,19名学生提出上诉,怀疑其他人可能因不公平使用AI而获得高分:在5,544名参与者中,有2,608人通过了考试,但只有1,741人能够进入医学院。通过率从2024年的18.9%跃升至47%,引发了关于公平性和潜在AI滥用的担忧。
弗拉芒教育部长祖哈尔·德米尔谴责了这些事件,称使用AI的学生“欺骗了自己、大学和社会”。考试委员会主席扬·埃格蒙特教授指出,更高的通过率也可能反映了考题难度的降低,这是因为前一年的考试过于困难,以及参与人数创纪录,而不仅仅是AI辅助作弊的结果。比利时法语区的大学对此丑闻并不担心,因为它们仍然完全以纸质形式进行医学入学考试,德米尔表示他正在考虑恢复这一做法。
(以上内容均由Ai生成)