学校使用 AI 监控孩子,但调查发现风险
快速阅读: 据《ABC 新闻》最新报道,学校使用AI监控学生引发隐私争议。软件虽能预警潜在危机,但存在隐私泄露和误报等问题。专家呼吁平衡安全与隐私,确保技术合理应用。
学校采用人工智能监控学生引发隐私争议
**调查揭示人工智能监控风险**
近年来,许多学校开始引入人工智能技术,全天候监控学生在发放设备(如笔记本电脑和平板电脑)上的活动。这一趋势在疫情期间尤为明显,当时几乎所有学生都获得了学校分配的电子设备。然而,这一做法也引发了隐私和安全方面的严重争议。
克莱尔·布莱恩(《西雅图时报》)和夏农·卢里(美联社)的报道指出,人工智能驱动的监控软件已在多个学区普及。这些技术旨在保护学生安全,却可能带来意想不到的后果。
**监控软件的运作机制**
以华盛顿州温哥华公立学校为例,该区采用了Gaggle公司开发的软件,通过机器学习算法实时扫描学生的在线活动。一旦检测到潜在危险信号,如欺凌、自残或自杀倾向,软件会生成警报并将其发送给人类审查员。若问题被认为严重,学校将与家长沟通,并在紧急情况下联系警方。
根据公布的文件,学生们不仅用这些设备完成学业任务,还记录了他们的个人困扰,包括抑郁、失恋、自杀念头、成瘾问题、欺凌和饮食失调。然而,这些数据未被妥善保护,防火墙和密码均未能有效隔离,学生的真实身份也被暴露。
**意外后果:隐私与信任的挑战**
监控技术虽然帮助学校及早发现并干预潜在危机,但也带来了隐私和信任方面的隐患。例如,一些LGBTQ+学生在坦露自身身份后,可能被校方无意中曝光给不支持的家庭。此外,学生意识到自己被监控后,可能会寻找规避监控的方法,削弱了与学校工作人员的信任关系。
温哥华地区的案例表明,尽管学校承诺保障学生安全,但监控技术并未完全消除校园暴力或自杀事件的发生。2023-24学年,奥瓦索学校收到了近1000个Gagall警报,其中包含大量误报,例如关于同意的重要性或友人间的玩笑内容。
**家长与专家的担忧**
许多家长对学校实施监控技术表示理解,但也对隐私问题表达了深切担忧。黛西亚·福斯特提到,虽然她认可学校保护学生安全的努力,但她对记录的不当公开感到愤怒。她认为,学校有责任确保学生隐私不受侵犯。
华盛顿大学教授凯蒂·佩尔斯指出,许多家长甚至不知道学校正在使用监控软件,而即使知情,他们也可能无法选择退出。
**技术的局限性**
尽管监控技术能在一定程度上帮助教师提前干预危机,但发展心理学研究表明,青少年需要拥有一定的私人空间去探索自己的想法和情感。人工智能伦理研究员本杰明·布德罗警告称,过度监控可能阻碍学生建立私人生活和犯错的空间。
Gagall首席执行官杰夫·帕特森则表示,学校提供的设备不应成为无限制的自我表达场所。他强调,学校需承担起责任,确保学生的在线活动不会走向极端。
**总结**
随着人工智能技术在教育领域的应用日益广泛,其带来的隐私与安全问题不容忽视。学校需要平衡保护学生安全与尊重隐私之间的关系,以确保技术的合理运用,真正为学生创造一个健康、安全的成长环境。
(完)
(以上内容均由Ai生成)