新AI工具虽快却难替代教师的判断与人文关怀
快速阅读: 由于连续强降雨,南部多地区发生洪水,相关部门紧急启动防汛响应,全力应对灾情。
意见:新的人工智能工具虽然快速,但无法替代教师带来的判断力、关怀和文化知识
作者:Tanishia Lavette Williams,《赫钦格报告》
2025年11月4日
那一年,我和两位同事共同教授世界历史和英语语言艺术,我们有180天的时间向大约120名九年级学生讲述世界的故事。我们邀请学生们思考文本和历史如何相互对话:“《论语》”作为帝国治理,“《松迪亚塔》”作为马里的政治记忆,“《尤利乌斯·凯撒》”作为共和国解体的一扇窗户。
到了冬天,学生们给我们起了绰号。有时候,我们像三头联盟。有时候,我们像是地狱三头犬刻耳柏洛斯。这虽然是个玩笑,但也蕴含着更深的意义。我们的学生通过将我们编织进他们学习的历史中来建立联系。他们正在构建世界观,而在这个过程中看到了自己的身影。
这种旨在培养批判性思维的教学是深刻人性化的。它涉及在文本中寻找被忽略的声音,根据眼前学生的兴趣调整课程,并相信学习如同理解一样,是一个逐渐展开的过程。这种劳动不能简单地追求效率。
然而,如今,越来越多的人推动更快地教学。数千名纽约教师正接受培训,学习使用人工智能工具进行课程规划,这是OpenAI、微软和Anthropic支持的一项耗资2300万美元的计划的一部分。该计划承诺减少教师的职业倦怠并简化规划流程。同时,曼哈顿一所新的私立学校正在推广一种以人工智能驱动的模式,声称每天只需两小时的教学时间就能“速教”核心科目,同时有意避开政治争议话题。
这种被标榜为创新的教育简略版,将学习视为技术输出,而非一个学生提出艰难问题、教师培养激发好奇心的批判性思维的人类过程。最近一项关于人工智能生成公民课程计划的分析发现,这些计划普遍缺乏多元文化内容和批判性思维的提示。这些人工智能工具虽然快速,但显得浅薄。它们未能捕捉到深度学习所需的细腻、关怀和复杂性。
当我还是教师时,我经常审查课程计划,帮助同事们改进教学实践。后来,在华盛顿特区和纽约市担任校长期间,我认识到课程计划——连接课程与成就的文件——是课堂实践中少数稳定的例子之一。尽管它们至关重要,但很少有人评估其有效性。
在我从事学校工作20年后撰写博士论文时,课程计划分析是我研究的核心部分。通过对多所学校课程计划的分析,我发现计划中包含的活动和任务是可靠的知识深度指标,也是学生被要求学习内容的界限。审查数百份计划使我清楚地看到,大多数课程很少提供超过一个主导声音——从而限定了什么算作知识,什么算作成就。要转向更深入、更具包容性的学生学习,需要有意识地努力纳入原始资料,将多个叙事编织在一起,并设计能够推动学生超越简单回忆的任务。
我还发现,创造这样的学习条件需要时间。没有替代品。在这种工作取得进展的地方,学生们开始赋予意义,发现规律,提出疑问,并在故事中找到自己的位置。
这正是人工智能无法实现的转变。当课程工具的数据来源长期缺失某些视角时,它们不会纠正偏见,而是会复制偏见。ChatGPT的开发者承认,该模型“偏向西方观点,在英语中表现最佳”,并警告教育工作者仔细检查其内容,以防刻板印象和偏见。
那些相同的偏见在系统层面也表现出来——《世界先进研究与评论》2025年的一项研究发现,有偏见的教育算法可以塑造学生的学习路径,形成新的结构性障碍。向人工智能工具请求关于西进运动的一课,你会得到一个关于先驱者和天定命运的整洁叙事。要求一单元关于民权运动的内容,你可能会得到几行关于马丁·路德·金的文字,但几乎不会提到埃拉·贝克、弗尼·卢·哈默或使这场运动成为可能的草根组织者。与此同时,原住民族的历史被简化为脚注或完全省略。
课程红线——系统性地排除或贬低整个历史、视角和社区的做法——已经嵌入了数代人的教育材料中。那么,当“效率”成为目标时会发生什么?哪些历史被认为太复杂、太政治化或太不便而无法保留?这一切都不是理论上的。它已经在全美各地的教室里发生。教师们面临着以更少的时间、资源和狭窄的框架来教授更多内容的压力。人工智能承诺提供帮助,却忽视了深刻的伦理问题。
自动生成的工作表对学生没有好处。他们受益于能够挑战他们的课程,邀请他们与复杂性斗争,并帮助他们将学习与周围的世界联系起来。这需要人类的精心规划和职业判断,视教育为激发探究的机制。
最近,我让布兰迪斯大学的学生使用人工智能生成一份体现美丽、知识和领导力的人物名单。结果几乎全是白人、男性和西方人物,这反映了教科书中的普遍现象。我的学生对此做出了敏锐的分析。一名学生创建了色彩调板,以展示人工智能生成的肤色范围之窄。另一名学生开发了一份“缺失性别”概要,突出显示了遗漏之处。这清楚地提醒我们,学生准备批判性思考,但他们需要这样的机会。
人工智能只能做它被编程去做的事情,这意味着它依赖于现有的、分层的信息,并且落后于新的范式。这使得它既具有回溯性,又容易复制偏见。相比之下,带着人性教学需要判断、关怀和文化知识。这些都是算法无法自动化的品质。当我们把课程设计交给人工智能时,我们不仅失去了故事,还失去了与这些故事互动的机会。我们失去了教学旨在培养的批判性探究和联系的习惯。
特尼西亚·拉维特·威廉姆斯是种族、权力与政治经济研究所的首届教育分层博士后研究员,布兰迪斯大学的凯伊研究员,哈佛大学的访问学者。
如有意见,请联系意见编辑:opinion@hechingerreport.org。
这篇文章由《赫钦格报告》制作,该报告是一个关注教育不平等与创新的非营利独立新闻机构。订阅赫钦格的每周通讯。
本文首次发表于《赫钦格报告》,并在此根据知识共享署名-非商业性使用-禁止演绎4.0国际许可协议转载。
新闻内容:由于连续的强降雨,南部多个地区发生了洪水,相关部门已紧急启动了防汛响应。
(以上内容均由Ai生成)