评论:人工智能能弥补劣等教育吗?
快速阅读: 《拉斯维加斯评论-期刊》消息,蓝皮书销量回升,教育机构试图阻止学生使用ChatGPT。作者认为依赖工具会削弱思考能力,强调培养人类思维的重要性。
还记得考试用的白纸本吗?好吧,它们又回来了。一家名为罗aring Spring纸制品公司(Roaring Spring Paper Products)的企业正在经历“蓝皮书”销量的回升,教育机构希望通过这种方式阻止使用ChatGPT等聊天机器人进行考试。考试开始时会分发这些白纸本,不允许使用屏幕、应用程序或手机。这家公司的意外之财反映了长期以来关于用工具替代培养推理和分析技能的争论的最新篇章。
我们认为这是一种错误的非此即彼,而最新的争论焦点——人工智能——正是这一问题的最新体现。
当我们是20世纪60年代的科学和工程学生时,我们熟练掌握了计算尺(一种用于计算的工具,计算器的前身)。很快,能够进行复杂计算的智能计算器出现了。这使得解决简单问题变得容易,但对于更复杂的计算,如何提出问题以及何时、如何使用这些设备改变了战略目标。换句话说,正确地定义问题成为真正的挑战。这是大脑的任务,熟练使用工具并不能取代它。
对工具的依赖在教育过程中很早就开始了。为什么还要学习心算或乘法表呢?毕竟所有这些信息都在我们的手机上。现在有多少青少年能做长除法?我们每天都能看到收银员在你给21美元买15.99美元的商品时,只想要一张五美元而不是四张一美元(外加一个便士)时手忙脚乱。他们必须依赖新型收银机中的软件。
同样,熟练使用ChatGPT或其他聊天机器人的能力只有在一切重要的是答案时,才能代替研究、写作或分析。然而,在学校里,这被正式且学术地视为作弊,因为它阻碍了学生知识和分析技能的积累。在工作中,对于某些任务来说,仅仅达到一个足够好的解决方案可能就足够了。但是,有多少人能通过成为ChatGPT高手而获得成功,就像只是精通微软Word或Excel一样?
鉴于教育领域的近期趋势,这种演变并不令人惊讶。表扬一个没有回答出2加2等于4的学生,是教师背叛学生的终极例子。那个学生如何才能理解并非一切都具有相对性,并且正确的推理和足够的知识基础对于成功至关重要?尽管ChatGPT不会出现这种基本错误,但随着它被赋予越来越复杂的任务,今天的学生成熟到能检测并纠正出现的错误或细微误导吗?
同样,熟练使用ChatGPT或其他聊天机器人的能力只有在一切重要的是答案时,才能代替研究、写作或分析。然而,在学校里,这被正式且学术地视为作弊,因为它阻碍了学生知识和分析技能的积累。在工作中,对于某些任务来说,仅仅达到一个足够好的解决方案可能就足够了。但是,有多少人能通过成为ChatGPT高手而获得成功,就像只是精通微软Word或Excel一样?
这在我们今天看来似乎不太可能。毕竟,大多数人接受微软Word中不正确的语法建议(在我们写这篇文章时,我们多次遇到这种情况)。接下来是不是常识的死亡?AI是否能够充分理解物理世界,从而不会做出不当的建议?例如,AI可能会正确设计飞机座位的扶手,将控制按钮放在顶部,但它是否会考虑这些按钮的位置是否会导致人们的肘部无意间改变娱乐系统的频道(最近我们其中一人在一次航班上就遇到了这种情况)?简而言之,AI能否判断哪些设计缺陷会让人类感到沮丧?
我们预测,最好的创新仍将来自受过良好训练的人类头脑,无论是否有超级计算机和聊天机器人的帮助;然而,我们的教育系统却越来越忽视这一认识。越来越多的文凭变成了参与奖(指为了鼓励参与而颁发的奖项)。荣誉课程被弱化,因为不是每个人都能在其中取得成功。数学上称这种思维方式为“最低公倍数”(通常带有贬义,指为了迎合大众而简化的内容)。
人工智能是否正开始通过说服我们,让学校毕业出一群ChatGPT的“傀儡”,来取代人类能力的差异?
美国持续的繁荣及其公民福祉的进步将取决于对其最优秀人才的培养和挑战。如果我们核心人口中受过良好教育的头脑继续减少,迟早,进步的关键力量将会转移到其他地方。所以,让我们拿出蓝皮书吧。
千万别去问ChatGPT这主意好不好!
安德鲁·I·菲拉特在其职业生涯中从事科技风险投资和信息技术公司,是关系数据库(一种用于数据管理的数据库系统)的共同发明者。亨利·I·米勒是一位医生和分子生物学家,是美国科学健康委员会的格伦·斯沃格尔杰出研究员。他们为InsideSources.com写了这篇文章。
(以上内容均由Ai生成)