“AI能否拥有母爱?诺贝尔奖得主提出新观点”
快速阅读: 诺贝尔奖得主杰弗里·辛顿提出构建具母性本能的人工智能,以缓解AI发展带来的道德问题,此观点引发关于技术与人性的讨论。
近日,诺贝尔奖得主杰弗里·辛顿给世界带来了某种奇特的慰藉。常被称为“人工智能之父”的他提出,我们或许可以构建具有母性本能的人工智能。这个想法听起来几乎温柔,尤其是来自一位曾警告AI可能终结人类的科学家。或许,这是他试图画上圆满句号,创造带有同情心的代码。
我倾向于将这一观点视为某种感性的幻想。然而,我的内心某处却在思考辛顿是否触及了某些真理。在一个智力增长速度远超道德发展的世界里,哪怕是一种合成的关怀姿态,也可能起到稳定作用。如果能够编码出一种养育偏见,它可能会像情感安全阀一样——在辛顿提到的两个词之间插入算法暂停:自主性和毁灭。从这个角度来看,这也许不是幼稚,而是一种技术上的权宜之计。
不过,关心机器的概念并非新事物。自从艾丽莎让我们开始关注之后,我们就一直在追求它。辛顿的提议只是用进化论的语言包装了这个概念,利用母爱而非仆人的顺从来表达。但在母爱之下,仍然是那个熟悉的把戏。不过是老练的流畅性伪装成情感。机器并不关心,它只是计算。然而,我们希望它能关心,因为这种错觉缓解了我们对它的反智恐惧。
在最近的一篇文章中,我描述了人工同理心为“关怀的机械”或无意识的善意编排。辛顿的提议似乎是这场表演的下一幕。它将同理心的模拟包裹在进化论的语言中,将情感模仿转化为某种道德追求。但无论训练多么优雅,这依然只是架构,而非情感。母性的本能不是数据模式,而是生命的需求和被需求的结果。至少我希望是这样。
但这里还有更多值得探讨的内容。在另一篇文章中,我提出了AI是否“过于聪明而不邪恶”。我认为,智力本身并不会产生恶意,而是更接近于力量。我们担心的不是AI会恨我们,而是它根本不在乎。辛顿提出的母性本能试图用感情填补这一空白,仿佛一颗模拟的心可以约束加速的思维。这是一种可以理解的本能,但对我来说,更像是深刻的人类投射。
我认为,真正发生的是心理层面的变化。我们不断用我们理解的故事来装扮机器——教师、朋友、父母、爱人——因为我们无法直面它的真实面貌。最终,它是一面没有良知的认知镜子。这样的反射常常令人难以承受,所以我们用情感软化它。辛顿的母性比喻让我们感到安慰,但它并没有改变代码的本质。它改变了我们。
尽管如此,我并未完全否定他的观点。他的同情心背后有一种实际的智慧。如果我们不能让机器感受,或许可以让它们表现出仿佛在感受的样子。或许这足以给我们争取时间,建立一种道德框架,学习如何与超越同理心的系统共存。这是技术支撑的婴儿毯,但依然是支撑。
但我们不要过于激动。母爱无法被训练到硅片中。它可以被建模和模仿,但不能被体验。我的基本观点是,同情心不会从数据中产生,而是源于脆弱的人类互惠,每一次关怀的行为都伴随着风险、痛苦和选择。
因此,辛顿的想法或许能在纷扰的世界中提供暂时的慰藉。但它也——关键点在此——诱使我们走向自满。在这种背景下,真正的危险不是AI缺乏同理心,而是我们不再注意到AI不需要同理心就能对我们产生强大的影响。
所以,请记住,辛顿的“母性机器”或许能平息我们的恐惧,但也教会我们将技术模仿误认为人类亲密关系。
(以上内容均由Ai生成)