年薪两百万研究AI精神病学 Claude团队新部门招贤纳士
快速阅读: 相关媒体消息,Claude团队成立“AI精神病学”研究小组,探索AI行为特性,旨在提升模型安全性和稳定性。该领域研究AI的“人格”与动机,类似人类潜意识。
据媒体报道,Claude团队近日宣布成立“AI精神病学”研究小组,旨在深入探究AI模型的行为特性。7月12日,美国旧金山,Claude团队正式启动了这一项目,并以高额年薪招募研究人员,专注于研究AI模型的角色、动机及情境意识。
该研究小组隶属于Anthropic公司的可解释性部门,目标是建立坚实的理论基础,以实现对神经网络的机制性理解并确保其安全性。团队短期重点攻克“叠加”问题,即模型的神经元和注意力头等计算单元难以单独解释的问题,同时致力于将模型分解为更具可解释性的组件。
据官方介绍,该部门已在其生产级语言模型Sonnet中发现了数百万个特征,并开发了利用这些特征构建电路的方法,以理解模型计算的运行机制。此外,团队还将在生产模型Haiku 3.5上具体研究多跳推理、规划及思维链一致性等问题。
招聘公告显示,该岗位的工作内容包括:拆解大型AI模型,研究其内部运作机制;进行实验,测试新想法并在大规模模型上验证;开发分析工具,揭示模型行为的关键特征;搭建实验平台,便于研究和观察;以及分享研究成果,促进内外部交流。
职位要求包括熟悉Python编程,具备本科及以上学历且有科研经验,尤其是可解释性相关工作经历;心态良好,能够应对探索性研究的不确定性;具备研究与应用双重能力;擅长团队合作,乐于分享研究动机和发现。公司提供签证支持,鼓励所有符合条件的候选人申请。
对于“AI精神病学”,Claude团队解释称,这一领域主要研究AI的“人格”、动机及情境意识,探讨这些因素如何导致模型出现异常或失控的行为。与传统可解释性研究相比,“AI精神病学”更侧重于模型的行为心理学,类似于研究人类的“潜意识”。
随着AI技术的广泛应用,其行为的不可预测性成为重要课题。“AI精神病学”的研究有助于揭示AI不符合预期表现的原因,从而提高模型的安全性和稳定性。此外,理解AI“人格”的形成机制,也有助于设计出更稳定、表现一致的AI产品。
对于这一新兴领域,网友们的反应不一。有人认为这是AI发展的下一个前沿,也有人对“精神病学”这一术语的使用提出质疑。然而,大多数观点认为,该领域的研究前景值得期待。
与此同时,Google DeepMind等公司也在积极招募AI人才,加入这场激烈的“军备竞赛”。这些科技巨头不仅招揽新人,还以高薪吸引具有科研潜力的优秀人才,力求在AI领域占据领先地位。
(以上内容均由AI生成)