为什么领导者必须在 AI 时代选择人性而不是便利性
快速阅读: 据《福布斯》最新报道,领导者需在AI辅助与人类自主间找到平衡,避免丧失判断力和价值观。AI是工具而非替代品,应在道德准则下使用,注重人际关系和创造力,确保技术服务于人类而非取代之。
盖蒂图片社在工作场所对人工智能(AI)的迅速采用和转变正在引发一个紧迫的问题:作为领导者,你应该在多大程度上依赖AI?在什么时候你会冒着丧失人性的风险?在一个算法与日常决策交织的时代,领导者开始面临一个严峻的要求。你能否利用AI的潜力而不放弃判断力、创造力或领导者的根本价值观?你会记住人性吗?现在所做的选择将决定AI是成为增强组织的值得信赖的合作伙伴,还是成为完全破坏组织的颠覆性力量。
这个问题是由作者兼企业家法伊萨尔·霍克博士在他的著作《超越:在AI时代解锁人性》中提出的。
**AI世界中的“人类驱动者”**
霍克认为,在人类能动性和AI辅助之间找到正确的平衡是这个时代定义性的领导挑战之一。
“人类生活的很大一部分其实并不是关于目的地,而是关于到达那里的旅程,”霍克写道,他用自动驾驶汽车的比喻来质疑我们究竟应该把多少控制权交给机器。
“我们必须问问自己,我们是否想坐在AI驱动的自动驾驶汽车上度过人生的旅程,或者我们更愿意自己驾驶这辆车。更确切地说,我们需要问问自己哪种组合对我们最有效。”
换句话说,领导者需要确定自动化和人类自主之间的界限。
霍克的观点是,AI不同于我们见过的任何技术;它正在成为我们决策过程中的积极参与者。正如霍克所描述的那样,一个人对抗“成千上万甚至数百万人”的模拟智能可能会感到令人畏惧。
风险是我们会变得被动。
“做决定有一种直觉元素,”霍克告诉我。“你的直觉告诉你,‘不,这听起来不对劲。’所以如果你把所有这些都外包出去,谁会告诉你这不对劲?机器不会。”
从领导的角度来看——虽然AI可能会加快分析进程或推动常规决策,但人类领导者必须在伦理和常识方面保持在驾驶座上。
**AI的镜子和偏见困境**
认为AI是一个客观、超级聪明的助手是很令人安慰的,但这是一种危险的简化。
“AI是社会的一面镜子,是反映我们喂给它的内容的一面镜子,”霍克警告说。“显然,这有很大的偏见成分。”
在我们的对话中,他详细解释了看似高效的AI招聘工具如何反映并放大现有的偏见。
例如,如果简历筛选算法是在历史上有偏见的数据上训练的,它可能会在不知不觉中开始青睐某个城市或背景的候选人。
人类偏见通过算法成倍增长仍然是偏见;只是更快且更难检测。布鲁金斯研究所的研究人员发出警告,如果不加以控制,有偏见的算法可能会产生系统性的不公平结果。
对于领导者来说,教训是明确的。我们不能假设AI会神奇地消除组织中的偏见。霍克敦促领导者主动质疑和测试其AI系统的输出。
推荐是否公平?数据是否多样化?它本身是否及时且无偏见?
这种领导警惕性是保护人类能动性的一部分,确保重要决策(招聘、晋升、客户产品等)不会完全依赖于存在盲点的黑盒模型。
**过度依赖AI的人类代价**
除了道德困境,还有一个需要避免的人类陷阱:你是否允许AI侵蚀你在工作场所的人际关系和创造力?
“便利是一种毒品,”霍克打趣道,警告不要被将每项可能的任务都委托给自动化的诱惑所吸引。我们是舒适的生物,很容易让AI写所有的邮件,生成所有的想法,甚至处理团队沟通。
但正如霍克指出的那样,如果你做得太多,“你就是在外包你的能力,你不再想思考。”这就是危险所在。当人们什么都依赖AI时,他们可能会逐渐失去使他们最初有价值的能力和直觉。
越来越多的证据表明,过度依赖AI可能会损害团队的福祉和表现。
最近的研究突显了一个令人警醒的趋势:即使工作效率提高,广泛使用AI的员工仍可能感到孤立和社交疏离。
团队成员越依赖AI完成工作,他们就越感到孤独。这种深刻的讽刺之处在于,通过AI追求效率的公司可能会创造不参与工作的员工,最终表现更差。“孤独、不参与工作的员工不太可能全力以赴地工作。他们不太可能合作、创新或为他们的组织付出额外的努力,”研究得出结论。
最近的研究突显了一个令人警醒的趋势:即使工作效率提高,广泛使用AI的员工仍可能感到孤立和社交疏离。
霍克建议领导者要谨慎并设定界限:仅仅因为AI工具可以做某事并不意味着你应该用它来做。
例如,如果经理通过ChatGPT自动生成整个团队的绩效评估反馈,他们可能会节省时间,但一旦被发现,必然失去信任。
员工可以区分例行公事的机器人邮件和真诚、富有同情心的沟通。目标是让AI承担繁重的任务。同时,领导者加倍努力于领导的独特人类方面——指导、关系建立和愿景——这些是任何机器都无法复制的。
**以目标为导向、开放和关怀的领导**
那么,领导者应该如何与AI一起前进?
在这本书《超越》中,霍克概述了一个“OPEN”框架(概述情况、与技术和人合作、实验以学习、监督下导航)以及一个“CARE”框架(灾难化最坏情况、评估不确定性、监管护栏、退出以关闭)。
这一理念旨在拥抱AI固有的创新,同时保护基本的人类价值观。
此外,你是否以目标为导向进行领导?这是领导者在AI兴起之前就应该问自己的问题。
“你能做到并不意味着你必须这样做,”霍克说。这是一个提醒,克制是领导的重要品质。
领导者应为AI项目制定道德准则,甚至设置“杀死开关”。正如霍克指出的那样,只有在必要时才能拔掉插头,这需要领导者保持开放、以关怀的方式运作,并以目标为导向。
**伙伴而非替代品**
霍克希望领导者重新思考AI在工作场所的意义。“把AI看作伙伴,而不是外包商,”他敦促道。
当领导者将AI定位为协作伙伴——一种补充而非取代人类能力的工具时,他们会传达出清晰的信息。团队成员希望领导者支持他们,而不是那些悄悄利用技术作为削减成本或裁员借口的领导者。
霍克希望领导者重新思考AI在工作场所的意义。“把AI看作伙伴,而不是外包商,”他敦促道。
正如霍克提醒我们的那样,超越AI的诱惑意味着有目的地、富有同情心地引导创新,并坚定不移地致力于人类尊严。
当领导者这样做时,他们确保我们最先进的机器放大我们最佳的人类特质——而不是削弱它们。
观看领导力节目《领导力现在》中与法伊萨尔·霍克和丹·庞特弗拉克的完整访谈,或在您喜爱的播客平台收听。
(以上内容均由Ai生成)