朋友、导师、医生、恋人:为什么 AI 系统需要针对不同的角色制定不同的规则
快速阅读: 据《对话 (澳大利亚)》称,随着AI承担更多社会角色,需考虑其关系语境对伦理的影响。开发者应关注AI的功能适配,用户需警惕潜在脆弱性,监管机构应细化风险评估。这有助于确保AI改善而非损害人类生活。
“我真的不知道该怎么办了,我没有任何人可以倾诉。”一名孤独的用户向一个人工智能聊天机器人输入道。机器人回应说:“抱歉,我们得换个话题。我无法参与关于你个人生活的对话。”这样的回应是否合适?答案取决于人工智能被设计模拟的关系类型。不同的关系有不同的规则。
人工智能系统正在承担起传统上属于人类的社会角色。越来越多的人工智能系统正在充当导师、心理健康提供者,甚至是浪漫伴侣。这种日益普及的需求要求我们仔细考虑人工智能的伦理问题,以确保保护人类的利益和福祉。
大多数情况下,研究人工智能伦理的人考虑的是抽象的伦理概念,例如人工智能系统是否可信、有感知力或具有自主性。然而,正如我们在心理学、哲学、法律、计算机科学以及其他关键学科如关系科学中与同事所争论的那样,仅靠抽象原则是不够的。我们还需要考虑人类与人工智能互动时所处的关系语境。
什么是“关系语境”?简单来说,人类社会中的不同关系遵循不同的规范。你与医生的互动方式不同于你与恋人或老板的互动方式。这些特定于关系的行为模式——我们称之为“关系规范”——影响着我们在每种关系中对适当行为的判断。
例如,父母对孩子的行为规范与商业同事之间的行为规范不同。同样地,人工智能系统的适当行为也取决于其扮演导师、医疗提供者还是恋爱对象的角色。人类道德是关系敏感的,人类关系满足不同的功能。有些基于关怀,如父母与孩子之间或亲密朋友之间的关系。另一些则更具交易性,如商业伙伴之间的关系。还有一些可能旨在吸引配偶或维持社会等级。
这四种功能——关怀、交易、择偶和等级制度——在关系中各自解决不同的协调挑战。关怀意味着无条件回应他人的需求——就像一个朋友在困难时期帮助另一个朋友一样。交易确保公平交换,利益得到追踪和回报——比如邻居之间的互惠。我们与他人之间的关系满足不同的基本功能,并遵守不同的行为规范。
当然,仅仅因为人们在做出道德判断时对关系语境敏感,并不意味着他们应该如此。然而,这一事实本身在任何关于人工智能伦理或设计的讨论中都应认真考虑。
关系型人工智能
随着人工智能系统在社会中承担越来越多的社会角色,我们需要问:人类与人工智能系统互动的关系语境如何影响伦理考量?
当聊天机器人在人类交互伙伴报告感到抑郁后坚持改变话题时,这一行为的适当性部分取决于交流的关系语境。如果聊天机器人扮演的是朋友或浪漫伴侣的角色,那么显然这种回应是不合适的——它违反了在这种关系中预期的关怀关系规范。然而,如果聊天机器人扮演的是导师或商业顾问的角色,那么这样的回应可能是合理的,甚至是专业的。
人工智能关系通常具有交易性质,这可能与关怀或其他功能不太兼容。不过事情变得复杂起来。今天大多数人与人工智能系统的互动都是在商业背景下进行的——你必须付费才能访问系统(或者使用有限的免费版本,促使你升级到付费版本)。
但在人际关系中,友谊通常是无偿的。事实上,用“交易”方式对待朋友往往会让人心寒。当一个人工智能系统模拟或扮演关怀角色,如朋友或浪漫伴侣,但最终用户知道她为此“服务”支付了费用时——这将如何影响她的感受和期望?这就是我们需要提出的问题。
这对人工智能设计师、用户和监管机构的意义
无论一个人是否认为伦理应根据关系敏感,大多数人似乎认为它是这样,因此在人工智能的设计、使用和监管中应认真对待。人工智能系统的开发者和设计师不仅应考虑抽象的伦理问题(例如感知力),还应考虑关系特定的问题。特定聊天机器人是否发挥了适当的关系功能?心理健康聊天机器人是否能充分满足用户需求?导师是否展现了恰当的关怀、层级和交易平衡?
人工智能系统的用户应意识到在特定关系背景下使用人工智能可能带来的潜在脆弱性。例如,在关怀背景下对聊天机器人产生情感依赖,如果人工智能系统不能充分履行关怀功能,可能会带来坏消息。
监管机构在制定治理结构时也应考虑关系语境。与其采用广泛的基于领域的风险评估(例如将教育中的人工智能使用视为“高风险”),监管机构或许应考虑更具体的关系语境和功能来调整风险评估并制定指导方针。
随着人工智能越来越深入我们的社会结构,我们需要细致入微的框架来认识人类-人工智能关系的独特性。通过仔细思考我们对不同类型关系的期望——无论是与人类还是人工智能——我们可以帮助确保这些技术让我们的生活更好而非更糟。
(以上内容均由Ai生成)