我们如何平衡 AI 的潜力和道德挑战?
快速阅读: 据《反冲》最新报道,人工智能正改变各行业,但面临数据质量、偏见、透明度和隐私等挑战。需优化监督以确保公平运行,特别是在关键领域。人工智能助力欺诈检测,但须平衡创新与伦理,实现负责任的应用。
人工智能通过自动化流程、提升效率以及发现人类可能忽视的模式,正在改变各行各业。然而,随着人工智能的不断发展,其实施所伴随的挑战也在增加。数据质量、偏见、透明度和隐私问题等议题引发了重要的伦理问题。确保人工智能公平有效运行,需要不断优化并接受严格监督,特别是在保险等对准确性和信任至关重要的领域。
**主要关注的问题**
– **低数据质量**:人工智能的效果在很大程度上取决于它使用的数据质量。如果数据不准确或不完整,人工智能的表现将会受到影响。数据质量在人工智能中至关重要,因为它直接影响到人工智能模型的性能、准确性和可靠性。糟糕的数据质量是部署和执行人工智能及机器学习项目和操作的主要障碍之一。“垃圾进,垃圾出”(GIGO)的概念对几代计算机用户来说都很熟悉,同样适用于人工智能。如果一个人工智能模型质量差、不准确或无关紧要,系统的输出也会是质量差、不准确或无关紧要的。
– **人工智能中的偏见**:人工智能模型中的偏见有时,人工智能可能会有偏见,这意味着它可能会不公平地对待某些人群。例如,如果一个人工智能系统基于有偏见的数据进行训练,它可能会根据种族、性别或其他特征做出歧视特定个体的决策。人工智能模型中的偏见有两种基本类型的偏见:显式偏见和隐式偏见。显式偏见指的是对某一特定人群有意识和故意的偏见或信念。隐式偏见是无意识的,并且可以在人没有意识到的情况下影响决策。社会条件、媒体和文化环境都会对这类决策产生影响。由于编程错误,算法偏见可能会悄然出现,比如开发者基于自己的有意识或无意识偏见在算法决策中不公平地加权因素。例如,算法可能会无意中使用收入或词汇量等指标来歧视某一特定种族或性别的群体。人们也可以根据最初选择的数据(认知偏见)处理信息并作出判断,更倾向于基于美国人的数据集而不是全球人口的样本。人工智能中的偏见不仅是技术问题,更是社会挑战,因为人工智能系统越来越多地被整合到医疗保健、招聘、执法、媒体和其他关键领域的决策过程中。偏见可能发生在人工智能管道的各个阶段,尤其是在数据收集环节。如果用于训练人工智能算法的数据缺乏多样性或代表性不足,输出结果可能会有偏见。例如,偏向于男性和白人申请者的培训可能导致有偏见的人工智能招聘建议。
– **透明度**:透明度是一个关键问题,因为解释人工智能如何做出决策可能会很困难。这种不清晰对希望了解这些系统运作方式的客户和监管机构来说都是一个问题。人工智能的透明度至关重要,因为它为人工智能的决策和行动提供了明确的解释,使我们能够确保它们是公平和可靠的。在工作场所使用人工智能可以帮助招聘过程,但如果不透明,就无法理解人工智能是如何做到这一点的。随着人工智能在社会、商业、医疗保健、媒体和文化中的作用日益重要,政府和监管机构需要制定规则、标准和法律,以确保人工智能使用的透明度。透明度与可解释的人工智能(XAI)紧密相关。可解释性有助于建立客户信任。这被称为玻璃盒系统,与黑箱系统相对,其中人工智能的结果或输出是透明的,决策的原因是已知的,有时甚至是系统开发者的。
– **隐私问题**:在许多情况下,由于隐私问题,无法使用真实数据来训练人工智能。相反,会基于真实数据生成虚假数据,这可能导致系统表现失准和性能下降。人工智能隐私指的是保护由人工智能系统收集、处理、共享或存储的个人及敏感信息。人工智能比其他数字技术带来更大的数据隐私风险的一个原因是,它需要处理的信息量巨大:通常达数TB乃至数PB之多,涵盖文本、图像或视频,其中往往包含如医疗信息、社交媒体上的个人信息、个人财务数据以及用于面部识别的生物特征数据等敏感数据。随着越来越多的敏感数据被收集、处理和传输,人工智能模型暴露的风险也在上升。“这些数据最终成了一个大大的靶心,有人肯定会试图击中它,”IBM杰出工程师杰夫·克鲁姆在一段IBM技术视频中提到。人工智能模型的数据泄露可能通过意外暴露敏感数据发生,例如技术安全漏洞或程序安全错误。另一方面,数据外泄则是指数据被盗。攻击者、黑客、网络罪犯、敌对国家或其它恶意主体可能会选择在勒索软件攻击中加密数据,或者利用数据劫持公司高管的电子邮件账户。只有当数据被复制或转移至攻击者可控的其他存储设备时,才构成数据外泄。有时,攻击可能来自内部威胁——员工、商业伙伴或其他授权用户因人为错误、判断失误、对安全控制的无知或出于不满或贪婪而故意或无意地泄露数据。
**人工智能在欺诈检测中的未来**
随着人工智能技术的进步,预计它将更有效地检测和防止复杂欺诈。例如,让我们考虑手机保险欺诈。人工智能在欺诈检测中的未来手机保险欺诈,也称为设备保险欺诈(因为它可以指涉及笔记本电脑和平板电脑的欺诈,而不仅仅是智能手机),发生在某人故意向其设备的保险公司提出虚假索赔时,虚假声称其设备丢失、被盗或损坏,或者夸大损坏的程度。一项调查显示,所有保险索赔中有40%是欺诈性的。对于公司来说,欺诈会导致重大损失,并增加消费者的保费成本。欺诈事件的发生率显著增加。Javelin战略研究的一项调查显示,2018年至2019年间,手机欺诈性索赔增加了63%。手机盗窃也变得更加复杂和有组织,导致钓鱼攻击和社会工程学的使用,以访问被盗设备并实施欺诈和虚假索赔。在某些情况下,手机所有者会在同一部手机上购买多份保单,然后声称被盗、丢失或损坏,从多个保险公司获取赔偿金。还有一种需要警惕的欺诈类型。根据Hiya产品管理总监乔纳森·纳尔逊的说法,保险公司需要意识到他们的客户是如何被非法引流或无意中被针对的。“当你成为汽车、保险或保修骗局的受害者时,最常见的经历就是我们所说的非法引流。实际上,目标是操纵接收者与不同的第三方保险公司签约,这家保险公司可能并不知情其新客户是通过这种非法类似骗局渠道来的。”
**人工智能的救援**
一个有前景的发展是使用深度学习模型,它能迅速对比新的保险索赔与数百万条历史记录。这些模型寻找可能表明欺诈的异常模式,例如奇怪的损坏描述、来自同一个人的多次索赔或位置数据的不一致。这些先进的模型不仅遵循固定的规则;它们会随着分析的每一项新数据而学习和改进。例如,它们可以检查损坏手机的照片,与大型数据库进行比较,识别图像篡改的痕迹,并评估是否存在欺诈的可能性。物联网将通过连接智能手机和可穿戴设备等各种设备的数据来增强这些欺诈预防工作。这将使保险公司能够实时收集关于设备如何使用、位于何处以及任何异常活动的信息。此外,正在开发新的平台,帮助保险公司分享关于欺诈的匿名数据,从而更容易识别重复的欺诈者,并领先于不断演变的欺诈手段。
**总结**
随着人工智能的不断发展,平衡创新与伦理考量至关重要。虽然人工智能有可能彻底改变欺诈检测和其他许多行业,但必须解决偏见、提高数据质量并确保透明度。在适当监管与负责任应用的前提下,人工智能可以成为造福企业和消费者的强大工具。本文由独立媒体研究所撰写。
(以上内容均由Ai生成)