AI 正在用于社会服务——但我们必须确保它不会给客户带来创伤

发布时间:2025年2月10日    来源:szf
AI 正在用于社会服务——但我们必须确保它不会给客户带来创伤

快速阅读: 据《The Conversation (英国)》最新报道,去年年底,维多利亚州一名儿童保护工作者使用ChatGPT起草文件时出现错误,导致该州信息专员禁止在儿童保护中使用AI。AI在社会服务中的应用,如聊天机器人和推荐系统,虽带来便利但也可能造成伤害。为减少AI对用户造成的潜在心理创伤,需采取创伤知情方法评估和使用AI。为此,研究人员开发了创伤知情AI评估工具包,帮助服务提供者安全使用AI。

去年年末,一名维多利亚州儿童保护工作者使用ChatGPT起草文件。明显错误的是,ChatGPT将用于性行为的“娃娃”称为“适合年龄的玩具”。随后,维多利亚信息专员禁止在儿童保护中使用生成式人工智能(AI)。不幸的是,许多有害的AI系统不会获得如此高的公众关注度。至关重要的是,使用社会服务的人——如就业、无家可归者援助或家庭暴力服务——应意识到他们可能受到AI的影响。此外,服务提供者应该充分了解如何安全地使用AI。幸运的是,新兴的法规和工具,如我们的创伤知情AI工具包,可以帮助减少AI带来的伤害。社会服务如何使用AI?AI以其改善服务交付的承诺吸引了全球关注。在压力重重的社会服务部门,AI承诺减少积压工作,降低行政负担,并更有效地分配资源,同时提升服务质量。不足为奇,各种社会服务提供商正在以多种方式使用AI。聊天机器人通过语音、文本或图像模拟人类对话。这些程序越来越多地用于各种任务。例如,它们可以提供心理健康支持或提供就业建议。它们还可以加快数据处理速度或帮助快速创建报告。然而,聊天机器人很容易产生有害或不准确的回应。例如,美国国家饮食失调协会部署了聊天机器人Tessa来支持患有饮食失调的客户。但当倡导者指出Tessa提供了有害的减肥指导时,它很快被下线了。推荐系统利用AI进行个性化建议或选项。这可能包括针对工作或租房广告,或基于服务提供者可用数据的教育材料。但推荐系统可能是歧视性的,例如LinkedIn向男性展示的工作广告比女性多。它们也可能强化现有的焦虑。例如,孕妇在社交媒体上被推荐令人恐慌的怀孕视频。识别系统分类数据,如图像或文本,以便比较一个数据集与另一个数据集。这些系统可以完成许多任务,如面部匹配以验证身份或将语音转录为文本。此类系统可能引发监控、隐私、不准确性和歧视问题。加拿大的一家收容所停止使用面部识别摄像头,因为它们可能导致隐私泄露——对于使用收容所的身心不适或醉酒的人来说,很难获得知情同意。风险评估系统利用AI预测特定结果发生的可能性。许多系统被用来计算虐待儿童的风险、长期失业、税务和福利欺诈的风险。通常,这些系统中使用的数据可能会重现社会不平等,对已经边缘化的群体造成伤害。在一个案例中,美国用于识别虐待儿童风险的工具不公平地针对贫困、黑人和混血家庭以及有残疾的家庭。荷兰的一个风险评估工具试图识别儿童福利欺诈,因带有种族偏见而被关闭,而法国的一个AI系统也面临类似的指责。阅读更多:。预测犯罪的算法正在监视我们,并根据我们所处的环境做出判断需要采用创伤知情的方法令人担忧的是,我们的研究表明,在社会服务中使用AI可能会导致或加剧用户的心理创伤。美国心理学会定义创伤为一系列事件引起的情感反应,如事故、虐待或亲人的死亡。广泛理解,创伤可以在个人或群体层面体验定义创伤为一系列事件引起的情感反应,如事故、虐待或亲人的死亡。广泛理解,并且可以代代相传。土著人民在澳大利亚由于殖民化经历的创伤是群体创伤的一个例子。57%至75%的澳大利亚人在其一生中至少经历过一次创伤事件。许多社会服务提供者长期以来采用了创伤知情的方法。这种方法重视信任、安全、选择、赋权、透明度及文化、历史和性别因素。采用创伤知情方法的服务提供者理解创伤的影响并能识别用户的创伤迹象。尽管AI的常被夸大的功能具有吸引力,服务提供者仍应谨慎不要放弃这些核心原则。社会服务机构无需完全回避AI。但社会服务提供者和用户应意识到AI可能带来的伤害风险——这样他们才能引导AI向善发展。为了减少造成或加剧创伤的风险,社会服务提供者在使用任何AI系统之前应仔细评估。社会服务机构无需完全回避AI。但社会服务提供者和用户应意识到AI可能带来的伤害风险——这样他们才能引导AI向善发展。对于已有的AI系统,评估有助于监测其影响并确保其安全运行。我们开发了一个创伤知情AI评估工具包,帮助服务提供者评估其计划或当前使用AI的安全性。该工具包基于创伤知情护理的原则、AI危害案例研究以及与服务提供者的研讨会。在线版本的工具包即将在组织内试点。创伤知情AI评估工具包通过提出一系列问题,该工具包使服务提供者能够考虑风险是否超过收益。例如,AI系统是否与用户共同设计?用户能否选择不接受AI系统的使用?它引导服务提供者通过一系列实际考量来增强AI的安全使用。通过提出一系列问题,该工具包使服务提供者能够考虑风险是否超过收益。例如,AI系统是否与用户共同设计?用户能否选择不接受AI系统的使用?社会服务不必完全避免AI。但社会服务提供者和用户应意识到AI可能带来的伤害风险——这样他们才能引导AI向善发展。通过提出一系列问题,该工具包使服务提供者能够考虑风险是否超过收益。例如,AI系统是否与用户共同设计?用户能否选择不接受AI系统的使用?

(以上内容均由Ai生成)

你可能还想读

美国能源部 17 个国家实验室全景及创世纪计划战略布局分析

美国能源部 17 个国家实验室全景及创世纪计划战略布局分析

快速阅读: 美国能源部17个国家实验室构成顶尖科研体系,在基础科学、能源安全、气候变化等领域发挥关键作用。拥有全球领先的超算资源及顶尖人才,年经费约220亿美元。随着“创世纪计划”启动,实验室将形成协同网络,推动美国在清洁能源、量子计算等前 […]

发布时间:2025年12月8日
谷歌Gemini 3 Pro发布

谷歌Gemini 3 Pro发布

快速阅读: 谷歌发布新一代推理模型Gemini 3 Pro,显著提升数学、编程和视觉理解能力。一经发布,Gemini 3 Pro几乎横扫各大评测榜单,在LMArena大模型竞技场中以1501的Elo得分高居榜首。在MathArena数学竞赛 […]

发布时间:2025年11月19日
独具创新,直击痛点:深度解析华为十大最新方案

独具创新,直击痛点:深度解析华为十大最新方案

快速阅读: 第三个方案,是华为的U6GHzAAU天线。综合来看,华为的U6GAAU,真正实现了容量覆盖双优,助力全球U6G商用。LampSiteX,是LampSite系列的最新型号。第五个方案,是华为有源天线产品——EasyAAU。Easy […]

发布时间:2025年11月13日
Palantir估值承压仍领跑AI赛道

Palantir估值承压仍领跑AI赛道

快速阅读: 近期,美国AI概念股整体承压,Palantir与英伟达遭遇做空传闻,引发市场短暂震荡。然而,在宏观调整与估值质疑中,Palantir仍凭借强劲业绩与差异化AI布局维持长期增长势头。分析人士认为,该公司正处于由“政府数据支撑”向“ […]

发布时间:2025年11月12日
Palantir与Snowflakes深化AI合作

Palantir与Snowflakes深化AI合作

快速阅读: Snowflake 与 Palantir 宣布建立战略合作,整合双方的数据与AI能力,使企业能够在统一的数据基础上直接调用 Palantir 的AI分析与智能应用工具,加速企业级AI落地。 2025年10月,Snowflake […]

发布时间:2025年11月10日
Palantir与迪拜控股共建AI公司

Palantir与迪拜控股共建AI公司

快速阅读: Dubai Holding 与 Palantir 宣布成立合资公司 Aither,致力于为中东地区政府与企业提供人工智能转型解决方案。该合作标志着 Palantir 在中东技术布局的进一步深化,也为当地公共服务与产业数字化提供新 […]

发布时间:2025年11月10日
Palantir携手Lumen共建企业AI平台

Palantir携手Lumen共建企业AI平台

快速阅读: 2025年10月,Palantir Technologies与Lumen Technologies宣布达成战略合作,联合打造面向企业级应用的人工智能服务平台。双方将以Palantir的Foundry与AIP平台为核心,推动通信与 […]

发布时间:2025年11月7日
Palantir携手Hadean拓展英国国防部AI战场模拟平台

Palantir携手Hadean拓展英国国防部AI战场模拟平台

快速阅读: 2025年10月,数据智能公司 Palantir Technologies 宣布与英国分布式计算企业 Hadean 达成战略合作,双方将共同为英国国防部(UK Ministry of Defence, UK MoD)扩展基于人工 […]

发布时间:2025年11月7日