AI 和家庭暴力:恩赐、祸害——还是两者兼而有之?
快速阅读: 据《福布斯》称,人工智能在家庭暴力中既可作为救命工具,也可能被滥用。它帮助记录证据、提供援助,但也可能被用于监控和操控。
谷歌的图像识别功能在一张男性照片上进行人脸识别,面部特征被识别,同时存在面部边界框。(摄影:史密斯收藏/盖多/盖蒂图片社) 盖蒂图片社 一天晚上,一位女性打开手机上的相机应用,希望能捕捉到无人见证的场景——她伴侣日益升级的愤怒。 他们的争吵遵循着一种熟悉的模式:她会说一些让她情绪爆发的话,然后他会靠近她,用高音调的嗓音尖叫,经常威胁要对她施以暴力。“当然,我永远不会真的这么做,”等两人冷静下来后,他常常这样说,“是你在精神虐待我。” 有时,情况甚至会进一步升级。他会把她的手机扔到房间的另一边,因为“侵犯了[他的]隐私”,或者从她手中抢走一件物品,举起来仿佛要打她一样。没有留下任何身体上的淤伤,但局势已十分明显——没有设备来记录它,没有警报触发,也没有安全的地方保存证据。 对许多女性来说,这并不是一部令人不适的Netflix剧集中的情节——而是近日常见的现实,这种行为很少会引发警方介入。值得注意的是,虽然在许多司法管辖区(包括印度和美国)对身体伤害的威胁构成刑事犯罪,但这些行为长期以来都没有被记录或起诉。 专家指出,这种模式——逐渐升级的言语威胁、威胁或实际破坏财产以及恐吓——往往标志着更严重和有害的家庭暴力的早期阶段。在某些情况下,人工智能驱动的工具使人们更容易秘密地收集证据、评估个人风险并记录虐待行为——这些行动以前是危险或难以实施的。 同时,这些技术也开辟了新的危害方式。越来越多的情况下,这种情况下的“目击者”是一台手机、一个云账户或一个智能设备——它们在暗中记录、存储并提供救命的援助。但同样容易的是,同样的工具也可以被用来作为控制、监视甚至报复性操控的手段。 《科技向善》 根据世界卫生组织的数据,全球每三名女性中就有一人曾遭受过伴侣的身体或性暴力。随着人工智能越来越嵌入日常设备,越来越多的工具陆续出现,通常以使受风险人群(特别是经历亲密伴侣暴力的人)的家更安全为宗旨。 在新冠疫情爆发期间,家庭暴力案件激增,人权律师、瑞士非营利组织Spring ACT的创始人Rhiana Spring看到了一个利用人工智能用于善举的机会。 她的组织开发了一个名为Sophia的聊天机器人,为家庭暴力幸存者提供全天候援助。用户可以与Sophia交谈而不留下数字痕迹,隐蔽地寻求帮助,甚至可以存储证据用于法律程序。与传统应用程序不同,Sophia不需要下载,从而减少被监视的可能性。 “我们已经收到从蒙古到多米尼加共和国的幸存者联系Sophia寻求帮助,”Spring在2022年获得“科技向善”奖项后告诉Zendesk。 同时,像Arlo或Google Nest这样的智能家居摄像头现在提供了AI驱动的运动和声音检测功能,能够区分人、动物和包裹。有些甚至可以检测尖叫声或异常声音,并立即发送警报——这些功能对于创建虐待行为的数字记录非常有用,尤其是当受害者担心被误导或缺乏实物证据时。 一些闭路电视系统还允许基于云的加密存储,防止施暴者本地删除或访问视频。Wyze Cam Plus等服务提供价格实惠的云订阅,具有AI标签功能,以及“隐私遮蔽”功能,可以在共享空间中选择性地进行局部遮挡。 为了提供隐蔽的帮助,一些智能手机应用程序也集成了AI和紧急求助功能。例如MyPlan、Aspire News——这是一款伪装成新闻类应用的应用,但提供紧急联系人和危险评估工具——以及Circle of 6。智能珠宝如InvisaWear和Flare将紧急按钮隐藏在配饰中,只需双击,用户就可以隐蔽地通知紧急联系人并分享自己的GPS位置。 除了家庭安全和个人应用之外,人工智能还在医院和执法部门应用于家庭暴力应对和预防领域。 布莱根妇女医院的放射科医生Bharti Khurana开发了一种名为“自动亲密伴侣暴力风险支持(AIRS)”的AI工具,该工具分析医疗记录和影像资料,寻找医生通常会忽略的细微伤害模式,并标记可能成为虐待受害者的患者。据Khurana团队称,AIRS已帮助提前四年识别家庭暴力,比患者通常报告的时间早得多。 另一个美国本土发起的项目Aimee Says是在科罗拉多州启动的,旨在帮助幸存者应对法律体系的复杂性。这个聊天机器人协助用户完成申请保护令、寻找支持组织和了解自己权利的过程。该应用程序设有来宾模式会话,使用后消失,以及一个隐藏的退出按钮,以便在施暴者走进房间时迅速切换。 “我们希望在人们准备好联系受害者服务机构之前就能出现——希望能足够早,以防止未来的暴力行为,”联合创始人Anne Wintemute在2024年12月接受《迪卡特每日新闻》采访时说道。 《双刃剑》 在印度和全球南方地区,家庭暴力仍然猖獗、普遍且严重未被报道。根据国家家庭健康调查(NFHS-5)的数据,近三分之一18至49岁的印度女性经历过配偶暴力——但只有少数人寻求帮助,通常是由于社会污名、依赖、害怕升级或响应框架和问责制的缺失。 在这些背景下,人工智能有可能成为一个特别强大的工具——帮助幸存者记录虐待或寻求帮助——但其影响力受到获取渠道、资源和公众信任的限制。在隐私已经受损的环境中,监控问题尤为严重。 推荐阅读 此外,支持幸存者的相同技术也可能为伤害开辟新的途径——尤其是在被施暴者利用时。 深度伪造技术利用生成式人工智能制作高度逼真的虚假音频、图像或视频,已经使法律程序变得复杂,伪造的通话记录、消息或视频有时被用来错误地牵连受害者。在限制令听证会或抚养权纠纷中,这些通常发生得很快,缺乏充分的事实核查,法院可能几乎没有时间或能力评估数字证据的真实性。 存储数据、具备远程监控功能和监测行为的产品同样可能被施暴者武器化。很少有科技公司能解释其工具可能被滥用的方式,或在设计时加入足够的安全功能。 “同时,深度伪造技术的出现……也引发了关于隐私侵犯、安全风险和虚假信息传播的警报,”印度最高法院大法官Hima Kohli警告道,解释了如今操控人们对数字内容的信任变得多么容易。 因此,同样的代码既可以成为一条生命线,也可以在同一时间成为武器。随着人工智能的发展,尽管科技行业的真正考验确实在于他们的工具能有多“智能”,但同时也在于它们能否安全且公正地适应,以服务于最需要它们的人。
(以上内容均由Ai生成)