数字技术与心理健康 – 分析
快速阅读: 《欧亚评论》消息,数字技术和人工智能威胁思想自由,影响精神自主性,引发心理健康问题。欧盟通过《数字安全法案》和《AI法案》规范,但仍缺乏明确的定义和理解。暗模式和欺骗性互动操控用户,损害心理健康和社会信任。需制定清晰的监管措施,以保护个人和社会免受负面影响。
数字技术和人工智能(AI)对人类的思想自由权构成了威胁,这种威胁体现在不透露思想的权利、不受思想惩罚的权利以及不被操纵思想的权利方面。失去思想自由意味着在个人层面上失去尊严和心理完整性,在社会层面上失去公平和社会信任。思想自由和尊严的权利受到国际人权法的保护,明确理解到后者旨在确保精神自主性,即个体能够自主控制自己的思想、行动和决策的能力。在当前技术规模下的数字社会中,个体的精神自主性,即对其思想、行动和决策的控制,由于信息获取、领域知识和专业知识以及对当前部署的各种类型数字技术和AI的理解和访问等因素而受到影响。因此,数字政策制定者必须彻底重新考虑公民意识和个人行为能力。2021年,世界卫生组织发布的《心理健康地图集》正式承认新的数字技术(连接设备)成瘾形式成为全球性问题,其中过度的在线活动和互联网使用导致白天无法管理时间、精力和注意力,并在夜间出现睡眠障碍或失眠。这一问题随后在COVID-19疫情期间被报道其严重程度在全球范围内增加。欧盟委员会的《数字安全法案》和《AI法案》旨在建立一个统一的监管框架,以保护个人,尤其是青少年和其他易受伤害的人群,免受数字技术和AI带来的精神操控威胁和心理健康风险。然而,关于精神操控或需要通过有效监管来减轻的心理健康风险的明确定义尚未规定。不同法律文本中关于数字技术和心理健康的概念模糊主要归因于1)对心理健康一般定义的不确定性和2)对心理机制的完全缺乏理解。
这篇叙述性综述遵循斯坦福大学指南,旨在提供进一步调查的概念背景。审查了现象和症状,这些现象和症状反映了数字技术对心理健康的影响,以及心理机制的作用,还有一套适当的测试工具用于进一步的临床和实验研究量化。在大众媒体传播的历史上,数字化和AI带来了超越以往可能的技术,用于精神操控。在20世纪,人类社会的交流在数量和质量上因无线电的发明及其用于广告和政治宣传而改变。我们的信念体系本质上受到个人历史和经验的影响,我们倾向于根据这种偏见相信某种类型的信息而不是另一种。最强烈的错误信念强化,纯粹和简单地就是虚假事实和数据在最大规模上的重复。不断重复一个虚假声明使其变得可信,这是在部落仪式中的咒语心理机制起作用的结果。电视,最终是互联网和手机,伴随着社交网络和各种形式AI驱动的聊天机器人的爆炸式增长,逐渐催生了一种全新的技术,非常适合在最大规模上进行行为监控和操控。与他人和物质现实的物理接触所带来的内在健康的现实刺激和感觉,这些对我们的心理健康有可测量的积极影响已被远程虚拟社交现实和欺骗性的在线互动所取代。
移动应用程序中的暗模式最初是在与旨在影响用户行为的说服性技术工具相关的背景下被识别出来的。2010年已经提出了初步分类,以揭示在设计移动应用程序时使用的邪恶做法,其中暗模式已占主导地位一段时间。在所有与商业活动相关的平台和应用中,95%的平台和应用的用户体验设计中都发现了暗模式的存在。暗模式被定义为“经过精心设计的用户界面,旨在诱使用户去做他们通常不会做的事情”。暗模式依赖于对无意识心理条件机制的深刻理解,且从不考虑用户的利益。例如,公司在移动应用中展示冗长的隐私政策,尽管消费者无意中同意分享比预期更多的数据。激进的商业暗模式涉及迫使消费者采取某些步骤、做出决定或执行某些任务,而没有选择的自由,而温和的暗模式则允许用户选择退出该过程。令人惊讶的是,研究表明激进的暗模式比温和的暗模式更易被用户接受,这可能是由于激进的暗模式更强烈地显示所谓的数字权威。数字权威与特定技术应用或AI产品的新颖效应相结合,反而掩盖了它们背后的内在邪恶意图,这类似于一种被称为米尔格拉姆效应的心理现象。暗模式使AI能够欺骗消费者和用户自愿且无批判地“按照指示行事”。暗模式几乎存在于所有与商业相关的互联网和移动应用中,这种现象被称为暗模式盲或对恶意互联网设计的盲目。迫切需要提出清晰的工作假设,以便制定适当的监管措施。此外,除了理解暗模式导致用户在充分知情和有能力选择替代方案或选择退出的情况下不会做出的决定之外,还没有普遍认可的暗模式概念定义。
简而言之,由于其操控性质,在线暗模式限制了个人的选择自由和必要的自觉意识,以对过程、程序或产品说“不”。欧盟的《通用数据保护条例》(GDPR)涵盖了明确信息、透明度和所有数据控制的需求,但被数字技术和AI中的暗模式违反。数字设计模式或AI背后的动机和意图决定了它是否包含暗模式。移动应用使用暗模式来实现虚拟空间中的业务目标,人们在那里花费大部分时间。随着在线游戏和AI驱动的交互平台及社交媒体的广泛使用,我们进入了一个本质上具有操控性的新型人机交互宇宙,因为在线平台和社交媒体的目的在于保持人们的参与。暗模式在此服务于操纵用户按特定方式行事的目的,这往往与其利益相悖,随着时间推移会改变他们的心理感知和决策能力,最终可能导致对个人和社会整体产生负面影响的行为变化。在线游戏和交互平台的设计单方面有利于其创造者的利益。AI驱动的社交媒体中的欺骗设计人类智能与AI的融合开辟了一个欺骗性的人际互动空间。作为特定形式拟人化的AI赋能机器的人类化代表了一种误导性的方式,使用AI赋能系统和机器,误导组织利益相关者和更广泛的公众对这些机器真正能力的认知。这导致了社会结构和沟通过程在后果、责任和问责方面的恶化。
人工智能威胁着民主信任的形成,并且扭曲和破坏了与不信任及其对个人和社会产生的负面影响相关的批判性社会方面。这种在线生态系统的危险已经失控,除了虚假信息的传播,由大量人工智能驱动的自动化账号和各种形式的有害内容推动的多媒体内容的兴起,我们接触到的这种在线生态系统带来的危险已经超出了可控范围。这催生了一种新型且极其恶劣的暗模式:欺骗性互动。我们可以将人工智能驱动平台所支持的欺骗性互动定义为用户无法控制的在线联系和交互反馈,因为这些接触本身就是虚假的,因此具有欺骗性,或者交互由于其强制性、欺骗性、贬低性、敌意、歧视性和操纵性而具有欺骗性。欺骗性互动是最具破坏性的暗模式形式,直接操控人类的精神自主性。它使人们相信他们正在与另一个人互动,而实际上并非如此,或者允许其他人类平台成员匿名创建用户资料,从而使他们能够不受惩罚地撒谎或虐待他人。反复暴露于算法驱动的欺骗性互动中会导致精神和行为上的变化,尤其是在年轻人中。这可能对个人的认知、理解、推理、思想、情感、信任以及整体心理健康造成不可逆转的影响,在个体层面以及他们在现实世界中的社交互动中都会受到影响。此外,欺骗性人工智能威胁公共健康,因为大量的不准确信息在正式医疗系统内外的网络上流传。人工智能和互联网改变了人们对健康信息的参与方式,无论是通过搜索、用户生成的内容,还是移动应用程序和社交媒体平台,这可能会负面影响健康结果,包括生活质量以及死亡风险。最终,这威胁到了公众对医疗机构的信任。
人工智能驱动的平台,使假新闻运动和网络仇恨言论得以泛滥,助长了社会极化现象,表现为社会分裂成对立的价值观阵营,阻碍了合作进程以实现共同利益。极化的威胁已经显现,民主在全球范围内受到围攻。极化阻碍了疫情应对和对关键全球问题如气候变化达成共识,削弱了我们社会抵御逆境的能力。从积极的角度来看,社交媒体使活动团体和少数群体更加可见,并使他们的信息传达给更广泛的公众,突出不平等,谴责不公,并在更大范围内推进社会正义的讨论。然而,负面的一面是,社交媒体被极端分子、政党以及有政治动机的参与者用来妖魔化特定群体,歧视已处于边缘地位的人群,以达到破坏社会凝聚力的非崇高目的。通过人工智能驱动的数字平台进行的欺骗性互动通过促进仇恨言论、对他人的同情心丧失、犯罪行为、家庭暴力和恐怖主义来增加社会暴力,对国内恐怖袭击的国家统计数据产生了可量化的负面影响。
(以上内容均由Ai生成)