AI信任问题未解,民众仍积极使用
快速阅读: 德勤调查显示,尽管53%的美国消费者尝试或常使用生成式AI,但69%担心技术风险,尤其关注隐私与数据安全,技术公司需努力重建信任。
生成式人工智能(AI)日益受到欢迎,但在日常生活中继续接受这项技术可能面临重大障碍。我们对其背后的公司缺乏信任,这是德勤“互联消费者调查”对3500名美国消费者的调查结果。尽管超过一半(53%)的受访者表示正在尝试或经常使用生成式AI,但更多的人(69%)担心创新速度过快,技术公司未能充分关注风险。
“消费者越来越多地使用AI,愿意为此付费,但同时也越来越担心生成式AI的潜在误用和危险。”德勤副主席兼美国技术行业负责人史蒂夫·芬伯格在接受CNET采访时说。
调查显示了生成式AI迅速崛起的两个看似矛盾的趋势。一方面,越来越多的人以更多的方式每天使用生成式AI,而即使那些大量使用者中,也有越来越多的人持有严重担忧。AI变得普遍,出现在我们的手机、搜索引擎和电视上,同时其功能也在不断增强。另一方面,生成式AI加剧了心理健康问题和成瘾行为,侵犯隐私并频繁出错。人们普遍意识到这些问题和风险。
尽管AI无处不在,但它并不总是免费的。大多数AI开发者提供服务的免费版本,但存在功能受限或使用次数有限等问题。约有40%的受访者表示他们支付生成式AI产品的费用。在未付费的受访者中,有一半认为免费工具已经足够好。
关于使用情况,65%的人通过独立移动应用程序使用AI,如OpenAI的ChatGPT应用程序或谷歌的Gemini应用程序,略少一部分人(60%)通过AI网站使用。较小比例的受访者提到在在线服务、社交媒体和消息应用程序或其他软件中使用AI。然而,这些类别合计占受访者的69%,意味着多数人在不经意间也接触到了AI。
生成式AI的结果往往不准确。尽管使用率增加,但超过一半的受访者表示,他们通常或总是通过检查可信来源或自己的知识来验证从聊天机器人获得的信息。最大的担忧似乎是数据隐私。自去年调查以来,担心隐私和安全的人数从60%上升到70%,几乎一半的受访者表示在过去一年中至少发生了一次黑客攻击、账户泄露或身份被盗的情况。
不仅是外部恶意者的问题,人们还担心技术公司不会尊重他们的隐私和安全。德勤询问了消费者在八种不同类型的个人数据交换中,为了获得更好的数字技术体验,有多少人非常愿意分享信息,结果显示没有一种情况下,“非常愿意分享”的人数多于“完全不愿意分享”。特别是,大多数人完全不愿意分享生物识别、通信或财务数据。即使是在健身追踪可穿戴设备普及的情况下,愿意分享健身数据的人(22%)仍然少于完全不愿意分享的人(30%)。
“我认为在这方面还有很多工作要做。”芬伯格说。
除了AI可能带来的危害外,许多用户对技术不断进步的功能感到不满。超过四分之三的人认为技术公司过于专注于击败竞争对手而非解决实际问题,三分之二的人表示大多数新功能无法解决他们的问题。德勤发现,消费者更愿意向他们信任的公司花钱。人们希望获得创新的技术公司和产品,但他们更重视保护自己的隐私和安全。
“这是一个长期的过程,”芬伯格说,“建立信任需要很多年,但失去信任却可能只在一瞬间。”
(以上内容均由Ai生成)