这种 AI 生成的可动人偶趋势遍布社交媒体。但这只是无害的乐趣吗?
快速阅读: 《CBC.ca》消息,人工智能生成的动作玩偶在社交媒体上流行,引发隐私、环境及艺术贬值等争议。专家警告数据滥用风险,呼吁谨慎使用。此趋势虽有趣,但背后隐藏多重隐忧。
加拿大·新·由人工智能生成的动作玩偶热潮正在社交媒体上兴起。但这真的只是无害的娱乐吗?
在这一新趋势中,人们正在利用像ChatGPT这样的生成式人工智能工具,将自己重新想象成玩偶或动作玩偶。这种趋势已经显示出极高的受欢迎程度,名人、政界人士、机构以及英国皇家邮政等大型品牌都加入了这场乐趣。它也被称作芭比潮流或入门包潮流,且深受品牌喜爱。
娜塔莉·斯特希森·加拿大广播公司新闻·发布于:2025年4月15日 上午4:00 EDT | 最后更新:13分钟前
社交媒体上发布的两张人工智能生成的图像展示了人工智能动作玩偶趋势的例子。左边是Matty McTech于4月10日在Facebook上发布的一位典型加拿大人的帖子,右边是英国国会议员Dawn Butler于4月11日在X平台上发布的帖子。这一趋势在社交媒体上变得流行,但据几位接受CBC新闻采访的人工智能专家所说,这未必是一种无害的乐趣。
(Matty McTech/脸书,Dawn Butler/X)
如果你最近经常浏览社交媒体,你可能会注意到很多……玩偶。社交媒体和脸书动态里到处可见玩偶。如果你最近经常浏览社交媒体,你可能会注意到很多……玩偶。Instagram?玩偶。TikTok?没错:玩偶,还有制作玩偶的教程。甚至在LinkedIn上也有玩偶,这或许是这个群体中最严肃、最不轻松的一员。你可以称它为芭比AI处理或芭比盒趋势。或者如果你不喜欢芭比,可以选择AI动作玩偶、动作玩偶入门包,或是ChatGPT动作玩偶趋势。但不管怎么标记,这些玩偶似乎随处可见。
尽管它们有一些相似之处(模仿美泰芭比的盒子和包装、以个性为基础的配件、塑料般的微笑),但它们与发布它们的人一样各具特色,除了一个关键的共同特征:它们不是真实的。在这个新趋势中,人们正在利用像ChatGPT这样的生成式人工智能工具,把自己重新想象成玩偶或动作玩偶,包括配饰。它已经被证明非常受欢迎,不仅仅是影响者。名人、政治家和大品牌都已经参与其中。
报道这一趋势的记者们也制作了自己的版本,拿着麦克风和相机(尽管这位记者不会让你忍受那个)。用户还制作了几乎所有你能想到的知名人物的版本,从亿万富翁埃隆·马斯克到女演员兼歌手爱莉安娜·格兰德。
根据科技媒体网站《The Verge》的报道,它实际上是在职业社交网站LinkedIn上开始的,在那里它受到了营销人员的欢迎,他们希望提高参与度。因此,你看到的许多玩偶都在寻求推广业务或努力。(想想“社交媒体营销玩偶”或“SEO经理玩偶”。)但它已经泄露到了其他平台,在那里每个人似乎都在享受一点乐趣,看看生活在塑料中是否真的很棒。
然而,据几位接受CBC新闻采访的人工智能专家所说,这未必是一种无害的乐趣。
“在生成式人工智能方面,这实际上仍处于狂野西部阶段,”多伦多城市大学社交媒体实验室的研究主任阿纳托利·格鲁兹教授说。“大多数政策和法律框架尚未完全跟上创新的步伐,让人工智能公司自行决定如何使用您提供的个人数据。”
隐私问题
阿尔伯塔大学助理计算机科学教授马修·古兹迪亚尔说,从社会学的角度来看,玩偶生成趋势的流行并不令人惊讶。“自从我们有了社交媒体以来,我们就有了这样的互联网趋势。也许以前是一些转发的电子邮件或测验,你会分享结果,”他告诉CBC新闻。
但与其他任何人工智能趋势一样,它在数据使用方面也有一些担忧。ChatGPT现在允许用户创建政治家的假照片。我们对其进行了压力测试总体而言,生成式人工智能带来了显著的数据隐私挑战。正如斯坦福大学以人为中心的人工智能研究所(Stanford HAI)指出的那样,数据隐私问题和互联网并不是什么新鲜事,但人工智能如此“渴求数据”,以至于放大了风险的规模。
“如果你向在线系统提供关于你的非常私人的数据,比如你的脸、你的工作或你最喜欢的颜色,你应该明白这些数据不仅对获得即时结果有用——比如一个玩偶,”不列颠哥伦比亚大学研究人工智能和人权的政治学教授温迪·黄说。黄教授解释说,这些数据将被反馈到系统中,帮助他们创造未来的答案。
这张照片插图拍摄于4月2日,展示了一位女性看着Facebook用户资料页面上显示的人工智能生成的图像,该图像采用了吉卜力工作室动画风格。在ChatGPT的图像生成器发布后,这一趋势在网上变得流行起来。(通过Getty Images的AFP)
此外,斯坦福HAI还指出,有担忧认为“恶意行为者”可以利用在线收集的数据来针对个人。例如,今年3月,加拿大竞争局警告说AI相关的欺诈行为有所增加。根据TMU社交媒体实验室的新研究,大约三分之二的加拿大人至少使用过一次生成式人工智能工具。但报告称,研究人员调查的1500人中,大约一半的人不了解这些公司如何收集或存储个人数据。
Gruzd教授建议在使用这些新应用程序时要谨慎。但如果决定尝试,他建议在设置中寻找退出选项,以避免您的数据用于训练或其他第三方用途。“如果没有这样的选项可用,你可能需要重新考虑使用该应用程序;否则,不要惊讶如果你的形象出现在意想不到的情境中,比如在线广告中。”
人工智能的环境和文化影响
然后是环境影响。CBC的《奇闻异事》之前曾报道过,人工智能系统是一种能源密集型技术,其耗电量可能相当于整个国家。康奈尔大学的一项研究表明,在微软美国数据中心训练OpenAI的GPT-3语言模型可以直接蒸发掉70万升干净的淡水。高盛估计,人工智能将推动数据中心电力需求增长160%。
观看|人工智能耗电:分解人工智能的气候影响1年前时长5:07
生成人工智能所需的能量留下了相当大的碳足迹,但也在越来越多地被用作气候行动的工具。CBC的妮可·莫蒂罗洛分解了人工智能排放的来源以及这项技术正在创新性地被用来帮助地球的方式。
一些估算表明,平均每次ChatGPT查询所需的电力大约是谷歌搜索的10倍。即使OpenAI首席执行官山姆·阿尔特曼也对生成图像的流行表示担忧,在上个月的X上写道,由于图形处理器“熔化”,他们不得不暂时引入一些限制,以便使其更高效。
与此同时,随着人工智能生成的玩偶占据了我们的社交媒体信息流,艺术家们也开始流传一种版本,他们担心自己的作品贬值,使用了#入门包无AI的标签。此前曾有人对上一个人工智能趋势提出质疑,即用户以东京动画工作室吉卜力工作室的风格生成自己的图像——引发了关于这是否剽窃人类艺术家作品的争议。
与此同时,随着人工智能生成的玩偶占据了我们的社交媒体信息流,艺术家们也开始流传一种版本,他们担心自己的作品贬值,使用了#入门包无AI的标签。
然而,尽管存在这些担忧,Guzdial说这些趋势是积极的——对于试图扩大用户群的人工智能公司来说。他说,这些模型训练和运行成本非常高昂,但如果足够多人使用并依赖它们,公司就可以提高订阅价格。
“这就是为什么这类趋势对那些深陷亏损的公司来说非常好。”
**作者简介**
**娜塔莉·斯特希森**
高级作家与编辑
娜塔莉·斯特希森自2021年起担任CBC新闻的作家和编辑。她报道有关社会趋势、家庭、性别、人物兴趣以及一般新闻的故事。自2009年以来,她一直从事新闻工作,曾在《环球邮报》和Postmedia News等多家媒体工作。在加入CBC新闻之前,她是HuffPost Canada的父母编辑,因她在怀孕损失方面的工作获得了加拿大在线出版奖银奖。
你可以通过natalie.stechyson@cbc.ca联系她。
**X**
**Instagram**
**CBC的新闻标准和实践**
**关于CBC新闻更正和澄清**
**提交新闻提示**
**报告错误**
**相关故事**
收听为什么持续的AI生成的吉卜力工作室趋势引起了强烈反对
ChatGPT现在允许用户创建政治家的假照片。我们对其进行了压力测试
(以上内容均由Ai生成)