谷歌新AI工具生成科技巨头假图,引发社交媒体热议
快速阅读: 谷歌推出Gemini 3多模态AI模型,具备更强推理能力和图像生成功能。社交媒体上出现由Nano Banana Pro生成的逼真假图,引发用户对AI技术真实性的广泛质疑和讨论。
在中国重庆,2025年11月21日,一张照片展示了手持智能手机显示Gemini 3标志的画面,背景是模糊的大型谷歌彩色标志。该图片与谷歌推出其最新多模态AI模型Gemini 3相呼应,该模型具有增强的推理能力、更快的性能和升级的图像生成功能,适用于谷歌搜索、工作空间、安卓系统及开发者工具。(摄影:程鑫/盖蒂图片社)
随着年底的到来,科技界最大的新闻可能是让用户感到困惑,甚至让人怀疑AI是否已经失控。感恩节期间,社交媒体上出现了科技巨头如埃隆·马斯克与其他科技亿万富翁聚会的照片。幕后元凶?谷歌Gemini的Nano Banana Pro AI图像生成工具,现在能够创建看起来极其逼真且难以与真实图像区分的假图。
过去几周,我一直关注这一问题,报道了AI女演员蒂莉·诺伍德如何在社交媒体上引起轰动,因为人们最初并不清楚她是一个数字创造物。一张登上《公告牌》榜首的歌曲《打破锈蚀》(一些用户改名为《打破风声》)也被发现是由AI创作的。
更重要的是,社交媒体用户不断发帖表示,他们对这些图像的广泛传播感到不满,几乎无法辨别它们是AI生成的。最近的一个例子显示,埃隆·马斯克与苹果CEO蒂姆·库克、谷歌及Alphabet CEO桑达尔·皮查伊等人共进晚餐。
缺乏监管或容易识别AI图像的方法,导致用户陷入混乱,许多人以讽刺的方式调侃这场AI革命。
另一张相同科技巨头与几辆汽车聚集的图像也引起了轰动。在X平台上,一张由AI生成的图像显示,马斯克与同一群科技亿万富翁在黑暗的停车场聚会。(我已联系谷歌就这些由Nano Banana Pro生成的病毒式传播的感恩节图像发表评论,但尚未收到回复。)
为何Nano Banana Pro图像会疯传
过去十年,我们对虚假信息和假新闻有了很多了解。负面帖子更有可能走红,因为社交媒体算法奖励具有对抗性的内容。2024年末的一项研究发现,其中一个原因是:我们经常觉得需要回应我们不喜欢或不同意的帖子,尤其是当它涉及政治主题时。
更深层次的原因在于,人类大脑更容易关注负面想法并反复思考。社交媒体利用了这一人性特点,使负面帖子像滚雪球一样扩散开来。
这与展示埃隆·马斯克享用感恩节大餐的社交媒体图像有何关联?这张图片如此逼真,以至于社交媒体用户往往不加思索地跳出来评论。社交媒体上的评论如潮水般涌现,因为人们对我们所看到的感到愤怒。科技巨头们已经过着特权生活,现在他们还聚在一起用餐。
埃隆·马斯克与同几位CEO在破旧公寓里聚会的照片之所以走红,部分原因是我们希望相信科技亿万富翁是普通人,即使我们怀疑这并非事实。无论是愤怒的评论、指责他们的特权地位,还是希望看到他们作为普通人的形象,这些图像能够轻易走红,反映了与假新闻和虚假信息相同的底层动态。
Nano Banana Pro让这一切变得过于简单
AI生成图像走红的另一个因素是它们非常容易制作。无需费力,我只用了大约五秒钟就创造了下面的图像:
谷歌Gemini使用Nano Banana Pro生成了此图像
几个月前,AI图像还略显不那么真实。背景常常模糊且带有奇怪的色调,帮助我们辨识出它们是假的。然而,Nano Banana Pro提高了图像的清晰度(和分辨率),使得这些图像更难被识别为假图。这意味着我们都必须成为AI侦探,质疑图像的真实性,这需要时间和精力。
我的疑问集中在监管和指导方针上。幸运的是,Gemini会在图像上添加水印(如上图右下角所示),但这也很容易被移除或裁剪掉。通过使用谷歌Gemini机器人,你可以加载一张疑似AI生成的图像,询问它是否真实。Gemini通常会查找签名文件,以确定是否为AI创作。
尽管如此,这还远远不够。在社交媒体上,我们快速滑动浏览图片,很少仔细检查像Nano Banana Pro这样的图像,通常只是迅速反应,发表评论,然后继续滑动。人们希望社交媒体平台能更频繁地告知用户哪些内容是AI生成的。在此之前,我们大多需要自行判断内容的真实性。
(以上内容均由Ai生成)