告别 Photoshop?Google 的新 AI 允许您通过询问来编辑图像
快速阅读: 据《Ars Technica》最新报道,Gemini 2.0 Flash能通过自然语言对话编辑图像,无需克隆画笔即可自动修复背景,展示未来图像处理潜力。但多模态图像输出需大量资源,且存在安全风险。
有趣的是,OpenAI的GPT-4o也具备原生输出图像的能力(OpenAI总裁格雷格·布罗克曾在去年X平台预告过这一功能),但该公司至今仍未推出真正意义上的多模态图像输出功能。其中一个原因或许是,真正的多模态图像输出需要耗费大量的计算资源。因为每一个输入或生成的图像都是由标记构成的,这些标记会反复作为上下文的一部分,随着每个后续提示通过图像模型。考虑到构建真正全面的视觉多模态模型所需的计算需求和训练数据规模,其图像输出的质量目前可能无法与扩散模型媲美。使用Gemini 2.0 Flash创建一个人的新视角。图片来源:谷歌/本·爱德华兹。
另一个可能的原因与“安全性”有关:类似于音频多模态模型可以通过吸收人物短片段的声音并完美模仿它(这就是ChatGPT高级语音模式的工作原理,它包含一个授权模仿的声音演员片段),在适当的训练数据和计算资源支持下,多模态图像输出模型可以相对轻松且令人信服地伪造媒体现实。有了足够优秀的多模态模型,潜在的破坏性深度伪造和照片篡改可能会变得更易于制造。
测试试验
那么,Gemini 2.0 Flash到底能做什么呢?值得注意的是,它的对话式图像编辑功能允许用户通过自然语言对话在多个连续提示中迭代优化图像。你可以与它交谈,并告知它想添加、删除或修改的内容。尽管还不够完美,但这标志着技术领域中一种新的原生图像编辑能力的开始。
我们对Gemini Flash 2.0进行了多项非正式的AI图像编辑试验,以下是试验结果。例如,我们在一张草地上移除了兔子的图片,并在一个杂乱的车库中移除了鸡的图片。Gemini根据自己的判断填补了背景的空白。无需使用克隆画笔——注意,连Photoshop都得退居二线!
无需克隆画笔,无需繁琐操作,Gemini 2.0 Flash就能轻松完成图像编辑任务。无论是草地上的兔子还是车库里的鸡,只需简单对话,背景即可自动修复。这不仅节省时间,还展现了未来图像处理的无限可能。
(以上内容均由Ai生成)