Google 推出 Gemma 3n,它可以在您的设备上本地运行,内存更少
快速阅读: 据《Neowin.net》称,2025年谷歌I/O大会发布新AI工具“星河闪光2.5”。谷歌推出的“宝石3n”模型,采用“层嵌入”等技术,大幅减少内存占用,提升运行速度和质量。支持本地执行和多模态输入,优化多语言处理。用户可直接在谷歌AI工作室使用,开发者可通过谷歌AI边缘集成。
在2025年的谷歌I/O大会中,这家搜索引擎巨头发布了一系列新的AI工具,其中最引人注目的是一个面向大众的新工具——**星河闪光2.5**。另外,谷歌还在小型LLM领域有了新动作,推出了**宝石3n**,这款模型专为在个人设备上直接运行而设计。**宝石3n**的最大突破来自谷歌旗下深度思维(DeepMind)开发的一项名为“层嵌入(Per-Layer Embeddings, PLE)”的技术革新。这项技术极大地减少了模型所需的内存占用。宝石3n的原始参数量分别为50亿和80亿,但其内存占用却与20亿和40亿规模的模型相当。谷歌表示,该模型分别只需要2GB和3GB的内存即可运行。
除了更小的内存占用之外,通过采用如PLE、KVC共享以及先进的激活量化等技术,宝石3n相比宝石3 4B,在移动设备上的响应速度提升了1.5倍,并且质量更高。宝石3n还具备“混搭能力”,可以根据具体应用场景动态创建子模型,以更好地适配特定需求。另一个优势是宝石3n支持本地执行,完全由用户的设备提供动力,没有任何数据会被发送到服务器进行检查。这意味着它可以在没有网络连接的情况下使用,这是个巨大的优势。
此外,宝石3n在多模态输入处理上表现更为出色,能够理解音频、文本和图像,并显著增强了对视频内容的理解能力。这使它能够在不同模态间进行转录、翻译和交错输入,从而能够理解复杂的多模态交互。最后,宝石3n在非英语语言处理方面也有所提升。用户将在日语、德语、韩语、西班牙语和法语中看到性能的改善。该模型在多语言基准测试中表现优异,例如在WMT24++中取得了50.1%的准确率。
无需任何设置,用户即可直接在**谷歌AI工作室**的浏览器中开始使用宝石3n。希望本地集成宝石3n的开发者可以通过**谷歌AI边缘**实现这一目标,后者提供了所需的工具和库。通过这种方式,用户现在就可以获得文本和图像的理解与生成能力,未来还将有更多功能陆续推出。
(以上内容均由Ai生成)