Pokémon Go 公司构建大型地理空间模型,玩家不知不觉贡献了训练数据

发布时间:2025年11月3日    来源:szf

整理|王强、褚杏娟
Niantic,这家开发了极受欢迎的增强现实手游《PokémonGO》和《Ingress》的公司,宣布它正在使用其数百万玩家收集的数据来创建一个能够导航现实世界的AI模型。这是一个”大型地理空间模型”的概念,该模型将使用大规模机器学习来理解一个场景,并将其与全球数百万个其他场景联系起来。
“当你看到一个熟悉的结构类型时——无论是教堂、雕像还是城镇广场——即使你没有从各个角度看过它,也很容易想象从其他角度看它会是什么样子。作为人类,我们具有‘空间理解’能力,这意味着我们可以根据我们之前遇到的无数类似场景来填补这些细节。但对于机器来说这项任务极其困难。即使是当今最先进的人工智能模型也难以可视化和推断场景中缺失的部分,或者从新的角度想象一个地方的样子。这种情况即将改变:空间智能是人工智能模型的下一个前沿。”Niantic表示。
作为Niantic视觉定位系统(VPS)的一部分,Niantic训练了超过5000万个神经网络,拥有超过150万亿个参数,可运行在超过一百万个位置中。在Niantic的大型地理空间模型(LargeGeospatialModel,LGM)愿景中,每个本地网络都将为同一个全球大型模型做出贡献,实现对地理位置的共享理解,并理解尚未完全扫描的那些地方。
LGM将使计算机不仅能够感知和理解物理空间,还能以新的方式与它们交互,成为AR眼镜和其他领域,包括机器人、内容创建和自主系统的关键要素。随着我们从智能手机转向与现实世界相关的可穿戴技术,空间智能将成为世界未来的操作系统。
什么是大型地理空间模型?
大型语言模型(LLM)对人们日常生活和多个行业产生了不可否认的影响。经过互联网规模的文本集合训练后,LLM能够理解和生成书面语言,其方式挑战了我们对”智能”的理解。LGM将帮助计算机以同样先进的方式感知、理解和探索物理世界。
与LLM类似,地理空间模型是使用大量原始数据构建的:包括这个世界拍摄的数十亿张图像,全部关联到地球上的精确位置。它们被提炼成一个大型模型,从而实现基于位置的对空间、结构和物理交互的理解。
从基于文本的模型到基于3D数据的模型的转变反映了近年来人工智能发展的轨迹愈加广泛:从理解和生成语言,到解释和创建静态和动态图像(2D视觉模型),并且随着当前研究工作的不断扩展,开始转向对物体的3D外观进行建模(3D视觉模型)。
地理空间模型甚至比3D视觉模型更进了一步,因为它们可以捕获植根于特定地理位置,并具有可衡量的质量(quality)的3D实体。
与生成未缩放资产的典型3D生成模型不同,大型地理空间模型与度量空间绑定,确保以缩放度量(scale-metric)单位进行精确估算。因此,这些实体代表了下一代地图,而不是简单的3D资产。
虽然3D视觉模型也许能创建和理解3D场景,但地理空间模型还可以理解该场景与全球数百万个其他场景在地理上的关系。地理空间模型实现了一种地理空间智能,其中模型从其先前的观察中学习,并能够将知识转移到新位置,即使这些位置只观察到了一部分信息。
虽然带有3D图形能力的AR眼镜距离大众市场还有几年的时间,但地理空间模型有机会与纯音频或2D显示眼镜集成。这些模型可以引导用户游览世界、回答问题、提供个性化建议、帮助导航并增强现实世界的互动。大型语言模型也可以集成进来,使模型理解能力和空间结合在一起,让人们有机会更多地了解和参与周围的环境和社区。
源自大型地理空间模型的地理空间智能还可以生成、补完或操纵世界的3D表示,以帮助构建下一代AR体验。除了游戏之外,大型地理空间模型还将有很广泛的应用,包括空间规划和设计、物流、观众互动和远程协作。
Niantic迄今为止做了些什么
Niantic表示,在过去五年中,其一直专注于构建视觉定位系统(VPS),该系统使用手机中的单个图像来确定其位置和方向,使用的3D地图是由人们在Niantic的一系列游戏和Scaniverse中扫描的有趣位置来构建的。
借助VPS,用户可以以厘米级的精度在世界中定位自己。这意味着他们可以精确而逼真地看到放置在物理环境中的数字内容。这些内容具有持久性,即在你离开后仍会保留在某个位置,然后可以与其他人共享。例如,Niantic最近开始在PokémonGO中推出一项名为PokémonPlaygrounds的实验性功能,用户可以将Pokémon放置在特定位置,然后它们将保留在那里供其他人查看和互动。
Niantic的VPS是根据用户扫描构建的,这些扫描是从不同角度、在一天中的不同时间、一年中的许多时间进行的,并附带了定位信息,从而对世界有了非常详细的了解。这些数据是独一无二的,因为它是从行人的视角获取的,包括了很多汽车无法到达的地方。
如今,Niantic在全球拥有1000万个扫描位置,其中超过100万个已激活并可用于Niantic的VPS服务。Niantic每周收到大约100万份新的扫描资料,每份都包含数百张离散图像。
作为VPS的一部分,Niantic使用运动结构技术构建经典的3D视觉地图,但也为每个位置构建一种新型的神经地图。这些模型基于Niantic的研究论文ACE(2023)和ACEZero(2024),它们不再使用经典的3D数据结构来表示位置,而是将它们隐式编码在神经网络的可学习参数中。这些网络可以快速将数千张地图图像压缩为精简的神经表示。给定一张新的查询图像,它们能以厘米级的精度为该位置提供精确定位。
迄今为止,Niantic已训练了超过5000万个神经网络,其中多个网络可以为单个位置做出贡献。所有这些网络加起来包含超过150万亿个使用机器学习优化的参数。
LGM”实现前所未有的定位稳健性”
Niantic当前的神经地图是一个可行的地理空间模型,目前作为NianticVPS的一部分,处于活动状态并可用。然而,Niantic对”大型地理空间模型”的愿景超越了当前独立的本地地图系统。
完全本地化的模型可能缺乏对各自位置的完整覆盖。无论Niantic在全球范围内拥有多少数据,但在本地,这些数据通常都是稀疏的。本地模型的主要故障模式是它无法推断出它已经看到的内容以及模型看到的位置。因此,本地模型只能将摄像机视图定位为与它们已经训练过的视图相似的视图。
“想象一下你站在教堂后面。假设离得最近的本地模型只看到了教堂的正门,因此,它无法告诉你你在哪里,因为该模型从未见过那栋建筑的背面。但在全球范围内,已经看到了很多教堂,有成千上万座,它们都被它们各自的本地模型在世界其他地方拍摄下来了。没有哪座教堂是一模一样的,但许多教堂都有共同的特征。LGM是一种获取分布式知识的方法。”Niantic表示。
LGM在全球大型模型中提炼出共同信息,从而实现了跨本地模型的通信和数据共享。LGM能够内化教堂的概念,以及这些建筑的共同结构。即使对于某个位置而言,Niantic只绘制了教堂的入口,LGM也能够根据它之前见过的数千座教堂,对建筑物的背面做出明智的猜测。因此,LGM实现了前所未有的定位稳健性,即使是从VPS从未见过的视点和角度也依旧如此。
全球模型实现了对世界的集中理解,这种理解完全来自地理空间和视觉数据。LGM通过全局插值进行局部推断。
达到”类似人类的理解”
上述过程类似于人类感知和想象世界的方式。作为人类,我们自然而然地就能认出以前见过的东西,即使是从不同的角度。例如,我们只需花费相对较少的力气就能沿着欧洲老城区蜿蜒的街道原路返回。我们能识别出所有正确的路口,尽管我们只见过一次,而且是从相反的方向。
这需要对物理世界和文化空间有一定程度的理解,这对我们来说是很自然的,但用传统的机器视觉技术很难实现。它需要了解一些基本的自然规律:世界是由固体物质组成的物体组成的,因此有正面和背面;外观会根据一天中的时间和季节而变化。它还需要大量的文化知识:许多人造物体的形状遵循特定的对称规则或其他一些常见的布局类型——通常取决于地理区域。
虽然早期的计算机视觉研究试图破译其中一些规则,以便将它们硬编码到手工制作的系统中,但现在大家一致认为,我们所期望的如此高程度的理解实际上只能通过大规模机器学习来实现。这是LGM所追求的。
在Niantic最近的研究论文MicKey(2024)中可以首次看到从Niantic的数据中浮现出的、令人印象深刻的相机定位能力。MicKey是一个神经网络,即使在视点发生剧烈变化的情况下,也能够将两个相机视图相互定位。
MicKey甚至可以处理一些人类需要费点力气才能弄清楚的对立镜头。MicKey是基于Niantic的一小部分数据进行训练的。MicKey仅限于双视图输入,并且是基于相对较少的数据进行训练的,但它仍是关于LGM潜力的一个概念证明。显然,要实现本文所述的地理空间智能,需要大量地理空间数据——这种数据并不是很多组织可以访问的。Niantic认为,其可以引领大型地理空间模型成为现实,”毕竟每周我们都会收到超过一百万张用户贡献的真实世界地点扫描图。”
与多模态模型交互通信
LGM不仅能用于定位。为了很好地解决定位问题,LGM必须将丰富的几何、外观和文化信息编码为场景级特征。这些功能将实现新的场景表示、操作和创建方式。像LGM这样可用于众多下游应用的多功能大型AI模型通常被称为”基础模型”。
不同类型的基础模型将相互补充。LLM将与多模态模型交互,而多模态模型又将与LGM通信。这些系统协同工作,将以任何单一模型都无法实现的高级方式来理解世界。这种互联互通是空间计算的未来——诞生感知、理解和作用于物理世界的智能系统。
随着向更具可扩展性的模型迈进,Niantic的目标仍然是引领大型地理空间模型的开发,”不管是什么地方,只要我们可以为用户提供新颖、有趣、丰富的体验,就可以运行这个模型。”Niantic表示,除了游戏之外,大型地理空间模型还将有广泛的应用,包括空间规划和设计、物流、观众互动和远程协作。
从LLM到LGM的道路是人工智能进化的又一步。随着AR眼镜等可穿戴设备变得越来越普遍,世界未来的操作系统将依赖于物理和数字现实的融合,以创建一个以人为中心的空间计算系统。
原文链接:
https://nianticlabs.com/news/largegeospatialmodel
声明:本文为InfoQ翻译,未经许可禁止转载。
今日好文推荐
适用于AI的”C语言”?卡内基梅隆大学又又又发明新语言了
C++的两个派系之争
成立两年用户突破1500万,全员工远程办公、以开源为首选的小团队如何颠覆社交界?
QCon晚场激辩:大模型让我们成了”提词狂魔”,未来开发者核心竞争力在哪里?
会议推荐
就在12月13日-14日,AICon将汇聚70+位AI及技术领域的专家,深入探讨大模型与推理、AIAgent、多模态、具身智能等前沿话题。此外,还有丰富的圆桌论坛、以及展区活动,满足你对大模型实践的好奇与想象。现在正值9折倒计时,名额有限,快扫码咨询了解详情,别错过这次绝佳的学习与交流机会!

你可能还想读

Default Image

AI眼镜厂商Solos发布两款新智能眼镜,售价249美元起

36氪获悉,AI眼镜厂商Solos在香港举办的2025智能眼镜研讨会上官宣了新一代智能眼镜产品。此次新品拓展了其AirGo产品线,带来了两款新产品:聚焦音频交互的AirGo™ A5和具备视频功能的AI眼镜AirGo™ V2。Solos Ai […]

发布时间:2025年11月3日
Default Image

大模型为深度伪造带来土壤,业界呼吁跨学科联合攻坚鉴伪技术

·鉴伪技术开发需要跨学科合作,当前的鉴伪技术以软件算法为主,未来将走向软硬一体。大模型兴起为深度伪造带来土壤,业界呼吁跨学科联合攻坚鉴伪技术。在大模型时代,人工智能合成语音与真实语音之间的界限变得越发模糊,提升与之匹配的识别技术迫在眉睫。7 […]

发布时间:2025年11月3日
Default Image

小米AI眼镜发布,支持“看一下支付”,1999元起

6月26日,小米重磅发布“面向下一代的个人智能设备”——小米AI眼镜。全新小米AI眼镜具备可支付功能,内置支付宝“看一下支付”,方便用户在双手忙碌或不便使用手机时,通过眼镜扫码支付,安全又便捷。据悉,小米AI眼镜现已开售,1999元起。小米 […]

发布时间:2025年11月3日
Default Image

小米AI眼镜发布,支持“看一下支付”,1999元起

6月26日,小米重磅发布“面向下一代的个人智能设备”——小米AI眼镜。全新小米AI眼镜具备可支付功能,内置支付宝“看一下支付”,方便用户在双手忙碌或不便使用手机时,通过眼镜扫码支付,安全又便捷。据悉,小米AI眼镜现已开售,1999元起。小米 […]

发布时间:2025年11月3日
Default Image

小米首款AI眼镜在京东开售 1999元起晒单享3期免息

6月26日,小米正式推出其首款AI眼镜,定位为“面向下个时代的个人智能设备”,目前已在京东同步上架开售,售价1999元起,叠加国补优惠后到手价低至1699元。京东还为该款AI眼镜推出限时福利,京东购机用户可参与抽奖,有4台免单机会,晒单用户 […]

发布时间:2025年11月3日
Default Image

6月国产手机各价位段销量冠军出炉:华为中高端齐开花

【CNMO科技消息】近日,有数码博主曝光了2025年6月国产手机各价位段销量冠军机型。CNMO注意到,华为在中高端市场全面领先,实现“齐开花”的强势表现;OPPO Reno14则包揽全价位段和部分中端市场冠军;vivo则在特定区间占据优势。 […]

发布时间:2025年11月3日
Default Image

华为发布Pura80系列手机 售价6499元起

观点网讯:6月11日,华为召开Pura80系列及全场景新品发布会,发布了Pura80系列手机、华为WATCH5等产品。据悉,华为Pura80系列包括Pura80,Pura80 Pro及Pro+,Pura80 Ultra四款产品。发布会上,华 […]

发布时间:2025年11月3日
Default Image

2699元起 华为nova10系列今日发布_TechWeb

【TechWeb】2022年7月4日,华为正式发布华为nova10系列新品手机。华为nova10系列将于2022年7月8日10:08正式开售,共有“10号色”“曜金黑” “普罗旺斯““绮境森林”四种颜色提供选择。其中华为nova10 128 […]

发布时间:2025年11月3日