自动驾驶汽车学会通过数字口碑分享道路知识
快速阅读: 《科学日报》消息,一项于2025年2月在人工智能促进协会会议上发布的研究报告提出了一种名为缓存分散式联邦学习(缓存-DFL)的新方法,旨在解决自动驾驶汽车在保护数据隐私的同时相互学习的问题。该方法让车辆能在本地训练AI模型并通过设备到设备通信共享,即使没有直接互动也能传递知识。实验显示,这种方法提高了学习效率和模型准确性。
研究于2025年2月27日在人工智能促进协会会议上发表的报告中提出,旨在解决人工智能领域的一个持续性问题:如何在保护数据隐私的同时帮助车辆相互学习。通常情况下,车辆只在短暂直接的互动中分享所学内容,这限制了它们适应新环境的速度。“可以将其视为为自动驾驶汽车创建一个共享经验网络,”负责指导由他的博士生王小领导的研究的刘勇说。刘勇是纽约大学坦登工程学院电气与计算机工程系的教授,也是该学院电信和分布式信息系统先进技术中心以及纽约大学无线技术中心的成员。“一辆仅在曼哈顿驾驶过的车现在可以从其他车辆那里学到布鲁克林的道路状况,即使它自己从未在那里驾驶过。这将使每辆车都变得更聪明,并更好地准备应对它未曾亲自遇到的情况,”刘勇说。
研究人员称他们的新方法为缓存分散式联邦学习(缓存-DFL)。与传统的联邦学习不同,后者依赖中央服务器来协调更新,缓存-DFL使车辆能够本地训练自己的AI模型并直接与其他车辆共享这些模型。当车辆彼此接近到100米以内时,它们使用高速设备到设备通信来交换训练好的模型而不是原始数据。至关重要的是,它们还可以传递从之前相遇中收到的模型,从而使信息传播远远超出即时互动。每辆车维护最多10个外部模型的缓存,并且每120秒更新一次其AI。为了防止过时的信息降低性能,系统会根据陈旧阈值自动移除较旧的模型,确保车辆优先考虑最近和相关的知识。
研究人员通过计算机模拟测试了他们的系统,以曼哈顿的街道布局为模板。在实验中,虚拟车辆以大约每秒14米的速度沿城市的网格移动,在交叉路口根据概率转弯,有50%的概率继续直行,同样可能转向其他可用道路。与传统去中心化学习方法不同,后者在车辆不经常相遇时表现不佳,缓存-DFL允许模型通过网络间接传播,就像延迟容忍网络中的消息传播一样,这些网络设计用于处理间歇性连接,通过存储和转发数据直到建立连接。通过充当中继站,车辆可以传递知识,即便它们从未亲身经历这些情况。“有点像社交网络中的信息传播,”刘勇解释道。“设备现在可以传递它们遇到的其他设备的知识,即使这些设备从未直接相遇。”
这种多跳传输机制减少了传统模型共享方法的局限性,这些方法依赖于即时的一对一交流。通过充当中继站,缓存-DFL使得学习在整个车队中更高效地传播,而不仅仅局限于直接交互。这项技术使联网车辆能够在保持数据私密的前提下学习道路状况、信号和障碍物。这对于城市中的汽车特别有用,因为这些汽车面临各种条件,但很少有机会长时间接触以进行传统学习方法。研究表明,车辆速度、缓存大小和模型过期时间影响学习效率。更快的速度和频繁的通信可以提高结果,而过时的模型则会降低准确性。基于群体的缓存策略通过优先选择来自不同地区的多样化模型,而非仅仅最新的模型,进一步提高了学习效果。
随着AI从集中式服务器转移到边缘设备,缓存-DFL为自动驾驶汽车提供了集体学习的安全有效方式,使其更加智能和适应性强。缓存-DFL也可以应用于其他智能移动代理的网络系统,如无人机、机器人和卫星,以实现稳健高效的去中心化学习,从而达到集群智能。研究人员已公开发布其代码。更多详情可在他们的技术报告中找到。除了刘勇和王小外,研究团队还包括石溪大学的熊国军和李建;纽约理工学院的曹厚伟。研究得到了多个美国国家科学基金会项目的资助,包括国防部和国家标准技术研究所支持的韧性与智能下一代系统(RINGS)计划资金,以及纽约大学提供的计算资源。
(以上内容均由Ai生成)