6G网络数字孪生性能提升,AI驱动激励系统优化任务卸载
快速阅读: 研究团队提出6G网络中基于激励的任务卸载方案,利用斯塔克伯格博弈模型和深度强化学习算法,解决资源有限的移动接入点无法独立支持数字孪生AI训练的问题,提升运营商和mAPs的效用。
数字孪生网络通过构建物理网络的高精度虚拟副本,能够预测状态并验证决策,但其准确性依赖于AI模型训练,这一过程需要大量资源。然而,资源有限的网络实体(RL-NEs),例如移动接入点(mAPs),无法独立支持数字孪生的AI训练,因此需要将任务卸载到基站(BSs)。
此外,由于RL-NEs和AI服务提供商(拥有基站的运营商)通常属于不同的实体,激励机制对于最大化双方的利益至关重要。针对这一挑战,来自中国移动研究院、中国移动通信集团有限公司和北京邮电大学的研究团队开展了一项研究,题目为“6G原生人工智能网络中基于激励的任务卸载:一种学习方法”。
该研究首先建立了一个斯塔克伯格博弈模型来模拟运营商(领导者)与mAPs(追随者)之间的互动。运营商作为领导者设定AI培训服务的单价,而mAPs根据公布的价位决定访问哪个基站以及卸载多少任务量。研究分析了斯塔克伯格均衡(SE),以推导出最优定价和卸载策略:运营商的效用在于平衡服务收入与基站能耗成本,而mAPs的效用则考虑AI培训效果、任务延迟和服务支付。
考虑到无线网络环境的时间变化性,研究进一步设计了一种基于软演员-评论家(SAC)方法的深度强化学习(DRL)算法。对于运营商而言,基于SAC的定价策略利用信道增益作为状态来动态调整服务价格;对于mAPs,则采用多代理SAC卸载策略,通过利用信道增益和价格作为状态,实现独立决策(无需共享其他mAP的信息)。
广泛的6G原生AI网络仿真(包含24个基站和48个移动接入点)验证了该方案的有效性。与基于TD3和DDPG的基准方案相比,所提出的DRL方法在不同带宽和计算能力下为运营商和mAPs提供了更高的效用。尽管静态斯塔克伯格博弈方案在稳定环境中可能产生略高的效用,但DRL算法具有更低的推理复杂度和更好的适应动态网络变化的能力。
该论文《6G原生人工智能网络中基于激励的任务卸载:一种学习方法》由陈天骄、王小云、华美惠和唐琴琴撰写。开放获取论文全文链接:
https://link.springer.com/article/10.1631/FITEE.2400240
来源:
《信息技术前沿与电子工程》
期刊引用:
Chen, T., Wang, X., Hua, M. et al. Incentive-based task offloading for digital twins in 6G native artificial intelligence networks: a learning approach. Front Inform Technol Electron Eng 26, 214–229 (2025). DOI: 10.1631/FITEE.2400240,
https://link.springer.com/article/10.1631/FITEE.2400240
(以上内容均由Ai生成)