为实现端云无线协同推理,传统方案长期沿用“分层解耦”设计思路,即端侧设备、通信模组、云端设备分别被独立设计并完成任务。然而,这种“自扫门前雪”的设计思路会导致三类“分离”问题叠加放大能耗开销。第一,存储与计算分离使端侧硬件在神经网络推理中频繁搬运数据,能效受限于冯·诺依曼瓶颈;第二,信号处理与收发分离使无线链路依赖高精度模数转换(尤其接收端模-数转换器(ADC))与复杂的数字基带处理,而ADC功耗随精度提高而快速增长,基带处理任务也随编码复杂度快速提升,令低功耗终端难以承受;第三,也是最容易被忽视的一点——神经网络与无线通信分离:神经网络依赖数据训练去“猜测”最有可能的结果,而通信模块通常被要求“无差错”地传输计算数据。为保证通信的“无损性”往往需要更高的信噪比(更高精度射频链路、更大发射功率)、更低码率编码方式与更复杂的解码链路,从而把无线通信成本推到很高。
因此,面向“万物智联”的边缘智能,迫切需要一种新的无线协同范式:不再把无线通信当作与AI任务无关的外部数据交换管道,而是让通信过程融入神经网络系统中,使得边端与云端通过无线进行协同。进一步,通过在训练层面协同优化,让系统能在保证任务推理精度的前提下,以更低的发射功率、更低功耗的模数转换与计算,支撑海量低功耗终端的智能互联。为此,南京大学类脑智能研究团队从计算硬件、训练方法两个维度出发,大幅度提升了端云无线协同计算的能效水平。