在NVIDIA的AI专用SoC里,DLA是核心的推理引擎,负责跑ONNX等深度学习网络模型。其中,卷积计算、矩阵乘法这些“重活”,由专用硬件单元负责,而剩下的绝大多数非矩阵乘网络层、全流程调度控制,全靠RISC-V核心撑起。