阅读笔记|Random sketch learning for deep neural networks in edge computing

info: B. Li et al., “Random sketch learning for deep neural networks in edge computing,” Nat Comput Sci, vol. 1, no. 3, pp. 221–228, Mar. 2021, doi: 10.1038/s43588-021-00039-6.

1.1 背景

深度神经网络对计算和存储资源需求巨大,这给它们在边缘设备上的部署带来困难。最近,轻量级深度学习受到了极大关注,其目的是通过网络剪枝、低秩近似(LRA)、权重量化和网络架构转换(NAT)等压缩大型DNN模型。有工作基于矩阵逼近理论近似相对更低秩和稀疏的DNN模型的权重矩阵,从而得到一个轻量的紧凑模型。

阅读笔记|Towards Edge Computing Using Early-Exit Convolutional Neural Networks

info: R. G. Pacheco, K. Bochie, M. S. Gilbert, R. S. Couto, and M. E. M. Campista, “Towards Edge Computing Using Early-Exit Convolutional Neural Networks,” Information, vol. 12, no. 10, p. 431, Oct. 2021, doi: 10.3390/info12100431.

1.1 背景

在计算机视觉应用中,移动设备由于计算资源的限制往往需要将卷积神经网络(CNN)的推理任务转移到云端完成。但是除了给云端带来更多的网络负载之外,这种方法还会使那些需要低延迟的应用变得不可行。

阅读笔记 | Edge AI: On-Demand Accelerating Deep Neural Network Inference via Edge Computing

info: E. Li, L. Zeng, Z. Zhou, and X. Chen, “Edge AI: On-Demand Accelerating Deep Neural Network Inference via Edge Computing,” IEEE Trans. Wireless Commun., vol. 19, no. 1, pp. 447–457, Jan. 2020, doi: 10.1109/TWC.2019.2946140.

1.1 背景

深度神经网络(DNN)是支持移动智能应用的关键技术,但在移动设备上运行DNN存在计算资源有限的挑战。传统的云计算辅助的DNN推理存在明显的延迟问题。边缘计算作为一种新兴的计算模式,可以用于支持实时的DNN推理。

阅读笔记 | Distributed Inference with Deep Learning Models across Heterogeneous Edge Devices

info: C. Hu and B. Li, “Distributed Inference with Deep Learning Models across Heterogeneous Edge Devices,” in IEEE INFOCOM 2022 - IEEE Conference on Computer Communications, London, United Kingdom: IEEE, May 2022, pp. 330–339. doi: 10.1109/INFOCOM48880.2022.9796896.

1.1 背景

随着深度学习在各种任务中的广泛应用,将模型部署到边缘设备进行推理非常重要。但是直接在资源受限的边缘设备上使用复杂的深度学习模型进行推理可能会很慢。因此,通过分布式推理来加速非常必要。