联系人:
所在地:
一、项目简介
卷积神经网络(DNN)在计算机视觉领域已经取得了前所未有的巨大成功,众多传统计算机视觉算法已经被深度学习所替代。在巨大应用前景和商业价值的驱动下,深度学习及卷积神经网络成为学术界和产业界的研究焦点,大量优秀的工作不断地涌现。为了谋求更加优越的性能,神经网络往往具有复杂的模型结构,导致其需要高额的存储空间和计算资源,难以有效地应用在各种硬件平台上。因此,卷积神经网络日益增长的深度和规模为深度学习在各种硬件平台,尤其是移动端、边缘设备的部署带来了巨大的挑战,深度学习模型压缩与加速成为了亟待突破的关键问题。
本技术从算法和工程两个层面同时对模型进行压缩和加速。算法层面通过综合轻量级网络结构设计、模型裁剪与稀疏化、量化加速等技术,实现模型精度轻微损失时的多重压缩,极大减少网络计算量,内存开销;
工程层面结合对应硬件平台的特性(如NEON、SSE等优化指令,CPU与GPU异构计算,多线程并发等),最大限度激发网络推理速度。
本技术荣获PRCV2020全国高速低功耗视觉理解竞赛冠军,成果发表在知名会议ICIG 2020上并做大会报告,得到广泛关注。
二、技术特点
针对检测、分类、分割等神经卷积网络模型在精度无损的情况下实现1-2倍加速优化;在精度轻微损失的情况下,可实现5倍以上加速优化,特殊的硬件平台甚至可达到100倍以上加速优化。
三、应用领域及市场前景:面向移动端、边缘端神经网络模型的部署。基于卷积神经网络的各类算法模型在计算、体积、功耗等资源受限的移动设备、嵌入式设备进行部署时,依托本技术可以有效实现模型压缩和网络加速优化。
四、合作方式
技术开发、技术服务。