文献阅读(59)

Kande ·
更新时间:2024-09-21
· 999 次阅读

文章目录1 缩写 & 引用2 abstract & introduction3 神经网络的比特级稀疏性4 Laconic 题目:Laconic Deep Learning Inference Acceleration 时间:2019 会议:ISCA 研究机构:多伦多大学 1 缩写 & 引用 LPE: Laconic processing element

Bit-pragmatic Deep Neural Network Computing 2017 Intl’ Symp. on Microarchitecture
Bit-Tactical: A Software/Hardware Approach to Exploiting Value and Bit Sparsity in Neural Networks 2019 Proceedings of the 24 International Conference on Architectural Support for Programming Languages and Operating Systems

2 abstract & introduction

提高能耗比的几种常用手段:

数据复用 数据类型和位宽 数据稀疏性 近似计算的鲁棒性

这篇论文主要聚焦于比特级的稀疏性,即零比特的个数
本篇论文的主要贡献:

探究神经网络的比特级稀疏性 硬件加速器设计Laconic,利用了booth编码 3 神经网络的比特级稀疏性

过去的工作主要聚焦于权重或者feature map的稀疏性,是整个数是0的时候可以跳掉,但实际上还可以利用比特级的稀疏性,实现加速
在这里插入图片描述

4 Laconic

本质上就是用Booth编码来表示数据,这样就不用考虑零比特的数,比如说(0011 1100)=60=64-4
在这里插入图片描述
每个时钟周期1个Laconic PE可以进行2个比特级的乘法,所以上图需要两个时钟周期来完成计算,
一个2x2阵列的Laconic PE,一次可以进4个权重+4个feature map,就是8个权重feature map对,每次乘法需要2个时钟周期
在这里插入图片描述


作者:tiaozhanzhe1900



文献

需要 登录 后方可回复, 如果你还没有账号请 注册新账号
相关文章