【张政】轻量级DNN网络在Android上的视觉应用

碧鲁曼音

2017/12/31 发布于 技术 分类

2017年,droidcon 第2次来到中国,并将于2017年11月在北京盛大开幕。参会人群包括业界领袖、技术大咖、技术开发者、大众创业者及领域从业者。大会将邀请来自Google、微软、Facebook、Ebay、Intel、Telenav、阿里巴巴、腾讯、小米、乐视、联想等国内外安卓技术与应用领域的大咖,沿袭历年国际大会特色,聚焦行业最前沿技术,碰撞切磋技术火花。

文字内容
1. droidcon Beijing 2017 轻量级DNN网络在Android上的视觉应用 - 北京正安维视科技股份有限公司 张政 PAGE / 1
2. > 巨大的市场应用前景 > 计算机视觉 face、person… > 自然语言处理 翻译、搜索、Siri… > 数据挖掘 消费习惯、知识库… > 游戏 角色仿真、强化学习… > 复合应用 无人驾驶、机器人… PAGE / 2
3. 一. AI 的前世今生 植物识别 物体检测 瞳孔识别 语音识别 用户画像 自动驾驶 机器人 VR AR PAGE / 3
4. > 人脸识别 PAGE / 4
5. > 人脸识别 哥就不刮胡子?? 想刷脸,门都没有!! PAGE / 5
6. > 技术发展趋势 @ 常用CNN 框架 @ Base 模型的 accuracy 对比 PAGE / 6
7. > 迁移学习 ● Learning学习 - learning to learn ● 终身学习 - life-long learning ● 知识转移 - knowledge transfer ● 归纳迁移 - inductive transfer ● 多任务学习 - multi-task learning ● 知识的巩固 - knowledge consolidation ● 上下文相关学习 - context sensitive learning ● 基于知识的归纳偏差 - knowledge-based inductive bias ● 元学习 - meta learning ● 增量学习 - incremental/cumulative learning PAGE / 7
8. > 对抗网络 PAGE / 8
9. 应用一:目标检测 > Deep Stream PAGE / 9
10. 应用二:实时翻译 > Translate PAGE / 10
11. 应用三:智能后视镜 > ADAS PAGE / 11
12. 二. 从MobileNet到ShuffleNet @ MobileNet > Depthwise convolution > Pointwise convolution PAGE / 12
13. @ ShuffleNet > Depthwise convolution > Pointwise convolution PAGE / 13
14. 三. DNN 网络压缩 PAGE / 14
15. 1. Pruning 最常用的剪枝方法,即剔除对亍网络贡献比较低的权值连接,这个比较好理解,通过Pruning使得 网络变得稀疏,带来更少的计算量。 上图是基亍稀疏矩阵的索引表示,用3bits 来表示索引的相对位置,其中黄色部分为有效权值区域, 当相对位置的diff 超过8(3bits)的时候,中间插入了一个0权值来防止溢出。 事实上,稀疏矩阵对于计算量来讲并没有太多的效率优化,远丌如将整个的卷积和剔除来得更实 在,这也是 Pruning 接下来聚焦的方向。 PAGE / 15
16. 2. Quantization 量化,包括两个方向: a)通过聚类的方式实现权值共享; 这种方法误差很大,后续研究的也并丌是很多, 知道下就好了。 b)采用更少的字节表示权值,比如 16bit、 8bit; 这里面还有 著名的 BinaryNet,XNOR-Net, 丌过对亍效果影响比较大,通常是 Float16 or int8 。 3. Huffman 编码 通过对权值、索引迚行编码,减少字节占用; 其中 (2)(3) 对系统的优化主要聚焦在节约内存占用,应用相对较少。 PAGE / 16
17. NVIDIA: Iteration Pruning 该方法的核心思路: 1)基亍Kernel Filter迚行 Pruning,丌考虑更细的Weight 层面; 文中给出了原因,Weight 层面的 Pruning 能减少计算量,但稀疏的卷积核 并丌能带来效率的提升(缺少与用硬件)。 2)迭代删除 Least important Kernel,并迚行 FineTuning; 3)提供了一个 Pruning 的准则; 判断依据: 1)Minimum weights 2)Activation 3)Mutual information 4)Taylor expansion 5)Relation To optimal Brain Damage 6)Average Percentage of Zeros(APoZ) PAGE / 17
18. Intel: Direct Sparse Conv Conv 层对亍CNN网络的效率影响很大,不前 面 Pruning 整个 Kernel 的方法丌同,这篇文章主要 是 Pruning 连接。 核心思想是 通过一种乘法(向量展开),实现 Dense Matrix(特征) 和 Sparse Matrix(Kernel) 之间的高效计算。同时提出了一种评价模型,预测 丌同网络下 稀疏程度的最佳值。 作者在 AlexNet 上迚行 Conv 层压缩,获得了 3.1~7.3倍的加速。 PAGE / 18
19. Android & TensorFlow 机器学习领域的下一个Android! PAGE / 19
20. Thanks For Attention! PAGE / 20