中科院计算技术研究所李威副研究员分享“深度学习处理器:通向智能之路”


中科院计算技术研究所李威副研究员分享“深度学习处理器:通向智能之路”

  • 钱雅倩
  • 发布于 2017-12-18
  • 267

      2017年12月11日下午1点半,中国科学院计算技术研究所李威副研究员做客微电子学院主办的“类脑芯片技术与应用专题系列”科学前沿讲座,为国科大的学子们带来了关于“深度学习处理器:通向智能之路”的精彩讲座。

      讲座开场,李威老师抛砖引玉:在智能化不断发展的道路上,巴贝奇问题和布什问题研究出了大量新技术,使计算机已成为人类离不开的基础设施。接着,老师进一步提出智能的源头——大脑,因为只有知道智能的源头,才能知道智能究竟会发展成什么样。为了让同学们更进一步详细了解人工智能的工作原理,李威老师讲解了生物神经元和人工神经元的区别,并展示了最简单的人工神经网络图,说明一个神经元能够处理最简单的分类工作。

      接着,李威老师为同学们阐述了人工神经网络的发展史:1957年的单层感知机,模仿了生物神经元,90年代初深度前馈网络—卷积神经网络的出现让人工智能有了大跃步,卷积神经网络有三个结构上的特性:局部连接、权重共享以及空间或时间上的次采样。在场景识别、环境感知、动作识别方面应用广泛,例如:自动驾驶。与卷积神经网络没有反馈,逐层采样不同,循环网络通过使用带自反馈的神经元们能够处理任意长度的序列,并且有记忆序列的能力,在机器翻译、图片描述、视频标注、视觉问答等方面应用居多。人工神经网络的里程碑是在2006年研究出了深度学习算法,例如Alpha Go。随后人工神经网络更是迅速发展,2014年deepmind团队提出了神经图灵机:通用的智能解决方案。

      随后,李威老师展示了人工神经网络当前的发展:从人脸识别、语音识别到策略分析,神经网络已经达到类人水平。介绍了专门的深度学习处理器:图形处理器、信号处理器、智能处理器。并着重向大家介绍了寒武纪迄今的三大技术突破:1.通过EDRAM技术及多芯片互联,保证神经网络模型完整放置于片上,完全无需访问内存。2.将片上通讯分成多个小块,每块内部包含运算部件、神经元数据、突触数据,减少90%以上片上通讯时间。3.采用可编程VLIW处理器结构以及灵活的运算部件,支持几乎所有主流机器学习算法。

      讲座的最后,李威老师阐述了深度学习处理器的优点:帮助我们本地、实时完成各种图像、语音和文本的理解与识别;更重要的是,在不断的深度学习后,能够真正拥有类人级别、或与人接近的智能水平。

      本次讲座李威老师深入浅出的讲解了深度学习的原理,算法和应用等,让同学们对人工智能有了更透彻的理解,使同学们受益匪浅。