首页 > 图书中心 >图书详情
神经网络加速器的计算架构及存储优化技术研究
作者:涂锋斌
定价:89元
印次:1-1
ISBN:9787302601517
出版日期:2022.04.01
印刷日期:2022.03.22
本书针对不同应用类型,提出了两套计算架构,分别是面向通用神经网络近似的神经网络计算架构RNA和面向专用人工智能领域的神经网络计算架构DNA。本书的三项研究工作与两套优化设计方法相辅相成。研究工作本身均已进行充分的实验验证,具备很高的实用价值。优化设计方法不仅为研究工作中提供了有力支撑,对神经网络加速器架构未来的研究方向同样具有指导意义。此外,为解决神经网络计算中的访存瓶颈问题,提出了基于数据保持时间的神经网络存储优化框架RANA。
more >导师序言 我很高兴以导师的身份为出版涂锋斌的博士学位论文作序。本论文涉及的课题开始于2013 年,正逢以神经网络算法为核心的深度学习浪潮逐渐兴起。然而,神经网络算法因庞大的计算量和数据量,在通用处理器上的执行效率不高。我们判断,设计专用于深度学习的神经网络计算芯片,将会给传统计算系统带来重大提升,非常值得以此为论文课题展开相关技术研究。现在回顾来看,本论文课题研究的神经网络计算芯片确实为如今智能计算时代提供了新的算力。如今神经网络计算芯片大范围普及,广泛应用于云端、终端的各种设备,完成机器视觉、语音识别、自然语言处理等智能任务。 我们课题组从2006 年开始可重构计算架构的研究。这项技术的原理在于:根据不同的应用来动态地配置硬件资源的功能和互联形成计算通路,随后在数据流的驱动下完成计算。我们在研究中发现,各种神经网络算法具有相似的核心计算单元,同时因为应用不同而需要纷繁多样的网络结构。这样的算法特点非常契合可重构计算架构的核心思想。我们决定设计一颗基于可重构计算架构的神经网络计算芯片,以支持各种智能任务需要的不同神经网络算法。 经过一些早期科研成果铺垫,我们在2016 年提出可重构深度神经网络计算架构,并设计了一款多模态智能芯片Thinker。这是国际上首次将可重构计算架构引入神经网络计算芯片设计中。该款芯片作为清华大学的代表性成果参加了2016 年全国双创成果展,获得李克强总理的赞许,并被麻省理工科技评论等媒体报道。Thinker 芯片于2017 年获得了ISLPED 国际低功耗设计竞赛冠军,同时参加竞赛的还有来自美国微软公司、威斯康星-麦迪逊大学、普渡大学等团队,这是中国大陆单位首次以第一完成单位获得此奖项。可重构深度神经网络计算架构的研究成果于2017 年发表在集成电路高水平期刊TVLSI 上,此后三年分别排名该期刊下载量的第5 名、第2 名、第6 名。Thinker 芯片的创新技术于2018年发表在集成电路顶级期刊JSSC 上。同年,我们课题组将可重构深度神经网络计算架构推向产品化,成立清微智能公司。两年来,公司已在语音识别、视觉识别等领域研发出规模化应用产品,并和阿里巴巴等互联网巨头建立合作。 为解决神经网络计算过程中的访存瓶颈问题,涂锋斌将高密度的eDRAM 引入计算芯片作为片上缓存,大幅降低了片外访存。他通过软硬件协同设计使计算过程中的数据生存时间小于eDRAM 的数据保持时间,显著减少了eDRAM 的额外刷新能耗开销。这一研究成果发表在2018 年计算机体系结构顶级会议ISCA 上。我感到很欣慰,我们的研究成果可以同时在集成电路和体系结构两个不同的学术社区得到高度认可。 在博士研究生阶段的最后一年,涂锋斌分析智能计算的发展现状,发现无论是学术界还是工业界,大多数神经网络芯片只是完成正向推断的功能,而真正的智能芯片应当具备终身学习的能力,可以根据环境的变化不断进化自身的算法甚至架构。我们长期研究的可重构计算架构可以为这种进化提供硬件基础。于是,耗时一年,我们设计出一款可重构神经网络学习芯片Evolver,创新性地将强化学习和神经网络训练的功能同时引入芯片。相关研究成果于2020 年再次发表在集成电路顶级期刊JSSC上。这一工作可以说引领了智能芯片从片上计算到片上学习的转变。 涂锋斌在学习和研究中善于提炼自己的研究方法,每项工作既有自己的特色又能在之前的工作基础上有所突破。他现在正在加州大学圣塔芭芭拉分校的谢源教授组从事博士后研究工作。据我所知,他正在智能芯片的新型应用和新型架构两个方向上做进一步的拓展。我衷心祝愿他在美国学习工作顺利,早日学成归来,为祖国的芯片事业奉献自己的一份力量。 魏少军 清华大学微电子与纳电子学系
more >