首页 资讯正文

如何把存储器做到CPU里?我们向大脑找答案

woniu 资讯 2020-05-10 12:10:00 137032 0 | 文章出自:用户投稿

过去的十年以深度学习为代表的人工智能技术深刻影响了人类社会。但人类要进入真正意义上的智能时代,还需要更强大的智能技术。而向人脑学习,借鉴人类大脑的智能产生机理被认为是一条非常值得期待的道路。反过来,AI技术也在深刻改变着脑科学的研究方法。在“观测脑”手段不断变革的基础上,AI技术为脑科学提供了越来越强大的分析、展示和科学发现手段。

 

2020年4月25日,青创联盟发起的YOSIA Webinar特别推出了“AI+X”科学系列主题,第一期主题为AI+脑科学,主要针对人工智能与脑科学的发展以及两者间的相互影响进行了分享。

如何把存储器做到CPU里?我们向大脑找答案

本次参与者有六位嘉宾,他们分别是来自浙江大学计算机学院的唐华锦教授,清华大学微纳电子系教授、副系主任吴华强,清华大学计算机科学与技术系副教授胡晓林、中国科学技术大学神经生物学与生物物理学系主任毕国强、北京师范大学认知神经科学与学习国家重点实验室毕彦超教授以及北京大学信息科学技术学院长聘教授吴思。主持人为未来论坛青年理事会轮值主席、中科院计算所研究员、博士生导师山世光教授。

 

唐华锦发表了《神经形态计算机》的主题分享,他认为模拟大脑智能是计算机科学领域长久以来的目标,成为过去几十年人工智能的发展的重要推动力。

 

人工智能和脑科学在各自领域独自发展,且都取得了很大突破,我们亟需以新的眼光和视角重新建立两者的联系,特别是从脑科学的角度探索人工智能的新思路和新方法。报告从探讨神经元-突触为计算载体的信息处理和计算形式、记忆的形成和存储,以及高级认知的产生,探讨基于脑科学、神经科学的人工智能的展望。

 

他分享了如何来设计未来的神经形态计算机。首先必须具备异构的网络结构,其次包含时序动力学的神经元非线性,要构建基于突触可塑性的信用分配算法不仅实现模式识别这样深度学习里面已经非常成功应用的各种算法,而且要实现学习-记忆融合的认知计算,我们未来把大脑搬进机箱让它实现知识的表达、知识的学习、认知以及环境的交互。

 

吴华强则进行了《大脑启发的存算一体技术》的分享,他提到,人工智能无处不在,从云端到我们手机端都有很多人工智能也在深刻影响我们生活。并且人工智能的研究和应用已经取得了突飞猛进的发展,但是运行人工智能深度神经网络算法的计算平台主要是超级计算机群(成百上千个CPU和GPU),不但需要巨大的硬件投入,而且占用的空间和消耗的能源也非常可观。

 

受限于存储计算分离对芯片性能的限制,同时CMOS工艺微缩速度放缓,以及人工智能应用对计算存储需求的不断提升,当前的技术将面临诸多新的挑战。

 

因此,我们需要类脑计算、存算一体,这也是向生物找答案,向大脑找答案。用脑启发设计新的人工智能芯片是非常必要也是急需的。

 

在这一背景下,新器件的出现变得至关重要,通过引入新原理的半导体器件,不但可以拓展芯片的功能,甚至可以颠覆传统电路理论,突破当前芯片面临的能效、速度瓶颈,大幅提升芯片性能。

 

基于过渡族金属氧化的忆阻器件显示出了优越的存算一体的特性,能够规避存储和计算之间数据搬运的功耗并且能够实现大规模集成,进而实现高性能计算。

 

胡晓林则从AI的发展,神经网络的发展来谈如何促进神经科学的研究。他阐述了《神经元稀疏发放在视听觉通路上的作用》,受Barlow高效编码理论的启发,上世纪90年代人们通过计算建模的方式发现神经元的稀疏发放对于哺乳动物的视觉和听觉系统的前期的信息处理机制有着重要作用,但是稀疏发放对于更上层的功能区域有什么作用一直不是很清楚。

 

在报告中胡教授介绍了目前他们的发现,通过用深度学习对脑的视听觉通路的建模的两个案例,建模后发现,高级视听觉区域的神经元的稀疏发放与它们的一些独特功能有着密不可分的关系。该结果暗示高效编码理论可能在高级感觉区域也是成立的,从而推广了前人在感觉通路低级区域发展出来的高效编码理论。

 

在问答环节里,六位嘉宾探讨了脑科学为AI提供了哪些思想、技术和方法,同时进行了相应的转化,而AI也为研究脑科学提供了分析工具,并提供了更多思路。

 

“我们理解一个事情,我们需要能创造它才能做它。”从AI和脑科学的整体关系,是科学和工程的关系。作为正在被打开的两个“黑箱”,二者在互相影响和碰撞,等待更大空间的研究被发现和释放。

 

怎么样培养更多的交叉学科的人才成为了重点讨论问题。嘉宾们认为这是一个很大的挑战,作为交叉学科的人,要对两个学科都要有充分的把握,而这两个学科都是很难的学科,挑战很大,因此需要鼓励青年人要真正追求自己的兴趣,如果真的想研究,要花别人双倍的力气把这两个学科都学好。

 

以下为AI+脑科学主题分享速记:

 

主题报告

 

分享一:《神经形态计算机》—唐华锦

 

唐华锦,浙江大学计算机学院教授

 

唐华锦教授分别于浙江大学、上海交通大学完成本科和硕士学习, 2005年新加坡国立大学获得博士学位。2008-2015年于新加坡科技研究局资讯通信研究院担任Robotic Cognition实验室主任,2014年起担任四川大学类脑计算研究中心主任,目前为浙江大学计算机学院教授。主要研究领域为神经形态计算、类脑智能芯片、智能机器人。获2016年度IEEE TNNLS杰出论文奖、2019年度IEEE Computational Intelligence Magazine杰出论文奖。担任/曾担任IEEE TNNLS、 IEEE Trans. on Cognitive and Developmental Systems、Frontiers in Neuromorphic Engineering,Neural Networks等期刊的Associate Editor,担任国际神经网络学会(International Neural Networks Society)理事及评奖委员会成员等。

 

唐华锦: 大家好!我今天很荣幸被邀请来分享这样一个主题,我的主题是以神经形态计算机为中心来探讨一些开放问题以及对这个领域做一些展望。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/2374.html

评论