当前数字经济方兴未艾,如何通过技术创新为数字经济热潮提供关键支持,已成为产学研各界关注的焦点。7月3日,中国工程院院士、清华大学教授郑纬民和英特尔研究院副总裁、英特尔中国研究院院长宋继强接受新华网专访,就如何进行底层技术创新、实现算力指数级提升,助力数字经济发展相关话题发表观点。
精彩观点
宋继强:异构计算有望带来算力指数级提升,满足多元化的计算需求
随着人工智能、云计算等新一代信息技术不断涌现,数字经济正在蓬勃发展,国家也视其为发展新征程的助推器。数字经济的发展对算力提出了怎么样的新需求?在此背景下,传统计算架构面临着怎样的挑战?
数据是数字经济的关键元素
数据是数字经济的关键元素,因此我们要对这个数据进行处理、分析,从中得到比较有用的价值,这么一来对计算机的算力就提出了要求。算力是很重要的,当前我是这样看,算力大概由三大类组成,一是高性能计算HPC,还有一类是数据中心,以云计算方式提供给大家,最后一类是人工智能计算机,当前这两年发展起来最快的算力。我们说人工智能计算需要大量的低密度计算,因此,传统的CPU处理这类问题不是太合适,现在GPU以及人工智能的芯片出来后对低密度计算,对存储器的访问进行了特别优化,非常适合人工智能计算,因此,人工智能计算将会很快对数字经济发展有很好的支撑,以GPU和人工智能芯片为核心的异构计算是会对数字经济起到很大的促进作用。
倍受关注的异构计算能力会带来怎样的新机遇?英特尔在这方面做了哪些工作?
异构计算有望满足多元化计算需求
异构计算就是用不同的架构组合在一起提供算力,解决数据处理问题的方式。不同的架构通常包括标量处理的架构CPU、矢量处理的架构GPU、AI加速器这种专门处理模块的架构,还有像FPGA这些处理稀疏、特定的数据格式的架构。这么多不同的架构就像我们日常在工作中使用的不同工具,对于不同的数据用不同的架构处理可以获得最高的效率和最高的性能比,也就是说我们为了能够让一件事情、一些数据被更好地处理就需要把不同的架构组合起来。
现在从数据的发展来看,数据的种类已经从传统的由人产生的非常结构化的数据,比如文本、表格、数据到后来由很多传感器采集进来的多媒体数据,语音的、视频的等等,到未来会有很多智能设备,像无人车、机器人采集进来的毫米波雷达、激光雷达的数据,这么多数据它们的形态不同,对它们的处理有时候需要用CPU处理,有时候需要用GPU处理,有时候又需要FPGA这些特定的加速部件去处理。那么我们就发现,未来一定需要多种架构有机组合,不管是组合在一个芯片里面还是组合在一个板级的系统里面去以最优、最小功耗的方式完成这个任务,这就被称为异构计算,它有很多不同的表现形式。
英特尔首先拥有很多种不同架构的计算模块,CPU是我们一直以来拥有最多技术积累的地方,近期我们也开发了新的独立显卡就是GPU,在AI加速器方面有用在云端的加速器,也有用在终端、用在边缘计算加速器,FPGA的话也可以通过我们的部件把它整合在一个芯片里面,也可以做在加速卡里面提供给客户使用。因此,英特尔实际拥有异构计算里面多种元素的计算能力,可以很方便地根据客户需求和实际应用的功能、性能要求包括功耗的要求组合出最有效的方案。
摩尔定律是数字经济高速发展的基石
摩尔定律是指一个芯片里面半导体数量每18个月翻一倍,就是每18个月一个芯片里面晶体管数量增加一倍,这样一来计算性能就提高了很多,因此这是很好的一件事。但是这个靠什么实现呢?主要靠制造半导体的工艺,应该说制程工艺现在大家知道14纳米、7纳米、3纳米、2纳米越来越接近极限,因此摩尔定律现在越来越紧张了,是不是要到头了?大家都在讨论这个事情。但是,到现在为止我们还是按照摩尔定律在做,集成度提高了,计算能力提高了,还有计算机的体系结构本身也提高了,使得整个算力还是以指数的形式提高,处理人工智能问题也好,处理平时的问题也好都有很大的进步。因此,我相信摩尔定律的基础上加上体系结构的努力,会对人工智能,会对数字经济起到很大的作用。
推动摩尔定律需要组合多种技术
摩尔定律实际上是英特尔的创始人之一戈登·摩尔提出的一个对半导体行业技术发展的预测性规律,不是一个技术定律或者是一种怎么把事情做好的铁律,它更多的是一种指导产业怎么去利用新的技术不断开拓、不断往指数型提升计算力这个方向走的一个信念。
在过去的二三十年,尤其是在90年代,实际上摩尔定律的发展是非常快的,因为那个时候我们还是属于制程纳米数比较大的尺度,所以我们会快速地看到每隔18到24个月晶体管的密度或者栅极的尺寸可以缩小一半,也就是说我们可以以指数的方式不断提升同一个面积下晶体管的密度。
随着现在纳米尺度越来越小,也就意味着晶体管微缩的时候越来越困难,再继续推动摩尔定律的时候我们其实要组合多种技术,首先晶体管微缩仍然是很重要的技术,比如英特尔在未来四年会连续推出五个把晶体管微缩往前推进的节点,今年有Intel 7的产品,下半年会有Intel 4,明年还会有Intel 3,然后我们会用新的命名方式A,A就是埃米,十个埃米等于一个纳米,我们在2024年引入Intel 20A,这就代表着我们已经开始往埃米时代进军,再往后我们在2024年年底还会推出Intel 18A。
站在如今的需求来看,应该如何通过“软硬件一体化”进一步加速算力提升?
软硬件协同一体化是提升算力的关键
硬件是提供算力的最基础的东西,而软件既灵活,又能提高效率,基础硬件还是要有的,不能全靠软件,要有一定的基础硬件,再加上软件。那么,哪部分工作由硬件完成,哪部分工作由软件完成呢?这就涉及到软硬件一体化。
举例而言,隐私计算十分重要,它是指对个人数据要有保护作用和隐私设置,但是数据还要进行计算、决策和处理,如何在数据被保护的同时进行计算?大家提出了很多办法,其中就有同态加密以及多方计算,这是由做隐私计算的人提出的,理论上很好地解决了隐私计算的问题。但还有一个问题,现有计算机硬件的无法单靠自身提供足够的算力,算起来太慢了,因此,就有人在研究能不能做一个隐私计算的硬件加速器,专门把隐私计算的软件做到硬件里。这就有新的问题,分清楚哪些部分是由硬件完成,哪些部分是由软件完成,分清软件硬件的界限在哪里等很重要,因为在把隐私计算的软件做到硬件里的时候,实际上算法有时候是需要修改的,不分清的话一旦修改就很麻烦,又要重新做。
因此,硬件和软件要有非常好的配合,也就是“软硬件一体化”,才能完成这件事。
软硬件结合才能打造出匹配场景需求的解决方案
硬件的创新是为了提供基础算力和不同计算模式,例如异构计算中每一种不同架构以它的独特功能提供算力,但是要用好这些包括数据处理在内的计算模式需要软件的帮助,来给硬件很好地提供释放能力的通道。对我们来说软件分成好多层。
首先,最底下的一层的软件是把硬件的能力充分暴露出来,从而适配不同的硬件。如果有不同异构的硬件,那应该有不同的软硬件驱动层把不同硬件的能力传达给上面的性能软件。性能软件的功能是为特定的计算功能、计算核在相应的硬件架构上获得最高的性能运算速度,或者把延时优化到最佳,功耗降至最低。有了这层称为“中间件”的层级,把优化好的性能库作为基础,上面就能够更自由地打造功能层,更多的硬件暴露出的能力就能被软件开发人员很容易地去使用,不需要了解如何分别处理和调度下面不同架构的硬件,只需要在上面设计好实现应用功能的算法。所以,软件可以通过分层释放硬件能力,我们也充分认可软件确实能够定义未来硬件发展的走向。
一个直接例子就是前些年深度学习是非常热门和有效的一种人工智能计算算法,为了让人工智能的计算达到最好的性价比,硬件的设计者开始了不同种类的创新。学术界开始直接使用GPU做深度学习的加速,这是通过算法确定GPU里面要放哪些并行计算的模块,如何设计它的并行计算的尺度从而进行加速。另外还有一些人,由于应用领域的功耗成本要求不同,专门为确定好的深度学习算法做相关的专门加速器,ASIC等等。这就是软件帮助定义硬件的架构。
还有一类是看到了发展人工智能的能力,但是需要大量数据和算力的支持,导致了巨大的耗电量,这又会激发另一些硬件设计人员看怎么用更高能效比的硬件设计满足这个事情,比如现在有很热门的神经拟态计算等等都在用另外一种思路模拟人脑的功能结构在解决人工智能问题的道路上进行探索。所以硬件首先是算力的基础,上面需要好几层软件释放能力,同时软件包括未来的应用可以给硬件未来的发展提供很好的指引作用。
开放和生态之间是什么关系?一个更加开放的生态,对数字经济发展的价值到底是如何体现的?
开放生态,促进数字经济快速发展
信息技术特别是计算机技术关系到整个社会每一个角落,可以说从广度也好,深度也好,从历史上到今天没有其他技术这么深入,只有计算机技术、信息技术才有这个程度。特别是算力和网络,这两件事情具有了很强的公共基础设施的特性。什么是公共基础设施的特性呢?自来水就是公共基础设施,电也是公共基础设施,算力、网络也有公共基础设施的特性。有了这个特性以后,一家公司想主导一个封闭的生态产业链是不可能的,应该是大家一起来,是开放的生态、开放的标准、开放的东西才能把事情做好。因此,不管是国外公司还是国内公司,我们大家一起来做,越开放事情做得越好。
开放生态对数字经济发展有重要的推动作用
我们也坚信开放创新才能跨越式发展,尤其现在很多技术,特别是信息产业技术已经达到了很高的高度,要更上一层楼确实必须集各家之力才能跨越发展路径上的很多难关。比如我们说底层的半导体技术,涉及到很多组件技术、制造工艺,这些技术如果只是靠一家公司来做的话可能要花很多年,很多种不同的实验才能找到一个合适的做法。但是如果用生态的方式把很多大学和企业的能力串联起来,大家组合起来分头做一些自己擅长的事,然后把学到的东西、探索到的新技巧贡献到大社区里来,就可以大幅地缩短突破技术瓶颈的时间。
刚才我们还提到未来的异构计算需要把很多不同的芯片集成到一个封装里面来,这么多种不同的芯片也未必是来自同一家厂商的,可能来自ABCD不同的厂商,来自不同的工艺节点,有7纳米的、有10纳米的、有3纳米的,那么这么多芯片如何让他们很好地互通数据、互操作而不打架,这又需要通过开放的生态构造未来异构集成领域的标准,这个标准也必须是开放的,必须由行业领军企业大家一起制定面向未来的标准。这些领域英特尔都是参与到国际化的合作里面,贡献出自己的一些技术,同时和一些行业的领军企业一起制定相应的标准。
软件层面就更需要开放的标准了,未来软件发挥的空间很大,面向的应用领域也非常多,所以我们如果让硬件给软件服务的话,一定要有很好的一套公共的底层软件堆栈,能够把硬件能力释放出来。所以现在英特尔在参与推动的一个国际化标准就是oneAPI,它的愿景是能够给上层的软件开发者提供一套应用开发接口,让他们不需要为未来应用功能在CPU、GPU等上面的分布,或者硬件升级之后要重写软件代码而烦恼,他们可以只用关注要实现什么功能,达到什么性能或者功耗目标,下面就有oneAPI这一套软件堆栈负责把不同厂家的硬件很好地组织、调度起来,并且通过专业开发者开发的一系列性能库把它们很好地组合起来,这些仍然需要很多生态伙伴的合作。
现在oneAPI的阵营里就有全球很多企业、初创公司还有学校参与,在中国,我们已经和中科院计算所共同建立了oneAPI卓越中心推动这件事。开放合作一定是很重要的一件事,现在在这个领域里面我们也想复制以前英特尔对Linux社区的推动,我们做了十年,是Linux社区的最大贡献者,成功地帮助整个产业在服务器领域能够使用Linux作为基本操作系统,并且搭建了很多功能,所以在未来的异构计算领域我们也希望像oneAPI这种开放的生态社区能够发挥巨大的作用。