来自 人才交流 2019-11-13 21:27 的文章

对话七大专家,挖掘"硬"汉英特尔的"软"实力,数

    身为全球半导体知名"硬汉"的英特尔,为什么越来越开放展现自己的"软实力"?

  问芯Voice 日前深入英特尔位于上海的亚太研发中心,与七位专家对话,一窥硬体大厂英特尔怎么看终端侧 AI 的未来商机,以及流淌在血液中的强大软件基因。

  英特尔亚太研发中心总经理卢炬表示,研发中心的前身是 1993 年在上海成立的英特尔中国架构开发实验室,现在亚太研发中心已经成长至超过 2000 名员工的规模,目标是"根植中国、放眼世界"。

  英特尔目前在全球有超过 1.5 万名软件工程师,还有超过 1200 万名开发者的生态系统,这些建构起英特尔不为人知的强大"软实力",也是面向未来多元化计算的战略武器。

  英特尔的创办人之一 Gordon Moore 提出全球半导体业奉行的"摩尔定律",从此该行业围绕者每两年晶体管增加一倍的概念运行至今,透过各种"续命"方式,摩尔定律虽放缓,但仍是整个半导体行业运行的主旋律。

  不过,英特尔在看到"数据"对于未来世界的改变力后,开始将公司的定位从"晶体管"为中心,转变成以"数据"为中心,这对于整个行业是很重要的讯息,更开启计算架构更从传统的 CPU 朝 XPU 扩展的路程。

  从"云"而下,终端侧 AI 是未来关键趋势

  无疑地,人工智能是当年最热门的议题,从早年的云计算,逐渐演变成终端侧 AI 的商机爆发,这是英特尔非常看重的一个产业趋势。

  英特尔视觉计算软件合作部亚洲区总经理高源分析,过去 AI 议题很热,尤其是 AI 训练都是集中发生在云端的,随着 AI 的普及,AI 开始向终端侧渗透,包括电脑、手机、无人机、机器人等设备。

  英特尔在终端侧 AI 发展上,分析四大驱动力:

  一、低延时要求:举例而言,无人机需要随时随地采集视觉信息,并能非常快速做出反应,我们不可能把视觉信息传到云端,再从云端做 AI 应用,这样太慢了,需要在终端 AI 解决。

  二、无网络环境下也可以工作:像是机器人巡检,不可能路经一个没有网络或是网络连接不好的地方时,就无法对周围信息做出判断。

  三、隐私保护:比如家庭的私人照片放到云端去后,要如何实现隐私保护?这时就可以交给终端侧做 AI 来执行。

  四、节省服务器和带宽成本:软件服务商会希望减少服务器和带宽成本,比如视频应用现在都是 1080p、4K,这些东西通过网络传到后端,面临带宽和后端存储的压力,在后端应用又需要很多的服务器硬件,这个成本压力是比较大的。

  再者,后端的设备都是由软件服务商自己投资,如果前端设备已经比较强了,那为什么不用呢?很多软件开发商希望把后端的负载可以转移到前端去,哪怕节省 10%、20%,对他们来说都是很大一笔资金。

  上述的四大驱动力让我们看到终端侧 AI 在蓬勃发展,渗透到各种使用场景中,包括是噪音抑制、人脸识别、手势识别、语法矫正等。

  再者,高源也进一步分析,软件开发商在考虑选择 AI 实施平台的考量点,主要有功耗、性能、延时,以及是否有足够的设备安装量、有无好的软件工具可以去使用等。

  针对这些考量点,英特尔也提供三类不同架构给不同的终端侧 AI 应用,包括 GPU、CPU 以、低功耗 AI 加速器。

  一,GPU 平台:

  特点是高度并行化,因此适合一些很高性能的 AI 计算,同时 GPU 另外一个特点是数据处理带宽很大,但是它的延时比较高,也就是说让 GPU 跑起来的动作延时是比较大的,因此适合于计算密集,大量的视频分析这类的操作。

  可能很多人不知道,其实英特尔是全球最大的 GPU 供应商,这就好比一提到显卡,大家就直接想到独立显卡,但实际上独立显卡的份额是很低的。

  调研机构统计,Nvidia 的独立显卡在全球份为约 16%,而英特尔在全球集成显卡市场的份额高达 67%。

  再者,集成显卡和 CPU 是共享系统内存的,所以在很多 AI 应用当中,图形图像类的应用,是不需要在 CPU、GPU 之间来回拷贝内存的。

  二,CPU 平台:

  最大特点是无处不在。站在软件开发商的角度而言,如果做一个终端侧的应用只是为独立显卡设计,那边只有 16% 的市场份额,反观 CPU,几乎是放在哪儿都可以跑的。

  CPU 另一个特点是软硬件非常统一,无论是英特尔或是 Nvidia 都是 X86 架构,OpenVINO 在 X86 上都可以跑。

  但是 GPU 软件开发平台就比较分散了,因为 GPU 是三家分治的。