取消
搜索历史
热搜词
原创
活动
创新2.0
I T
产业
当前位置:首页 >互联网•IT > 服务器 > 集成系统 > 正文
“AI芯片”还处于草莽时代,狂奔中“泡沫”待挤
来源:IT 时报  作者:吴雨欣 戚夜云 2018-07-16 10:03:39
2018年,资本对半导体芯片的热情被AI技术彻底点燃,不管是巨头公司还是创业公司、传统制造公司还是互联网公司,都对芯片热情高涨。5月到7月,云知声、出门问问、Rokid、百度纷纷发布AI芯片或芯片模组,思必驰确认正在打造AI语音芯片,深鉴科技对外宣布其AI芯片将于今年下半年面市,云知声创始人兼CEO黄伟甚至用“不做芯片,必死”来表达自己做AI芯片的决心。

人工智能正在改变各行各业,而芯片是实现人工智能的载体。

2018年,资本对半导体芯片的热情被AI技术彻底点燃,不管是巨头公司还是创业公司、传统制造公司还是互联网公司,都对芯片热情高涨。5月到7月,云知声、出门问问、Rokid、百度纷纷发布AI芯片或芯片模组,思必驰确认正在打造AI语音芯片,深鉴科技对外宣布其AI芯片将于今年下半年面市,云知声创始人兼CEO黄伟甚至用“不做芯片,必死”来表达自己做AI芯片的决心。

然而,“到现在为止,全球还没有出现一款真正的AI芯片,因为真正的人工智能还远未能实现。”异构智能中国区总经理周斌的这番话代表了部分业内人士的观点。

《IT时报》记者采访大量AI界人士后发现,对于AI芯片的概念,目前全球并没有形成统一共识,甚至有投资人认为,AI芯片领域存在泡沫,大部分创业公司将会消失。

但无论如何,身在草莽年代的AI芯片群雄们,总会有人为中国核心技术国产化“杀出一条血路”。

AI 芯片的不同定义

“初创企业做AI芯片很可能得不偿失。”芯片企业苏州迈瑞微公司的创始人李扬渊在行业里浸淫十几年,他告诉《IT时报》记者,一款芯片从0到1需要10年以上的周期,他自家的芯片产品也是流片5次后才正式商用,流片20次才能处于业内顶尖的位置,“如果是企业自行研发AI芯片,采用40nm(纳米)工艺,那么成本可能会上涨而不是降低。芯片必须靠规模分摊研发成本,40nm工艺仅流片费高达1000万元,分摊给100万PCS(某一产品单位数量),平均每片成本高达10元,这还不包括更加高额的研发费用。”

但Rokid平台研发负责人朱斌的观点恰恰与李扬渊相反,“智能设备采用通用芯片是杀鸡用牛刀,特殊需求需要特殊芯片来解决痛点,定制AI芯片恰恰是在降低成本,人工智能硬件对算力有需求,低端的通用芯片算力不够,高端的通用芯片又有许多冗余设计,造成高功耗。”

AI芯片也被称为AI加速器或计算卡,通常概念中,AI芯片是指专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责),当前主要分为GPU、FPGA、ASIC等类型,与高通骁龙等通用芯片不同,AI芯片主要用于处理专用任务,比如安防中高清视频的识别、自动驾驶时的数据计算等等。

6月26日,Rokid发布了一款KAMINO18 自研AI语音专用芯片,可支持智能音箱和儿童故事机,不同于英特尔、高通等传统通用芯片,这是一块AI语音专用的SoC(系统级芯片)芯片,其内部继承了ARM、NPU、DSP、DDR、DAC等多个核心元件,大小与一枚一元硬币差不多。朱斌曾经专门对语音唤醒做硬件上的架构设计,发现通用芯片中许多功能用不到,但附件成本依然存在,于是,Rokid在去年9月开始定制自己的芯片,采用DSA(Domain specific architecture)架构,从本身的产品和算法要求出发,用异构计算的方式整合到芯片中,在整机工作状态下,产品功耗能降低30%到50%。

李扬渊和朱斌的不同观点,恰好代表了传统半导体行业与互联网创业公司对AI芯片的两种不同认知,半导体圈出身的人更看重芯片从0到1的突破,而“由软变硬”的互联网创业者却更希望在1、2、3、4的基础上,通过算法和软件设计,直接变成10。从目前已发布的AI芯片来看,它们主要目的体现在以合适的形态和功耗来加速某种机器学习算法上。比如,用在边缘侧和终端侧设备时,要求极低的功耗和极高的矩阵/浮点运算能力,这些是通用型芯片很难做到的。

可佐证的是另一家龙头芯片厂商的工程师对此的解释,在他看来,目前市场上大多数AI语音芯片,属于一种服务于“专有”功能的芯片(可类比DSP数据信号处理),由于专注于一项或几项功能,限定于特定场景使用,所以设计和生产的复杂度要比通用芯片低,加上这类芯片很少牵扯技术授权的原因,做起来会更加容易。这些AI芯片并不是从底层开始做起,而是直接从SoC或者通用处理器外挂某种“协处理器”之类架构优化,通过各种IP的组合来加速上层应用的场景,譬如语言,图像。

异构的殊途同归

目前,AI芯片并无清晰的定义,所以如何算“真正”并不好衡量。不久前的2018动点国际峰会(杭州)上,硅谷创业公司异构智能中国区总经理周斌试着给AI芯片下了个定义,“能够高效率、高性能地完成目前人工智能最核心的算法,由于现在主流算法是深度学习,意味着AI芯片必须对深度学习有非常好的支持。”从数据来看,周斌认为,AI芯片的计算能力必须要超过每秒5万亿次,因为只有达到这样的性能指标,很多特定应用计算结果才可能与人的能力相媲美。

周斌公司的名字——“异构”,实质上正是对AI芯片创业者们互联网背景最直接的阐释。异构,顾名思义是指由不同来源共同构成,互联网就是一个典型的异构网络。后来演化出的异构计算,是一种特殊形式的并行和分布式计算,常被用于协调不同硬件以满足不同的计算需求,并使代码(或代码段)能以获取最大总体性能方式来执行。

目前AI芯片基本都通过多种芯片进行异构计算。过去传统芯片公司只专注于少数几种芯片,但现在的芯片公司开始注重横向发展,整合不同类型的芯片,比如,手机SoC在传统的CPU(中央处理器)、GPU(图形处理器)、ISP(在线编程)之外,还会加入另外用来加速AI的NPU(嵌入式神经网络处理器)等处理核心。“异构芯片中有一部分是通用功能。”云知声联合创始人康恒告诉《IT时报》记者。

成本决定的道路

一个有趣的现象是,互联网出身的AI创业者都在跑步进入AI芯片硬件领域,而传统芯片厂商却在用算法等“软”的方法实现AI。

AI技术有三大要素,算法、算力和数据。从国际AI技术前沿来看,深度学习等算法模型的研发并未成熟,迁移学习、胶囊网络等新的算法模型都在同步快速发展,AI芯片该使用什么方法和原理实现仍在探索阶段。事实上,目前主流芯片厂商并没有推出AI芯片,很多AI功能都通过通用芯片加特殊的算法、软件完成。

高通今年年初推出的人工智能引擎(AI Engine)包括软硬件两部分,在高通骁龙核心硬件架构(CPU、GPU、VPS向量处理器)上搭载了神经处理引擎(Neural Processing Engine, NPE)、Android NN API、Hexagon神经网络库等软件,让人工智能在终端侧(如智能手机)上的应用更快速、高效。高通旗下芯片产品骁龙845、骁龙835、骁龙820、骁龙660都支持AI Engine,而国内不少打着AI旗号的手机也基本采用高通方案,通过该AI Engine更好实现人脸识别功能。

但对于目前AI芯片的创业者和智能家居厂商而言,通用芯片“太贵”了。

康恒告诉《IT时报》记者,电视、空调等大家电产品的利润足以覆盖语音模组的高成本,但风扇、电灯等小家电成本限制较大,模组的优势便削弱了,“客户想做更多的智能品类,下沉到低端产品,但市场上根本找不到合适的芯片,一款百元以内的产品,通用芯片并不划算。”打造自己的AI芯片后,云知声可以把语音AI技术的芯片方案开放给客户,在成本及供应周期上有了更大的主动权。

但是李扬渊认为人工智能的关键技术,在不同阶段的重要程度不同。“处理器不是人工智能关键技术,专用处理器只在部分工作段起提升竞争力的作用。”他认为感知段以传感器为中心,处理器存在价值并不高;认知段、学习段和决策段,太强调处理器反而影响成本,包括一次性成本和功耗成本。

“没有哪一段以专用的人工智能芯片为前提,应该把研发人工智能芯片当作一件独立的事,而不是软件研究的自然延伸。”李扬渊以人做比喻,传感器是人的躯壳,大脑靠算法取胜。

半导体分析师李寿鹏也认为,人工智能依靠的是算法,芯片只是载体。如果想用ASIC(全定制芯片)去做更好的语音识别处理,硬件差异性并不大。对语音识别来说,识别语句与软件、网络、训练更有关系,而之前存在的云和端数据交换延迟问题,也会随着5G到来,迎刃而解。

落地第一站:智能音响

研发AI芯片比高端通用芯片更简单,是AI圈普遍的认知。

云知声联合创始人、IoT事业部副总裁李霄寒认为,经过几十年的发展,芯片业沉淀了很多模块化的东西,比如高通和联发科都是基于ARM的架构设计芯片,因此,并不是每一款AI芯片都要从零开始,可以用业界成熟的模块和产品,但AI芯片的核心加速模块需要从最底层开始设计。从 2014 年提出云、端、芯战略,到 2015 年正式建立研发团队,再到 2018 年推出AI 芯片“雨燕”,云知声花了整整 4 年时间,渐渐意识到AI不能只在云端,要落地。

2018年被称为AI芯片落地年,所谓落地,是指AI芯片要搭载到终端上商用。2017年,中国在芯片领域的投资超过1500亿元人民币,2018年开始,这些投资的产业将陆续密集落地。信中利资本集团创始人、董事长汪潮涌不久前在寻找中国创客第四季夏季峰会上指出,中国每年花费3000多亿美元进口各类芯片,消耗全球1/3的芯片,自给率不到10%,因此,AI芯片的投资是重中之重,但由于安防AI芯片的流片成本和研发费用高昂,目前尚未形成规模化的出货量来抵扣成本;自动驾驶汽车未量产,自动驾驶AI芯片安全性未达要求;其他特定领域AI芯片总体下游需求不足,供大于求,“目前AI领域存在较大泡沫。”

根据摩尔定律,芯片每隔18个月性能就会提升一倍,成本会下降一半,但半导体行业赚钱的根本秘诀还是规模化,能否有足够大的出货量和商用市场,是AI芯片顺利从纸面上“着陆”的关键。此前有媒体报道,即便是安防领域的“大佬”海康威视,每年对于英伟达的需求也只有20万片。

从这个角度来看,智能音响可能是AI芯片最早实现落地的市场。调研公司Canalys Research(以下简称Canalys)发布报告称,到今年年底,智能音响的保有量将达到1亿部,几乎是去年的2.5倍。去年,智能音响的保有量不足5000万部。未来几年,智能音响的保有量将继续增长,到2020年其保有量将增加一倍以上,达到2.25亿部。

云知声今年5月发布了面向物联网的AI芯片UniOne,用于在终端本地做边缘计算,可以为智能音响、智能家居、智能家电等提供服务方案。出门问问发布的AI语音芯片模组“问芯”已经量产,客户可以下单购买。

出门问问的CEO李志飞认为,芯片是一个长周期产业,从概念开始,要经过系统设计、模块设计、仿真验证、线路综合、布局布线、流片生产、封装测试、驱动开发、解决方案适配等非常长的流程,芯片一旦做成很难像软件一样再做修改,必须重新设计流片,迭代周期长、成本高,而芯片本身属性是一种计算的硬件载体,不同的芯片适配不同的算法和应用场景,AI芯片一方面要有足够的算力去运行各种语音AI算法,另一方面还要针对各种场景做大量接口的适配,同时让成本和功耗满足大规模量产的商业要求。

“能产业化且能在市场上对国外的同类产品构成竞争威胁才是一块芯片成功的标准。”一位业内人士如是说道。从这一点来看,中国的AI芯片才刚刚起步,江湖草莽,泡沫待破。

编辑:张洁
关键字:     人工智能  芯片  CPU 
活动 直播间  | CIO智行社

分享到微信 ×

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

Baidu
map