AI芯片为什么忽然火了

细数芯片的历史,就是一个从专用芯片转向通用芯片,又转为专用芯片的过程。算法

 

最先追溯到上世纪60年代,Intel从专用芯片转向通用型芯片中央处理器(CPU),英伟达转成GPU,这两年又产生了TPU。编程


这个整套体系都是一个把芯片越作越普世化的过程,但这两年因为终端要下降成本,因此又要返回到专用芯片,由于通用芯片相对来讲,效率比较低,制做成本比较高。api


因此,这两年专用芯片开始火起来。服务器

 

从通用型的、服务器型的、集成型的芯片,转成专用型的,部分设备使用的,有必定功能的芯片,再加上这两年正好遇上AI大爆发,你们就很天然地把AI的需求烧制到这些芯片里,也就是咱们看到的AI芯片异军突起。网络

 

为什么终端场景会催生专用芯片?函数


终端的场景为何必定要用终端芯片,而不能经过一个捕捉器作网络传输送到云端、送到服务器端,用服务器的CPU、或GPU、或TPU去处理,而后再返回数据呢?学习

 

是由于你的网络不管多快,中间都有几百毫秒的时间差,而终端芯片将来都须要作到当机立断、直接分析。ui

 

好比一个机器人,它看到你以后,须要迅速分析出你有什么特色,并跟你对话。这个过程当中,若是机器人只有接收器,须要传送到云端再回来,不管网络多快,都会有时间差。人工智能

 

因此,为了提升响应速度,终端开始催生自带处理器的需求,好比能作图像识别、语义识别、语音识别,运动机能的一些处理等,那么这个时候,终端就须要具有必定的人工智能能力(AI能力)。spa

 


专用芯片起势后,玩家们到底比拼什么?


当专用芯片这个需求起来以后,玩家们就要开始比拼了,具体来讲,比的是:

 

第一,你的硬件结构是否是最优。


硬件行业的特色是:没有最优、只有更优。


硬件永远都在迭代,背后的缘由,主要是摩尔定律在起做用。此外,当摩尔定律晶体管变成量子化的东西后,它会继续进化,从分子层面进到原子内部层面,再继续找其它的计算位。

 

第二,算法是否是最优。

 

前两年你们很是痴狂的去搞神经网络算法的时候,变体很是多,从最开始简算的RNN变到LSTM,变到更为复杂的结构,从最开始设计CNN,到CNN的复杂结构,再到用CNN作对抗网络…

 

在你们疯狂竞争算法的时候,2017年又出来一个理论说:神经元的基础单元不该该是神经,而应该是一个胶囊;这样一来,算法底层又改了,Hinton先生把本身30年前的学术成果给推翻了。在Capsule  Network中,in&out在单个处理单元上变得更复杂,虽然网络链接过程仍是原来的样子。


因此,不少人又只能整个推翻,重来。

 

第三,工程细节是否是最优。


人们也发明了不少种方法,好比原来是全链接的,后来又有CNN部分模块链接,而后又出现了不少相似Dropout的模式,链接着同时遗忘着,发现比正常的还更好。

 

第四,工程上的创新天天都在发生。


每一个工程师都有工程上的创新。100个工程师里若是有一个工程师有了意义深远的创新,那么对于整个行业来讲,又是一场大变革。

 

不管是怎样的创新,都在不断突破,不断提高效率。好比,在算法上,AlphaGoMaster和AlphaGo  Zero,后者的效率相对前者就有日新月异的增加。

 

因此,一旦底层被改变,一切又变得不同了,又得迭代。好比,原来多是20秒解决,你能19.8秒解决;但如今,忽然底层一变,你变成10秒解决了,就又是一层迭代了。


没办法,这个行业就是这样。

 

从硬件、软硬结合,软件、算法几个方面来看,天天都在迭代,因此它很难:因为它没有定型,无定型态的结果致使对专用芯片的固定性要求是很是苛刻的。


由于专用芯片很大的问题是一旦定板、开模,这个东西就不能改,这是一个很大的问题。因此,如何作一个适用性最强的专用芯片,这是很是重要的。通常的专用芯片作完以后,好比只服务于某一种语音识别机的芯片,一旦算法更新,底层对模块的要求就又不同了,那么这个专用芯片就不能用了。因而,只能再作一个新的专用芯片。

 

这个事情的迭代速度太快了。

 

芯片的三种类型:


前面大体罗列了专用芯片崛起的背景,接下来咱们具体聊一下芯片到底有哪三种类型:


  • 集成型的芯片(CPU、GPU、TPU),属于它的模块阵列很是统一的,它能处理几乎全部的事情,又叫通用型芯片

  • FPGA可编程门阵列

  • 专用芯片


其中,FPGA至关于编写硬件,经过改变硬件能够随时调整功能逻辑,但FPGA有如下几个大问题:

 

  • 成本比较高,真正好的FPGA要8000元-1万元。

  • 编写复杂,门槛高,修改难度大。

  • 编程过程当中的效率比高级算法低,这样就致使开发难度也比较大。


因此,FPGA是个过渡过程,它可以衔接通用型芯片和底层专用芯片。

 

说完FPGA,再说说专用芯片。


专用芯片的特色是价格极其便宜,只要你开模、打板以后,基本上一片50-100元就搞定了,但开模费500万,并且一旦开模就改不了。(营长注:这里500万为概数,杨歌想表达是开模费很高,对公司来讲,是一笔不小的负担。据营长所知,开模费的量级通常在数百万-数千万之间。)

 

若是用数学的方式来理解这三类芯片,那就是:


  • 专用芯片又叫阶跃函数,意思就是,这个东西开了模以后,下一次你要再改,你就得整个上一等;

  • FPGA是线性函数,慢慢涨、慢慢涨;

  • CPU、GPU等集成型芯片是指数函数,成本高,但它是一个好的模式。


专用芯片的成败关键:


目前,你们倾向于回归专用芯片,这也是由于专用芯片在2017年有两大推进力:比特币的挖矿机人工智能

 

基于这两股力量,编写专用芯片需求来了,由于FPGA和CPU成本过高了。


但专用芯片的问题也来了,那就是,不管哪一个时代,无论你是20世纪70、80年代,仍是如今,专用芯片都会有过期的一天,由于技术一直在迭代。这时候,就是考验你对专用芯片把控力的时候了,一句话,你设计的专用芯片到底能支撑业务走多久。

 

若是你编出来的专用芯片,能持续三年使用,那么同期你就能够去研发另外更新的专用芯片。三年后,当原来的专用芯片产能要降低的时候,你能够拿新的专用芯片顶上。你要能顶上,那这个能力就厉害了。

 

但若是你的专用芯片半年就过期了,那你的成本就过高了,由于你每一个专用芯片的打板就须要500万以上,对初创公司来说是彻底承受不起的。(营长注:此为概数,只是为强调打板花费较大。)若是你还不停地在打板,那你的公司就危险了,你还不如用FPGA和CPU来作,如今多核CPU也能完成。

 

如今专用芯片的一个竞争在于,你编写出来专用芯片是否鲁棒性、适应性和存续性足够强,是否可以适应更多的人工智能算法模块,是否能扛住算法变体…

 

好比当CNN一变体,卷积核一变体,这个芯片能不能扛住?当LSTM的循环网络内部结构中,忘记门和记忆门这两个发生变化,你可否扛住?

 

固然,Capsule  Network一出来,不只你扛不住了,你们都扛不住了。

 

总的来讲,你要让你的专用芯片在容错性和鲁棒性、适应性上作到最强,这样,你的成本才能算得过帐来。但大部分技术人员的帐,可能算不了三到五年的时间。

 

还有些人把目光放在很是细的地方,必定要编到极致,保证局部的鲁棒性、容错性提到最高,但长期的、中长期,好比三年期,这样不必定行。

 

好比,在交通图像监察识别上,你怎么用都不出错,正确率99.9%,但忽然过两年算法一升级,你怎么办?


所以,我不建议把目光放到单个场景的适应性上,我认为应该放在一个长期的、场景变革的使用性上,这点很是重要。

 

这些问题实际上是如今AI芯片竞争最重要的底层逻辑。在AI芯片领域,咱们投了鲲云科技,他们的联合创始人为斯坦福的客座教授、帝国理工的教授、英国皇家工程院院士,发表300多篇的论文。

 

他们的特色能把芯片的适用性作得很好,芯片的场景适应性、网络适应性、算法适应性很是强。

 

一样作的很好的公司还有地平线、寒武纪、深鉴等,不过也有一些公司,场景化的正确率只有95%,甚至85%,那么这些芯片可能就无法用,或者只能调动必定的模块函数,不能调动大部分模块函数。

 

目前来讲,深度学习训练过程是不须要用AI专用芯片的,由于AI专用芯片主要仍是在某一个终端应用场景用。通常来讲,终端人工智能芯片并不执行训练过程,它只执行使用过程。这是你们容易产生理解误区的一个点。

 

AI芯片市场距离饱和还很远:

 

说到终端市场,英伟达也在猛攻终端市场。英伟达去年出了一个TX2的新型芯片(也是终端芯片)。但英伟达的终端芯片是一个轻版的集成化芯片,是把它集成化的GPU镶在了一个小的芯片上,形式了一个专用芯片。因此,如今的AI专用芯片还须要扛住英伟达的竞争。

 

目前,人工智能技术有三层:


  • 基础数学物理层

  • 技术模块中间层

  • 应用层

 

技术模块中间层(简称模块层)是指图像识别、语言识别、语义识别、运动机能识别;底层,即基础数学物理层,就是芯片,数据传输、数据存储结构、算法结构、算法模块。

 

而应用层中,几个比较大的场景有:


  • 智能家具、智能房屋、智慧城市

  • 机器人

  • 我的语音助手

 

这几个场景的入口模块都须要完整的、彻底标准的模块层,就是说语音识别、语义识别都则须要很是精准,不管是器械,仍是一个机器人,都须要模块层要很成熟,同时须要底层芯片层很成熟。目前,你们都在竞争这个市场。

 

二十年后,周围的物体可能拍一拍都能动、都能说话,每个东西都须要两个基础的模块体系。


  • 第一个模块体系:硬件模块体系,就是它的硬环境。

  • 第二个模块体系:也就是软环境。

 

软环境就是科大讯飞、商汤、旷视等等在作的东西,硬环境就是英伟达、通信云、鲲云、深鉴等公司在作的。

 

如今的AI专用芯片市场,若是说市场饱和度满分是10分,如今也就1分不到。

 

虽然如今才1分不到,但今年的AI芯片公司忽然火起来,就是由于你们预期了十年以后的应用场景,十年以后这个市场是很大的,不过大到什么程度很差作预期。

 

如今市场上的几家公司,显然仍是不足以造成大的竞争。

 

若是作个比喻,如今的市场,也就是刚刚进入体育场,裁判尚未开始吹哨的时候。

 

对于AI专用芯片来讲,应用场景尚未彻底开发完,有人去作无人机监测、有人去作道路摄像头监测、有人是作家居环境。总的来讲,目前各家的应用场景都尚未锁定,还处在一个恶补基础知识的阶段。

 

固然,这个阶段完成以后,可能有的转向交通,有的转向家庭环境了,各有各自的立足的垂直领域,并继续迭代。那么等到那时候,可能就不竞争了。


----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------