2017 年,“人工智能”儼然已經(jīng)成為所有媒體的頭條熱點,在媒體和資本的推動下,AI 以迅雷不及掩耳之勢向我們洶涌奔來。從政策層面,2017 年關(guān)于 AI 發(fā)生了三件大事,一是發(fā)布了人工智能發(fā)展規(guī)劃;二是人工智能首次寫入十九大報告;三是很多城市,如上海、重慶等都在進(jìn)行人工智能規(guī)劃。
從數(shù)據(jù)來看,2013 年只有 100 多家組織機(jī)構(gòu)研究深度學(xué)習(xí)和人工智能,而到了 2015 年,這個數(shù)字已經(jīng)飆升到 3409 家,兩年時間增長 30 多倍。就連以電動汽車起家的特斯拉也宣布開始設(shè)計 AI 芯片,馬斯克請來了 AMD 公司 Zen 架構(gòu)的開發(fā)者 Jim Keller,擔(dān)任自動駕駛硬件副總裁。
?
構(gòu)造“芯”生態(tài)主題沙龍嘉賓合影
在 AI 熱鬧非凡的大背景下我們也需要認(rèn)真思考:人工智能是否需要專門的芯片?現(xiàn)有的技術(shù)架構(gòu)具有怎樣的優(yōu)勢?近期,北京建廣資產(chǎn)管理有限公司主辦了一場以“構(gòu)造’芯’生態(tài)”為主題的沙龍,賽迪智庫半導(dǎo)體研究所副所長林雨從 AI 芯片定義、分類、生態(tài)環(huán)境、投資等方面做了分析。
人工智能如果按照架構(gòu)進(jìn)行劃分,有三個重要元素:數(shù)據(jù)、算法和算例,其中算例就是芯片,算例是基礎(chǔ),算法是核心,數(shù)據(jù)是保障。先看人工智能的定義,從廣義上講只要能夠運(yùn)行人工智能算法的芯片都叫人工智能芯片。但是深入分析,林雨表示,“只有針對人工智能算法做了特殊加速設(shè)計的芯片才可以稱作為人工智能芯片,市場上真正做到了對芯片里面的架構(gòu)做了特殊加速設(shè)計的公司少之又少。”
三個維度對人工智能進(jìn)行分類
林雨分別從功能、應(yīng)用場景和技術(shù)架構(gòu)對人工智能進(jìn)行了分類:
從功能上來看,人工智能包括推理和訓(xùn)練兩個環(huán)節(jié)。在訓(xùn)練層面,通過大數(shù)據(jù)訓(xùn)練出一個復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型。目前訓(xùn)練環(huán)節(jié)主要使用英偉達(dá)的 GPU 集群完成,谷歌的 TPU2.0 也支持訓(xùn)練環(huán)節(jié)和深度網(wǎng)絡(luò)加速。推理環(huán)節(jié)是指利用訓(xùn)練好的模型,使用新數(shù)據(jù)推理出各種結(jié)論??偟脕砜?,訓(xùn)練環(huán)節(jié)對芯片的性能要求比較高,推理環(huán)節(jié)對簡單指定的重復(fù)計算和低延遲的要求很高。
從應(yīng)用場景來看,人工智能芯片應(yīng)用于云端和設(shè)備端,在深度學(xué)習(xí)的訓(xùn)練階段需要極大的數(shù)據(jù)量和大運(yùn)算量,單一處理器無法獨立完成,因此訓(xùn)練環(huán)節(jié)只能在云端實現(xiàn)。在設(shè)備端,智能終端的數(shù)量龐大,而且需求差異較大,比如 VR 設(shè)備對于實時性要求很高,推理環(huán)節(jié)無法在云端完成,要求設(shè)備有獨立的推理計算能力,因此專用芯片的需求還是很大。
從技術(shù)架構(gòu)來看有四類:一是通用性芯片,如 GPU;二是以 FPGA 為代表的半定制化芯片,如深鑒科技的 DPU;第三,ASIC 全定制化芯片,如谷歌的 TPU;第四,類腦芯片。
GPU/FPGA/ASIC/ 類腦芯片,各有怎樣的優(yōu)勢?
為了進(jìn)行大數(shù)據(jù)處理,當(dāng)前的方案一般采用高性能的處理器輔助 MCU 進(jìn)行計算,但是隨著摩爾定律時間周期拉長,處理器上可集成的器件數(shù)量會達(dá)到極限,而數(shù)據(jù)量還在不斷增加,因此我們需要通過架構(gòu)的變化來滿足數(shù)據(jù)量的增長,這就是人工智能芯片推出的背景。
目前來看,人工智能芯片有四類架構(gòu):GPU、FPGA、ASIC 和類腦芯片。
GPU:是單指令、多數(shù)據(jù)處理,采用數(shù)量眾多的計算單元和超長的流水線,如名字一樣,圖形處理器,GPU 善于處理圖像領(lǐng)域的運(yùn)算加速。但 GPU 無法單獨工作,必須由 CPU 進(jìn)行控制調(diào)用才能工作。CPU 可單獨作用,處理復(fù)雜的邏輯運(yùn)算和不同的數(shù)據(jù)類型,但當(dāng)需要大量的處理類型統(tǒng)一的數(shù)據(jù)時,則可調(diào)用 GPU 進(jìn)行并行計算。
FPGA:和 GPU 相反,F(xiàn)PGA 適用于多指令,單數(shù)據(jù)流的分析,因此常用于預(yù)測階段,如云端。FPGA 是用硬件實現(xiàn)軟件算法,因此在實現(xiàn)復(fù)雜算法方面有一定的難度,缺點是價格比較高。將 FPGA 和 GPU 對比發(fā)現(xiàn),一是缺少內(nèi)存和控制所帶來的存儲和讀取部分,速度更快。二是因為缺少讀取的作用,所以功耗低,劣勢是運(yùn)算量并不是很大。結(jié)合 CPU 和 GPU 各自的優(yōu)勢,有一種解決方案就是異構(gòu)。
ASIC 芯片:是專用定制芯片,為實現(xiàn)特定要求而定制的芯片。除了不能擴(kuò)展以外,在功耗、可靠性、體積方面都有優(yōu)勢,尤其在高性能、低功耗的移動端。谷歌的 TPU、寒武紀(jì)的 GPU,地平線的 BPU 都屬于 ASIC 芯片。谷歌的 TPU 比 CPU 和 GPU 的方案快 30-80 倍,與 CPU 和 GPU 相比,TPU 把控制縮小了,因此減少了芯片的面積,降低了功耗。
很多人認(rèn)為 ASIC 是人工智能芯片的一個主要發(fā)展方向,其實在 ASIC 芯片里還有一個特殊的群體—類腦計算,林雨認(rèn)為,“這才是真正的人工智能芯片未來發(fā)展的方向。類腦計算是真正模擬人腦進(jìn)行設(shè)計,人腦的特點就是神經(jīng)元進(jìn)行傳輸數(shù)據(jù)。當(dāng)我們用硬件去模擬人腦時,在硬件環(huán)節(jié)里還有許多多余的元素,而類腦芯片就擬合人腦的作用。要做類腦芯片非常難,IBM、高通、英特爾等公司的芯片策略都是用硬件來模仿人腦的神經(jīng)突觸?!?/p>
四種架構(gòu)將走向哪里?
將以上四種架構(gòu)對比,GPU 未來的主攻方向是高級復(fù)雜算法和通用性人工智能平臺,其發(fā)展路線分兩條走:一是主攻高端算法的實現(xiàn),對于指令的邏輯性控制要更復(fù)雜一些,在面向需求通用的 AI 計算方面具有優(yōu)勢;二是主攻通用性人工智能平臺,GPU 的通用性強(qiáng),所以應(yīng)用于大型人工智能平臺可高效完成不同的需求。FPGA 更適用于各種細(xì)分的行業(yè),人工智能會應(yīng)用到各個細(xì)分領(lǐng)域。
ASIC 芯片是全定制芯片,長遠(yuǎn)看適用于人工智能?,F(xiàn)在很多做 AI 算法的企業(yè)也是從這個點切入。因為算法復(fù)雜度越強(qiáng),越需要一套專用的芯片架構(gòu)與其進(jìn)行對應(yīng),ASIC 基于人工智能算法進(jìn)行定制,其發(fā)展前景看好。類腦芯片是人工智能最終的發(fā)展模式,但是離產(chǎn)業(yè)化還很遙遠(yuǎn)。
投資投哪里?大佬擦亮眼睛看這幾點
第一,關(guān)注具有縱向產(chǎn)業(yè)鏈整合能力的企業(yè)。因為未來在人工智能領(lǐng)域側(cè)重生態(tài)整合。單獨做芯片的公司不如既掌握芯片又掌握算法公司,因此,那些算法和芯片兼具的企業(yè)更值得關(guān)注。
第二,專攻終端應(yīng)用市場,人工智能芯片的應(yīng)用場景里有兩個:一個是在云端,一個是在終端。云端格局應(yīng)該變化不大,但是在終端方面變數(shù)未定,這是對國內(nèi)企業(yè)來說是一個不錯的切入點,邊緣計算值得關(guān)注。
第三,關(guān)注專用芯片,ASIC 從功耗、技術(shù)都具有優(yōu)勢,是未來 AI 芯片發(fā)展的主要方向,尤其要關(guān)注是否有加速環(huán)節(jié)。
有了資本和媒體的熱捧,AI 已經(jīng)在全球范圍內(nèi)遍地開花,順勢而為的創(chuàng)業(yè)者也不在少數(shù)。目前,國內(nèi)已經(jīng)有 20 多家初創(chuàng)企業(yè)在做人工智能芯片,但是評估一家企業(yè)的技術(shù)能力是第二位的,第一位的考察點要看他們是否能真正能將技術(shù)變現(xiàn),是否能將技術(shù)轉(zhuǎn)化為商業(yè)產(chǎn)品。因此,看一家 AI 芯片設(shè)計企業(yè),商業(yè)能力要大于技術(shù)能力,這才是融資點。
與非網(wǎng)原創(chuàng)內(nèi)容,未經(jīng)允許,不得轉(zhuǎn)載!