2019年杭州雲栖大會上,阿裡(lǐ)首款AI芯片含光800雖然隻有短短幾分鍾的介紹,卻成(chéng)了外界最爲關注的消息。互聯網巨頭進(jìn)入自研芯片領域早已不是新聞,但每次他們自研芯片的正式推出和商用的宣布,依舊會吸引了無數的關注。

不少人應該也會疑問,這(zhè)是不是芯片巨頭們要被替代的開(kāi)始?

互聯網巨頭造芯的初衷

在互聯網企業造芯的路上,谷歌跑在了最前面(miàn)。早在2006年,谷歌就開(kāi)始考慮在其數據中心部署 GPU或者 FPGA,或專用集成(chéng)電路(ASIC),當時的結論是,能(néng)在專門的硬件上運行的應用并不多,使用谷歌大型數據中心的富餘計算能(néng)力即可。

情況在2013年發(fā)生了轉變,當時谷歌用戶每天使用語音識别 DNN 語音搜索三分鍾,使得谷歌數據中心的計算需求增加了一倍,而如果使用傳統的 CPU 將(jiāng)非常昂貴。因此,谷歌啓動了一項優先級别非常高的項目,快速生産一款定制芯片(ASIC)用于推理,并購買現成(chéng)的 GPU用于訓練。

谷歌的目标是將(jiāng)性價比提高 10 倍,爲了完成(chéng)這(zhè)項任務,谷歌在其數據中心設計、驗證、構建并部署了 TPU(張量處理器,Tensor Processing Unit),這(zhè)一過(guò)程用了15個月。

2016年,谷歌I/O開(kāi)發(fā)者大會上,谷歌正式發(fā)布了首代TPU。不過(guò),TPU剛開(kāi)始隻僅限谷歌内部使用,直到2018年2月,谷歌才在其雲平台博客上宣布TPU服務開(kāi)放的消息,價格大約爲每雲 TPU 每小時 6.50 美元,而且數量有限。

阿裡(lǐ)和谷歌自研AI芯片商用,科技巨頭與芯片巨頭關系生變

也就是說,2018年,谷歌才開(kāi)啓了TPU的商業化。同年的I/O大會上,TPU 3.0宣布推出,計算性能(néng)相比TPU 2.0提升八倍,可達 100PFlops(每秒 1000 萬億次浮點計算)。

可以明确,谷歌TPU的推出,主要還(hái)是因爲市場上沒(méi)有滿足其需求的芯片,使得他們進(jìn)入了自研芯片領域,并且,TPU作爲雲端推理芯片并不對(duì)外出售,而是通過(guò)谷歌雲對(duì)外提供算力。

阿裡(lǐ)的自研芯片之路與谷歌類似。1999年以淘寶起(qǐ)家的阿裡(lǐ),如今的業務早已橫跨電商、金融、物流、雲計算、大數據、全球化等場景。不同的場景就有不同的計算需求,比如淘寶裡(lǐ)的拍立淘商品庫每天新增10億商品圖片,使用傳統GPU算力識别需要1小時。除了需要花費1小時的時間,這(zhè)個時間裡(lǐ)GPU的耗電量也非常巨大。

根據數據統計顯示,2017年中國(guó)有40個中小型數據中心,這(zhè)些中小數據中心2017年消耗電量比三峽大壩的發(fā)電量還(hái)多,等量的碳排放量兩(liǎng)倍于民航的碳排放量。對(duì)于阿裡(lǐ)和谷歌這(zhè)樣擁有大型數據中心的科技公司,電量消耗也帶來了巨大的成(chéng)本。

如果谷歌和阿裡(lǐ)想要通過(guò)購買算力更強的最新款英偉達GPU來提升效率,GPU高昂的售價也是科技巨頭們無法忽視的問題。

因此阿裡(lǐ)也開(kāi)啓了自研芯片之路。2017年的雲栖大會上,阿裡(lǐ)宣布成(chéng)立達摩院,由全球建設的自主研究中心、高校聯合實驗室,全球開(kāi)放研究計劃三大部分組成(chéng),涵蓋量子計算、機器學(xué)習、基礎算法、網絡安全、視覺計算、自然語言處理、下一代人機交互、芯片技術、傳感器技術、嵌入式系統等,涵蓋機器智能(néng)、智聯網、金融科技等多個産業領域。

2018年雲栖大會,阿裡(lǐ)又宣布成(chéng)立獨立芯片企業“平頭哥半導體有限公司”,由中天微與達摩院芯片團隊整合而成(chéng)。

還(hái)是雲栖大會宣布者還(hái)是張建鋒,2019年阿裡(lǐ)首款AI雲端推理芯片含光800正式推出。在業界标準的ResNet-50測試中,含光800推理性能(néng)達到78563 IPS,比目前業界最好(hǎo)的AI芯片性能(néng)高4倍;能(néng)效比500 IPS/W,是第二名的3.3倍。

性能(néng)提升帶來的效果顯而易見,繼續用上面(miàn)的拍立淘舉例,阿裡(lǐ)表示,采用含光800後(hòu),每天新增10億商品圖片的識别時間可以從GPU識别的1小時,可縮減至5分鍾。另外,根據雲栖大會的現場演示,在城市大腦中實時處理杭州主城區交通視頻,需要40顆傳統GPU,延時爲300ms,使用含光800僅需4顆,延時降至150ms。

由此做一個簡單的換算,那就是1個含光800的算力等于10個GPU。

相比谷歌遲遲沒(méi)有商用TPU,阿裡(lǐ)在發(fā)布含光800之時表示這(zhè)款産品已經(jīng)已經(jīng)實現了大規模應用,應用于阿裡(lǐ)巴巴集團内多個場景,例如視頻圖像識别/分類/搜索、城市大腦等,并且宣布基于含光800的AI雲服務也正式上線。

顯然,阿裡(lǐ)自研AI芯片最核心的目标同樣是爲了獲得更低的經(jīng)濟成(chéng)本。

科技巨頭與芯片巨頭不再隻是合作

由此看來,目前阿裡(lǐ)和谷歌商用的自研AI芯片都(dōu)是雲端推理芯片,對(duì)于傳統芯片巨頭英特爾和英偉達而言,這(zhè)并不會帶來巨大的改變,但雙方的關系會從此前緊密合作變爲競合關系。

如何理解?雖然有了面(miàn)向(xiàng)視覺場景的含光800推理芯片,但是這(zhè)是一款ASIC芯片,其定位也是CNN類模型推理加速爲主,通用可擴展到其它DNN模型。但對(duì)于更多的深度學(xué)習算法,含光800這(zhè)款ASIC可以在一定支持,但無法體現出性能(néng)和能(néng)效最優化。

所以,無論是阿裡(lǐ)還(hái)是谷歌,他們依舊需要英特爾的CPU提供通用的計算能(néng)力,也需要FPGA進(jìn)行AI的加速。另外,阿裡(lǐ)性能(néng)強大的神龍架構服務器,也需要英偉達GPU提供算力。

這(zhè)種(zhǒng)競合關系不僅會局限在雲端。2018年7月,谷歌推出Edge TPU芯片,從命名上就可以看出這(zhè)是此前推出的雲TPU的簡化版本,是專門設計的加速器芯片,用于在邊緣運行TensorFlow Lite機器學(xué)習模型。

英雄所見略同,阿裡(lǐ)也有端雲一體的戰略。在含光800雲端AI芯片發(fā)布之前的7月和8月,阿裡(lǐ)接連發(fā)布了高性能(néng)RISC-V架構處理器玄鐵910以及SoC芯片平台“無劍”。也就是說,阿裡(lǐ)的C-Sky系列、玄鐵系列AIoT終端芯片IP,一站式芯片設計平台無劍,以及最新發(fā)布的雲端AI芯片構建了阿裡(lǐ)端雲一體的芯片生态,平頭哥端雲一體全棧芯片産品家族雛形已現。

另外,2019雲栖大會期間還(hái)有一個芯片的重磅宣布,阿裡(lǐ)人工智能(néng)實驗室和平頭哥共同定制開(kāi)發(fā)的智能(néng)語音芯片TG6100N,會在即將(jiāng)推出的音箱産品中使用。

科技巨頭們的自研AI芯片要涵蓋雲端和終端其實也很容易理解,無論是芯片巨頭還(hái)是科技巨頭,他們都(dōu)認爲未來數據將(jiāng)像石油一樣具有價值。因此,巨頭們需要端雲一體的戰略挖掘數據的價值,在數據的時代保持領先,而這(zhè)個戰略非常重要的支撐就是雲端和終端的AI芯片。

此時科技巨頭和芯片巨頭都(dōu)會有雲端和終端的AI芯片,競争就難以避免。雷鋒網認爲,競争激烈的程度更多會取決于科技巨頭,由于他們對(duì)自己的業務和數據有更深的理解,他們定制化的ASIC芯片更容易達到性能(néng)和能(néng)效的最優。即便自研的AI處理器性能(néng)弱于芯片巨頭的産品,如果科技巨頭出于自主可控的考慮,用自身的業務和場景去支撐自研芯片的叠代和優化,爲此付出一些代價,最終也能(néng)研發(fā)出在特定領域非常具有競争優勢的芯片。

注意,科技巨頭們會在與自己業務和生态相關的領域自主研發(fā)AI芯片。但如果想要替代現有的成(chéng)熟芯片,比如英特爾的至強CPU和英偉達GPU,既沒(méi)有價值也面(miàn)臨巨大的風險。歸根結底,科技巨頭們自研AI芯片的初衷是爲了獲得更大的經(jīng)濟效益,通過(guò)自主研發(fā)的芯片保持其技術和生态的領先性。同樣,他們的自研芯片也更多的會服務于自己的業務和生态,而非搶食芯片巨頭們的市場。

小結

AI時代,科技巨頭們與芯片巨頭們不再隻是緊密的合作夥伴,也會在特定領域成(chéng)爲競争對(duì)手。也就是說,對(duì)于芯片巨頭們而言,想要在科技巨頭擁有自研芯片的領域獲得訂單,需要付出更多的努力。

反過(guò)來,芯片作爲一個技術、資本、人才都(dōu)密集的行業,其長(cháng)周期的特點也與互聯網和移動互聯網快速叠代的模式不同,如何找到軟硬之間的最佳平衡點,以及如何與芯片巨頭們多年在芯片領域積累的優勢競争,也都(dōu)是科技巨頭自主研發(fā)芯片面(miàn)臨的挑戰。