近幾年AI芯片火熱,不讓Nvidia專美于前,英特爾在确定進(jìn)入10納米時代後(hòu)更是積極追趕,美國(guó)時間20日,英特爾公布首款神經(jīng)網絡處理器Nervana(代号Springhill)相關細節,包含訓練芯片NNP-T與推論芯片NNP-I,加上原有的Xeon在AI芯片陣容越發(fā)堅強,技術也開(kāi)始兼容了起(qǐ)來。

美國(guó)時間20日,英特爾在今年Hot Chips大會上公布首款神經(jīng)網絡處理器Nervana細節,如其名,這(zhè)是2016年英特爾收購包含Nervana幾家新創公司的成(chéng)果。Nervana處理器分爲訓練芯片NNP-T與推論芯片NNP-I。

訓練用的Nervana NNP-T,主打可編程與靈活性,并強調可從頭建構大規模深度學(xué)習模型,且盡可能(néng)訓練電腦在給定的能(néng)耗預算内快速完成(chéng)任務,也無需傳統技術的龐大開(kāi)銷。

NNP-T支援了Google TPU Tensorflow架構特有的運算格式“bfloat16”,bfloat16截斷既有的32位元float32的前16位,僅留下後(hòu)16位所組成(chéng),在許多機器學(xué)習模型可以容忍較低精确度計算、不需降低收斂準确率的情況下,許多模型使用bfloat16達到的收斂準确率結果與一般使用的32位元浮點(FP32)計算數值的結果一樣,降低精度其實能(néng)讓存儲器效率取得較佳的平衡,從而訓練與部署更多的網絡、降低訓練所需的時間,有較好(hǎo)的效率與靈活性,而這(zhè)是英特爾首次將(jiāng)bfloat16内建于處理器。

▲bfloat16浮點格式(Source:Google)

另外有趣的是NNP-T其實采用的是台積電16納米CLN FF+制程,這(zhè)與一般我們對(duì)英特爾自行生産芯片的認知有所差異,而在Nervana被英特爾收購前,第一代Lake Crest就是由台積電所代工。NNP-T采用台積電最新的CoWoS(Chip on Wafer on Substrate)封裝技術,將(jiāng)NNP-T的晶粒與四個8GB HBM2存儲器異質整合堆疊2.5D,讓其封裝體積縮小成(chéng)一個60X60 mm的芯片。

▲Nervana NNP-T采用台積電16nm CLN FF+制程(Source:Intel)

英特爾同時發(fā)表了推論芯片Nervana NNP-I,主要針對(duì)大型資料中心市場高效能(néng)深度學(xué)習推論而生,NNP-I主要基于英特爾10nm Ice Lake處理器,官方強調透過(guò)此芯片,可提高每瓦效能(néng),讓企業以更低的成(chéng)本執行推論運算工作,降低推論大量部署的成(chéng)本。英特爾指出,NNP-I在功率10瓦下每秒能(néng)處理3600張影像,而處理器本身亦擁有高度可編程性,且同時不影響性能(néng)與功效。

▲Nervana NNP-I架構(Source:Intel)

NNP-I已與Facebook合作并實際運用在其相關業務上,而NNP-T將(jiāng)于今年底以前針對(duì)尤其雲端服務商相關的高端客戶送樣,并在2020年之前拓展市場。