新聞資訊
行業(yè)資訊
哪種芯片架構(gòu)成為人工智能時(shí)代的開(kāi)路先鋒
2018-01-02 00:00:00
摘要:如果用刀來(lái)比喻芯片,通用處理器好比一把瑞士軍刀,人工智能時(shí)代好比要拿刀來(lái)切肉,瑞士軍刀可以拿來(lái)用,但它并非是為切肉設(shè)計(jì)的,所以效果并非最好。因此,需要專門打造一把切肉的刀,這把刀既要方便切肉,又要方便剁骨頭,還需要具有一定的通用性。

    如果用刀來(lái)比喻芯片,通用處理器好比一把瑞士軍刀,人工智能時(shí)代好比要拿刀來(lái)切肉,瑞士軍刀可以拿來(lái)用,但它并非是為切肉設(shè)計(jì)的,所以效果并非最好。因此,需要專門打造一把切肉的刀,這把刀既要方便切肉,又要方便剁骨頭,還需要具有一定的通用性。



    從技術(shù)上而言,深度學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)算法與傳統(tǒng)計(jì)算模式不同,它能夠從輸入的大量數(shù)據(jù)中自發(fā)的總結(jié)出規(guī)律,從而舉一反三,泛化至從未見(jiàn)過(guò)的案例中。因此,它不需要人為的提取所需解決問(wèn)題的特征或者總結(jié)規(guī)律來(lái)進(jìn)行編程。人工神經(jīng)網(wǎng)絡(luò)算法實(shí)際上是通過(guò)大量樣本數(shù)據(jù)訓(xùn)練建立了輸入數(shù)據(jù)和輸出數(shù)據(jù)之間的映射關(guān)系,其最直接的應(yīng)用是在分類識(shí)別方面。例如訓(xùn)練樣本的輸入是語(yǔ)音數(shù)據(jù),訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的功能就是語(yǔ)音識(shí)別,如果訓(xùn)練樣本輸入是人臉圖像數(shù)據(jù),訓(xùn)練后實(shí)現(xiàn)的功能就是人臉識(shí)別。

    例如,“谷歌大腦”用了上萬(wàn)個(gè)通用處理器“跑”了數(shù)天來(lái)學(xué)習(xí)如何識(shí)別貓臉;“阿爾法狗”和李世石下棋時(shí)使用了上千個(gè)中央處理器(CPU)和數(shù)百個(gè)圖形處理器(GPU),平均每局電費(fèi)近3000美元。對(duì)于絕大多數(shù)智能需求來(lái)說(shuō),基于通用處理器的傳統(tǒng)計(jì)算機(jī)成本高、功耗高、體積大、速度慢,難以接受。

    用于圖像處理的GPU芯片因海量數(shù)據(jù)并行運(yùn)算能力,被最先引入深度學(xué)習(xí)。2011年,當(dāng)時(shí)在谷歌就職的吳恩達(dá)將英偉達(dá)的GPU應(yīng)用于“谷歌大腦”中,結(jié)果表明12個(gè)GPU可達(dá)到相當(dāng)于2000個(gè)CPU的深度學(xué)習(xí)性能。之后多家研究機(jī)構(gòu)都基于GPU來(lái)加速其深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。

    隨之而來(lái)的是,英偉達(dá)通過(guò)GPU在深度學(xué)習(xí)中體現(xiàn)的出色性能迅速切入人工智能領(lǐng)域,又通過(guò)打造NVIDIA CUDA 平臺(tái)大大提升其編程效率、開(kāi)放性和豐富性,建立了包含CNN、DNN、深度感知網(wǎng)絡(luò)、RNN、LSTM 以及強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)等算法的平臺(tái)。

    但是,隨著人工智能的發(fā)展,GPU開(kāi)始在三個(gè)方面顯露出局限性:



    第一, 應(yīng)用過(guò)程中無(wú)法充分發(fā)揮并行計(jì)算優(yōu)勢(shì)。深度學(xué)習(xí)包含訓(xùn)練和應(yīng)用兩個(gè)計(jì)算環(huán)節(jié),GPU 在深度學(xué)習(xí)算法訓(xùn)練上非常高效,但在應(yīng)用時(shí)一次性只能對(duì)于一張輸入圖像進(jìn)行處理, 并行度的優(yōu)勢(shì)不能完全發(fā)揮。

    第二, 硬件結(jié)構(gòu)固定不具備可編程性。深度學(xué)習(xí)算法還未完全穩(wěn)定,若深度學(xué)習(xí)算法發(fā)生大的變化,GPU 無(wú)法像FPGA 一樣可以靈活的配置硬件結(jié)構(gòu)。

    第三, 運(yùn)行深度學(xué)習(xí)算法能效遠(yuǎn)低于FPGA。學(xué)術(shù)界和產(chǎn)業(yè)界研究已經(jīng)證明,運(yùn)行深度學(xué)習(xí)算法中實(shí)現(xiàn)同樣的性能,GPU 所需功耗遠(yuǎn)大于FPGA,例如國(guó)內(nèi)初創(chuàng)企業(yè)深鑒科技基于FPGA 平臺(tái)的人工智能芯片在同樣開(kāi)發(fā)周期內(nèi)相對(duì)GPU 能效有一個(gè)數(shù)量級(jí)的提升。

    難道FPGA就是最佳選擇了?未必。

    FPGA在人工智能的應(yīng)用上同樣存在一定的局限性:第一,基本單元的計(jì)算能力有限。為了實(shí)現(xiàn)可重構(gòu)特性,F(xiàn)PGA 內(nèi)部有大量極細(xì)粒度的基本單元,但是每個(gè)單元的計(jì)算能力(主要依靠LUT 查找表)都遠(yuǎn)遠(yuǎn)低于CPU 和GPU 中的ALU模塊。 第二,速度和功耗相對(duì)專用定制芯片(ASIC)仍然存在不小差距。 第三,F(xiàn)PGA 價(jià)格較為昂貴,在規(guī)模放量的情況下單塊FPGA 的成本要遠(yuǎn)高于專用定制芯片。



    當(dāng)然還有TPU、ARM等芯片架構(gòu)不停的向人工智能領(lǐng)域靠攏,同樣具備一定的優(yōu)勢(shì)和局限性。我們正處在從信息時(shí)代邁向智能時(shí)代的重要拐點(diǎn),人工智能將推動(dòng)新一輪計(jì)算革命,而芯片行業(yè)作為產(chǎn)業(yè)最上游,是人工智能時(shí)代的開(kāi)路先鋒,最終哪種芯片將成為AI的“伴侶”,相信很快就會(huì)浮出水面

海外服務(wù)器免費(fèi)測(cè)試http://hbjsdrq.com/


USA-IDC為您提供免備案服務(wù)器 0元試用
立即聯(lián)系在線客服,即可申請(qǐng)免費(fèi)產(chǎn)品試用服務(wù)
立即申請(qǐng)