FPGA > GPU > CPU,產(chǎn)生這樣結(jié)果的根本原因:對于計(jì)算密集型算法,數(shù)據(jù)的搬移和運(yùn)算效率越高的能耗比就越高。ASIC和FPGA都是更接近底層IO,所以計(jì)算效率高和數(shù)據(jù)搬移高,但是FPGA有冗余晶體管和連線,運(yùn)行頻率低,所以沒有ASIC能耗比高。GPU和CPU都是屬于通用處理器,都需要進(jìn)行取指令、指令譯碼、指令執(zhí)行的過程,通過這種方式屏蔽了底層IO的處理,使得軟硬件解耦,但帶來數(shù)據(jù)的搬移和運(yùn)算無法達(dá)到更高效率,所以沒有ASIC、FPGA能耗比高。GPU和CPU之間的能耗比的差距,主要在于CPU中晶體管有大部分用在cache和控制邏輯單元,所以CPU相比GPU來說,對于計(jì)算密集同時計(jì)算復(fù)雜度低的算法,有冗余的晶體管無法發(fā)揮作用,能耗比上CPU低于GPU。" />

色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPU將失寵,ASIC 才是AI 前景所在

M8kW_icbank ? 來源:未知 ? 作者:伍文輝 ? 2018-01-02 15:58 ? 次閱讀

GPU人工智能AI)運(yùn)算大放異彩,激勵兩家GPU 大廠Nvidia、超微(AMD)股價狂飆。但是分析師警告,明年GPU 在AI 的地位,也許會遭「特殊應(yīng)用集成電路」(ASIC)取代。

12 日Nvidia 下跌1.96%,13 日續(xù)跌2.44% 收在186.18 美元。12 日超微下跌2.56%,13 日反彈2.12% 收在10.11 美元。

MarketWatch、Smarter Analyst報(bào)導(dǎo),Susquehanna分析師Christopher Rolland 12日報(bào)告稱,2017年AI GPU當(dāng)?shù)溃?018年可能換成ASIC發(fā)威。AI運(yùn)用深度學(xué)習(xí)解決真實(shí)世界問題,也使用在語音和影像辨識、自動駕駛、醫(yī)療等,Nvidia是AI工作量大增的受惠者,股價暴沖。不過,Susquehanna和多位業(yè)界領(lǐng)袖討論,判斷ASIC可能會取代GPU。

Rolland 以虛擬貨幣挖礦為例,解釋此一變化。早期礦工挖掘虛幣時,多用GPU,不過隨著挖礦難度不斷提高,礦工逐漸改用ASIC。現(xiàn)在比特幣礦工多半采用ASIC,以太幣礦工也會在今年改用ASIC。市面上更出現(xiàn)以太幣專用ASIC,效能遠(yuǎn)勝GPU。

報(bào)告稱,Nvidia 有ASIC 相關(guān)部門,未來仍會在AI 扮演重要角色。但是市場將有更多競爭者,有望受惠的ASIC 業(yè)者,包括協(xié)助谷歌研發(fā)AI 芯片博通、Cavium、Marvell、Microsemi 等。

另外,現(xiàn)場可程式化閘陣列(Field-Programmable Gate Array,FPGA)也可能從AI 熱潮沾光,賽靈思(Xilinx)的FPGA 就用于亞馬遜云端服務(wù)。

芯片商Cerebras 正在研發(fā)AI 專用的ASIC,該公司執(zhí)行長Andrew Feldman 強(qiáng)調(diào),GPU 并非最適合AI 運(yùn)算的芯片。GPU 原本是為了電玩開發(fā),如今卻碰巧適用于另一個毫不相干的新市場。這種幸運(yùn)的巧合不會發(fā)生,最可能的解釋是,GPU 只是當(dāng)前最佳的解決方案,讓業(yè)界能繼續(xù)往前,暗示ASIC 才是AI 前景所在。

Barron's.com 8 月23 日報(bào)導(dǎo),摩根士丹利(Morgan Stanley,通稱大摩)發(fā)表研究報(bào)告指出,現(xiàn)場可程式化閘陣列在機(jī)器學(xué)習(xí)進(jìn)行「推論」(inference)時扮演的角色,可能比市場想像還要大,Xilinx 有望受惠。

GPU、FPGA、ASIC,誰更適合人工智能?

圍繞著人工智能的計(jì)算,有上述三種方案,我們來看一下哪一種會是AI首選。

GPU主要擅長做類似圖像處理的并行計(jì)算,所謂的“粗粒度并行(coarse-grain parallelism)”。圖形處理計(jì)算的特征表現(xiàn)為高密度的計(jì)算而計(jì)算需要的數(shù)據(jù)之間較少存在相關(guān)性,GPU 提供大量的計(jì)算單元(多達(dá)幾千個計(jì)算單元)和大量的高速內(nèi)存,可以同時對很多像素進(jìn)行并行處理。

GPU中一個邏輯控制單元對應(yīng)多個計(jì)算單元,同時要想計(jì)算單元充分并行起來,邏輯控制必然不會太復(fù)雜,太復(fù)雜的邏輯控制無法發(fā)揮計(jì)算單元的并行度,例如過多的if…else if…else if… 分支計(jì)算就無法提高計(jì)算單元的并行度,所以在GPU中邏輯控制單元也就不需要能夠快速處理復(fù)雜控制。

這里GPU計(jì)算能力用Nvidia的Tesla K40進(jìn)行分析,K40包含2880個流處理器(Stream Processor),流處理器就是GPU的計(jì)算單元。每個流處理器包含一個32bit單精度浮點(diǎn)乘和加單元,即每個時鐘周期可以做2個單精度浮點(diǎn)計(jì)算。GPU峰值浮點(diǎn)計(jì)算性能 = 流處理器個數(shù) GPU頻率 每周期執(zhí)行的浮點(diǎn)操作數(shù)。以K40為例,K40峰值浮點(diǎn)計(jì)算性能= 2880(流處理器) 745MHz 2(乘和加) = 4.29T FLOPs/s即每秒4.29T峰值浮點(diǎn)計(jì)算能力。

GPU芯片結(jié)構(gòu)是否可以充分發(fā)揮浮點(diǎn)計(jì)算能力?GPU同CPU一樣也是指令執(zhí)行過程:取指令 ->指令譯碼 ->指令執(zhí)行,只有在指令執(zhí)行的時候,計(jì)算單元才發(fā)揮作用。GPU的邏輯控制單元相比CPU簡單,所以要想做到指令流水處理,提高指令執(zhí)行效率,必然要求處理的算法本身復(fù)雜度低,處理的數(shù)據(jù)之間相互獨(dú)立,所以算法本身的串行處理會導(dǎo)致GPU浮點(diǎn)計(jì)算能力的顯著降低。

上圖是GPU的設(shè)計(jì)結(jié)構(gòu)。GPU的設(shè)計(jì)出發(fā)點(diǎn)在于GPU更適用于計(jì)算強(qiáng)度高、多并行的計(jì)算。因此,GPU把晶體管更多用于計(jì)算單元,而不像CPU用于數(shù)據(jù)Cache和流程控制器。這樣的設(shè)計(jì)是因?yàn)椴⑿杏?jì)算時每個數(shù)據(jù)單元執(zhí)行相同程序,不需要繁瑣的流程控制而更需要高計(jì)算能力,因此也不需要大的cache容量。

FPGA作為一種高性能、低功耗的可編程芯片,可以根據(jù)客戶定制來做針對性的算法設(shè)計(jì)。所以在處理海量數(shù)據(jù)的時候,F(xiàn)PGA 相比于CPU 和GPU,優(yōu)勢在于:FPGA計(jì)算效率更高,F(xiàn)PGA更接近IO。

FPGA不采用指令和軟件,是軟硬件合一的器件。對FPGA進(jìn)行編程要使用硬件描述語言,硬件描述語言描述的邏輯可以直接被編譯為晶體管電路的組合。所以FPGA實(shí)際上直接用晶體管電路實(shí)現(xiàn)用戶的算法,沒有通過指令系統(tǒng)的翻譯。

FPGA的英文縮寫名翻譯過來,全稱是現(xiàn)場可編程邏輯門陣列,這個名稱已經(jīng)揭示了FPGA的功能,它就是一堆邏輯門電路的組合,可以編程,還可以重復(fù)編程。上圖展示了可編程FPGA的內(nèi)部原理圖。

里FPGA計(jì)算能力用Xilinx的V7-690T進(jìn)行分析,V7-690T包含3600個DSP(Digital Signal Processing),DSP就是FPGA的計(jì)算單元。每個DSP可以在每個時鐘周期可以做2個單精度浮點(diǎn)計(jì)算(乘和加)。FPGA峰值浮點(diǎn)計(jì)算性能 = DSP個數(shù) FPGA頻率 每周期執(zhí)行的浮點(diǎn)操作數(shù)。V7-690T運(yùn)行頻率已250MHz來計(jì)算,V7-690T峰值浮點(diǎn)計(jì)算性能 = 3600(DSP個數(shù)) 250MHz 2(乘和加)=1.8T FLOPs/s即每秒1.8T峰值浮點(diǎn)計(jì)算能力。

FPGA芯片結(jié)構(gòu)是否可以充分發(fā)揮浮點(diǎn)計(jì)算能力?FPGA由于算法是定制的,所以沒有CPU和GPU的取指令和指令譯碼過程,數(shù)據(jù)流直接根據(jù)定制的算法進(jìn)行固定操作,計(jì)算單元在每個時鐘周期上都可以執(zhí)行,所以可以充分發(fā)揮浮點(diǎn)計(jì)算能力,計(jì)算效率高于CPU和GPU。

ASIC是一種專用芯片,與傳統(tǒng)的通用芯片有一定的差異。是為了某種特定的需求而專門定制的芯片。ASIC芯片的計(jì)算能力和計(jì)算效率都可以根據(jù)算法需要進(jìn)行定制,所以ASIC與通用芯片相比,具有以下幾個方面的優(yōu)越性:體積小、功耗低、計(jì)算性能高、計(jì)算效率高、芯片出貨量越大成本越低。但是缺點(diǎn)也很明顯:算法是固定的,一旦算法變化就可能無法使用。目前人工智能屬于大爆發(fā)時期,大量的算法不斷涌出,遠(yuǎn)沒有到算法平穩(wěn)期,ASIC專用芯片如何做到適應(yīng)各種算法是個最大的問題,如果以目前CPU和GPU架構(gòu)來適應(yīng)各種算法,那ASIC專用芯片就變成了同CPU、GPU一樣的通用芯片,在性能和功耗上就沒有優(yōu)勢了。

我們來看看FPGA 和 ASIC 的區(qū)別。FPGA基本原理是在芯片內(nèi)集成大量的數(shù)字電路基本門電路以及存儲器,而用戶可以通過燒入 FPGA 配置文件來來定義這些門電路以及存儲器之間的連線。這種燒入不是一次性的,即用戶今天可以把 FPGA 配置成一個微控制器 MCU,明天可以編輯配置文件把同一個 FPGA 配置成一個音頻編解碼器。ASIC 則是專用集成電路,一旦設(shè)計(jì)制造完成后電路就固定了,無法再改變。

比較 FPGA 和 ASIC 就像比較樂高積木和模型。舉例來說,如果你發(fā)現(xiàn)最近星球大戰(zhàn)里面 Yoda 大師很火,想要做一個 Yoda 大師的玩具賣,你要怎么辦呢?

有兩種辦法,一種是用樂高積木搭,還有一種是找工廠開模定制。用樂高積木搭的話,只要設(shè)計(jì)完玩具外形后去買一套樂高積木即可。而找工廠開模的話在設(shè)計(jì)完玩具外形外你還需要做很多事情,比如玩具的材質(zhì)是否會散發(fā)氣味,玩具在高溫下是否會融化等等,所以用樂高積木來做玩具需要的前期工作比起找工廠開模制作來說要少得多,從設(shè)計(jì)完成到能夠上市所需要的時間用樂高也要快很多。

FPGA 和 ASIC 也是一樣,使用 FPGA 只要寫完 Verilog 代碼就可以用 FPGA 廠商提供的工具實(shí)現(xiàn)硬件加速器了,而要設(shè)計(jì) ASIC 則還需要做很多驗(yàn)證和物理設(shè)計(jì) (ESD,Package 等等),需要更多的時間。如果要針對特殊場合(如軍事和工業(yè)等對于可靠性要求很高的應(yīng)用),ASIC 則需要更多時間進(jìn)行特別設(shè)計(jì)以滿足需求,但是用 FPGA 的話可以直接買軍工級的高穩(wěn)定性 FPGA 完全不影響開發(fā)時間。但是,雖然設(shè)計(jì)時間比較短,但是樂高積木做出來的玩具比起工廠定制的玩具要粗糙(性能差)一些(下圖),畢竟工廠開模是量身定制。

另外,如果出貨量大的話,工廠大規(guī)模生產(chǎn)玩具的成本會比用樂高積木做便宜許多。FPGA 和 ASIC 也是如此,在同一時間點(diǎn)上用最好的工藝實(shí)現(xiàn)的 ASIC 的加速器的速度會比用同樣工藝 FPGA 做的加速器速度快 5-10 倍,而且一旦量產(chǎn)后 ASIC 的成本會遠(yuǎn)遠(yuǎn)低于 FPGA 方案。

FPGA 上市速度快, ASIC 上市速度慢,需要大量時間開發(fā),而且一次性成本(光刻掩模制作成本)遠(yuǎn)高于 FPGA,但是性能高于 FPGA 且量產(chǎn)后平均成本低于 FPGA。目標(biāo)市場方面,F(xiàn)PGA 成本較高,所以適合對價格不是很敏感的地方,比如企業(yè)應(yīng)用,軍事和工業(yè)電子等等(在這些領(lǐng)域可重配置真的需要)。而 ASIC 由于低成本則適合消費(fèi)電子類應(yīng)用,而且在消費(fèi)電子中可配置是否是一個偽需求還有待商榷。

我們看到的市場現(xiàn)狀也是如此:使用 FPGA 做深度學(xué)習(xí)加速的多是企業(yè)用戶,百度、微軟、IBM 等公司都有專門做 FPGA 的團(tuán)隊(duì)為服務(wù)器加速,而做 FPGA 方案的初創(chuàng)公司 Teradeep 的目標(biāo)市場也是服務(wù)器。而 ASIC 則主要瞄準(zhǔn)消費(fèi)電子,如 Movidius。由于移動終端屬于消費(fèi)電子領(lǐng)域,所以未來使用的方案應(yīng)當(dāng)是以 ASIC 為主。

由于不同的芯片生產(chǎn)工藝,對芯片的功耗和性能都有影響,這里用相同工藝或者接近工藝下進(jìn)行對比,ASIC芯片還沒有商用的芯片出現(xiàn),Google的TPU也只是自己使用沒有對外提供信息,這里ASIC芯片用在學(xué)術(shù)論文發(fā)表的《DianNao: A Small-Footprint High-Throughput Accelerator for Ubiquitous Machine-Learning》作為代表。

GPU將失寵,ASIC 才是AI 前景所在

從上面的對比來看,能耗比方面:ASIC > FPGA > GPU > CPU,產(chǎn)生這樣結(jié)果的根本原因:對于計(jì)算密集型算法,數(shù)據(jù)的搬移和運(yùn)算效率越高的能耗比就越高。ASIC和FPGA都是更接近底層IO,所以計(jì)算效率高和數(shù)據(jù)搬移高,但是FPGA有冗余晶體管和連線,運(yùn)行頻率低,所以沒有ASIC能耗比高。GPU和CPU都是屬于通用處理器,都需要進(jìn)行取指令、指令譯碼、指令執(zhí)行的過程,通過這種方式屏蔽了底層IO的處理,使得軟硬件解耦,但帶來數(shù)據(jù)的搬移和運(yùn)算無法達(dá)到更高效率,所以沒有ASIC、FPGA能耗比高。GPU和CPU之間的能耗比的差距,主要在于CPU中晶體管有大部分用在cache和控制邏輯單元,所以CPU相比GPU來說,對于計(jì)算密集同時計(jì)算復(fù)雜度低的算法,有冗余的晶體管無法發(fā)揮作用,能耗比上CPU低于GPU。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1629

    文章

    21729

    瀏覽量

    603012
  • asic
    +關(guān)注

    關(guān)注

    34

    文章

    1199

    瀏覽量

    120438
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4729

    瀏覽量

    128891
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30728

    瀏覽量

    268892

原文標(biāo)題:GPU將失寵,明年的AI市場看ASIC

文章出處:【微信號:icbank,微信公眾號:icbank】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI算力GPU開始騰飛,背后是電源管理的持續(xù)支持

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃山明)近期,IDC出具了一份報(bào)告顯示,AI PC在中國PC市場中新機(jī)的裝配比例將在未來幾年內(nèi)快速攀升,預(yù)計(jì)2024年迅速增長至55%,在2027年達(dá)到85%,而今年也將成
    的頭像 發(fā)表于 03-30 00:12 ?4455次閱讀
    <b class='flag-5'>AI</b>算力<b class='flag-5'>GPU</b>開始騰飛,背后是電源管理的持續(xù)支持

    GPU是如何訓(xùn)練AI大模型的

    AI模型的訓(xùn)練過程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓(xùn)練
    的頭像 發(fā)表于 12-19 17:54 ?85次閱讀

    ASIC爆火!大廠AI訓(xùn)練推理拋棄GPU;博通的護(hù)城河有多深?

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)在上周末,博通應(yīng)該可以說是投資圈和科技圈最火爆的話題,大家紛紛驚呼“英偉達(dá)的對手終于出現(xiàn)了!”“ASIC要超越GPU”云云。 ? 這一切都要源于上周五博通公布的炸裂財(cái)報(bào)
    的頭像 發(fā)表于 12-18 01:25 ?1724次閱讀

    GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)

    眾所周知,在大型模型訓(xùn)練中,通常采用每臺服務(wù)器配備多個GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)(上篇)》中,我們對GPU網(wǎng)絡(luò)中的核心術(shù)語與概念進(jìn)行了詳盡介紹。本文
    的頭像 發(fā)表于 11-05 16:20 ?314次閱讀
    <b class='flag-5'>GPU</b>服務(wù)器<b class='flag-5'>AI</b>網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了優(yōu)化,因此相比
    的頭像 發(fā)表于 10-29 14:12 ?391次閱讀
    FPGA和<b class='flag-5'>ASIC</b>在大模型推理加速中的應(yīng)用

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?256次閱讀

    ai大模的應(yīng)用前景是什么?

    人工智能(AI)大模型的應(yīng)用前景非常廣泛,涉及到各個行業(yè)和領(lǐng)域。以下是對AI大模型應(yīng)用前景的介紹: 醫(yī)療健康領(lǐng)域 AI大模型在醫(yī)療健康領(lǐng)域的
    的頭像 發(fā)表于 07-16 10:13 ?592次閱讀

    AI大模型的發(fā)展歷程和應(yīng)用前景

    領(lǐng)域取得重要突破。本文深入解析AI大模型的基本原理、發(fā)展歷程、應(yīng)用前景以及面臨的挑戰(zhàn)與爭議,為讀者提供一個全面而深入的科普視角。
    的頭像 發(fā)表于 07-03 18:20 ?1158次閱讀

    AI手機(jī)市場前景廣闊,五大關(guān)鍵洞察助廠商保持競爭優(yōu)勢

    技術(shù)進(jìn)步推動用戶對AI手機(jī)體驗(yàn)的期待提升。端側(cè)運(yùn)行AI模型和應(yīng)用,優(yōu)化專用處理器如ASICGPU及其他零部件至關(guān)重要。隨著技術(shù)的進(jìn)步,軟件和服務(wù)能力將成為關(guān)鍵因素。
    的頭像 發(fā)表于 05-29 11:19 ?450次閱讀

    為什么跑AI往往用GPU而不是CPU?

    GPU的能力,并且支持的GPU數(shù)量越多,就代表其AI性能越強(qiáng)大。那么問題來了,為什么是GPU而不是CPU?GPU難道不是我們?nèi)粘J褂玫碾娔X里
    的頭像 發(fā)表于 04-24 08:27 ?1871次閱讀
    為什么跑<b class='flag-5'>AI</b>往往用<b class='flag-5'>GPU</b>而不是CPU?

    AI訓(xùn)練,為什么需要GPU

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺的基石,甚至是決定性的算力底座。為什么GPU能力壓CPU,成為炙手可熱的主角呢?要回答這個問題,首先需要了解當(dāng)前人工智能(
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    <b class='flag-5'>AI</b>訓(xùn)練,為什么需要<b class='flag-5'>GPU</b>?

    AI服務(wù)器異構(gòu)計(jì)算深度解讀

    AI服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%)。
    發(fā)表于 04-12 12:27 ?608次閱讀
    <b class='flag-5'>AI</b>服務(wù)器異構(gòu)計(jì)算深度解讀

    FPGA在深度學(xué)習(xí)應(yīng)用中或取代GPU

    對神經(jīng)網(wǎng)絡(luò)進(jìn)行任何更改,也不需要學(xué)習(xí)任何新工具。不過你可以保留你的 GPU 用于訓(xùn)練。” Zebra 提供了深度學(xué)習(xí)代碼轉(zhuǎn)換為 FPGA 硬件指令的抽象層 AI 硬件前景
    發(fā)表于 03-21 15:19

    到底什么是ASIC和FPGA?

    2022年底,發(fā)布了AI ASIC芯片AIU。 三星早幾年也搞過ASIC,當(dāng)時做的是礦機(jī)專用芯片。沒錯,很多人認(rèn)識ASIC,就是從比特幣挖礦開始的。相比
    發(fā)表于 01-23 19:08

    FPGA、ASICGPU誰是最合適的AI芯片?

    CPU、GPU遵循的是馮·諾依曼體系結(jié)構(gòu),指令要經(jīng)過存儲、譯碼、執(zhí)行等步驟,共享內(nèi)存在使用時,要經(jīng)歷仲裁和緩存。 而FPGA和ASIC并不是馮·諾依曼架構(gòu)(是哈佛架構(gòu))。以FPGA為例,它本質(zhì)上是無指令、無需共享內(nèi)存的體系結(jié)構(gòu)。
    發(fā)表于 01-06 11:20 ?1636次閱讀
    FPGA、<b class='flag-5'>ASIC</b>、<b class='flag-5'>GPU</b>誰是最合適的<b class='flag-5'>AI</b>芯片?
    主站蜘蛛池模板: 无码一卡二卡三卡四卡| 亚洲精品美女久久777777 | 亚洲AV成人片色在线观看网站| 607080老太太AW| 国产欧美一区二区三区视频| 免费特黄一区二区三区视频一| 亚洲精品国产SUV| 广西美女色炮150p图| 嫩草www视频在线观看高清| 亚洲第一伊人| 高中生被C到爽哭视频免费| 久久91精品国产91久久户| 乌克兰粉嫩摘花第一次| qvod在线电影| 浪荡女天天不停挨CAO日常视| 亚洲国产精品一区二区久久第| 被老头下药玩好爽| 两个奶被男人揉了一个晚上| 亚洲国产五月综合网| 国产高清视频免费最新在线| 全彩无翼污之邪恶女教师| 最近免费中文字幕MV在线视频3| 国产在线观看黄| 无码天堂亚洲国产AV久久| 丰满老熟好大bbbxxx| 欧美丰满少妇久久无码精品| 在线高清视频不卡无码| 国语自产拍在线视频普通话 | 在线日本高清日本免费| 含羞草完整视频在线播放免费| 少妇无码吹潮久久精品AV| 123超碰在线视频| 久久re热线视频精品99| 亚洲精品久久久久一区二区三| 国产精品无码麻豆放荡AV| 受喷汁红肿抽搐磨NP双性| 成年人免费在线视频观看| 强姧伦久久久久久久久| aaa在线观看视频高清视频| 免费一区在线观看| 99久久99|