色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CPU,正在被AI時(shí)代拋棄?

愛(ài)云資訊 ? 2024-07-11 17:14 ? 次閱讀

在某三甲醫(yī)院的門診中,匯集了來(lái)自各地的病患,醫(yī)生們正在以最專業(yè)的能力和最快的速度進(jìn)行會(huì)診。期間,醫(yī)生與患者的對(duì)話可以通過(guò)語(yǔ)音識(shí)別技術(shù)被錄入到病例系統(tǒng)中,隨后大模型 AI 推理技術(shù)輔助進(jìn)行智能總結(jié)和診斷,醫(yī)生們撰寫病例的效率顯著提高。AI 推理的應(yīng)用不僅節(jié)省了時(shí)間,也保護(hù)了患者隱私;

在法院、律所等業(yè)務(wù)場(chǎng)景中,律師通過(guò)大模型對(duì)海量歷史案例進(jìn)行整理調(diào)查,并鎖定出擬定法律文件中可能存在的漏洞;

……

以上場(chǎng)景中的大模型應(yīng)用,幾乎都有一個(gè)共同的特點(diǎn)——受行業(yè)屬性限制,在應(yīng)用大模型時(shí),除了對(duì)算力的高要求,AI 訓(xùn)練過(guò)程中經(jīng)常出現(xiàn)的壞卡問(wèn)題也是這些行業(yè)不允許出現(xiàn)的。同時(shí),為確保服務(wù)效率和隱私安全,他們一般需要將模型部署在本地,且非常看重硬件等基礎(chǔ)設(shè)施層的穩(wěn)定性和可靠性。一個(gè)中等參數(shù)或者輕量參數(shù)的模型,加上精調(diào)就可以滿足他們的場(chǎng)景需求。

而在大模型技術(shù)落地過(guò)程中,上述需求其實(shí)不在少數(shù),基于 CPU 的推理方案無(wú)疑是一種更具性價(jià)比的選擇。不僅能夠滿足其業(yè)務(wù)需求,還能有效控制成本、保證系統(tǒng)的穩(wěn)定性和數(shù)據(jù)的安全性。但這也就愈發(fā)讓我們好奇,作為通用服務(wù)器,CPU 在 AI 時(shí)代可以發(fā)揮怎樣的優(yōu)勢(shì)?其背后的技術(shù)原理又是什么?

1、AI 時(shí)代,CPU 是否已被被邊緣化?

提起 AI 訓(xùn)練和 AI 推理,大家普遍會(huì)想到 GPU 更擅長(zhǎng)處理大量并行任務(wù),在執(zhí)行計(jì)算密集型任務(wù)時(shí)表現(xiàn)地更出色,卻忽視了 CPU 在這其中的價(jià)值。

AI 技術(shù)的不斷演進(jìn)——從深度神經(jīng)網(wǎng)絡(luò)(DNN)到 Transformer 大模型,對(duì)硬件的要求產(chǎn)生了顯著變化。CPU 不僅沒(méi)有被邊緣化,反而持續(xù)升級(jí)以適應(yīng)這些變化,并做出了重要改變。

AI 大模型也不是只有推理和訓(xùn)練的單一任務(wù),還包括數(shù)據(jù)預(yù)處理、模型訓(xùn)練、推理和后處理等,整個(gè)過(guò)程中需要非常多軟硬件及系統(tǒng)的配合。在 GPU 興起并廣泛應(yīng)用于 AI 領(lǐng)域之前,CPU 就已經(jīng)作為執(zhí)行 AI 推理任務(wù)的主要硬件在被廣泛使用。其作為通用處理器發(fā)揮著非常大的作用,整個(gè)系統(tǒng)的調(diào)度、任何負(fù)載的高效運(yùn)行都離不開(kāi)它的協(xié)同優(yōu)化。

此外,CPU 的單核性能非常強(qiáng)大,可以處理復(fù)雜的計(jì)算任務(wù),其核心數(shù)量也在不斷增加,而且 CPU 的內(nèi)存容量遠(yuǎn)大于 GPU 的顯存容量,這些優(yōu)勢(shì)使得 CPU 能夠有效運(yùn)行生成式大模型任務(wù)。經(jīng)過(guò)優(yōu)化的大模型可以在 CPU 上高效執(zhí)行,特別是當(dāng)模型非常大,需要跨異構(gòu)平臺(tái)計(jì)算時(shí),使用 CPU 反而能提供更快的速度和更高的效率。

而 AI 推理過(guò)程中兩個(gè)重要階段的需求,即在預(yù)填充階段,需要高算力的矩陣乘法運(yùn)算部件;在解碼階段,尤其是小批量請(qǐng)求時(shí),需要更高的內(nèi)存訪問(wèn)帶寬。這些需求 CPU 都可以很好地滿足。

wKgaomaPoo2AO0X6AABjQK7oV8I227.jpg

英特爾舉例,從 2017 年第一代至強(qiáng)? 可擴(kuò)展處理器開(kāi)始就利用英特爾? AVX-512 技術(shù)的矢量運(yùn)算能力進(jìn)行 AI 加速上的嘗試;再接著第二代至強(qiáng)? 中導(dǎo)入深度學(xué)習(xí)加速技術(shù)(DL Boost);第三代到第五代至強(qiáng)? 的演進(jìn)中,從 BF16 的增添再到英特爾? AMX 的入駐,可以說(shuō)英特爾一直在充分利用 CPU 資源加速 AI 的道路上深耕。

在英特爾? AMX 大幅提升矩陣計(jì)算能力外,第五代至強(qiáng)? 可擴(kuò)展處理器還增加了每個(gè)時(shí)鐘周期的指令,有效提升了內(nèi)存帶寬與速度,并通過(guò) PCIe 5.0 實(shí)現(xiàn)了更高的 PCIe 帶寬提升。在幾個(gè)時(shí)鐘的周期內(nèi),一條微指令就可以把一個(gè) 16×16 的矩陣計(jì)算一次性計(jì)算出來(lái)。另外,至強(qiáng)? 可擴(kuò)展處理器可支持 High Bandwidth Memory (HBM) 內(nèi)存,和 DDR5 相比,其具有更多的訪存通道和更長(zhǎng)的讀取位寬。雖然 HBM 的容量相對(duì)較小,但足以支撐大多數(shù)的大模型推理任務(wù)。

可以明確的是,AI 技術(shù)的演進(jìn)還遠(yuǎn)未停止,當(dāng)前以消耗大量算力為前提的模型結(jié)構(gòu)也可能會(huì)發(fā)生改變,但 CPU 作為計(jì)算機(jī)系統(tǒng)的核心,其價(jià)值始終是難以被替代的。

同時(shí),AI 應(yīng)用的需求是多樣化的,不同的應(yīng)用場(chǎng)景需要不同的計(jì)算資源和優(yōu)化策略。因此比起相互替代,CPU 和其他加速器之間的互補(bǔ)關(guān)系才是它們?cè)?AI 市場(chǎng)中共同發(fā)展的長(zhǎng)久之道。

2、與其算力焦慮,不如關(guān)注效價(jià)比

隨著人工智能技術(shù)在各個(gè)領(lǐng)域的廣泛應(yīng)用,AI 推理成為了推動(dòng)技術(shù)進(jìn)步的關(guān)鍵因素。然而,隨著通用大模型參數(shù)和 Token 數(shù)量不斷增加,模型單次推理所需的算力也在持續(xù)增加,企業(yè)的算力焦慮撲面而來(lái)。與其關(guān)注無(wú)法短時(shí)間達(dá)到的算力規(guī)模,不如聚焦在“效價(jià)比”,即綜合考量大模型訓(xùn)練和推理過(guò)程中所需軟硬件的經(jīng)濟(jì)投入成本、使用效果和產(chǎn)品性能。

CPU 不僅是企業(yè)解決 AI 算力焦慮過(guò)程中的重要選項(xiàng),更是企業(yè)追求“效價(jià)比”的優(yōu)選。在大模型技術(shù)落地的“效價(jià)比”探索層面上,百度智能云和英特爾也不謀而合。

百度智能云千帆大模型平臺(tái)(下文簡(jiǎn)稱“千帆大模型平臺(tái)”)作為一個(gè)面向開(kāi)發(fā)者和企業(yè)的人工智能服務(wù)平臺(tái),提供了豐富的大模型,對(duì)大模型的推理及部署服務(wù)優(yōu)化積攢了很多作為開(kāi)發(fā)平臺(tái)的經(jīng)驗(yàn),他們發(fā)現(xiàn),CPU 的 AI 算力潛力將有助于提升 CPU 云服務(wù)器的資源利用率,能夠滿足用戶快速部署 LLM 模型的需求,同時(shí)還發(fā)現(xiàn)了許多很適合 CPU 的使用場(chǎng)景:

●SFT 長(zhǎng)尾模型:每個(gè)模型的調(diào)用相對(duì)稀疏,CPU 的靈活性和通用性得以充分發(fā)揮,能夠輕松管理和調(diào)度這些模型,確保每個(gè)模型在需要時(shí)都能快速響應(yīng)。

●小于 10b 的小參數(shù)規(guī)模大模型:由于模型規(guī)模相對(duì)較小,CPU 能夠提供足夠的計(jì)算能力,同時(shí)保持較低的能耗和成本。

●對(duì)首 Token 時(shí)延不敏感,更注重整體吞吐的離線批量推理場(chǎng)景:這類場(chǎng)景通常要求系統(tǒng)能夠高效處理大量的數(shù)據(jù),而 CPU 的強(qiáng)大計(jì)算能力和高吞吐量特性可以很好地滿足要求,能夠確保推理任務(wù)的快速完成。

英特爾的測(cè)試數(shù)據(jù)也驗(yàn)證了千帆大模型平臺(tái)團(tuán)隊(duì)的發(fā)現(xiàn),其通過(guò)測(cè)試證明,單臺(tái)雙路 CPU 服務(wù)器完全可以輕松勝任幾 B 到幾十 B 參數(shù)的大模型推理任務(wù),Token 生成延時(shí)完全能夠達(dá)到數(shù)十毫秒的業(yè)務(wù)需求指標(biāo),而針對(duì)更大規(guī)模參數(shù)的模型,例如常用的 Llama 2-70B,CPU 同樣可以通過(guò)分布式推理方式來(lái)支持。此外,批量處理任務(wù)在 CPU 集群的閑時(shí)進(jìn)行,忙時(shí)可以處理其他任務(wù),而無(wú)需維護(hù)代價(jià)高昂的 GPU 集群,這將極大節(jié)省企業(yè)的經(jīng)濟(jì)成本。

也正是出于在“CPU 上跑 AI”的共識(shí),雙方展開(kāi)了業(yè)務(wù)上的深度合作。百度智能云千帆大模型平臺(tái)采?基于英特爾? AMX 加速器和大模型推理軟件解決方案 xFasterTransformer (xFT),進(jìn)?步加速英特爾? 至強(qiáng)? 可擴(kuò)展處理器的 LLM 推理速度。

3、將 CPU 在 AI 方面的潛能發(fā)揮到極致

為了充分發(fā)揮 CPU 在 AI 推理方面的極限潛能,需要從兩個(gè)方面進(jìn)行技術(shù)探索——硬件層面的升級(jí)和軟件層面的優(yōu)化適配。

千帆大模型平臺(tái)采用 xFT,主要進(jìn)行了以下三方面的優(yōu)化:

系統(tǒng)層面:利用英特爾? AMX/AVX512 等硬件特性,高效快速地完成矩陣 / 向量計(jì)算;優(yōu)化實(shí)現(xiàn)針對(duì)超長(zhǎng)上下文和輸出的 Flash Attention/Flash Decoding 等核心算子,降低數(shù)據(jù)類型轉(zhuǎn)換和數(shù)據(jù)重排布等開(kāi)銷;統(tǒng)一內(nèi)存分配管理,降低推理任務(wù)的內(nèi)存占用。

算法層面:在精度滿足任務(wù)需求的條件下,提供多種針對(duì)網(wǎng)絡(luò)激活層以及模型權(quán)重的低精度和量化方法,大幅度降低訪存數(shù)據(jù)量的同時(shí),充分發(fā)揮出英特爾? AMX 等加速部件對(duì) BF16/INT8 等低精度數(shù)據(jù)計(jì)算的計(jì)算能力。

多節(jié)點(diǎn)并行:支持張量并行(Tensor Parallelism)等對(duì)模型權(quán)重進(jìn)行切分的并行推理部署。使用異構(gòu)集合通信的方式提高通信效率,進(jìn)一步降低 70b 規(guī)模及以上 LLM 推理時(shí)延,提高較大批處理請(qǐng)求的吞吐。

wKgZomaPoo2Aeq1zAABGLBSwc_I265.jpg

第五代至強(qiáng)? 可擴(kuò)展處理器能在 AI 推理上能夠取得如此亮眼的效果,同樣離不開(kāi)軟件層面的優(yōu)化適配。為了解決 CPU 推理性能問(wèn)題,這就不得不提 xFT 開(kāi)源推理框架了。

xFT 底層適用英特爾 AI 軟件棧,包括 oneDNN、oneMKL、IG、oneCCL 等高性能庫(kù)。用戶可以調(diào)用和組裝這些高性能庫(kù),形成大模型推理的關(guān)鍵算子,并簡(jiǎn)單組合算子來(lái)支持 Llama、文心一言等大模型。同時(shí),xFT 最上層提供 C++Python 兩套便利接口,很容易集成到現(xiàn)有框架或服務(wù)后端。

xFT 采用了多種優(yōu)化策略來(lái)提升推理效率,其中包括張量并行和流水線并行技術(shù),這兩種技術(shù)能夠顯著提高并行處理的能力。通過(guò)高性能融合算子和先進(jìn)的量化技術(shù),其在保持精度的同時(shí)提高推理速度。此外,通過(guò)低精度量化和稀疏化技術(shù),xFT 有效地降低了對(duì)內(nèi)存帶寬的需求,在推理速度和準(zhǔn)確度之間取得平衡,支持多種數(shù)據(jù)類型來(lái)實(shí)現(xiàn)模型推理和部署,包括單一精度和混合精度,可充分利用 CPU 的計(jì)算資源和帶寬資源來(lái)提高 LLM 的推理速度。

另外值得一提的是,xFT 通過(guò)“算子融合”、“最小化數(shù)據(jù)拷貝”、“重排操作”和“內(nèi)存重復(fù)利用”等手段來(lái)進(jìn)一步優(yōu)化 LLM 的實(shí)現(xiàn),這些優(yōu)化策略能夠最大限度地減少內(nèi)存占用、提高緩存命中率并提升整體性能。通過(guò)仔細(xì)分析 LLM 的工作流程并減少不必要的計(jì)算開(kāi)銷,該引擎進(jìn)一步提高了數(shù)據(jù)重用度和計(jì)算效率,特別是在處理 Attention 機(jī)制時(shí),針對(duì)不同長(zhǎng)度的序列采取了不同的優(yōu)化算法來(lái)確保最高的訪存效率。

目前,英特爾的大模型加速方案 xFT 已經(jīng)成功集成到千帆大模型平臺(tái)中,這項(xiàng)合作使得在千帆大模型平臺(tái)上部署的多個(gè)開(kāi)源大模型能夠在英特爾至強(qiáng)? 可擴(kuò)展處理器上獲得最優(yōu)的推理性能:

●在線服務(wù)部署:用戶可以利用千帆大模型平臺(tái)的 CPU 資源在線部署多個(gè)開(kāi)源大模型服務(wù),這些服務(wù)不僅為客戶應(yīng)用提供了強(qiáng)大的大模型支持,還能夠用于千帆大模型平臺(tái) prompt 優(yōu)化工程等相關(guān)任務(wù)場(chǎng)景。

●高性能推理:借助英特爾? 至強(qiáng)? 可擴(kuò)展處理器和 xFT 推理解決方案,千帆大模型平臺(tái)能夠?qū)崿F(xiàn)大幅提升的推理性能。這包括降低推理時(shí)延,提高服務(wù)響應(yīng)速度,以及增強(qiáng)模型的整體吞吐能力。

●定制化部署:千帆大模型平臺(tái)提供了靈活的部署選項(xiàng),允許用戶根據(jù)具體業(yè)務(wù)需求選擇最適合的硬件資源配置,從而優(yōu)化大模型在實(shí)際應(yīng)用中的表現(xiàn)和效果。

4、寫在最后

對(duì)于千帆大模型平臺(tái)來(lái)說(shuō),英特爾幫助其解決了客戶在大模型應(yīng)用過(guò)程中對(duì)計(jì)算資源的需求,進(jìn)一步提升了大模型的性能和效率,讓用戶以更低的成本獲取高質(zhì)量的大模型服務(wù)。

大模型生態(tài)要想持續(xù)不斷地往前演進(jìn),無(wú)疑要靠一個(gè)個(gè)實(shí)打?qū)嵉男I(yè)務(wù)落地把整個(gè)生態(tài)構(gòu)建起來(lái),英特爾聯(lián)合千帆大模型平臺(tái)正是在幫助企業(yè)以最少的成本落地大模型應(yīng)用,讓他們?cè)谔剿鞔竽P蛻?yīng)用時(shí)找到了更具效價(jià)比的選項(xiàng)。

未來(lái),雙方計(jì)劃在更高性能的至強(qiáng)? 產(chǎn)品支持、軟件優(yōu)化、更多模型支持以及重點(diǎn)客戶聯(lián)合支持等方面展開(kāi)深入合作。旨在提升大模型運(yùn)行效率和性能,為千帆大模型平臺(tái)提供更完善的軟件支持,確保用戶能及時(shí)利用最新的技術(shù)成果,從而加速大模型生態(tài)持續(xù)向前。

更多關(guān)于至強(qiáng)? 可擴(kuò)展處理器為千帆大模型平臺(tái)推理加速的信息,請(qǐng)點(diǎn)擊英特爾官網(wǎng)查閱。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10872

    瀏覽量

    211999
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30996

    瀏覽量

    269289
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2476

    瀏覽量

    2793
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    研華科技全員積極擁抱AI時(shí)代

    研華全員積極擁抱AI時(shí)代,本文專訪研華數(shù)字化轉(zhuǎn)型部門負(fù)責(zé)人Jeff,通過(guò)內(nèi)部AI競(jìng)賽和WISE-AI Agent智能體平臺(tái),推動(dòng)AI技術(shù)在企
    的頭像 發(fā)表于 12-04 18:18 ?409次閱讀

    鼎捷的“變”與“謀”:一起見(jiàn)證AI時(shí)代的數(shù)智化躍遷

    產(chǎn)業(yè)的全面顛覆!隨著AI技術(shù)的不斷成熟及應(yīng)用場(chǎng)景的不斷拓展,一個(gè)更加智能、高效且可持續(xù)的產(chǎn)業(yè)未來(lái)正在被重塑。勇立AI洶涌潮頭數(shù)智方案全面革新AI技術(shù)的持續(xù)突破和廣泛
    的頭像 發(fā)表于 11-21 15:12 ?417次閱讀
    鼎捷的“變”與“謀”:一起見(jiàn)證<b class='flag-5'>AI</b><b class='flag-5'>時(shí)代</b>的數(shù)智化躍遷

    AI推理CPU當(dāng)?shù)溃珹rm驅(qū)動(dòng)高效引擎

    AI的訓(xùn)練和推理共同鑄就了其無(wú)與倫比的處理能力。在AI訓(xùn)練方面,GPU因其出色的并行計(jì)算能力贏得了業(yè)界的青睞,成為了當(dāng)前AI大模型最熱門的芯片;而在 AI 推理方面,具備卓越通用性和靈
    的頭像 發(fā)表于 11-13 14:34 ?2468次閱讀
    <b class='flag-5'>AI</b>推理<b class='flag-5'>CPU</b>當(dāng)?shù)溃珹rm驅(qū)動(dòng)高效引擎

    業(yè)內(nèi)首顆8核RISC-V終端AI CPU量產(chǎn)芯片K1,進(jìn)迭時(shí)空與中國(guó)移動(dòng)用芯共創(chuàng)AI+時(shí)代

    10月11日-13日,以“智煥新生共創(chuàng)AI+時(shí)代”為主題的2024中國(guó)移動(dòng)全球合作伙伴大會(huì)在廣州盛大舉行。作為中國(guó)移動(dòng)合作伙伴,進(jìn)迭時(shí)空攜RISC-V新CPU、新AI最新科技成果及解決
    的頭像 發(fā)表于 10-16 08:09 ?680次閱讀
    業(yè)內(nèi)首顆8核RISC-V終端<b class='flag-5'>AI</b> <b class='flag-5'>CPU</b>量產(chǎn)芯片K1,進(jìn)迭時(shí)空與中國(guó)移動(dòng)用芯共創(chuàng)<b class='flag-5'>AI</b>+<b class='flag-5'>時(shí)代</b>

    大模型時(shí)代的算力需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭(zhēng)相部署大模型,但如何保證大模型的算力,以及相關(guān)的穩(wěn)定性和性能,是一個(gè)極為重要的問(wèn)題,帶著這個(gè)極為重要的問(wèn)題,我需要在此書中找到答案。
    發(fā)表于 08-20 09:04

    芯片行業(yè),正在被改寫

    個(gè)性化和以軟件為中心的體驗(yàn)。對(duì)于許多行業(yè)專家來(lái)說(shuō),半導(dǎo)體行業(yè)顯然正在經(jīng)歷一場(chǎng)大規(guī)模的轉(zhuǎn)型,其客戶要求各個(gè)行業(yè)都進(jìn)行變革。在這個(gè)復(fù)雜的領(lǐng)域,出現(xiàn)了一個(gè)新的機(jī)遇——半
    的頭像 發(fā)表于 08-09 08:28 ?277次閱讀
    芯片行業(yè),<b class='flag-5'>正在被</b>改寫

    平衡創(chuàng)新與倫理:AI時(shí)代的隱私保護(hù)和算法公平

    在人工智能技術(shù)飛速發(fā)展的今天,它不僅帶來(lái)了前所未有的便利和效率,也暴露出了一系列倫理和隱私問(wèn)題。從數(shù)據(jù)隱私侵犯到“信息繭房”的形成,再到“大數(shù)據(jù)殺熟”、AI歧視和深度偽造技術(shù)的威脅,AI的應(yīng)用似乎
    發(fā)表于 07-16 15:07

    新火種AI|谷歌“復(fù)仇”O(jiān)penAI,硅谷AI大戰(zhàn)正在上演

    一場(chǎng)AI的科技競(jìng)賽正在美國(guó)硅谷上演
    的頭像 發(fā)表于 05-17 18:10 ?777次閱讀
    新火種<b class='flag-5'>AI</b>|谷歌“復(fù)仇”O(jiān)penAI,硅谷<b class='flag-5'>AI</b>大戰(zhàn)<b class='flag-5'>正在</b>上演

    中國(guó)移動(dòng)發(fā)布基于飛騰CPU自主研發(fā)的賦能AI算力時(shí)代的新產(chǎn)品

    4月16日,在中國(guó)南京舉辦的 “2024 全球 6G 技術(shù)大會(huì)”上,中國(guó)移動(dòng)發(fā)布了 基于飛騰 CPU 自主研發(fā)的賦能 AI 算力時(shí)代的新產(chǎn)品——“靈云” 無(wú)線通算智融合開(kāi)放平臺(tái)。
    的頭像 發(fā)表于 04-17 18:12 ?1443次閱讀
    中國(guó)移動(dòng)發(fā)布基于飛騰<b class='flag-5'>CPU</b>自主研發(fā)的賦能<b class='flag-5'>AI</b>算力<b class='flag-5'>時(shí)代</b>的新產(chǎn)品

    RISC-V廠商正在AI領(lǐng)域積極布局!

    、精簡(jiǎn)、可拓展的優(yōu)勢(shì),為發(fā)展高性能、低功耗的邊緣側(cè)、端側(cè)AI推理芯片提供了充足空間。 ? AI 正在成為RISC-V 的新機(jī)遇 ? RISC-V是一個(gè)開(kāi)發(fā)、免費(fèi)的指令集架構(gòu),是由加州大學(xué)伯克利分校圖靈獎(jiǎng)得主David Patte
    的頭像 發(fā)表于 04-09 00:13 ?4482次閱讀
    RISC-V廠商<b class='flag-5'>正在</b><b class='flag-5'>AI</b>領(lǐng)域積極布局!

    寧德時(shí)代正在與特斯拉合作研發(fā)充電速度更快的電池

    近日,寧德時(shí)代董事長(zhǎng)曾毓群在接受采訪時(shí)透露,寧德時(shí)代正在與特斯拉合作研發(fā)充電速度更快的電池。
    的頭像 發(fā)表于 03-29 10:00 ?499次閱讀

    解鎖AI時(shí)代的利器——訊飛AI鼠標(biāo)AM30助你在AI時(shí)代脫穎

    解鎖AI時(shí)代的利器——訊飛AI鼠標(biāo)AM30助你在AI時(shí)代脫穎而出 隨著AI
    的頭像 發(fā)表于 03-25 13:37 ?570次閱讀
    解鎖<b class='flag-5'>AI</b><b class='flag-5'>時(shí)代</b>的利器——訊飛<b class='flag-5'>AI</b>鼠標(biāo)AM30助你在<b class='flag-5'>AI</b><b class='flag-5'>時(shí)代</b>脫穎

    AI時(shí)代怎么樣不被淘汰?訊飛AI鼠標(biāo)助力你在AI時(shí)代成長(zhǎng)

    AI時(shí)代怎么樣不被淘汰?訊飛AI鼠標(biāo)助力你在AI時(shí)代成長(zhǎng) 隨著人工智能的發(fā)展,AI
    的頭像 發(fā)表于 03-23 11:41 ?708次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>時(shí)代</b>怎么樣不被淘汰?訊飛<b class='flag-5'>AI</b>鼠標(biāo)助力你在<b class='flag-5'>AI</b><b class='flag-5'>時(shí)代</b>成長(zhǎng)

    世界榮耀,做AI時(shí)代的海

    齊聚全球5大AI巨頭,榮耀要做AI時(shí)代的海
    的頭像 發(fā)表于 02-28 18:23 ?1162次閱讀
    世界榮耀,做<b class='flag-5'>AI</b><b class='flag-5'>時(shí)代</b>的海

    AI PC時(shí)代正在向我們走來(lái)

    AI無(wú)處不在,充滿未知和期待的AI PC時(shí)代正在向我們走來(lái),我們的生活和工作方式即將發(fā)生改變。
    的頭像 發(fā)表于 01-19 09:49 ?624次閱讀
    主站蜘蛛池模板: 黄页网站免费视频大全9| 亚洲 欧美 国产 综合 播放| 欧美AAAAAA级午夜福利视频| 欧美亚洲高清国产| 私人玩物黑丝| 一一本之道高清视频在线观看中文字幕 | 91精品免费久久久久久久久| 被公疯狂玩弄的漂亮人妻| 国产精品久久久久久52AVAV| 精品欧美小视频在线观看| 欧美成ee人免费视频| 天天影视色欲 影视| 正能量不良WWW免费窗口| 成年女人免费影院播放| 性欧美videofree中文字幕| 一本道无码字幕在线看| bl高h文合集| 成年女人免费影院播放| 国产主播福利一区二区| 美女伊人网| 午夜办公室在线观看高清电影| 野花韩国高清完整版在线观看5| 99国产精品偷窥熟女精品视频| 91精品国产色综合久久不| 国产51麻豆二区精品AV视频| 花蝴蝶hd免费| 青青草视频在线ac| 亚洲精品网址| 成人免费肉动漫无遮网站| 国产精品成人不卡在线观看| 久久综合电影| 午夜精品久久久久久久99蜜桃| 748亚洲大胆国模人体| 国产免费福利在线视频| 欧美黑人巨大xxxxx| 亚洲精品网址| 公交车被CAO到合不拢腿| 乱码午夜-极品国产内射| 无码一卡二卡三卡四卡| seyeye在清在线| 久久sese|