色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

解決AIGC大模型對(duì)網(wǎng)絡(luò)的5大需求

芯啟源 ? 來(lái)源:芯啟源 ? 2024-03-22 16:40 ? 次閱讀

從Transformer問(wèn)世至2023年ChatGPT爆火到2024年Sora吸睛,人們逐漸意識(shí)到隨著模型參數(shù)規(guī)模增加,模型的效果越來(lái)越好,且兩者之間符合Scalinglaw規(guī)律,且當(dāng)模型的參數(shù)規(guī)模超過(guò)數(shù)百億后,AI大模型的語(yǔ)言理解能力、邏輯推理能力以及問(wèn)題分析能力迅速提升。同時(shí),隨著模型參數(shù)規(guī)模與性能提升后,AI大模型訓(xùn)練對(duì)于網(wǎng)絡(luò)的需求相比于傳統(tǒng)模型也隨之產(chǎn)生變化。

為滿足大規(guī)模訓(xùn)練集群高效的分布式計(jì)算,AI大模型訓(xùn)練流程中通常會(huì)包含數(shù)據(jù)并行、流水線并行及張量并行等多種并行計(jì)算模式,不同并行模式下均需要多個(gè)計(jì)算設(shè)備間進(jìn)行集合通信操作。另外,訓(xùn)練過(guò)程中通常采用同步模式,需多機(jī)多卡間完成集合通信操作后才可進(jìn)行訓(xùn)練的下一輪迭代或計(jì)算。

因此,在AI大模型的大規(guī)模訓(xùn)練集群中,如何設(shè)計(jì)高效的集群組網(wǎng)方案,滿足低時(shí)延、高吞吐的機(jī)間通信,從而降低多機(jī)多卡間數(shù)據(jù)同步的通信耗時(shí),提升GPU有效計(jì)算時(shí)間占比(GPU計(jì)算時(shí)間/整體訓(xùn)練時(shí)間),對(duì)于AI分布式訓(xùn)練集群的效率提升至關(guān)重要。以下將從規(guī)模、帶寬、時(shí)延、穩(wěn)定性及網(wǎng)絡(luò)部署角度分析AI大模型對(duì)于網(wǎng)絡(luò)的需求。

1

超大規(guī)模組網(wǎng)需求

AI 應(yīng)用計(jì)算量呈幾何級(jí)數(shù)增長(zhǎng),算法模型向巨量化發(fā)展,人工智能模型參數(shù)在過(guò)去十年增長(zhǎng)了十萬(wàn)倍,當(dāng)前AI超大模型的參數(shù)目前已經(jīng)達(dá)到了千億~萬(wàn)億的級(jí)別。訓(xùn)練這樣的模型,毫無(wú)疑問(wèn)需要超高算力。此外,超大模型對(duì)于顯存的需求也很高。以1T參數(shù)模型為例,使用16bit精度存儲(chǔ),首先需要消耗2TB的存儲(chǔ)空間。

除此之外,在訓(xùn)練過(guò)程中,前向計(jì)算產(chǎn)生的激活值、反向計(jì)算產(chǎn)生的梯度、參數(shù)更新需要的優(yōu)化器狀態(tài)等中間變量均需要存儲(chǔ),且中間變量在單次迭代中也會(huì)不斷增加。一個(gè)使用Adam優(yōu)化器的訓(xùn)練過(guò)程,峰值會(huì)產(chǎn)生7倍于模型參數(shù)量的中間變量。如此高的顯存消耗,意味著需要幾十上百個(gè)GPU才能完整存儲(chǔ)一個(gè)模型的訓(xùn)練過(guò)程。

可是,僅僅有了大量GPU,仍然無(wú)法訓(xùn)練出有效的大模型。合適的并行方式才是提升訓(xùn)練效率的關(guān)鍵。目前超大模型主要有三種并行方式:數(shù)據(jù)并行、流水線并行、張量并行。在千億~萬(wàn)億級(jí)別的大模型訓(xùn)練時(shí),以上三種并行都會(huì)存在。訓(xùn)練超大模型需要數(shù)千GPU組成的集群。表面上看,這和云數(shù)據(jù)中心當(dāng)前已經(jīng)達(dá)到數(shù)萬(wàn)服務(wù)器的互聯(lián)規(guī)模相比,還處于下風(fēng)。但實(shí)際上,幾千節(jié)點(diǎn)的GPU互聯(lián),比數(shù)萬(wàn)服務(wù)器的互聯(lián)更具有挑戰(zhàn),因?yàn)榫W(wǎng)絡(luò)能力和計(jì)算能力需要高度匹配

云數(shù)據(jù)中心使用CPU計(jì)算,網(wǎng)絡(luò)需求一般在10Gbps~100Gbps,并且使用傳統(tǒng)TCP/IP傳輸層協(xié)議。但AI超大模型訓(xùn)練使用GPU訓(xùn)練,算力比CPU高好幾個(gè)數(shù)量級(jí),互聯(lián)網(wǎng)絡(luò)需求在100Gbps~400Gbps,此外使用了RDMA協(xié)議來(lái)減少傳輸時(shí)延,提升網(wǎng)絡(luò)吞吐。

具體來(lái)說(shuō),數(shù)千GPU的高性能組網(wǎng),在網(wǎng)絡(luò)規(guī)模上有以下問(wèn)題需要考慮

·大規(guī)模RDMA網(wǎng)絡(luò)遇到的問(wèn)題,例如鏈路頭阻、PFC死鎖風(fēng)暴

·網(wǎng)絡(luò)性能優(yōu)化,包括更高效的擁塞控制、負(fù)載均衡技術(shù)

·網(wǎng)卡連接性能問(wèn)題,單主機(jī)受到硬件性能限制,如何構(gòu)建數(shù)千RDMA的QP連接

·網(wǎng)絡(luò)拓?fù)溥x擇,是傳統(tǒng)Fat Tree結(jié)構(gòu)更好,還是可以參考高性能計(jì)算的Torus,Dragonfly等組網(wǎng)

2

超高帶寬需求

在AI大模型訓(xùn)練場(chǎng)景下,機(jī)內(nèi)與機(jī)外的集合通信操作將產(chǎn)生大量的通信數(shù)據(jù)量。從機(jī)內(nèi)GPU通信角度看,以千億參數(shù)規(guī)模的AI模型為例,模型并行產(chǎn)生的AllReduce集合通信數(shù)據(jù)量將達(dá)到百GB級(jí)別,因此機(jī)內(nèi)GPU間的通信帶寬及方式對(duì)于流完成時(shí)間十分重要。服務(wù)器內(nèi)GPU應(yīng)支持高速互聯(lián)協(xié)議,且其進(jìn)一步避免了GPU通信過(guò)程中依靠CPU內(nèi)存緩存數(shù)據(jù)的多次拷貝操作。

從機(jī)間GPU通信角度看,流水線并行、數(shù)據(jù)并行及張量并行模式需要不同的通信操作,部分集合通信數(shù)據(jù)將達(dá)到百GB級(jí)別,且復(fù)雜的集合通信模式將在同一時(shí)刻產(chǎn)生多對(duì)一與一對(duì)多的通信。因此機(jī)間GPU的高速互聯(lián)對(duì)于網(wǎng)絡(luò)的單端口帶寬、節(jié)點(diǎn)間的可用鏈路數(shù)量及網(wǎng)絡(luò)總帶寬提出了高要求。另外,GPU與網(wǎng)卡間通常通過(guò)PCIe總線互聯(lián),PCIe總線的通信帶寬決定網(wǎng)卡單端口帶寬能否完全發(fā)揮。以PCIe3.0總線(16lane對(duì)應(yīng)單向16GB/秒帶寬)為例,當(dāng)機(jī)間通信配備200Gbps的單端口帶寬時(shí),機(jī)間的網(wǎng)絡(luò)性能將無(wú)法完全被使用。

3

超低時(shí)延及抖動(dòng)需求

在數(shù)據(jù)通信傳輸過(guò)程中產(chǎn)生的網(wǎng)絡(luò)時(shí)延由靜態(tài)時(shí)延和動(dòng)態(tài)時(shí)延兩個(gè)部分構(gòu)成。靜態(tài)時(shí)延包含數(shù)據(jù)串行時(shí)延、設(shè)備轉(zhuǎn)發(fā)時(shí)延和光電傳輸時(shí)延,靜態(tài)時(shí)延由轉(zhuǎn)發(fā)芯片的能力和傳輸?shù)木嚯x決定,當(dāng)網(wǎng)絡(luò)拓?fù)渑c通信數(shù)據(jù)量確定時(shí),此部分時(shí)延通常為固定值,而真正對(duì)網(wǎng)絡(luò)性能影響比較大的是動(dòng)態(tài)時(shí)延。動(dòng)態(tài)時(shí)延包含了交換機(jī)內(nèi)部排隊(duì)時(shí)延和丟包重傳時(shí)延,通常由網(wǎng)絡(luò)擁塞和丟包引起。

以1750億參數(shù)規(guī)模的GPT-3模型訓(xùn)練為例,從理論估算模型分析,當(dāng)動(dòng)態(tài)時(shí)延從10us提升至1000us時(shí),GPU有效計(jì)算時(shí)間占比將降低接近10%,當(dāng)網(wǎng)絡(luò)丟包率為千分之一時(shí),GPU 有效計(jì)算時(shí)間占比將下降13%,當(dāng)網(wǎng)絡(luò)丟包率達(dá)到1%時(shí),GPU有效計(jì)算時(shí)間占比將低于5%。如何降低計(jì)算通信時(shí)延、提升網(wǎng)絡(luò)吞吐是AI大模型智算中心能夠充分釋放算力的核心問(wèn)題。

除時(shí)延外,網(wǎng)絡(luò)變化因素引入的時(shí)延抖動(dòng)也對(duì)訓(xùn)練效率產(chǎn)生影響。訓(xùn)練過(guò)程中計(jì)算節(jié)點(diǎn)的集合通信過(guò)程一般可以拆解成多個(gè)節(jié)點(diǎn)間并行執(zhí)行P2P通信,例如N個(gè)節(jié)點(diǎn)間Ring AllReduce 集合通信包含2*(N-1)次的數(shù)據(jù)通信子流程,每個(gè)子流程中所有節(jié)點(diǎn)均完成P2P通信(并行執(zhí)行)才可結(jié)束這個(gè)子流程。當(dāng)網(wǎng)絡(luò)出現(xiàn)波動(dòng)時(shí),某兩個(gè)節(jié)點(diǎn)間的P2P的流完成時(shí)間(FCT)將明顯變長(zhǎng)。因網(wǎng)絡(luò)抖動(dòng)引入的P2P通信時(shí)間變化可理解為木桶效率的最弱一環(huán),將會(huì)導(dǎo)致其所屬的子流程的完成時(shí)間也隨之變長(zhǎng)。因此,網(wǎng)絡(luò)抖動(dòng)導(dǎo)致集合通信的效率變低,從而影響到AI大模型的訓(xùn)練效率。

4

超高穩(wěn)定性需求

Transformer 誕生以后,開(kāi)啟了大模型快速演進(jìn)的序章。過(guò)去5年時(shí)間,模型從61M,增長(zhǎng)到540B,翻了近1萬(wàn)倍!集群算力決定了AI模型訓(xùn)練速度的快慢,單塊V100訓(xùn)練GTP-3 需要335年,10000張V100的集群,集群系統(tǒng)完美線性擴(kuò)展需要12天左右時(shí)間。

網(wǎng)絡(luò)系統(tǒng)的可用性是作為基礎(chǔ)來(lái)決定整個(gè)集群的計(jì)算穩(wěn)定性。一方面,網(wǎng)絡(luò)故障域大,集群中一個(gè)網(wǎng)絡(luò)節(jié)點(diǎn)的故障可能會(huì)影響數(shù)十個(gè)甚至更多的計(jì)算節(jié)點(diǎn)的連通性,降低系統(tǒng)算力的完整性;另一方面,網(wǎng)絡(luò)性能波動(dòng)影響大,網(wǎng)絡(luò)作為集群共享資源相較于單個(gè)計(jì)算節(jié)點(diǎn)不容易被隔離,性能波動(dòng)會(huì)導(dǎo)致所有計(jì)算資源的利用率都受影響。因此在AI大模型訓(xùn)練任務(wù)周期中,維持網(wǎng)絡(luò)的穩(wěn)定高效是極其重要的目標(biāo),對(duì)網(wǎng)絡(luò)運(yùn)維帶來(lái)了新的挑戰(zhàn)。

在訓(xùn)練任務(wù)期間一旦發(fā)生故障,可能需要容錯(cuò)替換或者彈性擴(kuò)縮容的方式來(lái)處理故障節(jié)點(diǎn)。一旦參與計(jì)算的節(jié)點(diǎn)位置發(fā)生了變化,導(dǎo)致當(dāng)前的通信模式或許就不是最優(yōu)的,需要通過(guò)作業(yè)重新排布和調(diào)度,以此來(lái)提升整體訓(xùn)練的效率。另外,一些網(wǎng)絡(luò)故障(例如靜默丟包)的發(fā)生是不可被預(yù)期的,一旦發(fā)生不僅會(huì)導(dǎo)致集合通信效率降低,同時(shí)還會(huì)引發(fā)通信庫(kù)超時(shí),造成訓(xùn)練業(yè)務(wù)長(zhǎng)時(shí)間卡死,很大程度上影響訓(xùn)練效率。因此需要通過(guò)獲取細(xì)粒度的業(yè)務(wù)流吞吐、丟包等信息,可避障自愈的耗時(shí)控制在秒級(jí)別內(nèi)。

5

網(wǎng)絡(luò)自動(dòng)化部署需求

智能無(wú)損網(wǎng)絡(luò)的構(gòu)建往往基于RDMA協(xié)議及擁塞控制機(jī)制,但與之相伴隨的是一系列復(fù)雜多樣化的配置。其中任一個(gè)參數(shù)配置錯(cuò)誤都可能會(huì)影響到業(yè)務(wù)的性能,還有可能會(huì)引出些許不符合預(yù)期的問(wèn)題。據(jù)統(tǒng)計(jì),超過(guò)90%的高性能網(wǎng)絡(luò)故障是由配置錯(cuò)誤導(dǎo)致的問(wèn)題,出現(xiàn)這一問(wèn)題的主要原因是網(wǎng)卡配置參數(shù)多,其中參數(shù)量取決于架構(gòu)版本、業(yè)務(wù)類(lèi)型和網(wǎng)卡類(lèi)型。由于AI大模型訓(xùn)練中集群規(guī)模大,進(jìn)一步增大配置的復(fù)雜度。因此,高效或自動(dòng)化部署配置能夠有效的提升大模型集群系統(tǒng)的可靠性和效率。自動(dòng)化部署配置需要能夠做到多臺(tái)并行部署配置的能力,自動(dòng)選擇擁塞控制機(jī)制相關(guān)參數(shù)以及根據(jù)網(wǎng)卡類(lèi)型和業(yè)務(wù)類(lèi)型選擇相關(guān)配置。

同樣的,在復(fù)雜的架構(gòu)和配置條件下,在業(yè)務(wù)運(yùn)行過(guò)程中可快速準(zhǔn)確地故障定位,能夠有效保障整體業(yè)務(wù)效率。自動(dòng)化的故障檢測(cè)一方面可以快速定界問(wèn)題,精準(zhǔn)推送問(wèn)題至管理人員,另一方面可以減少問(wèn)題定位成本,快速定位問(wèn)題根因并給出解決方案。

芯啟源不但在各大開(kāi)源社區(qū)持續(xù)貢獻(xiàn),參與和引領(lǐng)行業(yè)發(fā)展,在國(guó)內(nèi)率先支持RDMA、GPU Direct等技術(shù),成為旁路CPU和主機(jī)內(nèi)存的最佳AI/HPC解決方案。每個(gè)GPU可配置一個(gè)DPU進(jìn)行高速互聯(lián),解決傳輸瓶頸。進(jìn)一步地,芯啟源下一代DPU采用Chiplet方式進(jìn)行GPU和DPU的互聯(lián)將帶來(lái)更高靈活性。

芯啟源DPU從芯片、硬件到軟件都實(shí)現(xiàn)了國(guó)產(chǎn)自主可控,并率先在國(guó)內(nèi)取得大量商業(yè)訂單,其中在一些運(yùn)營(yíng)商的省級(jí)規(guī)模部署場(chǎng)景實(shí)現(xiàn)了上線超兩年、且穩(wěn)定運(yùn)行無(wú)任何異常。從傳統(tǒng)業(yè)務(wù)場(chǎng)景到AI/HPC場(chǎng)景,芯啟源DPU均提供可靠穩(wěn)定的解決方案,幫助客戶(hù)實(shí)現(xiàn)業(yè)務(wù)平滑升級(jí)和AI/HPC等新業(yè)務(wù)的快速部署。

DPU是AIGC大模型算力網(wǎng)絡(luò)的關(guān)鍵設(shè)施,芯啟源作為國(guó)產(chǎn)DPU的領(lǐng)跑者,將持續(xù)推進(jìn)“人工智能+”行動(dòng),賦能中國(guó)千行百業(yè)的數(shù)智化革新,助力新質(zhì)生產(chǎn)力。

本文轉(zhuǎn)載自微信公眾號(hào)“牛逼的IT”,小編略作修改



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • PFC
    PFC
    +關(guān)注

    關(guān)注

    47

    文章

    969

    瀏覽量

    106037
  • 數(shù)據(jù)通信
    +關(guān)注

    關(guān)注

    2

    文章

    431

    瀏覽量

    33755
  • RDMA
    +關(guān)注

    關(guān)注

    0

    文章

    77

    瀏覽量

    8945
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    303

    瀏覽量

    5804
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    315

    瀏覽量

    305

原文標(biāo)題:芯啟源DPU | 解決AIGC大模型對(duì)網(wǎng)絡(luò)的5大需求

文章出處:【微信號(hào):corigine,微信公眾號(hào):芯啟源】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    多個(gè)因素以確保所選模型能夠滿足企業(yè)的具體需求和目標(biāo)。首先,企業(yè)需要明確自己的客服需求和目標(biāo)。例如,是否需要24小時(shí)在線客服服務(wù)?是否需要處理復(fù)雜問(wèn)題的能力?是否需要個(gè)性化服務(wù)?明確這些需求
    發(fā)表于 12-17 16:53

    AIGC系統(tǒng)中多個(gè)模型的切換調(diào)用方案探索

    作者:京東科技 賈玉龍 1 背景 1.1 現(xiàn)狀 AIGC系統(tǒng)中多個(gè)模型的切換調(diào)用通常指的是在同一個(gè)AIGC系統(tǒng)或應(yīng)用中,可以根據(jù)不同的輸入條件或任務(wù)需求,動(dòng)態(tài)地選擇并調(diào)用不同的機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 11-27 11:43 ?166次閱讀
    <b class='flag-5'>AIGC</b>系統(tǒng)中多個(gè)<b class='flag-5'>模型</b>的切換調(diào)用方案探索

    AIGC與傳統(tǒng)內(nèi)容生成的區(qū)別 AIGC的優(yōu)勢(shì)和挑戰(zhàn)

    AIGC(Artificial Intelligence Generated Content,生成內(nèi)容)與傳統(tǒng)內(nèi)容生成在多個(gè)方面存在顯著區(qū)別,同時(shí)AIGC也展現(xiàn)出其獨(dú)特的優(yōu)勢(shì)和面臨的挑戰(zhàn)。 一
    的頭像 發(fā)表于 11-22 16:04 ?247次閱讀

    AIGC是什么及其應(yīng)用 AIGC的定義和工作原理

    的發(fā)展得益于深度學(xué)習(xí)的進(jìn)步,特別是神經(jīng)網(wǎng)絡(luò)模型,如生成對(duì)抗網(wǎng)絡(luò)(GANs)、變分自編碼器(VAEs)和自回歸模型等。 AIGC的工作原理
    的頭像 發(fā)表于 11-22 16:00 ?449次閱讀

    云知聲榮登2024全球AIGC先鋒者系列榜單

    近日,由PEC China、至頂科技、軟積木主辦的“2024 AI創(chuàng)新者大會(huì)暨PEC提示工程峰會(huì)”在北京舉行,會(huì)上發(fā)布“2024全球AIGC先鋒者系列榜單”,云知聲入選“2024全球AIGC先鋒50強(qiáng)”“2024全球AIGC
    的頭像 發(fā)表于 11-21 14:14 ?225次閱讀

    云知聲入選創(chuàng)業(yè)邦《2024 AIGC創(chuàng)新應(yīng)用洞察報(bào)告》

    近日,創(chuàng)業(yè)邦研究中心發(fā)布《2024 AIGC 創(chuàng)新應(yīng)用洞察報(bào)告》,分析AIGC行業(yè)發(fā)展趨勢(shì),洞察產(chǎn)業(yè)創(chuàng)新機(jī)會(huì)。云知聲成功入選《報(bào)告》,并憑借在大模型領(lǐng)域的持續(xù)深耕與實(shí)踐成為AIGC應(yīng)用
    的頭像 發(fā)表于 10-25 16:38 ?416次閱讀

    如何評(píng)估AIGC內(nèi)容的質(zhì)量和效果

    : 準(zhǔn)確性 : 事實(shí)核查 :確保AIGC生成的內(nèi)容與已知的事實(shí)和數(shù)據(jù)相符。 引用來(lái)源 :檢查內(nèi)容是否引用了可靠的來(lái)源,并且這些引用是否正確無(wú)誤。 相關(guān)性 : 目標(biāo)受眾分析 :評(píng)估內(nèi)容是否符合目標(biāo)受眾的興趣和需求。 上下文適應(yīng)性 :內(nèi)容是否能夠
    的頭像 發(fā)表于 10-25 16:02 ?701次閱讀

    AIGC生成內(nèi)容的優(yōu)勢(shì)與挑戰(zhàn)

    人工智能生成內(nèi)容(AIGC,Artificial Intelligence Generated Content)是指利用人工智能技術(shù)自動(dòng)生成文本、圖像、音頻和視頻等內(nèi)容的過(guò)程。隨著深度學(xué)習(xí)、自然語(yǔ)言
    的頭像 發(fā)表于 10-25 15:36 ?462次閱讀

    模型時(shí)代的算力需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭(zhēng)相部署大模型,但如何保證大模型的算力,以及相關(guān)的穩(wěn)定性和性能,是一個(gè)極為重要的問(wèn)題,帶著這個(gè)極為重要的問(wèn)題,我需要在此書(shū)中找到答案。
    發(fā)表于 08-20 09:04

    aigc和chatGPT區(qū)別和聯(lián)系

    AIGC(Artificial Intelligence Generated Content)和ChatGPT(Chat Generative Pre-trained Transformer)是兩個(gè)
    的頭像 發(fā)表于 07-04 09:53 ?952次閱讀

    AIGC是什么?對(duì)藝術(shù)設(shè)計(jì)學(xué)、視覺(jué)傳達(dá)設(shè)計(jì)、數(shù)字媒體藝術(shù)等專(zhuān)業(yè)的影響

    的方方面面。AIGC通過(guò)利用先進(jìn)的算法和模型,能夠自動(dòng)生成各種形式的內(nèi)容,如圖像、文本、音頻和視頻等,極大地豐富了內(nèi)容的創(chuàng)作和呈現(xiàn)方式。對(duì)于藝術(shù)設(shè)計(jì)學(xué)、視覺(jué)傳達(dá)設(shè)計(jì)、數(shù)字媒體藝術(shù)等專(zhuān)業(yè)而言,AIGC的崛起無(wú)疑帶來(lái)了深遠(yuǎn)的影響。
    的頭像 發(fā)表于 06-24 13:40 ?873次閱讀

    基于 Serverless 技術(shù)的 AIGC 應(yīng)用探究

    隨著人工智能與圖形計(jì)算的融合,AIGC(Artificial Intelligence and Graphics Computing)技術(shù)的發(fā)展已經(jīng)成為當(dāng)今科技領(lǐng)域的熱點(diǎn)之一。AIGC 技術(shù)的發(fā)展
    的頭像 發(fā)表于 05-10 00:29 ?1140次閱讀
    基于 Serverless 技術(shù)的 <b class='flag-5'>AIGC</b> 應(yīng)用探究

    AIGC模型對(duì)網(wǎng)絡(luò)的五大核心需求解析

    AI 應(yīng)用計(jì)算量呈幾何級(jí)數(shù)增長(zhǎng),算法模型向巨量化發(fā)展,人工智能模型參數(shù)在過(guò)去十年增長(zhǎng)了十萬(wàn)倍,當(dāng)前AI超大模型的參數(shù)目前已經(jīng)達(dá)到了千億~萬(wàn)億的級(jí)別。
    發(fā)表于 03-29 12:36 ?1079次閱讀

    有哪些能運(yùn)行AIGC模型的板卡

    需要做一個(gè)集成大模型運(yùn)算的項(xiàng)目,目前有哪些板卡能支持運(yùn)行大模型?需要能運(yùn)行文生圖的模型
    發(fā)表于 01-09 17:32

    研揚(yáng)科技ARES-240AI/ARES-241AI,開(kāi)啟AIGC部署新時(shí)代

    。然而AIGC的用途遠(yuǎn)非如此簡(jiǎn)單,隨著AIGC通過(guò)海量數(shù)據(jù)訓(xùn)練的大規(guī)模神經(jīng)網(wǎng)絡(luò)模型(大模型)的模型
    的頭像 發(fā)表于 12-30 08:05 ?731次閱讀
    研揚(yáng)科技ARES-240AI/ARES-241AI,開(kāi)啟<b class='flag-5'>AIGC</b>部署新時(shí)代
    主站蜘蛛池模板: 高清bblxx手机在线观看| 一本色道久久综合亚洲精品蜜桃冫| 国产精品AV色欲蜜臀在线| 无毒成人社区| 黄A无码片内射无码视频| 一个人的HD高清在线观看| 狼人无码伊人AV啪啪| ae58老司机福利| 色欲AV精品人妻一区二区三区| 国产免费看片| 伊人久久综合影院首页| 免费毛片网站在线观看| 成人在线观看免费视频| 性色欲情网站IWWW| 久久精品国产亚洲AV热无遮挡| 99re热精品视频国产免费| 入禽太深免费观看| 狠狠色色综合网站| 91黄色大片| 色欲国产麻豆精品AV免费| 国拍自产精品福利区| 2019夜夜| 帅哥男男GV在线1080P| 精品久久日日躁夜夜躁AV| 99re这里只有精品视频| 手机在线观看你懂的| 久草在线在线精品观看99| china野外18:19| 午夜免费国产体验区免费的| 久久久久久久久女黄9999| 被窝伦理电影午夜| 亚洲乱色视频在线观看| 暖暖视频在线观看高清...| 国产福利视频第一导航| 月夜直播免费观看全集| 日韩专区亚洲国产精品| 接吻吃胸摸下面啪啪教程| av免费网站不卡观看| 亚洲成人一区| 欧美白人极品性喷潮| 国产午夜人做人免费视频中文|