電子發燒友網報道(文/黃晶晶)AI推理助推了DeepSeek一體機的市場熱度,而AI PC對DeepSeek大模型的支持也將是廣大用戶采購AI PC的參考因素。不同配置的AI PC可支持DeepSeek-R1不同模型。相對來說,DeepSeek-R1 70B大模型或許是日常AI功能的頂格需求,它也是當前高性能AI PC的著力點之一。
AI PC跑大模型
DeepSeek-R1目前已經發布了1.5B/7B/8B/14B/32B/70B/671B共7類不同參數量的大模型版本。適配自然語言處理、內容生成創作等不同的場景需求和功能,相對應的也需要不同級別的硬件性能配置,參數越大所需的計算資源就越大。
根據京東給出的配置參考,個人消費者在日常生活和學習場景中,想要滿足文本生成基礎問題、基礎圖像處理等需求,可選擇1.5B/7B/8B這三類參數量的模型,通過個人筆記本、臺式機就能完成DeepSeek本地部署。
1.5B模型需要最低4G顯卡,可選GTX 1050及以上顯卡,CPU最低4核,內存最低8G。7B/8B模型則需要8G顯卡、CPU最低8核、內存最低16GB。
若要實現多語言處理、AI推理、智能數據分析、專業圖像處理等需求,可選擇DeepSeek-R1 14B/32B模型進行本地化部署,但其對硬件配置有更高要求。其中,14B模式需要16G顯卡、12核CPU和32G內存,至少是RTX4000Ada及以上顯卡。32B模式則需要24G顯卡、16核CPU和64G內存,可選A6000及以上顯卡并行計算。
對于大型企業、高端設計、科研和企業級應用,這類高性能需求場景可選擇70B模型,可完成深度學習、復雜數據分析和高級圖像處理等功能。目前,70B模型可選2個A100 80G顯卡或4個RTX4090顯卡并行,配備32核CPU和128G的內存。
實際上,70B模型進行本地部署已經足夠滿足日常需求,處理器和PC廠商正積極推進AI PC運行大模型的方案。
AMD AI Max+ 395
今年1月CES 2025上,AMD發布代號為“Strix Halo”的銳龍AI Max系列已經可以支持本地化運行700億參數版本的DeepSeek大語言模型(LLM),助力各類生成式AI的應用。
全新的銳龍AI Max系列處理器采用了 Zen 5 CPU 和 RDNA 3.5 GPU 架構,并運用先進的芯粒(chiplets)封裝技術。每個 Zen 5 CPU 核心位于獨立的 CCD 上,最高兩個 CCD 提供 16 個 Zen 5 核心,核顯(iGPU)最高擁有40個RDNA 3.5 計算單元。此外,該處理器還采用 LPDDR5x 內存標準,內存帶寬高達256GB/s,集成 50 TOPS“XDNA 2” NPU,為 Windows 11 AI+ PC 提供領先的 AI 性能,也為新一代AI PC帶來了革命性的突破,為游戲玩家、創作者和普通用戶提供了卓越的性能和強勁的動力。
在AI 性能方面,得益于銳龍AI Max+ 395配備了高達50 TOPS的XDNA 2架構NPU,在 LM Studio 中的 AI 性能比 NVIDIA GeForce RTX 4090 高出 2.2 倍,同時功耗降低了87%。同時得益于銳龍AI Max系列還支持高達128GB的統一內存,其中最高可將96GB用于圖形處理,這也使得搭載該處理器的系統能夠實現無縫、可靠的多任務處理,并支持運行700億參數的超大規模的AI模型,使得該處理器成為了全球首款運行700億參數模型的AI PC處理器。
ROG幻X 2025將首發搭載第三代 AMD AI+ PC 移動處理器——AMD 銳龍 AI Max+ 395。據稱,這是唯一本地流暢運行DeepSeek 70B模型的X86筆記本。全新ROG幻X 2025配備128GB 256bit LPDDR5X 8000MHz統一內存,支持最大96GB動態顯存分配,可實現CPU多任務與集顯圖形處理之間的靈活調用。結合CPU+GPU+NPU總算力可達126 TOPS,可以輕松本地部署AI大模型,流暢運行各類端側AI應用。
Apple M3 Ultra加持新款Mac Studio
前不久,蘋果公司正式推出了其性能最為強大的Mac產品即新款Mac Studio。據介紹,新款Mac Studio憑借其強大的中央處理器、先進的圖形架構、高帶寬的統一內存、極速的固態硬盤以及高效能的神經網絡引擎,能夠輕松應對各種繁重的任務挑戰。無論是進行復雜的數據處理、圖形渲染還是運行大型軟件,新款Mac Studio都能游刃有余。
新款Mac Studio提供了M4 Max和M3 Ultra兩種芯片版本供用戶選擇。其中,M4 Max型號的起售價為16499元,而搭載M3 Ultra芯片的型號起售價則為32999元。M3 Ultra版本的Mac Studio最低配備96GB的統一內存,最高選配512GB。此外,新款Mac Studio還支持最高達16TB的固態硬盤選配。
Mac Studio以強大的性能和滿血內存,其頂配版本可以直接在本地運行deepseek R1671B滿血版大模型。當然其價格高達108749元。
蘋果表示,M3 Ultra是迄今最強大的Apple芯片,由兩塊芯片強強合體,帶來雙倍的中央處理器、圖形處理器、神經網絡引擎和內存帶寬。性能表現突飛猛進,無論是處理龐大的數據集,還是同步進行動畫制作和 3D 場景渲染,各種極限任務都所向披靡。還有最高達 512GB 的統一內存,運行大語言模型 (LLM),僅憑內存就足夠。
小結:
AI PC支持百億級大模型,需要高性能CPU、GPU、NPU的支持,同時也需要大容量的存儲,而一些廠商也開始推進統一內存架構的使用。早前蘋果M系列芯片采用統一內存架構,例如,iMac搭載 M4芯片,M4 芯片配備了最多 10 核中央處理器,包括 4 顆性能核心和最多 6 顆能效核心。支持最多 32GB 統一內存,內存帶寬也提升至 120Gb/s。
而英特爾下一代 AI PC旗艦產品Lunar Lake 處理器也將內存封裝在芯片之中,這種設計可顯著提升數據傳輸速度和系統響應時間,有助于降低功耗,還能簡化主板布局。
PC終端跑70B大模型能夠讓用戶體驗更智能更豐富的AI功能,當然成本也是一大因素,一旦到達合適的性價比,支持大參數量的AI PC會成為優中之選。
AI PC跑大模型
DeepSeek-R1目前已經發布了1.5B/7B/8B/14B/32B/70B/671B共7類不同參數量的大模型版本。適配自然語言處理、內容生成創作等不同的場景需求和功能,相對應的也需要不同級別的硬件性能配置,參數越大所需的計算資源就越大。
根據京東給出的配置參考,個人消費者在日常生活和學習場景中,想要滿足文本生成基礎問題、基礎圖像處理等需求,可選擇1.5B/7B/8B這三類參數量的模型,通過個人筆記本、臺式機就能完成DeepSeek本地部署。
1.5B模型需要最低4G顯卡,可選GTX 1050及以上顯卡,CPU最低4核,內存最低8G。7B/8B模型則需要8G顯卡、CPU最低8核、內存最低16GB。
若要實現多語言處理、AI推理、智能數據分析、專業圖像處理等需求,可選擇DeepSeek-R1 14B/32B模型進行本地化部署,但其對硬件配置有更高要求。其中,14B模式需要16G顯卡、12核CPU和32G內存,至少是RTX4000Ada及以上顯卡。32B模式則需要24G顯卡、16核CPU和64G內存,可選A6000及以上顯卡并行計算。
對于大型企業、高端設計、科研和企業級應用,這類高性能需求場景可選擇70B模型,可完成深度學習、復雜數據分析和高級圖像處理等功能。目前,70B模型可選2個A100 80G顯卡或4個RTX4090顯卡并行,配備32核CPU和128G的內存。
實際上,70B模型進行本地部署已經足夠滿足日常需求,處理器和PC廠商正積極推進AI PC運行大模型的方案。
AMD AI Max+ 395
今年1月CES 2025上,AMD發布代號為“Strix Halo”的銳龍AI Max系列已經可以支持本地化運行700億參數版本的DeepSeek大語言模型(LLM),助力各類生成式AI的應用。
全新的銳龍AI Max系列處理器采用了 Zen 5 CPU 和 RDNA 3.5 GPU 架構,并運用先進的芯粒(chiplets)封裝技術。每個 Zen 5 CPU 核心位于獨立的 CCD 上,最高兩個 CCD 提供 16 個 Zen 5 核心,核顯(iGPU)最高擁有40個RDNA 3.5 計算單元。此外,該處理器還采用 LPDDR5x 內存標準,內存帶寬高達256GB/s,集成 50 TOPS“XDNA 2” NPU,為 Windows 11 AI+ PC 提供領先的 AI 性能,也為新一代AI PC帶來了革命性的突破,為游戲玩家、創作者和普通用戶提供了卓越的性能和強勁的動力。
在AI 性能方面,得益于銳龍AI Max+ 395配備了高達50 TOPS的XDNA 2架構NPU,在 LM Studio 中的 AI 性能比 NVIDIA GeForce RTX 4090 高出 2.2 倍,同時功耗降低了87%。同時得益于銳龍AI Max系列還支持高達128GB的統一內存,其中最高可將96GB用于圖形處理,這也使得搭載該處理器的系統能夠實現無縫、可靠的多任務處理,并支持運行700億參數的超大規模的AI模型,使得該處理器成為了全球首款運行700億參數模型的AI PC處理器。
ROG幻X 2025將首發搭載第三代 AMD AI+ PC 移動處理器——AMD 銳龍 AI Max+ 395。據稱,這是唯一本地流暢運行DeepSeek 70B模型的X86筆記本。全新ROG幻X 2025配備128GB 256bit LPDDR5X 8000MHz統一內存,支持最大96GB動態顯存分配,可實現CPU多任務與集顯圖形處理之間的靈活調用。結合CPU+GPU+NPU總算力可達126 TOPS,可以輕松本地部署AI大模型,流暢運行各類端側AI應用。
Apple M3 Ultra加持新款Mac Studio
前不久,蘋果公司正式推出了其性能最為強大的Mac產品即新款Mac Studio。據介紹,新款Mac Studio憑借其強大的中央處理器、先進的圖形架構、高帶寬的統一內存、極速的固態硬盤以及高效能的神經網絡引擎,能夠輕松應對各種繁重的任務挑戰。無論是進行復雜的數據處理、圖形渲染還是運行大型軟件,新款Mac Studio都能游刃有余。
新款Mac Studio提供了M4 Max和M3 Ultra兩種芯片版本供用戶選擇。其中,M4 Max型號的起售價為16499元,而搭載M3 Ultra芯片的型號起售價則為32999元。M3 Ultra版本的Mac Studio最低配備96GB的統一內存,最高選配512GB。此外,新款Mac Studio還支持最高達16TB的固態硬盤選配。
Mac Studio以強大的性能和滿血內存,其頂配版本可以直接在本地運行deepseek R1671B滿血版大模型。當然其價格高達108749元。
蘋果表示,M3 Ultra是迄今最強大的Apple芯片,由兩塊芯片強強合體,帶來雙倍的中央處理器、圖形處理器、神經網絡引擎和內存帶寬。性能表現突飛猛進,無論是處理龐大的數據集,還是同步進行動畫制作和 3D 場景渲染,各種極限任務都所向披靡。還有最高達 512GB 的統一內存,運行大語言模型 (LLM),僅憑內存就足夠。
小結:
AI PC支持百億級大模型,需要高性能CPU、GPU、NPU的支持,同時也需要大容量的存儲,而一些廠商也開始推進統一內存架構的使用。早前蘋果M系列芯片采用統一內存架構,例如,iMac搭載 M4芯片,M4 芯片配備了最多 10 核中央處理器,包括 4 顆性能核心和最多 6 顆能效核心。支持最多 32GB 統一內存,內存帶寬也提升至 120Gb/s。
而英特爾下一代 AI PC旗艦產品Lunar Lake 處理器也將內存封裝在芯片之中,這種設計可顯著提升數據傳輸速度和系統響應時間,有助于降低功耗,還能簡化主板布局。
PC終端跑70B大模型能夠讓用戶體驗更智能更豐富的AI功能,當然成本也是一大因素,一旦到達合適的性價比,支持大參數量的AI PC會成為優中之選。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
算力
+關注
關注
2文章
1151瀏覽量
15469 -
大模型
+關注
關注
2文章
3038瀏覽量
3847 -
AI PC
+關注
關注
0文章
135瀏覽量
414
發布評論請先 登錄
相關推薦
熱點推薦
157 TOPS 算力!AIO-OrinNX 主板助力邊緣 AI 應用
Firefly最新推出NVIDlAJetsonOrin主板,搭載JetsonOrin系列核心模組,算力最高可達157TOPS,支持大模型私有化部署,為邊緣

DeepSeek推動AI算力需求:800G光模塊的關鍵作用
隨著人工智能技術的飛速發展,AI算力需求正以前所未有的速度增長。DeepSeek等大模型的訓練與推理任務對算
發表于 03-25 12:00
兆芯全面部署DeepSeek R1大模型
近日,基于兆芯高性能通用處理器的PC終端、工作站以及服務器成功實現DeepSeek-R1-Distill模型(1.5B/7B/32B/
IBM在watsonx.ai平臺推出DeepSeek R1蒸餾模型
IBM近日宣布了一項重要更新,為其企業級AI開發平臺watsonx.ai引入了DeepSeek R1的Llama 3.1 8B和Llama 3.3 70b蒸餾版本。這一舉措旨在通過先進
國家超算互聯網平臺上線多款AI模型
模型均具備強大的推理能力。更令人振奮的是,平臺還計劃在不久的將來推出更大容量的32B和70B版本,以滿足用戶對更高性能AI模型的需求。 De
Meta重磅發布Llama 3.3 70B:開源AI模型的新里程碑
新的高度。 一,技術突破:開源智能的新高度 Llama 3.3 70B 模型的發布,標志著開源AI模型在智能水平上的一大飛躍。它不僅達到了之前只有 Llama 3.1 405

Meta推出Llama 3.3 70B,AI大模型競爭白熱化
的Llama 3.3 70B模型在性能上表現出色,與同行業的其他大模型相比毫不遜色。更重要的是,其在成本上展現出了更強的競爭力,使得更多的企業和開發者能夠負擔得起這一先進的技術。 這兩
英偉達發布AI模型 Llama-3.1-Nemotron-51B AI模型
速度比原70B大模型提升2.2倍,具備更準確和更高效的運算效率;能夠大幅降低運行成本。 ? ? ? 通過NAS技術微調;大幅降低了內存消耗、計算復雜性;Llama-3.1-Nemotron-51
安謀科技異構算力組合,破局生成式AI算力挑戰
,“此芯P1”不僅異構集成了Armv9 CPU核心與Arm Immortalis GPU,還搭載了安謀科技(中國)有限公司(以下簡稱“安謀科技”)“周易”NPU等自研業務產品。憑借高能效的異構算力資源、系統級的安全保障以及強大的
安謀科技異構算力賦能AI計算,此芯科技首款AI PC芯片發布
7月30日,此芯科技集團有限公司(以下簡稱“此芯科技”)AI PC戰略暨首款芯片發布會在上海舉行,正式推出了其首款專為AI PC打造的異構高能效芯片產品——“此芯P1”。作為國產新一代
發表于 07-31 14:36
?1269次閱讀

評論