電子發燒友網報道(文/周凱揚)在近期舉辦的Re:Invent大會上,亞馬遜為其AWS云服務公布了上線全新的EC2實例,分別是C7gn、HPC7g和R7iz。R7iz用到了英特爾最新的第四代Xeon Scalable處理器Sapphire Rapids,而HPC7g則是由新處理器Graviton3E來驅動的。與此同時,AWS還在本次會議上公布了第五代Nitro芯片Nitro v5和第二代推理芯片AWS Inferentia 2,其中Graviton3E和Nitro v5都是基于Arm架構打造的。
性能更上一層樓的Graviton3E
在HPC領域,Arm的出鏡率還是比較低的,除了像富岳超算這樣的頂級存在外,我們很少看到云服務廠商基于Arm芯片來打造HPC計算集群,Graviton的出現可謂改變了這一點。AWS在2020年推出的C6gn實例,就是基于其Graviton2處理器打造的,相較基于第二代AMD EPYC處理器的C5實例,C6gn做到了成本低上20%,性能卻高上40%的表現。
Graviton3E在不同負載下的性能提升 / 亞馬遜
根據亞馬遜給出的數據,Graviton3E在Graviton3的基礎上再加改良,以測試浮點性能的基準HPL為例,Graviton3E將矢量指令處理性能再度提高了35%。而HPC7g實例相比基于Graviton2的C6gn實例,更是將浮點性能拔高至兩倍,比基于第3代AMD EPYC 7003系列48核處理器的HPC6a實例,性能上也能高出20%,可以說是AWS上性價比最高的HPC實例了。
如今的亞馬遜已經有了100多個不同的Graviton實例,供使用者靈活選擇。而且讓Graviton充分發揮作用的不僅是AWS EC2這樣的彈性計算云服務,還有Fargate這樣無需管理實例的服務,也獲得了不小的性能提升。
然而對于大部分云服務廠商來說,他們首推的實例很多依然是基于x86的,這不禁讓人深思,真的會有大型公司選擇了Arm服務器芯片嗎?亞馬遜給出了肯定的答案,也介紹了Graviton極快的普及速度。
從亞馬遜給出的合作伙伴中,我們可以看到大宇無限、Epic、Lyft、Zoom等公司,都選了圍繞Graviton芯片來構造他們的產品服務。比如美國電視串流服務DirectTV在使用Graviton 3的實例后,成本減少了20%的同時,延遲也有了最高50%的降低,使得他們能在訪問流量變化巨大的同時靈活擴展容量,還能保證性能不受影響。
加劇DPU和AI芯片內卷的Nitro和Inferentia
對于多數超大規模數據中心和云服務廠商來說,他們的DPU往往來自第三方,比如英偉達的BlueField、AMD的Pensando等,而亞馬遜旗下的Annapurna Labs,則成了AWS DPU產品的Nitro的幕后功臣。
Nitro v5芯片 / 亞馬遜
而這次Annapurna Labs設計的Nitro v5在性能上再度實現了飛躍,亞馬遜展示的數據上提到,Nitro v5相較上一代集成了兩倍的晶體管數目,在算力上提升近兩倍,擁有快上50%的DRAM速度,PCIe帶寬也提升至兩倍。由此可以看出,Nitro v5應該選擇了更先進的工藝,DRAM和PCIe也換成了最新一代。
在實際測試中,Nitro v5可以提高最多60%的吞吐量,降低30%的延遲,在能效比上也有了40%的提升。正是因為有著這樣強大的性能,AWS選擇了將其集成到C7gn、HPC7g實例中去,與Graviton3和Graviton3E一起實現200Gbps的超高網絡性能。
大型語言模型的出現推動深度學習進入了下一個階段,但龐大的參數量加大了推理所需的算力和成本。2019年,AWS的Inferentia芯片第一代出現在Inf1實例上,為用戶提供了性價比優于GPU實例的選項,但彼時的深度學習模型還大多數停留在數百萬個,如今某些深度學習模型的參數已經超過了數百億,比如百度的PLATO-XL對話生成模型、亞馬遜的AlexaTM等。
為此,Annapurna Labs拿出了全新的Inferentia2芯片,最高可支持到1750億參數的大型深度學習模型?;贗nferentia2芯片的Inf2實例也首次支持到分布式推理,將大型模型分布到多個芯片上進行推理。與上一代Inf1實例相比,Inf2可以提供高達4倍的吞吐量和10分之一的延遲,與GPU實例相比更是將能效提高了50%之多。
小結
這樣頻繁的芯片發布節奏,足以看出亞馬遜在自研服務器芯片上已經到了一個新的高度。不得不承認,亞馬遜早在2016年就收購Annapurna Labs是一個多么具有前瞻性的戰略決策,在云服務廠商競爭愈演愈烈的當下,擁有自研可控的服務器芯片無疑是殺手锏。雖然谷歌、阿里巴巴等廠商也都加入到了自研服務器芯片的行列中來,但與亞馬遜的AWS相比,在產品陣容和布局時間上還是有所差距。
性能更上一層樓的Graviton3E
在HPC領域,Arm的出鏡率還是比較低的,除了像富岳超算這樣的頂級存在外,我們很少看到云服務廠商基于Arm芯片來打造HPC計算集群,Graviton的出現可謂改變了這一點。AWS在2020年推出的C6gn實例,就是基于其Graviton2處理器打造的,相較基于第二代AMD EPYC處理器的C5實例,C6gn做到了成本低上20%,性能卻高上40%的表現。
Graviton3E在不同負載下的性能提升 / 亞馬遜
根據亞馬遜給出的數據,Graviton3E在Graviton3的基礎上再加改良,以測試浮點性能的基準HPL為例,Graviton3E將矢量指令處理性能再度提高了35%。而HPC7g實例相比基于Graviton2的C6gn實例,更是將浮點性能拔高至兩倍,比基于第3代AMD EPYC 7003系列48核處理器的HPC6a實例,性能上也能高出20%,可以說是AWS上性價比最高的HPC實例了。
如今的亞馬遜已經有了100多個不同的Graviton實例,供使用者靈活選擇。而且讓Graviton充分發揮作用的不僅是AWS EC2這樣的彈性計算云服務,還有Fargate這樣無需管理實例的服務,也獲得了不小的性能提升。
然而對于大部分云服務廠商來說,他們首推的實例很多依然是基于x86的,這不禁讓人深思,真的會有大型公司選擇了Arm服務器芯片嗎?亞馬遜給出了肯定的答案,也介紹了Graviton極快的普及速度。
從亞馬遜給出的合作伙伴中,我們可以看到大宇無限、Epic、Lyft、Zoom等公司,都選了圍繞Graviton芯片來構造他們的產品服務。比如美國電視串流服務DirectTV在使用Graviton 3的實例后,成本減少了20%的同時,延遲也有了最高50%的降低,使得他們能在訪問流量變化巨大的同時靈活擴展容量,還能保證性能不受影響。
加劇DPU和AI芯片內卷的Nitro和Inferentia
對于多數超大規模數據中心和云服務廠商來說,他們的DPU往往來自第三方,比如英偉達的BlueField、AMD的Pensando等,而亞馬遜旗下的Annapurna Labs,則成了AWS DPU產品的Nitro的幕后功臣。
Nitro v5芯片 / 亞馬遜
而這次Annapurna Labs設計的Nitro v5在性能上再度實現了飛躍,亞馬遜展示的數據上提到,Nitro v5相較上一代集成了兩倍的晶體管數目,在算力上提升近兩倍,擁有快上50%的DRAM速度,PCIe帶寬也提升至兩倍。由此可以看出,Nitro v5應該選擇了更先進的工藝,DRAM和PCIe也換成了最新一代。
在實際測試中,Nitro v5可以提高最多60%的吞吐量,降低30%的延遲,在能效比上也有了40%的提升。正是因為有著這樣強大的性能,AWS選擇了將其集成到C7gn、HPC7g實例中去,與Graviton3和Graviton3E一起實現200Gbps的超高網絡性能。
大型語言模型的出現推動深度學習進入了下一個階段,但龐大的參數量加大了推理所需的算力和成本。2019年,AWS的Inferentia芯片第一代出現在Inf1實例上,為用戶提供了性價比優于GPU實例的選項,但彼時的深度學習模型還大多數停留在數百萬個,如今某些深度學習模型的參數已經超過了數百億,比如百度的PLATO-XL對話生成模型、亞馬遜的AlexaTM等。
為此,Annapurna Labs拿出了全新的Inferentia2芯片,最高可支持到1750億參數的大型深度學習模型?;贗nferentia2芯片的Inf2實例也首次支持到分布式推理,將大型模型分布到多個芯片上進行推理。與上一代Inf1實例相比,Inf2可以提供高達4倍的吞吐量和10分之一的延遲,與GPU實例相比更是將能效提高了50%之多。
小結
這樣頻繁的芯片發布節奏,足以看出亞馬遜在自研服務器芯片上已經到了一個新的高度。不得不承認,亞馬遜早在2016年就收購Annapurna Labs是一個多么具有前瞻性的戰略決策,在云服務廠商競爭愈演愈烈的當下,擁有自研可控的服務器芯片無疑是殺手锏。雖然谷歌、阿里巴巴等廠商也都加入到了自研服務器芯片的行列中來,但與亞馬遜的AWS相比,在產品陣容和布局時間上還是有所差距。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
亞馬遜
+關注
關注
8文章
2669瀏覽量
83433
發布評論請先 登錄
相關推薦
蘋果自研AI芯片,或終結與英偉達多年合作
的實現提供支持,但雙方的合作并不涉及直接的芯片購買。蘋果選擇從亞馬遜和微軟等云服務提供商處租用訪問權限,以獲取所需的技術支持。然而,這一合作模式可能即將迎來重大變革。 據最新報道,蘋果正與博通攜手設計自家的AI
亞馬遜啟動“登月”計劃,目標部署10萬顆自研AI芯片
:Trainium2,目標是在亞馬遜自己的數據中心里部署10萬顆Trainium2,以提高數據處理效率并降低AI芯片采購成本。 ? 近幾年,亞馬遜一直都在致力于自
比亞迪最快于11月實現自研算法量產,推進智駕芯片自研進程
10月21日市場傳出消息,比亞迪正計劃整合其新技術院下的自研智能駕駛團隊,目標是在今年11月實現自研智能駕駛算法的量產,并持續推進智能駕駛芯片
獨立服務器與云服務器的區別
隨著互聯網技術的飛速發展,企業對于服務器的需求日益增加,而服務器市場也隨之出現了多種類型的產品,其中最常見的是獨立服務器和云服務器。這兩種服務器
亞馬遜AWS自研AI芯片崛起,挑戰英偉達
近期,據路透社獨家報道披露,在德克薩斯州奧斯汀市一處緊密防守的芯片實驗室中,六位來自亞馬遜AWS的工程師正在對一種尚未公開透露名稱及詳細參數的新型服務器展開深入測試。這一關鍵事件引人注
亞馬遜正測試一款融入AI芯片的新型服務器設計
在得克薩斯州奧斯汀的秘密芯片實驗室中,亞馬遜正緊鑼密鼓地測試一款高度保密的新型服務器設計,該設計融入了亞馬遜自主研發的AI芯片,旨在與業界巨
云服務器和虛擬服務器的區別是什么
云服務器和虛擬服務器是兩種常見的服務器類型,它們在很多方面有相似之處,但也有一些關鍵的區別。本文將詳細介紹云服務器和虛擬服務器的區別,包括它
蘋果計劃搭建自研芯片驅動的AI數據中心
據內部人士透露,蘋果已將自研芯片應用于云計算服務器,用以支持其設備未來的高級AI服務。目前我們尚未收到蘋果方面對此事的回應。
高通自研服務器芯片"SD1"揭曉,核心搭載Oryon
據國外科技媒體Android Authority透露,高通公司在公布驍龍X Elite / Plus芯片之后,內部正在研發代號為“SD1”、內置Oryon處理器的服務器芯片。
蘋果自研AI服務器芯片,預計2025年臺積電3nm工藝
4 月 24 日,知名數碼博主@手機晶片達人發布動態,爆料蘋果正研發自家 AI 服務器芯片,預計 2025 年下半年量產,采用臺積電 3nm 制程。
服務器遠程不上服務器怎么辦?服務器無法遠程的原因是什么?
產生問題的原因,檢查硬盤和服務器系統。通過日志和檢查數據來確認問題出
現的原因以及如何解決。
三、端口問題
1.端口錯誤
找回正確的端口或更換遠程端口
2.端口被掃爆
更改端口,并在防火墻禁止掃爆的IP
發表于 02-27 16:21
linux服務器和windows服務器
Linux服務器和Windows服務器是目前應用最廣泛的兩種服務器操作系統。兩者各有優劣,也適用于不同的應用場景。本文將
對Linux服務器和Windows
發表于 02-22 15:46
微軟正在研發新型網卡,旨在提升自研AI芯片性能
微軟近日被曝正在秘密研發一款高性能的新型網卡,這一創新旨在增強其自研的Maia AI服務器芯片的功能,并可能大幅度降低對外部芯片設計廠商如英
評論