omniture

Supermicro 采用新一代系統(tǒng)和機架架構(gòu)以擴大人工智能優(yōu)化產(chǎn)品組合

美超微電腦股份有限公司
2024-03-21 04:54 6168

- Supermicro 采用由全新 NVIDIA Blackwell 架構(gòu)解決方案組成的新一代系統(tǒng)和機架架構(gòu)以擴大人工智能優(yōu)化產(chǎn)品組合

適用于大規(guī)模 CSP  NSP 的強大節(jié)能解決方案將結(jié)合全方位下一代 NVIDIA GPU  CPU,以及 NVIDIA Quantum X800 平臺和 NVIDIA AI Enterprise 5.0

加利福尼亞州圣何塞2024年3月21日 /美通社/ -- 在 2024  NVIDIA GPU 大會上,人工智能、云、存儲和 5G/邊緣的整體 IT 解決方案提供商 Supermicro, Inc.(納斯達克股票代碼:SMCI宣布推出新的大規(guī)模生成式人工智能系統(tǒng),該系統(tǒng)采用 NVIDIA 的下一代數(shù)據(jù)中心產(chǎn)品,包括最新的 NVIDIA GB200 Grace? Blackwell Superchip、NVIDIA B200 Tensor Core 和 B100 Tensor Core GPU。Supermicro 正在優(yōu)化其目前的 NVIDIA HGX? H100/H200 8-GPU 系統(tǒng),以便支持 NVIDIA HGX? B100 8-GPU 和 B200,從而縮短交付時間。此外,Supermicro 還將通過 NVIDIA GB200(包括具有 72 個NVIDIA Blackwell GPU 的完整機架級解決方案的 NVIDIA GB200 NVL72)新產(chǎn)品,進一步加強其龐大的 NVIDIA MGX? 系統(tǒng)產(chǎn)品系列。Supermicro 還在其產(chǎn)品陣容中增加了新系統(tǒng),包括 4U NVIDIA HGX B200 8-GPU 液冷系統(tǒng)。


Supermicro 總裁兼首席執(zhí)行官梁見后表示:"我們專注于人工智能的構(gòu)建塊架構(gòu)和機架級整體 IT,有助于我們設(shè)計下一代系統(tǒng),以滿足基于 NVIDIA Blackwell 架構(gòu) GPU 的更高要求,例如采用 NVIDIA HGX B200 8-GPU 的新 4U 液冷系統(tǒng)以及 NVIDIA GB200 NVL72 的完全集成直達芯片液冷機架。這些新產(chǎn)品的開發(fā)乃基于 Supermicro 和 NVIDIA 久經(jīng)考驗的 HGX 和 MGX 系統(tǒng)架構(gòu),并針對 NVIDIA Blackwell GPU 的新功能進行了優(yōu)化。Supermicro 擁有將 1kW GPU 整合到各種風冷和液冷系統(tǒng)中的專業(yè)知識,以及每月 5,000 個機架的機架規(guī)模生產(chǎn)能力,我們預(yù)計將率先部署采用 NVIDIA Blackwell GPU 的全機架集群,并在市場上推出。"

Supermicro 直達芯片的液體冷卻技術(shù)將允許增加最新 GPU 的散熱設(shè)計功率 (TDP),并充分發(fā)揮 NVIDIA Blackwell GPU 的潛力。Supermicro 搭載 NVIDIA Blackwell 的 HGX 和 MGX 系統(tǒng)是未來人工智能基礎(chǔ)設(shè)施的構(gòu)建塊,將為數(shù)萬億參數(shù)的人工智能訓練和實時人工智能推理帶來突破性的性能。

一系列經(jīng)過 GPU 優(yōu)化的 Supermicro 系統(tǒng)將為 NVIDIA Blackwell B200 和 B100 Tensor Core GPU 做好準備,并針對最新的 NVIDIA AI Enterprise 軟件進行驗證,該軟件增加了對 NVIDIA NIM 推理微服務(wù)的支持。Supermicro 系統(tǒng)包括:

  • NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系統(tǒng)
  • 5U/4U PCIe GPU 系統(tǒng),多達 10 個 GPU
  • SuperBlade® 配備多達 20 個用于 8U 擴展柜的 B100 GPU,多達 10 個用于6U 擴展柜的B100 GPU
  • 2U Hyper 配備多達 3 個 B100 GPU
  • Supermicro 2U x86 MGX 系統(tǒng)配備多達 4 個 B100 GPU

在訓練大規(guī)模基礎(chǔ)人工智能模型方面,Supermicro 準備率先發(fā)布首次問世的 NVIDIA HGX B200 8-GPU 和 HGX B100 8-GPU 系統(tǒng)。這些系統(tǒng)采用 8 個 NVIDIA Blackwell GPU,通過第五代 NVIDIA® NVLink® 實現(xiàn) 1.8TB/s 的高速互連,性能是上一代的兩倍,總高帶寬內(nèi)存為 1.5TB,與一代 NVIDIA Hopper 架構(gòu)相比,GPT-Moe-1.8T 型號等 LLM 的訓練結(jié)果將快 3 倍。這些系統(tǒng)具有先進的網(wǎng)絡(luò)功能,可擴展到集群,支持 NVIDIA Quantum-2 InfiniBand 和 NVIDIA Spectrum-X 以太網(wǎng)選項,GPU 與 NIC 的比例為 1:1。

NVIDIA GPU 產(chǎn)品管理副總裁 Kaustubh Sanghani 表示:"Supermicro 將繼續(xù)向市場推出種類繁多的加速計算平臺服務(wù)器,這些服務(wù)器專為人工智能訓練和推理而調(diào)整,可以滿足當今市場的任何需求。我們將與 Supermicro 密切合作,為客戶提供最優(yōu)化的解決方案。"

對于要求最苛刻的 LLM 推理工作負載,Supermicro 發(fā)布了幾款采用 NVIDIA GB200 Grace Blackwell Superchip 構(gòu)建的新型 MGX 系統(tǒng),該系統(tǒng)將 NVIDIA Grace CPU 和兩個 NVIDIA Blackwell GPU 相結(jié)合。與 NVIDIA HGX H100 相比,Supermicro 配備了 GB200 系統(tǒng)的NVIDIA MGX 將為人工智能推理性能帶來巨大飛躍,速度高達 30 倍。Supermicro 和 NVIDIA 開發(fā)了采用 NVIDIA GB200 NVL72 的機架級解決方案,將 36 個 Grace CPU 和 72 個 Blackwell GPU 連接在一個機架中。所有 72 個 GPU 都與第五代 NVIDIA NVLink 互連,以實現(xiàn) 1.8TB/s 的 GPU 與 GPU 的通信。此外,對于推理工作負載,Supermicro 宣布推出 ARS-221GL-NHIR,這是一款基于 GH200 系列產(chǎn)品的 2U 服務(wù)器,它將通過 900Gb/s 的高速互連連接兩臺 GH200 服務(wù)器。歡迎前往 GPU 大會的Supermicro 展位了解更多信息。

Supermicro 系統(tǒng)還將支持即將推出的 NVIDIA Quantum-X800 InfiniBand 平臺,包括 NVIDIA Quantum-X800 QM3400 交換機和 SuperNIC800,以及由 NVIDIA Spectrum-X800 SN5600 交換機和 SuperNIC800 組成的 NVIDIA Spectrum-X800 以太網(wǎng)平臺。NVIDIA Quantum-X800 和 Spectrum-X800 針對 NVIDIA Blackwell 架構(gòu)進行了優(yōu)化,將為人工智能基礎(chǔ)設(shè)施提供最高水平的網(wǎng)絡(luò)性能。

有關(guān) Supermicro NVIDIA 解決方案的更多信息,請訪問 https://www.supermicro.com/en/accelerators/nvidia  

Supermicro 即將推出的采用 NVIDIA B200  GB200 的系統(tǒng)陣容包括:

  • Supermicro 的 NVIDIA HGX B200 8 GPU 風冷和液冷系統(tǒng),可實現(xiàn)最高的生成式人工智能訓練性能。該系統(tǒng)采用 8 個 NVIDIA Blackwell GPU,通過第五代 NVLink 連接,具有 1.5TB 高帶寬內(nèi)存(高達 60TB/s),可加快人工智能訓練工作負載。
  • Supermicro 最暢銷的人工智能訓練系統(tǒng),配備 NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系統(tǒng),將支持 NVIDIA 即將推出的HGX B100 8-GPU。
  • Supermicro 機架級解決方案,以 GB200 Superchip 系統(tǒng)作為服務(wù)器節(jié)點,每個節(jié)點 2 個 Grace CPU 和 4 個 NVIDIA Blackwell GPU。Supermicro 直達芯片的液體冷卻可最大限度地增加密度,72 個 GB200 192GB GPU(每個 GPU 1200W TDP)全部裝在單個 44U ORV3 機架中。

Supermicro 將參與 2024  GPU 大會

Supermicro 將于 3 月 18 日至 21 日在圣何塞會議中心舉行的 2024年 NVIDIA GPU 大會活動上展示用于人工智能的完整 GPU 系統(tǒng)產(chǎn)品組合。參觀 Supermicro 的 #1016 號展位,了解為各種人工智能應(yīng)用打造的解決方案,包括訓練生成式人工智能模型、人工智能推理和邊緣人工智能。Supermicro 還將展示兩種機架級解決方案,包括一個概念機架,其系統(tǒng)采用即將推出的 NVIDIA GB200,該機架具有 72 個與第五代 NVLink 互連的液冷 GPU。

將在 2024 年 GPU 大會上展出的 Supermicro 解決方案包括:

  • Supermicro 液冷人工智能訓練機架,采用 8 個 4U 8-GPU 系統(tǒng),配備 NVIDIA HGX H200 8-GPU
  • 帶有液冷式 MGX 系統(tǒng)節(jié)點的 Supermicro 概念 ORV3 機架,共涵蓋通過第五代 NVLink 連接的 72 個 NVIDIA GB200 超級芯片
  • Supermicro MGX 系統(tǒng),包括 1U 液冷的 NVIDIA GH200 Grace Hopper 超級芯片系統(tǒng)
  • 用于在邊緣提供 GPU 計算的 Supermicro 短深度 Hyper-E 系統(tǒng)
  • 用于高性能人工智能數(shù)據(jù)管道的 Supermicro Petascale 全閃存存儲系統(tǒng)

關(guān)于 Super Micro Computer, Inc.

Supermicro(納斯達克股票代碼:SMCI)是應(yīng)用優(yōu)化整體 IT 解決方案的全球領(lǐng)軍企業(yè)。Supermicro 成立于加州圣何塞并在該地運營,致力于為企業(yè)、云計算、人工智能和 5G 電信/邊緣 IT 基礎(chǔ)設(shè)施提供率先面市的創(chuàng)新。我們是服務(wù)器、人工智能、存儲、物聯(lián)網(wǎng)、交換機系統(tǒng)、軟件和支持服務(wù)的整體 IT 解決方案制造商。Supermicro 的主板、電源和機箱設(shè)計專業(yè)知識,更進一步推動了我們的研發(fā)和生產(chǎn),為我們的全球客戶提供了從云端到邊緣的下一代創(chuàng)新技術(shù)。我們的產(chǎn)品均在公司內(nèi)部(包括美國、亞洲和荷蘭)完成設(shè)計和制造,通過全球運營實現(xiàn)規(guī)模和效益,從而優(yōu)化總體擁有成本 (TCO),并能夠(通過綠色計算)減少對環(huán)境的影響。獲獎無數(shù)的 Server Building Block Solutions® 通過我們靈活可重復(fù)使用的構(gòu)建塊,為客戶提供了豐富的可選系統(tǒng)產(chǎn)品系列,用于優(yōu)化其確切的工作負載和應(yīng)用。這些構(gòu)建塊支持全系列外形規(guī)格、處理器、內(nèi)存、GPU、存儲、網(wǎng)絡(luò)、電源和冷卻解決方案(空調(diào)、自然空氣冷卻或液體冷卻)。

Supermicro、Server Building Block Solutions 和 We Keep IT Green 是 Supermicro Computer, Inc. 的商標和/或注冊商標。

所有其他品牌、名稱和商標均為其各自所有者所有。

SMCI-F

 

 

消息來源:美超微電腦股份有限公司
相關(guān)股票:
NASDAQ:SMCI
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection