主導人工智慧(AI)運算的NVIDIA,再度從軟、硬體兩端拓展產業佈局,建構其「Full Stack」運算生態。
時隔近兩年,晶片設計廠商NVIDIA於美國時間3月22日發布全新Hopper架構GPU(圖形處理器)H100,其主要用於數據中心,現已投入生產,將於第三季上市。
H100由台積電代工,採用4奈米製程,內含800億個電晶體。NVIDIA稱,新架構GPU的亮點在於搭載名為「Transfomer Engine」的AI運算核心,可大幅加速AI運算性能;安全性方面,通過機密運算功能,可保護企業AI模型和客戶數據。
借助NVLink網路連接技術,可達到近5TB每秒的外部數據傳輸速度,進一步加速數據處理。
此次NVIDIA更新GPU,為競爭對手再次立下標竿。
在半精度、單精度、雙精度浮點等人工智慧常用運算模型上,性能可達前代產品A100的3倍,而在FP8 Tensor Core技術上,性能甚至可達A100的6倍。不過,H100的最大設計功耗也達到了700瓦。
NVIDIA稱,中國的阿里雲、騰訊雲、百度智能雲和海外的亞馬遜雲端科技(AWS)、微軟Azure、谷歌雲端等雲端服務商,都計劃提供基於H100的服務和雲端實例。
而將為H100製造伺服器的廠商包括思科、戴爾、浪潮、聯想、新華三等。NVIDIA還為H100配置多種規格,滿足多種頻寬、接口標準。
基於NVIDIA在網路互聯技術的投資,H100的數據處理能力有了大幅提高。「20個H100 GPU便可承載相當於全球互聯網的流量,使其能夠幫助客戶推出先進的推薦系統以及即時運行數據推理大型語言模型。」NVIDIA CEO黃仁勳稱。
GPU以外,NVIDIA也對其自研CPU(中央處理器)產品進展進行重點介紹,黃仁勳稱其為Grace超級晶片,是NVIDIA首款高性能運算用途CPU。
Grace CPU採用Arm v9架構,內含144個Arm核心,提供最高的單線程核心效能,支持Arm新一代的向量擴充指令集。
在伺服器上,Grace CPU還可搭配NVIDIA DPU、GPU、智慧網卡等產品,構成整體解決方案。
至此,基於CPU、GPU兩大新品,NVIDIA在數據中心的運算架構得以完整呈現。目前,在伺服器CPU領域,市場仍為英特爾、AMD的x86新品所支配。
而黃仁勳表示,Grace CPU面向高性能運算細分市場,如科學計算、數據分析等。在雲端運算、企業級運算、邊緣運算、工作站、個人電腦領域仍以現有CPU為主。
發表會上,黃仁勳還提出基於Hopper架構GPU和Grace CPU的「AI工廠」構想,並稱為數據中心的變革方向:企業以工業化規模提高數據中心AI算力,持續提煉數據,進行訓練和完善AI模型,實現AI能力大規模輸出。
NVIDIA還宣布了其新超算系統Eos,該系統預計在今年晚些時候開始運行,比日本的「富岳」超級電腦還要快4倍,有望成為世界上最快的人工智慧超算系統。
面向數據中心市場,兩大老牌晶片廠商英特爾和AMD仍有望正面阻擊NVIDIA。2021年6月,英特爾成立加速運算系統與繪圖處理事業群(AXG),而在今年2月召開的投資者大會上,英特爾披露該事業群下三個子部門正按計劃出貨產品,涉及圖形運算、高性能運算與人工智慧運算產品,預計2022年度將為公司帶來超過10億美元的營收。
AMD方面,在2011年11月,AMD宣布其Instinct MI200系列加速卡和ROCm 5配套軟體上市,面向數據中心加速運算市場。
今年2月,AMD完成收購可程式邏輯器件生產商賽靈思(Xilinx),應對數據中心應用場景的運算任務已呈現更加多樣化趨勢。
本文為界面新聞授權刊登,原文標題為「時隔兩年英偉達再推新架構GPU,拓展數據中心戰場」