週一,半導體巨頭英偉達發佈了新一代人工智慧(AI)晶片H200,旨在培訓和部署各種人工智慧模型。據息,基於英偉達的“Hopper”架構的H200也是該公司第一款使用HBM3e記憶體的晶片,這種記憶體速度更快,容量更大,因此更適合大語言模型。 英偉達表示,借助HBM3e,英偉達H200以每秒4.8TB的速度提供141GB的記憶體,與A100相比,容量幾乎是其兩倍,頻寬增加了2.4倍。H200預計將於2024年第二季度上市,將與AMD的MI300X GPU展開競爭。 英偉達稱,H200將與H100相容,這意味著已經在使用H100進行訓練的人工智慧公司,不需要改變他們的伺服器系統或軟體來適應H200。 英偉達副總裁伊恩·巴克稱:“為了訓練生成式人工智慧和高性能計算應用程式,必須使用高效能GPU。而有了H200,業界領先的人工智慧超級計算平臺可以更快地解決一些世界上最重要的挑戰。”
更多精彩內容,請登陸
財華香港網 (https://www.finet.hk/)
現代電視 (http://www.fintv.com)