周一,半导体巨头英伟达发布了新一代人工智慧(AI)晶片H200,旨在培训和部署各种人工智慧模型。据息,基於英伟达的“Hopper”架构的H200也是该公司第一款使用HBM3e记忆体的晶片,这种记忆体速度更快,容量更大,因此更适合大语言模型。 英伟达表示,借助HBM3e,英伟达H200以每秒4.8TB的速度提供141GB的记忆体,与A100相比,容量几乎是其两倍,频宽增加了2.4倍。H200预计将於2024年第二季度上市,将与AMD的MI300X GPU展开竞争。 英伟达称,H200将与H100相容,这意味着已经在使用H100进行训练的人工智慧公司,不需要改变他们的伺服器系统或软体来适应H200。 英伟达副总裁伊恩·巴克称:“为了训练生成式人工智慧和高性能计算应用程式,必须使用高效能GPU。而有了H200,业界领先的人工智慧超级计算平台可以更快地解决一些世界上最重要的挑战。”
更多精彩內容,請登陸
財華香港網 (https://www.finet.hk/)
現代電視 (http://www.fintv.com)