英伟达AI芯片H200开始供货
据外媒3月28日报道,英伟达的尖端图像处理半导体(GPU)H200现已开始供货。H200为面向AI领域的半导体,性能超过当前主打的H100。根据英伟达方面公布的性能评测结果,以Meta公司旗下大语言模型Llama2处理速度为例,H200相比于H100,生成式AI导出答案的处理速度最高提高了45%。此前英伟达表示,2024年第二季度推出H200。
英伟达H200于去年11月发布,其为基于英伟达的“Hopper”架构的HGXH200GPU,是H100GPU的继任者,也是该公司第一款使用HBM3e内存的芯片,这种内存速度更快,容量更大,因此更适合大型语言模型。英伟达3月18日在开发者大会上宣布,年内将推出新一代AI半导体“B200”,B200和CPU组合的新产品用于最新的LLM上,推理大语言模型性能比H100提升30 倍,成本和能耗降至25分之一。H200作为H100下一代产品,内存性能大幅提升,H200升级主要在HBM3e,单芯片HBM容量提升有望进一步提升HBM需求,随AI应用对算力硬件产品需求不断提升,英伟达供应链有望受益。
声明:本网站部分内容来源于网络,版权归原权利人所有,其观点不代表本网站立场;本网站视频或图片制作权归当前商户及其作者,涉及未经授权的制作均须标记“样稿”。如内容侵犯了您相关权利,请及时通过邮箱service@ichub.com与我们联系。
验证