第A07版:科创 上一版 下一版  
下一篇

巩固霸主地位英伟达推出“超级芯片”

美东时间8月8日,英伟达升级产品,推出容量和速度双双大幅提升的超级芯片GH200 Grace,力求巩固AI芯片领域的霸主地位。

该平台依托于搭载全球首款HBM3e处理器的新型Grace Hopper超级芯片(下称GH200),专为加速计算和生成式AI时代而打造。

新平台旨在处理世界上最复杂的生成式AI工作负载,涵盖大型语言模型、推荐系统和矢量数据库,将提供多种配置。英伟达称,GH200将于2024年第二季度投产。

新平台内存容量提高3.5倍

新平台采用的GH200可以通过英伟达的NVLink技术连接其他GH200芯片,共同部署在生成式AI的大模型上。这种技术让GPU能充分访问CPU内存,在双芯片配置时提供合计1.2TB的快速内存。

英伟达的超大规模和高性能计算主管Ian Buck介绍,GH200比英伟达基于H100的数据中心系统配备了更多内存和带宽。它采用英伟达的Hopper GPU,并结合基于Arm架构的英伟达Grace CPU。

相比前代平台,新GH200 Grace Hopper平台的双芯片配置将内存容量提高3.5倍,带宽增加三倍,一个服务器就有144个Arm Neoverse高性能内核、8petaflops的AI性能和282GB的最新HBM3e内存技术。

HBM3e是一种高带宽内存,带宽达每秒5TB。该内存比当前的HBM3快50%,可提供总共每秒10TB的组合带宽,使新平台能运行比前代大3.5倍的模型,同时通过快三倍的内存带宽提高性能。

当地时间8月8日,在计算机协会(ACM)计算机图形和交互技术特别兴趣组织(SIGGRAPH)的年度大会上发表主题演讲时,英伟达CEO黄仁勋将GH200称为“世界上最快的内存”。

黄仁勋说,为了满足生成式AI不断增长的需求,数据中心需要有针对特殊需求的加速计算平台。新的GH200 Grace Hopper超级芯片平台提供了卓越的内存技术和带宽,以此提高吞吐量,提升无损耗连接GPU聚合性能的能力,并且拥有可以在整个数据中心轻松部署的服务器设计。

黄仁勋表示,在AI时代,英伟达的技术可以替代传统数据中心,投资800万美元的新技术可以取代用旧设备建造的1亿美元设施,而且用电量可以减少20倍。“这就是数据中心在向加速计算转变的原因。你买的越多,越省钱。”

降低企业启动AI项目门槛

为了加速各类企业定制生成式AI,英伟达推出了AI Workbench。

据称,它为开发人员提供了一个统一、易于使用的工具包,可以在个人电脑或工作站上快速创建、测试和微调生成式AI模型,然后将其扩展到几乎任何数据中心、公有云或NVIDIA DGX Cloud。

AI Workbench主要降低企业启动AI项目的门槛。通过在本地系统上运行的简化访问界面,它允许开发人员从流行库(如Hugging Face、GitHub和NGC)中微调模型,使用自定义数据。然后,这些模型可以在多个平台之间共享。

全球各地企业都在竞相寻找合适的基础架构并构建生成式AI模型和应用,尽管现在已经有数以千计的预训练模型可用,但是使用许多开源工具进行定制可能仍具挑战性且耗时。

“为了使这种能力普惠,我们必须使其能够在几乎所有地方运行。”黄仁勋称,“让所有人都能参与生成式AI。”

借助AI Workbench,开发人员只需点击几下就可以定制和运行生成式AI。它允许他们将所有必要的企业级模型、框架、软件开发工具包和库汇集到一个统一的开发者工作区中。

据称,包括戴尔、惠普、Lambda、联想和Supermicro,都正采用AI Workbench,因为它可以将企业生成式AI能力带到开发人员希望工作的任何地方,包括本地设备。

黄仁勋展示了AI Workbench和ChatUSD如何将所有这些功能结合在一起:允许用户从GeForce RTX 4090笔记本电脑启动项目,并随着项目变得更加复杂而无缝扩展到工作站或数据中心。

黄仁勋表示,用户可以提示模型生成一张玩具黄仁勋在太空中的图片,但初始模型提供的结果不适用,因为它从未见过玩具黄仁勋,这时候用户可以用八张玩具黄仁勋的图片微调模型,然后再次输入提示,获得正确的结果。

综合

版权所有(c)青岛出版集团 COPYRIGHTS @2010 ALL RIGHTS RESERVED备案号:鲁ICP备10001583-1号
中国互联网举报中心