Root Nation消息资讯资讯NVIDIA 推出用于AI开发的DGX GH200超级计算机

NVIDIA 推出用于AI开发的DGX GH200超级计算机

-

NVIDIA 宣布推出一类具有大内存的新型超级计算机——超级计算机 NVIDIA 基于超级芯片的DGX NVIDIA GH200 Grace Hopper 和开关系统 NVIDIA NVLink。它旨在开发用于生成应用程序的下一代模型 人工智能、推荐系统和数据分析工作负载。

海量内存空间 NVIDIA DGX GH200 使用 NVLink 连接技术与 NVLink 开关系统结合 256 个 GH200 超级芯片,形成单个 GPU。这提供了 1 exaflop 的性能和 144 TB 的共享内存,比上一代多了近 500 倍 NVIDIA DGX A100,于 2020 年推出。

NVIDIA

“生成式 人工智能创始人兼首席执行官表示,大型语言模型和推荐系统是现代经济的数字引擎 NVIDIA 黄仁勋. – DGX GH200 AI超级计算机集成了最先进的加速计算和网络技术 NVIDIA扩大人工智能的边界”。

正如该公司网站上的新闻稿所述,GH200 超级芯片消除了对传统 CPU-GPU PCIe 连接的需求。他们结合了处理器 NVIDIA 基于 Arm 的 Grace 和 GPU NVIDIA H100 张量核心在一个案例中。这将 GPU 和 CPU 之间的带宽提高了 7 倍,显着降低了功耗,并为新型超级计算机提供了 600 GB 的 GPU Hopper 架构。 DGX GH200 架构提供的 NVLink 带宽是上一代产品的 48 倍。

谷歌云预计 那 Microsoft 将成为首批访问 DGX GH200 并探索其生成 AI 工作负载能力的公司之一。该制造商还打算向云服务提供商提供 DGX GH200 设计作为样本,以便他们能够对其基础设施进行调整。

NVIDIA

“创建高级生成模型需要人工智能基础设施的创新方法,”计算副总裁说。 谷歌云 马克·洛迈尔。 “NVLink 的新规模和 Grace Hopper 超级芯片内存解决了大规模 AI 中的关键瓶颈,我们期待探索其在 Google Cloud 和我们的生成 AI 计划中的潜力。”

Azure 基础设施公司副总裁 Microsoft Girish Bablani 指出 DGX GH200 在处理太字节数据集方面的潜力,这将使开发人员能够以更快的速度进行更大规模的研究。

人工智能

该公司还创建了一台超级计算机 NVIDIA 为其研究人员和开发团队提供基于 DGX GH200 的 Helios。它将配备四个 DGX GH200 系统,每个系统都通过 Quantum-2 InfiniBand 网络互连,以提高训练大型 AI 模型的数据吞吐量。 Helios 将包含 1024 个 Grace Hopper 超级芯片,预计将于今年年底投入运行。

软件 NVIDIA Base Command 提供 AI 工作流程管理、企业级集群管理、加速计算、存储和网络基础设施的库以及针对 AI 工作负载优化的系统软件。还包括 AI Enterprise 软件,该软件提供 100 多个框架、预训练模型和开发工具,以简化生产 AI(包括生成 AI)的开发和部署 人工智能、计算机视觉、语音 AI 等等。

超级计算机 NVIDIA DGX GH200 将于今年年底上市。

另请阅读:

Dzherelonvidia
注册
通知关于
客人

0 评论
嵌入式评论
查看所有评论