云端创新:亚马逊首家搭载NVIDIA GH200超级芯片 引领AI技术革命

   时间:2023-11-29 09:34 来源:智能日报

【智能日报】11月29日消息,亚马逊云科技首席执行官Adam Selipsky与英伟达CEO黄仁勋在美国时间28日上午举行的2023 re:Invent大会上宣布了一项重大战略合作。据了解,此次合作将为产业应用生成式AI的发展带来巨大助力,并涉及多个领域。

亚马逊云科技成为首家在云端搭载NVIDIA GH200 Grace Hopper Superchips的云服务提供商,该超级芯片采用多节点NVlink技术,通过NVIDIA NVlink与NVSwitch技术将32个Grace Hopper Superchips连接成一个实例。这一平台将在Amazon Elastic Compute Cloud(Amazon EC2)实例上可用,并与亚马逊强大的网络(EFA)相连,借助先进的虚拟化(Amazon Nitro System)及超大规模集群(Amazon EC2 UltraClusters)提供支持,使共同客户能够轻松扩展至数千个GH200 Superchips。

据智能日报了解,英伟达与亚马逊云科技还将合作推出NVIDIA DGX Cloud NVIDIA AI训练即服务(AI-training-as-a-service)。这将是首个配置GH200 NVL32的DGX Cloud,为开发者提供单一实例中最多的共享内存。在亚马逊云科技上运行的DGX Cloud将极大加速训练超过1兆参数的尖端生成式AI与大型语言模型。

双方还共同推动Project Ceiba,致力于构建全球最快的GPU驱动的AI超级计算机。这一大规模系统配备GH200 NVL32与Amazon EFA互连技术,部署在亚马逊云科技上,为英伟达研发团队提供支持。该超级计算机配置了16,384颗NVIDIA GH200 Superchips,具备处理65 exaflops速度等级的AI运算能力,为英伟达的全新生成式AI创新提供了强有力的支撑。

此外,亚马逊云科技还计划推出三款Amazon EC2实例,其中P5e实例配备NVIDIA H200 Tensor Core GPUs,专为大规模与尖端生成式AI及HPC高性能运算工作负载设计。而G6与G6e实例则分别配置NVIDIA L4 GPUs与NVIDIA L40S GPUs,可运行包括AI微调、推理、绘图以及影片工作负载等广泛应用。特别G6e实例适用于开发3D工作流程、数字孪生以及其他使用NVIDIA Omniverse的应用,为各种生成式AI的3D应用提供了更广泛的连接与构建可能性。

 
 
更多>同类内容
全站最新
热门内容