微软Azure推出NVIDIAH100GPU驱动的虚拟机

微软Azure宣布其全新的虚拟机由NVIDIA的顶级H100GPU提供支持,以加速ChatGPT等生成人工智能。

新闻稿:为我们的客户兑现高级人工智能的承诺需要超级计算基础设施、服务和专业知识,以应对最新模型的规模和复杂性呈指数级增长。

在Microsoft,我们通过应用十年的超级计算经验和支持最大的AI训练工作负载来应对这一挑战,以创建能够大规模实现大规模性能的AI基础设施。MicrosoftAzure云,特别是我们的图形处理单元(GPU)加速虚拟机(VM),为Microsoft和我们的客户的许多生成式AI进步奠定了基础。

“与Azure共同设计超级计算机对于扩展我们苛刻的AI培训需求至关重要,使我们能够在ChatGPT等系统上开展研究和调整工作。”——GregBrockman,OpenAI总裁兼联合创始人。

Azure最强大、可大规模扩展的AI虚拟机系列

今天,Microsoft推出了NDH100v5VM,它支持按需大小不等的8到数千个NVIDIAH100GPU,这些GPU通过NVIDIAQuantum-2InfiniBand网络互连。与我们上一代NDA100v4VM相比,客户将看到人工智能模型的性能显着提高,这些创新技术包括:

8个NVIDIAH100TensorCoreGPU通过下一代NVSwitch和NVLink4.0互连

非阻塞胖树网络中每个GPU400Gb/sNVIDIAQuantum-2CX7InfiniBand,每个VM3.2Tb/s

NVSwitch和NVLink4.0,每个VM内的8个本地GPU之间的对分带宽为3.6TB/s

第4代英特尔至强可扩展处理器

PCIEGen5主机到GPU互连,每个GPU带宽为64GB/s

16通道4800MHzDDR5DIMM

将exascaleAI超级计算机交付到云端

生成式AI应用程序正在迅速发展,并在几乎所有行业中增加独特的价值。从使用新的AI驱动的MicrosoftBing和Edge重塑搜索到MicrosoftDynamics365中的AI驱动辅助,AI正在迅速成为软件的一个普遍组成部分以及我们与之交互的方式,我们的AI基础设施将在那里铺平道路.

凭借我们为全球Azure客户提供多台ExaOP超级计算机的经验,客户可以相信他们可以通过我们的基础设施实现真正的超级计算机性能。对于致力于大规模部署的Microsoft和组织,如Inflection、NVIDIA和OpenAI,此产品将启用一类新的大规模AI模型。

“我们对对话式AI的关注要求我们开发和训练一些最复杂的大型语言模型。Azure的AI基础设施为我们提供了必要的性能,以高效地大规模可靠地处理这些模型。我们对Azure上的新VM感到非常兴奋以及它们将为我们的AI开发工作带来的更高性能。”——穆斯塔法·苏莱曼(MustafaSuleyman),Inflection首席执行官。

大规模AI内置于Azure的DNA中。我们最初投资于图灵等大型语言模型研究,以及在云中构建第一台AI超级计算机等工程里程碑,为生成人工智能成为可能的那一刻做好了准备。

Azure机器学习等Azure服务使客户可以访问我们的AI超级计算机进行模型训练,而AzureOpenAI服务使客户能够利用大规模生成AI模型的力量。规模一直是我们为AI优化Azure的北极星。我们现在正在为各种规模的初创公司和公司带来超级计算能力,而不需要大量物理硬件或软件投资的资金。

免责声明:本文由用户上传,与本网站立场无关。财经信息仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。 如有侵权请联系删除!