首页 > 行业动态 > Supermicro推出搭载 NVIDIA A100 GPU的全集成式系统
Supermicro推出搭载 NVIDIA A100 GPU的全集成式系统
2020-06-03 10:46:03 4281

原标题:Supermicro推出搭载NVIDIA A100 GPU的全集成式系统 来源:美通社

以扩展产品组合,使单台4U服务器达到5 PetaFLOPS的AI性能水平

Supermicro显著提升了行业内涵盖面最广且优化用于AI、深度学习、数据科学和计算工作负荷的GPU服务器产品组合,同时提供新款NVIDIA A100 GPU、第三代NVIDIA NVLink,以及NVIDIA NVSwitch的全方位支持。

加州圣何赛2020年5月14日 /美通社/ -- Super Micro Computer, Inc. (SMCI), 作为企业计算、存储、网络解决方案和绿色计算技术的全球领先者,今日宣布推出两款适用于人工智能(AI)深度学习应用的新系统,使配备全新NVIDIA A100™ Tensor Core GPU的第三代NVIDIA HGX™技术得以全面提升,同时还为公司品类多样的1U、2U、4U和10U GPU服务器产品组合提供全方位支持。NVIDIA A100是首个采用弹性设计,且将培训、推理、HPC和分析融为一体的多示例GPU。

“通过扩展我们行业领先的GPU系统和NVIDIA HGX-2系统技术产品组合,Supermicro将推出一个全新2U系统,此系统应用新款NVIDIA HGX™ A100 4 GPU主板(之前的代码名称为Redstone)以及一个全新4U系统,该系统基于新款具有5 PetaFLOPS AI性能水平的 NVIDIA HGX A100 8 GPU 主板(之前的代码名称为Delta)。”Supermicro首席执行官兼总裁Charles Liang说道。“采用GPU加速的计算在革新,并将继续用于数据中心的转型,Supermicro由此将为客户带来具有前沿技术水平的系统进步,以帮助其实现各种计算规模的加速最大化,并同时对GPU应用进行优化。这些新系统将显著提升所有用于HPC、数据分析、深度学习和深度学习推理的加速工作负荷。”

作为HPC和AI应用的平衡数据平台,Supermicro全新2U系统搭载4个采用PCI-E 4.0的直连式NVIDIA A100 Tensor Core GPU,以实现性能最大化,以及用于GPU到GPU互联的NVIDIA NVLink™技术,最高速度可达600GB每秒,从而提升了NVIDIA HGX A100 4 GPU主板性能。这款设计先进的GPU系统,加速了计算、网络和存储性能,且支持单个PCI-E 4.0 x8以及最多4个用于GPUDirect RDMA高速网卡和存储的PCI-E 4.0 x16扩展槽,例如可支持最大带宽200Gb每秒的InfiniBand™ HDR™。blob.png

“随着AI模型面临更高层次的挑战如准确会话AI、深度推荐系统和个性化医疗等更高层面的技术难题,AI型号的复杂程度正呈现爆炸式增长趋势。”NVIDIA加速计算业务部总经理兼副总裁Ian Buck 说道。“Supermicro将NVIDIA HGX A100 平台用于其新款服务器,由此为客户带来强大的产品性能和可扩展性,从而研究人员可采用前所未有的速度为最复杂的Al网络进行培训。”

Supermicro新款4U系统采用AI和机器学习应用优化,支持8个A100 Tensor Core GPU。采用8个GPU的4U规格,尤其适合需要随着其处理要求的提升而扩大其应用规模的客户。新款4U系统将搭载一块NVIDIA HGX A100 8 GPU主板,其中配备8个A100 GPU多对多(all-to-all)连接至NVIDIA NVSwitch™ ,以实现 600GB 每秒的GPU到GPU最大带宽,以及8个用于 GPUDirect RDMA 高速网卡的扩展槽。这款扩展平台尤其适合深度学习应用,数据中心可将其用于创建下一代AI,同时支持10个x16扩展槽,以最大化提升数据科研人员的生产效率。

通过配备新款NVIDIA A100 GPU,涵盖Supermicro品类众多的1U、2U、4U和10U多GPU服务器产品组合,其性能的显著提升,客户可拭目以待。Supermicro全新推出的 A+ GPU 系统支持最多8个全高度双宽(或单宽)GPU,其中通过直插式PCI-E 4.0 x16连接CPU到GPU通道,无需采用任何PCI-E交换机,即能获得最低的时延性和最高的带宽,以实现最大化加速。此系统还支持最多3个额外的高性能PCI-E 4.0扩展槽,可用于多种用途,包括最高100G的高性能网络连接传输。附加的AIOM插槽可支持 Supermicro AIOM卡或OCP 3.0夹层卡。

作为AI系统技术的领先者,Supermicro提供采用多GPU优化的散热设计,为AI、深度学习和HPC应用带来最高水准的性能和可靠性。Supermicro采用1U、2U、4U和10U机架式GPU 系统;Utra、BigTwin™和支持嵌入式系统的GPU;以及用于我们8U SuperBlade® 的GPU Blade 模块,提供行业内最为全面、最具深度的各类GPU系统,以用于从边缘到云端的相关应用。

Supermicro计划将全新的EGX A100配置添加至其最先进的服务器产品组合,以最大化提升边缘安全性和超高性能水平。EGX A100集中式加速器结合了Mellanox SmartNIC,其中采用基于全新NVIDIA Ampere架构的GPU,使企业能够更为安全地运行边缘AI (AI at the edge)。

如需了解更多Supermicro最新GPU 系统的详细信息,可访问  。

敬请通过LinkedIn、Twitter和Facebook 关注Supermicro,获取其最新动态与公告。

Super Micro Computer, Inc.简介 (SMCI)

领先的高性能、高效率服务器技术创新企业Supermicro是用于数据中心、云计算、企业IT、Hadoop/大数据、高性能计算和嵌入式系统的先进服务器Building Block Solutions®的全球首要供应商。Supermicro 致力于通过其“We Keep IT Green®”计划来保护环境,并且向客户提供市面上最节能、最环保的解决方案。

Supermicro、SuperBlade、BigTwin、TwinPro、Server Building Block Solutions和We Keep IT Green是Super Micro Computer, Inc.的商标和/或注册商标。

所有其他品牌、名称和商标均是其各自所有者的财产。

 


扫一扫,关注网烁公众号!
微信搜索“网烁”或“waso-vip