您的位置:首页 >访谈 >

技嘉发布了最新的服务器,这些服务器配备了AMD EPYC Rome CPU和NVIDIA A100 GPU

在今天NVIDIA A100 PCIe GPU发布之后,技嘉已完成对G481-HA0 / G292-Z40的兼容性验证,并将NVIDIA A100添加到这两款服务器的支持列表中。其余的G系列服务器将分为两波,以很快完成各自的兼容性测试。同时,技嘉还发布了基于AMD EPYC 7002处理器家族的新型G492系列服务器,该服务器最多可支持10个NVIDIA A100 PCIe GPU的PCIe Gen4。

技嘉发布了最新的服务器,这些服务器配备了AMD EPYC Rome CPU和NVIDIA A100 GPU

技嘉推出采用Nvidia A100 Ampere GPU和第二代AMD EPYC CPU的全新4U服务器

G492是当今市场上用于AI模型培训的具有最高计算能力的服务器。技嘉将为G492提供两个SKU。该G492-Z50将在一个更加平易近人的价格,而G492-Z51将朝着更高的性能为目标。

G492是技嘉第二代4U G系列服务器。基于第一代G481(英特尔架构)/ G482(AMD架构)服务器,用户友好的设计和可扩展性得到了进一步优化。除了支持两个280W第二代AMD EPYC 7002处理器外,这32个DDR4内存插槽还支持高达8TB的内存,并保持3200MHz的数据传输。G492具有内置的PCIe Gen4交换机,可以提供更多PCIe Gen4通道。PCIe Gen4的I / O性能是PCIe Gen3的两倍,可以完全启用NVIDIA A100 Tensor Core GPU的计算能力,或者可以将其应用于PCIe存储,以帮助提供G492固有的存储升级路径。

随着NVIDIA GPU加速成为数据中心的主流技术,科学家,研究人员和工程师致力于使用GPU加速的HPC和AI来应对当今世界的重要挑战。根据NVIDIA的说法,与前几代产品相比,A100 Tensor Core GPU实现了最高的性能飞跃。A100 PCIe GPU还保持与上一代V100 GPU相同的250W TDP轮廓和机械设计,但HBM2内存容量增加到40GB。在不更改代码的情况下,使用TensorFloat-32(TF32)进行AI模型训练的速度是V100的六倍。NVIDIA A100可处理日趋成熟且尺寸和复杂性迅速增长的AI模型处理。

升级到PCIe Gen4以支持新的A100 GPU

G492经过精心设计,可支持NVIDIA A100 PCIe GPU。考虑到A100 GPU的使用情况,技嘉在系统中内置了PCIe Gen4交换机,以提供高速PCIe网状网络,以支持GPU和RDMA技术之间的GPUDirect对等(P2P)通信,以并行甚至更大的计算集群。通过GPUDirect P2P,每个GPU可以通过PCIe总线直接访问其他GPU的内存,从而避免了将数据传输到服务器的系统内存,并减少了数据交换的延迟。以深度学习为例,著名的开源深度学习框架(如TensorFlow和MXNet)提供了对GPUDirect P2P的支持,并且NVIDIA集体通信库(NCCL)也针对GPUDirect P2P进行了优化。

通过PCIe Gen4交换机扩展PCIe Gen4通道,也使得G492的可扩展性大大高于以前的G481 / G482服务器。除了在机箱中包含10个双插槽A100 GPU之外,机箱前后还预留了三个PCIe x16插槽和一个OCP 3.0插槽,为用户提供了四个附加的SAS卡或SAS卡升级选项。 NVIDIA Mellanox InfiniBand卡。

低成本,高性价比和灵活性是G492的主要产品吸引力。G492系列服务器为用户提供了高度的灵活性,可以根据需要自行配置并扩展计算能力。技嘉即将推出支持NVIDIA A100 GPU的NGC Ready系统。NGC-Ready系统专为AI应用而构建,并使用NVIDIA NGC注册中心中的GPU优化软件对深度学习和机器学习工作负载的功能和性能进行了测试。支持NGC的系统使管理员可以放心地部署运行AI应用程序所需的基础架构。

在存储配置方面,G492可以配备12个3.5英寸或2.5英寸硬盘驱动器。背板支持SATA / SAS / NVMe协议;因此,除了大型集群外,G492还适用于必须确保数据安全的企业或研究实验室的基础架构。G492和NVIDIA A100 PCIe GPU可以为各种规模的AI使用提供革命性的计算能力,加速各种规模的工作负载,并帮助客户缩短其服务的上市时间。

相关推荐

猜你喜欢

特别关注