NVIDIA英伟达A100与A800在各种规模上实现出色的加速,适用于各种工作负载的强大计算平台 NVIDIA英伟达A100人工智能服务器可在各个规模下为 AI、数据分析和高性能计算( HPC) 应用提供出色的加速性能,为全球的 高性能弹性数据中心提供强劲助力。作为 NVIDIA 数据中心平台的引擎,与前一代 NVIDIA Volta™ 相比,A100 可使性能提升高达 20 倍。A100 可高效扩展,也可借助多实例 GPU( MIG) 技术划分 为 7 个独立的 GPU 实例,从而提供统一的平台,助力弹性数据中心根据不断变化的工作负载需求动态进行调整。 NVIDIA A100 Tensor Core 技术支持广泛的数学精度,可针对每个工作负载提供单个加速器。最新一代 A100 80GB 将 GPU 显存 加倍,提供 2TB/s 的全球超快显存带宽,可加速处理超大型模型和海量数据集。 A100 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案由硬件、网络、软件、库以及 NGC™ 目录中经优化的 AI 模型和 应用等叠加而成。作为适用于数据中心且功能强大的端到端 AI 和 HPC 平台,A100 可助力研究人员获得真实的结果,并能将解决方案大规模部署到生产环境中。 NVIDIA英伟达A100与A800人工智能服务器GPU算力租赁产品规格
| 项目 | 标准配置 | 扩展配置 | 1 | 准系统 | 双路4U机架式 | 2 | 处理器 | 英特尔 Xeon ® Gold 6330 处理器 28核/基频2GHz/最高3.1GHz/42MB缓存 | 英特尔 Xeon® Platinum 8380 处理器 40核/基频2.3GHz/最高3.4GHz/60MB缓存 | 3 | 内存 | DDR4/RDIMM/3200MHz/64GB,总容量1TB | 最大内存容量4TB | 4 | 芯片组 | Intel® C621A | 5 | GPU | 8张A100或A800 80GB NVlink显卡 | 8张A100或A800 80GB NVlink显卡 | 6 | 网络通信 | 以太网卡,2路10G电口 | 7 | InfiniBand(IB)网卡,2路200G QSFP56口 | 8 | 硬盘 | 系统盘,M.2 SATA SSD,容量1TB | 前面板支持24块2.5或12块3.5寸 SAS/SATA硬盘 主板支持2块M.2 SATA SSD | 9 | 数据盘,4TB*4/SATA,总容量16TB | 10 | 电源 | 单模组2000W,2+2冗余配置 | 单模组3KW,总计12KW | 9 | 外形尺寸 | 宽度480mm,高度180mm,深度830mm | 10 | 工作温度 | 5~35℃ | 11 | 重量 | 80kg |
跨工作负载的卓越性能 针对大型模型提供高达 3 倍的 AI 训练速度; 相较于 CPU 提供高达 249 倍的 AI 推理性能; 相较于 A100 40GB 提供高达 1.25 倍的 AI 推理性能; 为 HPC 应用提供高达 1.8 倍的性能; 四年来 HPC 性能提升 11 倍; 相较于 A100 40GB,在大数据分析基准测试中速度提升 2 倍; 突破性的创新 NVIDIA AMPERE 架构 第三代 TENSOR CORE 技术 多实例 GPU( MIG) 技术 高带宽显存( HBM2E) 结构化稀疏 NVIDIA英伟达A100人工智能服务器GPU 是 NVIDIA 数据中心平台的旗舰产品,可用于深度学习、高性能计算 (HPC) 和数据分析。该平台可为 2000 余款应用和各大深度学习框架提供加速。A100 适用于桌面、服务器以及云服务,不仅能显著提升性能,更可以节约成本。
|