NVIDIA A100 Tensor Core GPU NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和 HPC 应用场景,在不同规模下实现出色的加速,有效助力更高性能的弹性数据中心。A100 采用 NVIDIA Ampere 架构,是 NVIDIA 数据中心平台的引擎。A100 的性能比上一代产品提升高达 20 倍,并可划分为七个 GPU 实例,以根据变化的需求进行动态调整。A100 提供 40GB 和 80GB 显存两种版本,A100 80GB 将 GPU 显存增加了一倍,并提供超快速的显存带宽(每秒超过 2 万亿字节 [TB/s]),可处理超大型模型和数据集。 NVIDIA A100 Tensor Core GPU 可在各个规模下为 AI、数据分析和高性能计算( HPC) 应用提供出色的加速性能,为全球的高性能弹性数据中心提供强劲助力。作为 NVIDIA 数据中心平台的引擎,与前一代 NVIDIA Volta™ 相比,A100 可使性能提升高达20 倍。A100 可高效扩展,也可借助多实例 GPU( MIG) 技术划分为 7 个独立的 GPU 实例,从而提供统一的平台,助力弹性数据中心根据不断变化的工作负载需求动态进行调整。 NVIDIA A100 Tensor Core 技术支持广泛的数学精度,可针对每个工作负载提供单个加速器。最新一代 A100 80GB 将 GPU 显存加倍,提供 2TB/s 的全球超快显存带宽,可加速处理超大型模型和海量数据集。 A100 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案由硬件、网络、软件、库以及 NGC™ 目录中经优化的 AI 模型和应用等叠加而成。作为适用于数据中心且功能强大的端到端 AI 和HPC 平台,A100 可助力研究人员获得真实的结果,并能将解决方案大规模部署到生产环境中。 80GB内存,访存带宽达到2GB/s,FP64达到9.7TFlops。 A100比V100性能提升,80GB跟40GB相比性能有较大提升。 |
说点什么...