Nishiki-Hub

自由に 柔軟にをモットーに テック系 グルメ系 ゲーム系の情報をまとめていきます!

NVIDIA、メモリが80GBに強化されたA100 GPUを4基搭載するAIマシン「DGX Station A100」を発表 最大2.5PFLOPSのAI学習性能

f:id:doskokimeil127-dosd:20201116231657p:plain

錦です。

NVIDIAは、メモリが80GBに強化されたA100 GPUを4基搭載する「DGX Station A100」を発表しました。

DGX Station A100は、今春のGTCで発表されたNVIDIA A100 Tensor Core GPUを搭載したAIワークステーションです。DGX A100では1基のA100につき40GBのメモリが搭載されていましたが、DGX Station A100では1基についき80GBのHBM2eメモリを搭載しておりそれが4基搭載されているため計320GB HBM2eののGPUメモリが搭載されています。GPUメモリは6144bitのメモリインターフェイス、1.6TB/sのメモリ帯域を持っています。NVIDIA曰く、AI研究専用のボックスで最速のサーバーになるように設計されているとのこと。基本的にはデータセンター向けのような大規模な施設ではなく、企業のオフィスや研究施設、ラボ、ホームオフィスなど向けで、機械学習とデータサイエンスのパフォーマンスをもたらすためのもののようです。

f:id:doskokimeil127-dosd:20201116235147p:plain
4基搭載されているA100 GPU

A100は、機械学習コアであるTensorコアを432コア搭載しています。メモリが80GBに強化されたことにより、元のA100よりも25%高い推論性能、3倍の機械学習性能、2倍のデータ分析性能を得ることができます。A100を最大7つのGPUに分割し扱える「Multi Instance GPU(MIG)」や、200GB/sの双方向帯域幅をもつ第3世代NVLinkも引き続きサポートされます。

nishikiout.hatenablog.com

f:id:doskokimeil127-dosd:20201116235304p:plain
64コアのAMD Rome CPU

DGX Station A100には、DGX A100に引き続き、AMDの64コア128スレッドRome CPU(Zen 2 EPYC)を搭載し、サーバークラスのパフォーマンスと、512GBのメモリを搭載します。"AMD 64 コア Rome CPU"と"NVIDIA A100 GPU"の組み合わせで、2.5PFLOPS(PetaFLOPS)のAIトレーニング性能と、5PetaOPSのINT8推論性能を実現します。

この他、PCIe Gen4に対応したストレージを搭載し、OS用の1.92TBのNVMe M.2 SSDと、データキャッシュ用の7.68TBのMVMe U.2 SSDを搭載しています。また、接続用の10Gb Ethernet LANコントローラを2つ、リモート管理用で1Gb Ethernet LANポートを1ポート搭載。ディスプレイ出力は、最大4Kに対応したDisplayPortを4ポート搭載する「DGX Display Adapter」カードを内蔵しています。そして、システム自身には独自の冷却システムが搭載されています。

f:id:doskokimeil127-dosd:20201116235417p:plainf:id:doskokimeil127-dosd:20201116235346p:plain
7.68TBのU.2 SSDとDGX Display Adapter


NVIDIAは、DGX Station A100とDGX A100 640GBシステムが、世界中の代理店を通じて、年内に発売されることをあきらかにしました。また、このタイミングでA100は仕様が更新されてすべてが80GB HBM2eメモリになります。すでに40GBのA100を搭載したDGX A100 320GBを保有しているユーザーが80GB A100のDGX A100 640GBバリアントにアップグレードするためのアップグレードオプションが提供されます。

同社はまだ各価格を公開していません。

via Wccftech