先ごろ、Microsoft は、Azure の最新のバーチャルマシン (VM) シリーズ NDm A100 v4 シリーズの一般提供 (GA) を発表した。これは、NVIDIA A100 Tensor Core 80 GB GPU を搭載している。このハイパフォーマンスコンピューティング (HPC) VM は、さまざまな実際の HPC ワークロードに高性能、スケーラビリティ、およびコスト効率を提供するよう設計されている。
以前、同社は、それぞれに 40GB の HBM2 メモリを搭載した NVIDIA A100 Tensor Core GPU を搭載した ND A100 v4 シリーズをリリースした。新しい NDm A100 v4 シリーズでは、GPU メモリ帯域幅が 30% 増加するとともに、80GB と2倍になる。Azure HPC および AI のシニアプログラムマネージャである Sherry Wang 氏は、新しいシリーズの Azure のブログ投稿で述べている:
ハイメモリ NDm A100 v4 シリーズは、すべてのビジネスの競争優位で使用する機会を創出することにより、AI スーパーコンピュータの力を一般にもたらします。最先端の AI のお客様は、40 GB ND A100 v4 VM と 80GB NDm A100 v4 VM の両方を大規模な AI プロダクションと機械学習のワークロードで大規模に使用していて、研究やプロダクト向けの OpenAI を含む優れたパフォーマンスとスケーラビリティを実現しています。
NDm A100 v4 シリーズは、単一のバーチャルマシン (VM) と 8 の NVIDIA Ampere A100 80GB Tensor Core GPU から開始される。さらに、NDm A100 v4 ベースのデプロイメントでは、VM あたり 1.6 Tb/s のインターコネクト帯域幅で数千の GPU に拡張できる。また、各チップには独自の HDR 200G InfiniBand リンクがあり、Azure で数千の GPU への高速接続することができる。
Microsoft は、ハイエンドのディープラーニングトレーニングと緊密に結合されたスケールアップおよびスケールアウト HPC ワークロードの VM の提供に引き続き取り組んでいる。技術コミュニティのブログ投稿で、NVIDIA の Accelerated Computing の副社長兼ゼネラルマネージャである Ian Buck 氏が述べている:
HPC と AI の統合は革命であり、あらゆる種類のシミュレーションに劇的な加速をもたらし、科学と産業全体の分野を前進させます。Azure NDm A100 v4 インスタンスは、NVIDIA GPU アクセラレーションと NVIDIA InfiniBand ネットワーキングの力を組み合わせて、研究者に新発見をより迅速に行い、最先端の科学を進歩させることを可能にします。
最後に、他の主要なパブリッククラウドプロバイダである AWS と Google も、さまざまなワークロードをサポートするために、さまざまなストレージ、CPU、メモリ、ネットワークキャパシティなど、幅広いインスタンスタイプを提供している。さらに、AWS は最近リリースされた G5 インスタンスを含む HPC の VM を提供し、Google は NVIDIA Ampere A100 Tensor Core GPU に基づく高速コンピューティング (A2) を提供している。