InfoQ ホームページ GPU に関するすべてのコンテンツ
-
Meta社のリアルタイム音声翻訳AIシステムに向けたResearch SuperCluster
Meta社のエンジニアリング部門の最近の記事から、同社がリアルタイム音声翻訳、言語処理、コンピューター・ビジョン、拡張現実 (AR)の進歩に使用されるResearch SuperCluster (RSC)インフラをどのように構築しているかが明らかになった。
-
AWS、NVIDIA H100 Tensor Core GPUを搭載したEC2 P5eインスタンスの一般提供を発表
Amazon Web Services(AWS)は、AI、機械学習、ハイパフォーマンス・コンピューティング(HPC)アプリケーション向けのコンピューティング・インフラを強化するため、NVIDIA H100 Tensor Core GPUを搭載したAmazon EC2 P5eインスタンスを正式にリリースした。
-
Meta社、24000基以上のGPUから成るAIインフラ設計を発表
Meta社はこの程、2つの新しいAIコンピューティング・クラスターの設計を発表し、それぞれ24,576基のGPUを搭載している。これらのクラスタはMeta社のGrand Tetonハードウェア・プラットフォームに基づいており、1つのクラスタは現在Meta社の次世代モデルである、"Llama 3"のトレーニングに使用されている。
-
NVIDIA、エッジでAIアプリを実行するMetropolis Microservices for Jetsonを発表
NVIDIAは、Nvidia Metropolis MicroservicesクラウドベースのAIソリューションを拡張し、NVIDIA Jetson組み込みプラットフォームで実行できるようにした。
-
LeftoverLocalsがApple、Qualcomm、AMDのGPUに関するLLMの回答をリークする可能性
セキュリティ企業Trail of Bitsは、Apple、Qualcomm、AMD、Imagination GPUのGPUローカルメモリから悪意ある行為者がデータを復元できる脆弱性を公表した。LeftoverLocalsと名付けられたこの脆弱性は、大規模言語モデル(LLM)や機械学習(ML)モデルなど、GPUを使用するあらゆるアプリケーションに影響を及ぼす。
-
NVIDIAが次世代AIハードウェアH100 GPUとGrace CPUスーパーチップを発表
最近のGTC会議で、NVIDIAは、AIコンピューティング用の次世代プロセッサを発表した。H100 GPUとGrace CPUスーパーチップである。H100はNVIDIAのHopperアーキテクチャをベースとしており、そこにはAIモデルのトレーニングを高速化するためのTransformer Engineが含まれている。Grace CPUスーパーチップは144個のArmコアを備えており、SPECrate 2017_int_baseベンチマークでNVIDIAの現在のデュアルCPU製品の性能を上回っている。
-
3世代のtensorプロセッシングユニットから得られた10の教訓
GoogleのTPUグルー��が発行した最近のレポートでは、3世代のテンソルプロセッシングユニットの開発から得られた10のポイントが挙げられている。著者はまた、彼らの以前の経験が将来のtensorプロセッシングユニットの開発にどのように影響するかについても議論している。
-
Microsoftが重いグラフィックス処理向けにNVads A10 V5 Azure VMをプレビュー版で発表
Microsoftは最近、プレビュー版としてNVads A10 v5シリーズを発表した。この仮想マシン(VM)は、NVIDIA A10 GPUとAMD EPYC 74F3V(Milan)CPUを搭載しており、ベース周波数は3.2GHz、オールコアピーク周波数は4.0GHzとなる。
-
AMDがディープラーニングアクセラレーターInstinct MI200シリーズGPUを発表
AMDは最近のAccelerated Data Center Premiere Keynoteで、MI200アクセラレータシリーズのInstinct MI250xと、それよりもわずかにローエンドのInstinct MI250 GPUを発表した。
-
AWSがNVIDIA A10G Tensor Core GPUを搭載したEC2インスタンス (G5) が利用可能になったと発表
先ごろ、AWS は、最大8個の NVIDIA A10G Tensor Core GPU を搭載した新しい G5 インスタンスが利用可能になったと発表した。このインスタンスは、第2世代の AMD EPYC プロセッサを搭載している。
-
AmazonはGaudiアクセラレータを搭載したDL1インスタンスをリリース
Amazonは最近、Habana LabsのGaudiアクセラレーターを搭載したEC2 DL1インスタンスの一般向け提供を発表した。新しいインスタンスは、コンピュータービジョン、自然言語処理、自動運転車の認識、推奨エンジンなどのユースケース向けの深層学習モデルのトレーニングに対して、より優れた価格パフォーマンスを提供する。
-
OpenAIがAI処理最適化のためのPythonベースのプログラミング言語であるTritonをリリース
OpenAIは最新の言語Tritonをリリースした。このオープンソースプログラミング言語によって、研究者はAI処理用に非常に効率的なGPUコードを記述できる。TritonはPythonと互換性があり、ユーザはわずか25行のコードでエキスパート品質の結果を得ることができる。コードは、Tritonのライブラリを使ってPythonで記述し、GPUで実行するためにJITコンパイルされる。
-
Microsoftは、Azure ND A100 V4クラウドGPUインスタンスの一般向け提供を発表
最近、Microsoftは、NVIDIA A100 Tensor Core GPUを搭載したAzure ND A100 v4 Cloud GPUインスタンスの一般向け提供を発表した。この仮想マシン(VM)は、人工知能(AI)や機械学習(ML)の処理など、高いパフォーマンスが必要で処理負荷が大きい顧客を対象としている。
-
Deno 1.8が、WebGPUサポート、動的アクセス許可などと共にリリースへ
Deno 1.8は最近、WebGPUサポート、国際化API、安定化されたインポートマップ、プライベートモジュールのフェッチのサポートなど、多くの新機能を備えてリリースされた。DenoパーミッションAPIが安定化された。 Deno 1.8には、TypeScript 4.2が追加で付属する。
-
Juliaはプロダクションレディか? Bogumił Kamiński氏とのQ&A
JuliaCon 2020に続いて、SGHワルシャワ経済大学のBogumił Kamiński教授は、言語とそのエコシステムの状況を要約し、Juliaがついにプロダクションレディになったと述べた。InfoQは、Kamiński教授と話して変更を加えた。