新しい AMD Instinct™ MI325X アクセラレータのご紹介

AMD Instinct™ MI325X GPU アクセラレータは、第 3 世代 AMD CDNA™ アーキテクチャによって AI パフォーマンスの新しい標準を確立し、トレーニングと推論に驚異的なパフォーマンスと効率性を提供します。業界をリードする 256 GB HBM3E メモリと 6 TB/秒の帯域幅により、パフォーマンスを最適化し、TCO の削減を支援します。1

AMD Instinct™ MI325X Accelerators

あらゆる規模におけるリーダーシップ パフォーマンス

AMD Instinct™ アクセラレータは、シングルサーバー ソリューションから世界最大級のエクサスケール級スーパーコンピューターまで、あらゆる規模のデータセンターでリーダーシップを発揮するパフォーマンスを実現します。2

最も要求の厳しい AI や HPC のワークロード処理にも適しており、卓越した演算能力、高メモリ集積度、広帯域幅メモリ、特殊なデータ形式のサポートを提供します。

Alt テキストの追加

内部のテクノロジ

AMD Instinct アクセラレータは、マトリックス コア テクノロジを提供する AMD CDNA™ アーキテクチャ上に構築されており、高効率の INT8 および FP8 (AMD CDNA 3 による AI 向けスパース性への対応を含む) から HPC 向けの最も要求の厳しい FP64 まで、幅広い精度をサポートしています。

製品ポートフォリオ

MI300 シリーズ


AMD Instinct APU

AMD Instinct アクセラレータと AMD EPYC プロセッサを共有メモリと組み合わせ、柔軟性、効率性、プログラマビリティを強化

MI200 シリーズ


AMD Instinct MI250X アクセラレータ

HPC および AI 向けの、世界トップクラスのスーパーコンピューターの原動力に

AMD Instinct MI250 アクセラレータ

企業、研究機関、学術機関の HPC および AI ワークロードに卓越したパフォーマンスを発揮

AMD Instinct MI210 アクセラレータ

シングルサーバー ソリューションなど、企業、研究機関、学術機関の HPC および AI ワークロードを強化

AMD ROCm™ ソフトウェア

AMD ROCm™ ソフトウェアには、AMD Instinct アクセラレータをターゲットとする AI モデルおよび HPC ワークロード向けのプログラミング モデル、ツール、コンパイラ、ライブラリ、ランタイムの幅広いセットが含まれています。

クラウドで利用可能

AMD Instinct アクセラレータは、クラウドで利用可能で、AI などの複雑な演算ワークロードに求められるスケーラビリティ、柔軟性、パフォーマンスを達成します。

Microsoft Azure

8 個の AMD Instinct™ MI300X アクセラレータを搭載した Azure ND MI300X v5 は、AI のトレーニングと推論用に Azure 上で最適化されています。

Oracle Cloud Infrastructure

OCI BM.GPU.MI300X.8 インスタンスは、8 個の AMD Instinct™ MI300X アクセラレータと業界をリードするメモリ容量をベアメタル上に搭載しています。

IBM クラウド

規制の厳しい業界向けに設計されたエンタープライズ クラウド プラットフォームで、耐障害性、パフォーマンス、安全性、コンプライアンスに優れたクラウドを提供します。

Vultr

32 のグローバル データセンターと AMD Instinct™ MI300X GPU を備えた、独立したクラウド プラットフォーム

Cirrascale Cloud Services

最新の AMD Instinct™ アクセラレータをサポートする Cirrascale AI イノベーション クラウドは、最も要求の厳しい AI および HPC ワークロードを強化するよう構築されています。 

TensorWave

AMD Instinct™ シリーズ GPU とクラス最高の推論エンジンを提供する TensorWave の AI クラウド プラットフォームは、トレーニング、緻密な調整、推論に最適です。

Nscale

Nscale の AI クラウドで AMD Instinct™ MI300X & MI250X GPU にアクセスし、演算負荷の高いワークロードに対応します。

Hot Aisle

AMD Instinct アクセラレータ ベースの最先端かつ最高級のベアメタル演算ソリューションを用いて、オンデマンドのハイパフォーマンス コンピューティングを提供します。

Aligned

AMD Instinct™ アクセラレータを搭載し、比類ないパフォーマンスと効率性を実現する Aligned のクラウドを使用して、カスタム AI ワークロードを簡単に拡張できます。

Baionity

Baionity は AMD Instinct GPU と ISO 認証を受けたデータセンターを活用することで、AI ワークロードの効率、セキュリティ、スケーラビリティに対応した AI テクノロジの可能性を最大限に発揮しながら、データの整合性と業界標準へのコンプライアンスを達成しています。

クラウドで AMD Instinct™ を評価

AMD Instinct 評価プログラムでは、スタートアップ企業から大規模企業まで、AMD パートナーを通じて AMD Instinct™ GPU と AMD ROCm™ ソフトウェア スタック上で自社の AI および HPC ワークロード要件を評価できます。

ソリューションの検索

AMD Instinct アクセラレータ ベースのソリューションを提供するパートナーの検索

ケース スタディ

リソース

資料

AMD Instinct アクセラレータのソリューションの概要、ホワイト ペーパー、プログラマ リファレンス、その他の資料をご覧ください。 

最新情報を入手

サインアップして、最新のデータセンター ニュースとサーバー コンテンツを受信します。

脚注
  1. MI325-001A - 計算は、2024 年 9 月 26 日時点での仕様および/または推定に基づいて AMD パフォーマンス ラボにより実行されたものです。AMD Instinct™ MI325X OAM アクセラレータは、256 GB HBM3E メモリ容量と 6 TB/秒 GPU ピーク理論メモリ帯域幅のパフォーマンスを発揮します。製品版の半導体によって、実際の結果は異なる場合があります。
    NVIDIA Hopper H200 (141 GB) SXM GPU アクセラレータの最高の公開結果は、141 GB HBM3E メモリ容量、4.8 TB/秒 GPU メモリ帯域幅パフォーマンスとなっています。  https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
    NVIDIA Blackwell HGX B100 (192 GB) 700 W GPU アクセラレータの公開結果で最高の値は以下のようになっています。HBM3E メモリ容量は 192 GB、GPU メモリの帯域幅パフォーマンスは 8 TB/秒。
    NVIDIA Blackwell HGX B200 (192 GB) GPU アクセラレータの公開結果で最高の値は以下のようになっています。HBM3E メモリ容量は 192 GB、GPU メモリの帯域幅パフォーマンスは 8 TB/秒。
    Nvidia Blackwell の仕様については、https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW をご覧ください。
  2. Top 500 リスト、2024 年 6 月