Wir stellen vor: Die neuen AMD Instinct™ MI325X Beschleuniger

Der AMD Instinct™ MI325X GPU-Beschleuniger setzt mit der AMD CDNA™ Architektur der 3. Generation neue Maßstäbe in der KI-Leistung und bietet unglaubliche Performance und Effizienz für Training und Inferenz. Mit einem branchenführenden HBM3E-Speicher mit 256 GB und einer Bandbreite von bis zu 6 TB/s optimieren sie die Performance und tragen zur Senkung der Gesamtbetriebskosten bei.1

AMD Instinct™ MI325X Accelerators

Marktführende Performance in jeder Größenordnung

AMD Instinct™ Beschleuniger ermöglichen eine führende Performance für das Rechenzentrum im großen Maßstab – von Einzelserver-Lösungen bis hin zu den weltweit größten Supercomputern der Exascale-Klasse.2

Sie sind hervorragend geeignet, um selbst die anspruchsvollsten KI- und HPC-Auslastungen zu bewältigen, und bieten eine außergewöhnliche Rechenleistung, große Speicherdichte, High Bandwidth Memory​ und Unterstützung für spezielle Datenformate.

Alternativtext hinzufügen

Unter der Haube

AMD Instinct Beschleuniger basieren auf der AMD CDNA™ Architektur mit Matrix-Core-Technologien und Unterstützung für eine Vielzahl von Genauigkeiten – von hocheffizienten INT8 und FP8 (mit Sparsity-Unterstützung für KI mit AMD CDNA 3) bis zu anspruchsvollsten FP64 für HPC.

Portfolio

MI300-Serie


AMD Instinct APU

Kombiniert AMD Instinct Beschleuniger und AMD EPYC Prozessoren mit einem gemeinsam genutzten Speicher für erweiterte Flexibilität, Effizienz und Programmierbarkeit

MI200-Serie


AMD Instinct MI250 Beschleuniger

Liefert herausragende Performance für HPC- und KI-Auslastungen im Bereich Enterprise, Forschung und Hochschule

AMD Instinct MI210 Beschleuniger

Treibt HPC- und KI-Auslastungen im Bereich Enterprise, Forschung und Hochschule für Einzelserverlösungen und mehr an

AMD ROCm™ Software

AMD ROCm™ Software beinhaltet ein breites Spektrum an Programmierungsmodellen, Tools, Compilern, Bibliotheken und Laufzeiten für KI-Modelle und HPC-Auslastungen, die auf AMD Instinct Beschleuniger ausgerichtet sind.

Zugänglich in der Cloud

AMD Instinct Beschleuniger sind in der Cloud verfügbar, um die Anforderungen an Skalierbarkeit, Flexibilität und Performance komplexer Computing-Auslastungen wie KI zu erfüllen.

IBM Cloud

Eine Unternehmens-Cloud-Plattform, die für die am stärksten regulierten Branchen entwickelt wurde und eine äußerst robuste, leistungsstarke, sichere und konforme Cloud-Lösung bietet.

Vultr

Unabhängige Cloud-Plattform mit 32 Rechenzentren weltweit und AMD Instinct™ MI300X GPUs

Cirrascale Cloud Services

Cirrascale AI Innovation Cloud unterstützt die neuesten AMD Instinct™ Beschleuniger und wurde speziell für die anspruchsvollsten KI- und HPC-Auslastungen entwickelt. 

TensorWave

Die KI-Cloud-Plattform von TensorWave, die AMD Instinct™-Serie GPUs und die klassenbeste Inferenz-Engine bietet, ist die beste Wahl für Training, Feinabstimmung und Inferenz.

Nscale

Greifen Sie mit der KI-Cloud von Nscale, die für rechenintensive Auslastungen entwickelt wurde, auf die AMD Instinct™ MI300X und MI250X GPUs zu.

Hot Aisle

On-Demand-High-Performance-Computing mit fortschrittlichen, erstklassigen Bare-Metal-Computing-Lösungen auf Basis von AMD Instinct-Beschleunigern.

Aligned

Skalieren Sie maßgeschneiderte KI-Auslastungen ganz einfach mit der Cloud von Aligned, die mit AMD Instinct™ Beschleunigern ausgestattet ist. So erhalten Sie unübertroffene Performance und Effizienz.

Baionity

Baionity nutzt AMD Instinct GPUs und ein ISO-zertifiziertes Rechenzentrum, um das volle Potenzial der KI-Technologie für Effizienz, Sicherheit und Skalierbarkeit von KI-Workloads zu nutzen und gleichzeitig Datenintegrität und Compliance mit Branchenstandards sicherzustellen.

AMD Instinct™ in der Cloud evaluieren

Mit dem AMD Instinct Evaluierungsprogramm können Start-ups und Unternehmen ihre KI- und HPC-Workload-Anforderungen an AMD Instinct™ GPUs und AMD ROCm™ Software-Stack über AMD Partner bewerten.

Lösungen finden

Partner finden, die Lösungen mit AMD Instinct Beschleunigern anbieten.

Fallstudien

Ressourcen

Immer informiert bleiben

Melden Sie sich an und erhalten Sie alle Neuigkeiten über Rechenzentren und Server.

Fußnoten
  1. MI325-001A – Berechnungen durchgeführt vom AMD Leistungslabor am 26. September 2024 basierend auf aktuellen Spezifikationen und/oder Schätzungen. Der AMD Instinct™ MI325X OAM Beschleuniger wird über eine HBM3E-Speicherkapazität von 256 GB und eine theoretische GPU-Speicherbandbreite von 6 TB/s verfügen. Die tatsächlichen Ergebnisse auf Basis von Chips aus der Produktion können abweichen.
    Die höchsten veröffentlichten Ergebnisse für den Nvidia Hopper H200 (141 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 141 GB HBM3E und eine GPU-Speicherbandbreite von 4,8 TB/s.  https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
    Die höchsten veröffentlichten Ergebnisse für den Nvidia Blackwell HGX B100 (192 GB) 700-W-GPU-Beschleuniger ergaben eine HBM3E-Speicherkapazität von 192 GB und eine GPU-Speicherbandbreiten-Performance von 8 TB/s.
    Die höchsten veröffentlichten Ergebnisse für den Nvidia Blackwell HGX B200 (192 GB) GPU-Beschleuniger ergaben eine HBM3E-Speicherkapazität von 192 GB und eine GPU-Speicherbandbreiten-Performance von 8 TB/s.
    Nvidia Blackwell-Spezifikationen unter https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW
  2. Top-500-Liste, Juni 2024