Zur Unterstützung der Zukunft von KI und HPC

KI und High-Performance-Computing (HPC) transformieren die Branchen in allen Bereichen. So ermöglichen sie Automatisierung, eine verbesserte Entscheidungsfindung und die Bereitstellung neuer Produkte und Services. In nahezu jedem Bereich und jeder Branche führen neue Möglichkeiten zu einer höheren Produktivität, besseren Geschäftsergebnissen und einer positiveren Zukunft.

Allerdings treibt die unstillbare Nachfrage nach Rechenleistung den Bedarf an leistungsstärkerer Hardware in die Höhe. Da immer mehr Unternehmen Systeme aufbauen, die groß genug sind, um das Niveau der generativen KI und des maschinellen Lernens zu erreichen, das für die Unterstützung von Millionen von Nutzern erforderlich ist, tritt Effizienz und Platzbedarf in den Vordergrund – wie können Kunden also Lösungen konfigurieren, die viele Komponenten, viele Systeme und einen erheblichen Energiebedarf erfordern?

Für Kunden, die KI und HPC in ihrem Unternehmen nutzen möchten, sind die AMD Instinct™ Beschleuniger genau das Richtige: Sie bieten unglaubliche Performance, ohne dass die Servergröße oder der Energieverbrauch sprunghaft ansteigen. Dies wird durch revolutionäre Ansätze bei der Architektur und Produktinnovationen möglich. AMD freut sich, die Verfügbarkeit des AMD Instinct MI300X Beschleunigers ankündigen zu können. Hierbei handelt es sich um ein GPU-Produkt mit der Leistung, die Kunden benötigen, um die anspruchsvollsten KI- und HPC-Auslastungen zu erfüllen – welche Branche sie auch immer bedienen.

KI und HPC in die Exascale-Ära beschleunigen

AMD Instinct Beschleuniger basieren auf der AMD CDNA™ Architektur und definieren Computing für das moderne Unternehmen völlig neu. Dieser Prozess wurde von Grund auf für die Exascale-Ära konzipiert und bietet enorme Performance-Steigerungen im Vergleich zu GCN-basierten Produkten der vorherigen Generation, wie z. B. den AMD Radeon™ Instinct Produkten.1  Mit einer neuen Generation der AMD Instinct Produkte wird dieser Performance-Vorsprung nun immer größer.

AMD Instinct MI300-Serie Beschleuniger wurden mit der AMD CDNA Architektur der 3. Generation konzipiert und Anfang diesen Jahres mit der Einführung des AMD Instinct™ MI300A APU-Beschleunigers präsentiert, der weltweit ersten APU speziell für KI- und HPC-Auslastungen. Als leistungsstarker Beschleuniger für bahnbrechende Dichte und Effizienz kombiniert der AMD Instinct MI300A Beschleuniger CPU, GPU und Speicher mit hoher Bandbreite (High-Bandwidth Memory, HBM3) in einer APU für vielseitige Performance über zahlreiche hochmoderne Auslastungen hinweg, die von der beschleunigten Hardware profitieren.

Nun, da KI sowohl in Bezug auf mögliche Anwendungen als auch auf die Nachfrage weiter wächst, schließt sich der AMD Instinct MI300X GPU-Beschleuniger den vorhandenen AMD Produkten auf dem Markt an und liefert das Maß an Performance, das von den Kunden benötigt wird. Der AMD Instinct MI300X Beschleuniger verzichtet auf CPU-Kerne und konzentriert sich stattdessen ausschließlich auf die Bereitstellung reiner GPU-Leistung, wobei bis zu acht GPUs in einem Knoten untergebracht werden können. Das Ergebnis? Unglaubliche Performance und HBM3-Speicherkapazität, unterstützt durch führende Speicherbandbreite, um die Beschleunigung seit langem bestehender HPC-Arbeitslasten und die jüngste Explosion der Rechenanforderungen für generative KI auf ein neues Niveau zu heben.2

AMD Instinct MI300X Beschleuniger bieten 192 GB HBM3-Speicher und somit ungefähr die 2,4-fache Dichte der Konkurrenzprodukte. Dabei werden sie durch eine Spitzenspeicherbandbreite von bis zu 5,3 TB/s unterstützt und bieten ca. die 1,6-fache Bandbreite im Vergleich zu verfügbaren Konkurrenzprodukten.

Effizienz im großen Maßstab

Mit der Skalierung von KI-Auslastungen muss sich auch die Hardware anpassen, mit der sie betrieben werden. Der Platz wird schnell knapp, da Unternehmen zur Erfüllung der Nachfrage skalieren, und er wird zum Engpass, den die Kunden überwinden müssen.

In diesem Sinne bieten die AMD Instinct MI300X Beschleuniger eine Drop-in-Lösung für das OCP-Plattformdesign nach UBB-Branchenstandard, die es Kunden ermöglicht, acht GPUs in einem einzigen, auf Performance ausgelegten Knoten mit einem vollständig verbundenen Peer-to-Peer-Ringdesign mit insgesamt 1,5 TB HBM3-Speicher in einer einzigen Plattform zu kombinieren – eine performancedichte Lösung für jede KI- oder HPC-Auslastungsbereitstellung.

AMD ROCm™: die offene Softwareplattform voller KI-Möglichkeiten

AMD ROCm™ ist die einzige offene Softwareplattform für GPU-Computing der Branche, die die Kunden davon befreit, an begrenzte Optionen eines einzelnen Anbieters gebunden zu sein. Mit einer offenen und portablen Softwareplattform können Kunden ihre Architektur flexibler gestalten und mehr aus ihrer Hardware machen.

AMD trägt dazu bei, die Möglichkeiten im Bereich der KI voranzutreiben, dank innovativer Produkte wie dem AMD MI300X Beschleuniger. Erfahren Sie jetzt mehr über die AMD Instinct Beschleuniger, die ein offenes Ökosystem, eine immer breitere Palette leistungsfähiger Produkte für Serveranwender und maßgeschneiderte Lösungen durch dedizierte und anpassbare Architekturen bieten. Entfesseln Sie jetzt die Möglichkeiten der KI und des High-Performance-Computing.

Für weitere Informationen wenden Sie sich noch heute an Ihren AMD Ansprechpartner oder besuchen Sie den AMD Instinct Hub.

Fußnoten
  1. MI100-04: Gleitkommaberechnungen des AMD Leistungslabors vom 18.09.2020 für AMD Instinct™ MI100 Beschleuniger ergaben bei max. 1.502 MHz Boost-Frequenz theoretisch max. 184,57 TFLOPS mit halber Präzision (FP16) und max. 46,14 TFLOPS mit einfacher Präzision (FP32-Matrix). Die Gleitkommaberechnungen für Radeon Instinct™ MI50 GPU bei max. 1.725 MHz ergaben theoretisch max. 26,5 TFLOPS mit halber Präzision (FP16) und max. 13,25 TFLOPS mit einfacher Präzision (FP32-Matrix). Serverhersteller können abweichende Konfigurationen anbieten, was zu anderen Ergebnissen führen kann.
  2. MI300-05A: Berechnungen durchgeführt vom AMD Leistungslabor am 17.05.2023 für den AMD Instinct™ MI300X OAM Beschleuniger 750 W (192 GB HBM3), entwickelt mit AMD CDNA™ 3 5-nm-FinFet-Prozesstechnologie, was 192 GB HBM3-Speicherkapazität und eine Performance von 5,218 TFLOPS anhaltender Spitzenspeicherbandbreite ergab. Die Speicherbus-Schnittstelle von MI300X ist 8.192 und die Speicherdatenrate beträgt 5,6 GB/s für eine anhaltende Spitzenspeicherbandbreite von insgesamt 5,218 TB/s (8.192 Bit Speicherbus-Schnittstelle * 5,6 GB/s Speicherdatenrate / 8) * 0,91 bereitgestellte Anpassung.  Die höchsten veröffentlichten Ergebnisse für den NVidia Hopper H100 (80 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 80 GB HBM3 und eine GPU-Speicherbandbreite von 3,35 TB/s.