Solide Grundlage für KI-Innovation

KI ist die entscheidende Technologie, welche die nächste Generation des Computing prägt, da sich eine neue Welle von KI-Anwendungen mit rasantem Tempo entwickelt. KI hat das Potenzial, einige der weltweit größten Herausforderungen zu lösen – egal, ob es sich dabei um das Erstellen von realistischen virtuellen Umgebungen für Gaming und Entertainment, die Unterstützung von Wissenschaftlern bei der Behandlung und Heilung von Krankheiten oder die bessere Vorbereitung der Menschen auf den Klimawandel handelt. Die explosionsartige Entwicklung bei Generative AI und Large Language Models (LLMs) in Kombination mit dem rasanten Tempo bei den Innovationen für KI-Anwendungen führt zu einer enormen Nachfrage nach Rechenressourcen und erfordert Lösungen, die leistungsstark, energieeffizient, allgegenwärtig und von der Cloud über die Edge bis zu den Endpunkten skalierbar sind.

AMD ist mit einem vielfältigen Angebot von KI-Plattformen einzigartig positioniert. Basierend auf innovativen Architekturen wie AMD XDNA™ (einer adaptiven Datenflussarchitektur mit KI-Engines), AMD CDNA™ (einer bahnbrechenden Architektur für GPU-Beschleunigung im Rechenzentrum) und AMD RDNA™ (einer KI-beschleunigten Architektur für Gamer) liefert AMD eine umfassende Grundlage mit CPUs, GPUs, FPGAs, adaptiven SoCs und anderen Beschleunigern, welche die anspruchsvollsten KI-Auslastungen mit Performance im Exascale-Bereich bewältigen können.

AMD Instinct™ Beschleuniger

AMD investiert seit vielen Jahren in den Markt für Rechenzentrumsbeschleuniger. Mit Generative AI und LLMs wächst der Bedarf an mehr Computing-Performance sowohl für Training als auch Inferenz exponentiell. GPUs sind eine der Triebfedern für Generative AI, und die AMD Instinct™ GPUs sind heute in viele der schnellsten Supercomputer integriert, die KI zur Beschleunigung der Krebsforschung oder Erstellung von hochmodernen LLMs mit Milliarden von Parametern nutzen, die von der weltweiten wissenschaftlichen Community verwendet werden.

AMD Instinct Beschleuniger sind so konzipiert, dass sie HPC- und KI-Auslastungen signifikant beschleunigen. Der AMD Instinct™ MI300A Beschleuniger baut auf der innovativen AMD CDNA-Architektur auf und ist für Performance im Exascale-Bereich und Energieeffizienz optimiert. Er ist die weltweit erste beschleunigte Prozessoreinheit (APU, Accelerated Processing Unit) für HPC und KI und stellt 24 „Zen 4“ CPU-Kerne und 128 GB HBM3-Speicher verteilt auf CPU und GPU für unglaubliche Performance bereit.

Die AMD Instinct™ MI300X GPU ist ein Beschleuniger mit 153 Milliarden Transistoren und liefert Performance speziell für die Zukunft des KI-Computings. Basierend auf der gleichen Plattform wie der AMD Instinct MI300A Beschleuniger wurde die AMD Instinct MI300X GPU mit generativer KI-Beschleunigung als Kernstück neu aufgebaut. Bei der AMD Instinct MI300X GPU wurden die drei AMD EPYC™ Prozessor-Rechenchips durch zwei zusätzliche GPU-Chiplets ersetzt, wodurch der Speicher der Plattform um 64 GB auf eine erstaunliche Gesamtgröße von 192 GB HBM3 erhöht wurde. Im Vergleich zu Wettbewerberprodukten entspricht dies einer 2,4-fachen Dichte und der 1,6-fachen Bandbreite bei einer Speicherbandbreite von 5,2 TB/s.1

Mit der neuen AMD Instinct Plattform können Rechenzentrumskunden bis zu acht AMD Instinct MI300X GPUs in einem branchenüblichen Design kombinieren und so eine einfache einsatzbereite Lösung erhalten, die bis zu 1,5 TB HBM3-Speicher bereitstellt. Die neu hinzugefügten AMD Instinct MI300X Beschleuniger mit AMD ROCm™, einer offenen und bewährten Softwareplattform mit Open-Source-Sprachen, -Compilern, -Bibliotheken und -Tools, sind ein leistungsstarkes Upgrade für die KI-Infrastruktur.

Prozessoren für die KI-Beschleunigung

Eine erfolgreiche KI erfordert mehrere KI-Engines von der Cloud über die Edge bis zu den Endpunkten. Neben den AMD Instinct Beschleunigern unterstützen die AMD EPYC Prozessoren eine Vielzahl von KI-Auslastungen im Rechenzentrum und bieten eine wettbewerbsfähige Performance auf der Grundlage von Branchen-Benchmarks wie TPCx-AI, bei der die durchgängige Performance der KI-Pipeline über 10 verschiedene Anwendungsfälle hinweg und viele verschiedene Algorithmen gemessen wird.2

Mit bis zu 96 Kernen pro AMD EPYC Prozessor der 4. Generation können die sofort einsatzbereiten Server viele Rechenzentrums- und Edge-Anwendungen beschleunigen, einschließlich Kundenbetreuung, Einzelhandel, Automobilbranche, Finanzdienstleistungen, Medizin und Fertigung.

Zusätzliche Produkte im AMD KI-Portfolio

AMD hat vor Kurzem die AMD Ryzen™ 7040-Serie Prozessoren für Verbraucher- und Unternehmens-PCs auf den Markt gebracht. Darin enthalten ist die weltweit erste dedizierte KI-Engine auf einem x86-Prozessor.3 Dieser neue KI-Beschleuniger mit AMD XDNA Technologie kann bis zu 10 Billionen KI-Vorgänge pro Sekunde (TOPS) ausführen und so nahtlose KI-Erlebnisse mit unglaublicher Akkulaufzeit und Geschwindigkeit ermöglichen. So sind die Benutzer für die Zukunft mit KI bestens ausgestattet. 

Kunden verwenden außerdem AMD Alveo™ Beschleuniger, Versal™ adaptive SoCs und führende FPGAs in vielen Branchen. Hierzu gehören z. B. die Luft- und Raumfahrt, wo die Mars-Rover der NASA die AI-basierte Bilderkennung beschleunigen können, oder die Automobilbranche, in der Fahrerassistenzsysteme und fortschrittliche Sicherheitsfunktionen auf AMD Technologie basieren. AMD Technologie ermöglicht zudem KI-gestützte Roboter für industrielle Anwendungen und sorgt für schnellere und präzisere Diagnosen in medizinischen Anwendungen. 

AMD ermöglicht offenes Ökosystem für beschleunigte Innovation

Neben der Bereitstellung eines Hardwareportfolios, das selbst anspruchsvollste KI-Auslastungen bewältigen kann, arbeitet AMD an der Entwicklung von KI-Software, die offen und zugänglich ist. Entwickler und Partner können die AMD Softwaretools nutzen, um KI-Anwendungen auf AMD Hardware zu optimieren. Heute umfasst der Stack AMD ROCm für AMD Instinct GPU-Beschleuniger, AMD Vitis™ AI für adaptive Beschleuniger, SoCs und FPGAs sowie AMD Open-Source-Bibliotheken für AMD EPYC Prozessoren.

AMD entwickelt außerdem ein KI-Ökosystem mit Hardware und Open-Source-Software,- Tools, -Bibliotheken und -Modellen, die dazu beitragen, die Einstiegshürden für Entwickler und Forscher zu senken. Die Zusammenarbeit von AMD mit der PyTorch Foundation und Hugging Face sind zwei aktuelle Beispiele.

Anfang dieses Jahres brachte PyTorch, das beliebte KI-Framework, seine stabile Version 2.0 auf den Markt, die einen bedeutenden Schritt nach vorn darstellt und den Benutzern eine noch höhere Performance ermöglicht. Als Gründungsmitglied der PyTorch Foundation freut sich AMD sehr, dass das Release PyTorch 2.0 Unterstützung für den AMD Instinct und die AMD Radeon™ Grafikkarte bietet, die von der offenen Softwareplattform AMD ROCm unterstützt werden.

Hugging Face, eine führende Open-Source-KI-Plattform mit mehr als 500.000 Modellen und Datensätzen, gab eine strategische Zusammenarbeit mit AMD bekannt, um die Modelle für AMD Plattformen zu optimieren und so maximale Performance und Kompatibilität für Tausende von LLMs zu erzielen, die Kunden in privaten und kommerziellen Anwendungen einsetzen werden. AMD wird zudem seine Produkte optimieren, um die Performance und Produktivität für die von Hugging Face und seinen Kunden angebotenen Modelle zu verbessern. Diese Zusammenarbeit wird der Open-Source-Community eine hervorragende, durchgängige Lösung für die Beschleunigung von KI-Innovationen bieten und das Trainieren und Inferenzieren von KI-Modellen für Entwickler leichter zugänglich machen.

Zusammenfassung

AMD macht die Vorteile von KI allgegenwärtig, denn das Unternehmen ermöglicht Kunden, die Bereitstellung von KI mit Leichtigkeit anzugehen. Außerdem bietet AMD Lösungen an, die über eine breite Palette von Anwendungen skalierbar sind: von Prozessoren und adaptiven SoCs mit KI-Engines über Edge-Inferenz bis hin zu großer KI-Inferenz und Training in Rechenzentren.

Wenden Sie sich noch heute an Ihren regionalen AMD Ansprechpartner , um mehr über die neuen Lösungen zu erfahren, die aktuell verfügbar sind und noch bis Ende des Jahres auf den Markt kommen.

Fußnoten
  1. MI300-005: Berechnungen durchgeführt vom AMD Leistungslabor vom 17.05.2023 für den AMD Instinct™ MI300X OAM Beschleuniger 750 W (192 GB HBM3), entwickelt mit AMD CDNA™ 3 5-nm-FinFet-Prozesstechnologie, was 192 GB HBM3-Speicherkapazität und eine Performance von 5,218 TFLOPS anhaltender Spitzenspeicherbandbreite ergab. Die Speicherbus-Schnittstelle von MI300X ist 8.192 und die Speicherdatenrate beträgt 5,6 GB/s für eine anhaltende Spitzenspeicherbandbreite von insgesamt 5,218 TB/s (8.192 Bit Speicherbus-Schnittstelle * 5,6 GB/s Speicherdatenrate / 8) * 0,91 bereitgestellte Anpassung.  Die höchsten veröffentlichten Ergebnisse für den NVidia Hopper H100 (80 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 80 GB HBM3 und eine GPU-Speicherbandbreite von 3,35 TB/s.
  2. SP5-005C: Vergleich in SPECjbb® 2015-MultiJVM Max basiert auf veröffentlichten Ergebnissen vom 10.11.2022. Konfigurationen: 2P AMD EPYC 9654 (815459 SPECjbb®2015 MultiJVM max-jOPS, 356204 SPECjbb®2015 MultiJVM critical-jOPS, insgesamt 192 Kerne, http://www.spec.org/jbb2015/results/res2022q4/jbb2015-20221019-00861.html)  im Vergleich zu 2P AMD EPYC 7763 (420774 SPECjbb®2015 MultiJVM max-jOPS, 165211 SPECjbb®2015 MultiJVM critical-jOPS, insgesamt 128 Kerne, http://www.spec.org/jbb2015/results/res2021q3/jbb2015-20210701-00692.html).  SPEC® und SPECrate® sind eingetragene Marken der Standard Performance Evaluation Corporation. Weitere Informationen auf www.spec.org.
  3. PHX-3a: Mit Stand Mai 2023 verfügt AMD über die erste und einzige erhältliche KI-Engine für Windows x86-Prozessoren. „Dedizierte KI-Engine“ ist hierbei als eine KI-Engine definiert, deren einzige Funktion das Verarbeiten von KI-Inferenzmodellen und die Teil des x86-Prozessor-Die ist. Weitere Informationen finden Sie unter: https://www.amd.com/de/technologies/xdna.html.