
AMD Instinct Plattformen
Umfasst entweder 8 MI325X oder MI300X Beschleuniger in einer einzigen UBB-Platinenbauform für maximale Rechnerleistung
KI und HPC für neue Entdeckungen auf ein neues Level bringen
Der AMD Instinct™ MI325X GPU-Beschleuniger setzt mit der AMD CDNA™ Architektur der 3. Generation neue Maßstäbe in der KI-Leistung und bietet unglaubliche Performance und Effizienz für Training und Inferenz. Mit einem branchenführenden HBM3E-Speicher mit 256 GB und einer Bandbreite von bis zu 6 TB/s optimieren sie die Performance und tragen zur Senkung der Gesamtbetriebskosten bei.1
AMD Instinct™ Beschleuniger ermöglichen eine führende Performance für das Rechenzentrum im großen Maßstab – von Einzelserver-Lösungen bis hin zu den weltweit größten Supercomputern der Exascale-Klasse.2
Sie sind hervorragend geeignet, um selbst die anspruchsvollsten KI- und HPC-Auslastungen zu bewältigen, und bieten eine außergewöhnliche Rechenleistung, große Speicherdichte, High Bandwidth Memory und Unterstützung für spezielle Datenformate.
AMD Instinct Beschleuniger basieren auf der AMD CDNA™ Architektur mit Matrix-Core-Technologien und Unterstützung für eine Vielzahl von Genauigkeiten – von hocheffizienten INT8 und FP8 (mit Sparsity-Unterstützung für KI mit AMD CDNA 3) bis zu anspruchsvollsten FP64 für HPC.
AMD ROCm™ Software beinhaltet ein breites Spektrum an Programmierungsmodellen, Tools, Compilern, Bibliotheken und Laufzeiten für KI-Modelle und HPC-Auslastungen, die auf AMD Instinct Beschleuniger ausgerichtet sind.
AMD Instinct Beschleuniger sind in der Cloud verfügbar, um die Anforderungen an Skalierbarkeit, Flexibilität und Performance komplexer Computing-Auslastungen wie KI zu erfüllen.
Mit dem AMD Instinct Evaluierungsprogramm können Start-ups und Unternehmen ihre KI- und HPC-Workload-Anforderungen an AMD Instinct™ GPUs und AMD ROCm™ Software-Stack über AMD Partner bewerten.
Partner finden, die Lösungen mit AMD Instinct Beschleunigern anbieten.
Melden Sie sich an und erhalten Sie alle Neuigkeiten über Rechenzentren und Server.