Une base solide pour l'innovation en IA
Avec l'émergence d'une nouvelle vague d'applications évoluant rapidement, l'IA est la technologie qui façonne la nouvelle génération de calcul. De la création d'environnements virtuels réalistes pour le gaming et le divertissement à l'assistance aux scientifiques dans le traitement et la guérison des maladies, en passant par l'aide à l'humanité pour mieux se préparer au changement climatique, l'IA est en mesure de relever les défis les plus importants de la planète. L'explosion de l'IA générative et des grands modèles de langage (LLM), associée au rythme d'innovation rapide des applications d'IA, entraîne une énorme demande en ressources de calcul et nécessite des solutions performantes, économes en énergie, omniprésentes et capables d'évoluer du cloud vers la périphérie et les terminaux.
Forte d'un vaste portefeuille de plateformes IA, AMD est idéalement positionnée pour répondre à cette demande. Basées sur des architectures innovantes telles qu'AMD XDNA™ (une architecture de flux de données adaptative avec moteurs d'IA), AMD CDNA™ (une architecture révolutionnaire permettant l'accélération des GPU dans le centre de données) et AMD RDNA™ (une architecture accélérée par l'IA pour les gamers), AMD fournit une base complète de CPU, de GPU, de FPGA, de SoC adaptatifs et d'autres accélérateurs capables de traiter les charges de travail d'IA les plus exigeantes avec des performances de niveau exascale.
Accélérateurs AMD Instinct™
AMD investit dans le marché des accélérateurs de centre de données depuis de nombreuses années. Avec l'IA générative et les LLM, l'augmentation des besoins en termes de performances de calcul supérieures est exponentielle, tant pour l'entraînement que pour l'inférence. Les GPU sont indispensables au bon fonctionnement de l'IA générative, et aujourd'hui, les GPU AMD Instinct™ équipent plusieurs des supercalculateurs les plus rapides au monde qui utilisent l'IA pour accélérer la recherche sur le cancer ou créer des LLM de pointe avec des milliards de paramètres, utilisés par la communauté scientifique mondiale.
Les accélérateurs AMD Instinct sont conçus pour accélérer considérablement les charges de travail HPC et IA. S'appuyant sur l'architecture innovante AMD CDNA et optimisé pour des performances et une efficacité énergétique de niveau exascale, l'accélérateur AMD Instinct™ MI300A est la première unité de calcul accéléré (APU) au monde pour le HPC et l'IA, avec 24 cœurs de CPU « Zen 4 » et 128 Go de mémoire HBM3 partagée entre le CPU et le GPU pour offrir d'incroyables performances.
Le GPU AMD Instinct™ MI300X est un accélérateur de 153 milliards de transistors délivrant des performances spécialement adaptées à l'avenir de l'IA. Basé sur la même plateforme que l'accélérateur AMD Instinct MI300A, le GPU AMD Instinct MI300X a été reconstruit autour de l'accélération de l'IA générative. En supprimant les trois matrices de calcul du processeur AMD EPYC™ au profit de deux chiplets de GPU supplémentaires, le GPU AMD Instinct MI300X augmente la mémoire de la plateforme de 64 Go pour un total impressionnant de 192 Go de mémoire HBM3, ce qui représente jusqu'à 2,4 fois la densité du produit concurrent, et 5,2 To/s de bande passante mémoire, soit 1,6 fois la bande passante du produit concurrent.1
La nouvelle plateforme AMD Instinct permettra également aux clients de centres de données de combiner jusqu'à huit GPU AMD Instinct MI300X dans une conception standard pour obtenir une solution simple et prête à l'emploi offrant jusqu'à 1,5 To de mémoire HBM3. Optimisé par AMD ROCm™, une plateforme logicielle ouverte et éprouvée qui propose des langages open source, des compilateurs, des bibliothèques et des outils, l'ajout des accélérateurs AMD Instinct MI300X constitue une mise à niveau puissante de l'infrastructure d'IA.
Des processeurs pour l'accélération de l'IA
La réussite de l'IA nécessite plusieurs moteurs d'IA, du cloud vers la périphérie et les terminaux. En plus des accélérateurs AMD Instinct, les processeurs AMD EPYC prennent en charge une large gamme de charges de travail d'IA dans le centre de données, offrant des performances concurrentielles basées sur des benchmarks standards de l'industrie tels que TPCx-AI, qui mesure les performances de pipeline d'IA de bout en bout dans dix cas d'utilisation et un grand nombre d'algorithmes différents.2
Avec jusqu'à 96 cœurs par processeur AMD EPYC de 4e génération, les serveurs prêts à l'emploi peuvent accélérer de nombreuses applications de centre de données et de périphérie, y compris l'assistance client, la vente au détail, le secteur automobile, les services financiers, le secteur médical et la fabrication.
Autres produits de la gamme AMD IA
AMD a récemment lancé les processeurs AMD Ryzen™ Série 7040 pour les PC grand public et commerciaux, qui incluent le premier moteur d'IA dédié au monde sur un processeur x86.3 Basé sur la technologie AMD XDNA, ce nouvel accélérateur d'IA peut exécuter jusqu'à 10 000 milliards d'opérations d'IA par seconde (TOPS), offrant des expériences d'IA fluides associées à une autonomie et une vitesse incroyables et préparant les utilisateurs pour l'avenir avec l'IA.
Les clients utilisent également les accélérateurs AMD Alveo™, les SoC adaptatifs Versal™ et les FPGA leaders dans de nombreux secteurs tels que l'aérospatiale, où les rovers Mars de la NASA peuvent accélérer la détection d'images basée sur l'IA, ou bien le secteur automobile, où l'assistance au conducteur et les fonctions de sécurité avancées utilisent la technologie AMD. La technologie AMD facilite également la robotique assistée par IA pour les applications industrielles et permet des diagnostics plus rapides et plus précis dans les applications médicales.
AMD permet à l'écosystème ouvert d'accélérer l'innovation
En plus de fournir un portefeuille matériel capable de gérer les charges de travail d'IA les plus exigeantes, AMD travaille à la mise en œuvre de logiciels d'IA ouverts et accessibles. Les développeurs et partenaires peuvent tirer parti des outils logiciels AMD pour optimiser les applications d'IA sur le matériel AMD. Aujourd'hui, la pile inclut AMD ROCm pour les accélérateurs de GPU AMD Instinct, l'IA AMD Vitis™ pour les accélérateurs adaptatifs, les SoC et les FPGA, ainsi que les bibliothèques open source AMD pour les processeurs AMD EPYC.
AMD construit également un écosystème d'IA avec du matériel, des logiciels ouverts, des outils, des bibliothèques et des modèles qui aident à réduire les barrières d'entrée pour les développeurs et les chercheurs. Parmi les exemples récents, on peut citer le partenariat d'AMD avec la PyTorch Foundation et Hugging Face.
En début d'année, PyTorch, la célèbre structure d'IA, a lancé sa version stable 2.0, ce qui représente un pas en avant significatif permettant aux utilisateurs de bénéficier de performances encore plus élevées. En tant que membre fondateur de la PyTorch Foundation, AMD est ravie que la version PyTorch 2.0 inclue la prise en charge des cœurs graphiques AMD Instinct et AMD Radeon™, pris en charge par la plateforme logicielle ouverte AMD ROCm.
Hugging Face, une plateforme d'IA open source leader sur le marché disposant de plus de 500 000 modèles et jeux de données, a annoncé une collaboration stratégique avec AMD afin d'optimiser les modèles pour les plateformes AMD, qui permettra de maximiser les performances et la compatibilité de milliers de LLM que les clients utiliseront dans leurs applications personnelles et commerciales. AMD optimisera également ses produits afin d'améliorer les performances et la productivité avec les modèles proposés par Hugging Face et ses utilisateurs. Ce partenariat offrira à la communauté open source un excellent choix de bout en bout pour accélérer l'innovation en matière d'IA et permettra aux développeurs d'accéder plus facilement à l'inférence et à l'apprentissage des modèles d'IA.
Récapitulatif
AMD étend les avantages de l'IA en permettant aux clients de déployer facilement l'IA et en fournissant des solutions qui s'adaptent à une large gamme d'applications, des processeurs et SoC adaptatifs utilisant des moteurs d'IA aux inférences de périphérie, en passant par l'inférence par IA à grande échelle et l'apprentissage dans les centres de données.
Contactez votre représentant AMD local dès aujourd'hui pour en savoir plus sur les nouvelles solutions disponibles dès maintenant et celles qui seront commercialisées plus tard dans l'année.
Notes de bas de page
- MI300-005 : les calculs réalisés par AMD Performance Labs au 17 mai 2023 pour l'accélérateur OAM AMD Instinct™ MI300X 750 W (192 Go HBM3) conçu avec la technologie de processus AMD CDNA™ 3 FinFet 5 nm ont indiqué une capacité de mémoire HBM3 de 192 Go et des performances soutenues de bande passante mémoire de crête de 5,218 TFLOPS. L'interface bus mémoire MI300X est de 8 192 bits et la vitesse de données de la mémoire est de 5,6 Gbit/s pour une bande passante mémoire de crête soutenue totale de 5,218 To/s (interface de bus mémoire de 8 192 bits * vitesse de données de mémoire de 5,6 Gbit/s/8)*0,91 d'ajustement délivré. Les résultats publiés les plus élevés sur l'accélérateur de GPU NVidia Hopper H100 (80 Go) SXM ont indiqué une capacité de mémoire HBM3 de 80 Go et des performances de bande passante mémoire du GPU de 3,35 To/s.
- SP5-005C : Comparaison SPECjbb® 2015-MultiJVM Max sur la base des résultats publiés le 10/11/2022. Configurations : un AMD EPYC 9654 2P (815459 SPECjbb®2015 MultiJVM max-jOPS, 356204 SPECjbb®2015 MultiJVM critical-jOPS, 192 cœurs au total http://www.spec.org/jbb2015/results/res2022q4/jbb2015-20221019-00861.html), vs un AMD EPYC 7763 2P (420774 SPECjbb®2015 MultiJVM max-jOPS, 165211 SPECjbb®2015 MultiJVM critical-jOPS, 128 cœurs au total, http://www.spec.org/jbb2015/results/res2021q3/jbb2015-20210701-00692.html). SPEC® et SPECrate® sont des marques déposées de la Standard Performance Evaluation Corporation. Rendez-vous sur www.spec.org pour plus d'informations.
- PHX-3a : Depuis mai 2023, AMD possède le premier et le seul moteur d'IA dédié disponible sur un processeur Windows x86, où « moteur d'IA dédié » est défini comme un moteur d'IA qui n'a aucune fonction autre que le traitement des modèles d'inférence d'IA et qui fait partie de la matrice de processeur x86. Pour plus d'informations, veuillez consulter : https://www.amd.com/fr/technologies/xdna.html.
- MI300-005 : les calculs réalisés par AMD Performance Labs au 17 mai 2023 pour l'accélérateur OAM AMD Instinct™ MI300X 750 W (192 Go HBM3) conçu avec la technologie de processus AMD CDNA™ 3 FinFet 5 nm ont indiqué une capacité de mémoire HBM3 de 192 Go et des performances soutenues de bande passante mémoire de crête de 5,218 TFLOPS. L'interface bus mémoire MI300X est de 8 192 bits et la vitesse de données de la mémoire est de 5,6 Gbit/s pour une bande passante mémoire de crête soutenue totale de 5,218 To/s (interface de bus mémoire de 8 192 bits * vitesse de données de mémoire de 5,6 Gbit/s/8)*0,91 d'ajustement délivré. Les résultats publiés les plus élevés sur l'accélérateur de GPU NVidia Hopper H100 (80 Go) SXM ont indiqué une capacité de mémoire HBM3 de 80 Go et des performances de bande passante mémoire du GPU de 3,35 To/s.
- SP5-005C : Comparaison SPECjbb® 2015-MultiJVM Max sur la base des résultats publiés le 10/11/2022. Configurations : un AMD EPYC 9654 2P (815459 SPECjbb®2015 MultiJVM max-jOPS, 356204 SPECjbb®2015 MultiJVM critical-jOPS, 192 cœurs au total http://www.spec.org/jbb2015/results/res2022q4/jbb2015-20221019-00861.html), vs un AMD EPYC 7763 2P (420774 SPECjbb®2015 MultiJVM max-jOPS, 165211 SPECjbb®2015 MultiJVM critical-jOPS, 128 cœurs au total, http://www.spec.org/jbb2015/results/res2021q3/jbb2015-20210701-00692.html). SPEC® et SPECrate® sont des marques déposées de la Standard Performance Evaluation Corporation. Rendez-vous sur www.spec.org pour plus d'informations.
- PHX-3a : Depuis mai 2023, AMD possède le premier et le seul moteur d'IA dédié disponible sur un processeur Windows x86, où « moteur d'IA dédié » est défini comme un moteur d'IA qui n'a aucune fonction autre que le traitement des modèles d'inférence d'IA et qui fait partie de la matrice de processeur x86. Pour plus d'informations, veuillez consulter : https://www.amd.com/fr/technologies/xdna.html.