IA : des points de terminaison, à l'edge, en passant par le cloud, le tout grâce à AMD
L'IA générative transforme le mode de fonctionnement des entreprises clientes. En fait, l'IA s'intègre rapidement à presque tous les processus d'entreprise qu'elle prend en charge, du service client à l'analyse des données, et cette intégration croissante ne fera que s'accentuer. Cependant, l'IA est une charge de travail relativement nouvelle, qui s'ajoute à l'infrastructure existante et met à rude épreuve les configurations matérielles actuelles.
Si les clients veulent profiter d'expériences d'IA fluides et de gains de productivité immédiatement et à long terme, ils ont besoin d'aide pour faire évoluer leur infrastructure informatique. C'est là que les technologies AMD entrent en jeu, offrant aux entreprises les performances et l'efficacité nécessaires pour exploiter les flux de travail existants en même temps que les nouvelles possibilités apportées par l'IA.
Découvrez le monde de l'IA avec les processeurs AMD EPYC™
Les processeurs AMD EPYC™ sont réputés pour propulser un tiers des serveurs dans le monde, et pour une bonne raison1. Offrant aux entreprises les meilleurs CPU de centre de données au monde, les processeurs AMD EPYC à usage général proposent des options jusqu'à 96 cœurs qui permettent de multiplier jusqu'à 1,75 fois les performances par watt de CPU, et par 1,8 les performances dans SPECrate® 2017_int_base, par rapport aux produits concurrents2.
Les CPU hautes performances d'AMD constituent une option solide pour les entreprises qui déploient des charges de travail d'IA telles que des systèmes de recommandation, des solutions d'apprentissage automatique et d'autres utilisations de l'IA générative.
L'exploitation d'une infrastructure standard éprouvée, combinée à une mise à niveau vers les puissants processeurs AMD EPYC, aide les clients à limiter les coûts liés à l'encombrement du serveur, à l'alimentation et aux dépenses initiales, et peut augmenter les performances et la densité des serveurs, ce qui contribue à mettre davantage de cas d'utilisation à portée de main et à améliorer le retour sur investissement.
En savoir plus sur les processeurs AMD EPYC™.
Accélérez l'IA avec les accélérateurs AMD Instinct™
De nombreuses charges de travail et cas d'utilisation en matière d'IA nécessitent plus que ce que les CPU AMD EPYC peuvent faire seuls. Les grands modèles de langage continuent de croître jusqu'à atteindre des centaines de milliards, voire des milliers de milliards, de paramètres.
Heureusement, AMD propose une gamme de moteurs de charge de travail pour traiter les tâches d'IA les plus exigeantes. Pour compléter l'ensemble des charges de travail d'IA gérées efficacement par les processeurs AMD EPYC, vient s'ajouter la puissance de l'accélération GPU, grâce aux accélérateurs AMD Instinct™. Alors que les CPU AMD pour serveurs gèrent les modèles de petite à moyenne taille et les déploiements d'inférence à charge de travail mixte, les accélérateurs AMD facilitent l'entraînement de l'IA en temps réel et à haut volume, les déploiements d'IA dédiés, les modèles de moyenne à grande taille et l'inférence en temps réel à grande échelle, ce qui accélère les résultats de l'IA pour les entreprises qui cherchent à tirer le meilleur parti des nouvelles technologies.
AMD propose une gamme de solutions GPU pour différents niveaux de performance et formats. Fleuron des accélérateurs AMD, le modèle Instinct™ MI300X, propulsé par la pile logicielle AMD ROCm™, permet une amélioration de la latence d'environ 2,1 fois par rapport au produit Nvidia H100 exécutant le chat Llama2-70b, et une multiplication par 8 environ par rapport aux produits de la génération précédente sur la latence globale de Llama2-70b3,4.
Grâce au logiciel open source AMD ROCm™ adapté aux entreprises et qui soutient l'accélération AMD, les entreprises peuvent rapidement être opérationnelles sur les charges de travail d'IA, avec la prise en charge d'environ 400 000 modèles Hugging Face et des engagements profonds avec d'autres leaders de l'IA, notamment PyTorch et OpenAI.
En savoir plus sur les accélérateurs AMD Instinct™.
Polyvalence assurée avec les accélérateurs AMD Alveo™
Leur conception étant adaptable, les accélérateurs AMD Alveo™ délivrent des performances en temps réel dans le centre de données pour toute une série de cas d'utilisation. Les clients sont en mesure d'optimiser la plateforme en fonction de la charge de travail requise, en l'adaptant à l'évolution des algorithmes et des exigences de l'application selon les besoins.
Dotés d'un temps de latence réduit pour les applications en temps réel et d'un débit et d'une efficacité élevés, les accélérateurs AMD Alveo sont idéaux pour les clients qui veulent s'assurer d'avoir ce dont ils ont besoin pour l'analyse de données, le HPC, l'accélération des médias et de l'infrastructure, et bien plus encore.
En savoir plus sur les accélérateurs AMD Alveo™.
Intégrez l'IA aux machines locales avec les processeurs AMD Ryzen™
L'IA ne fonctionne pas seulement dans les serveurs. Elle est désormais présente sur les appareils des utilisateurs finaux, améliorant la façon dont les personnes travaillent, rehaussant les processus traditionnels, et rendant le travail plus rapide et plus facile, ce qui permet aux équipes de concentrer leurs efforts pour voir les choses en plus grand.
Les processeurs AMD Ryzen™ PRO sont les plus avancés au monde et offrent une efficacité énergétique exceptionnelle pour les PC de bureau professionnels5. En outre, ils sont dotés du premier moteur d'IA intégré dans un processeur x866. Ce niveau d'activation de l'IA, des serveurs aux appareils clients, apporte des capacités incroyables qui n'étaient tout simplement pas possibles auparavant.
En savoir plus sur les processeurs AMD Ryzen™ PRO.
Complétez le tableau avec les SoC adaptatifs AMD Versal™ pour l'IA à l'edge
L'IA n'est pas non plus réservée aux PC et aux serveurs. Il existe de nombreuses applications où le traitement local de l'IA sur les appareils à l'edge peut avoir un impact considérable sur les performances et la sécurité.
Dans l'automobile, l'IA à l'edge peut améliorer la sécurité en assurant un traitement local des données des capteurs, afin de permettre la prise de décisions en temps réel. En effet, vous ne voudriez pas que votre véhicule autonome soit obligé d'attendre que les données soient traitées dans le cloud pour décider s'il doit freiner afin d'éviter un accident.
Dans le domaine de la santé, l'IA à l'edge peut améliorer l'équipement d'imagerie pour accélérer les diagnostics ou fournir une visualisation en temps réel pour faciliter les opérations chirurgicales. Elle peut aussi contribuer à protéger la vie privée des patients en évitant d'envoyer des données dans le cloud.
Et dans le domaine industriel, l'IA à l'edge peut aider les équipements d'usine à fonctionner de manière plus sûre et plus efficace. Les FPGA et les SoC adaptatifs d'AMD gèrent efficacement le prétraitement, l'inférence et le post-traitement des données pour les systèmes intégrés classiques et pilotés par l'IA. La toute dernière nouveauté AMD, le SoC adaptatif AMD Versal™ AI Edge Gen 2, gère l'ensemble de ces fonctions sur un seul processeur.
Les produits AMD Versal permettent aux clients d'intégrer l'IA dans tous les aspects de leur activité, en rendant les environnements grand public et industriels existants plus intelligents et en les dotant de l'IA.
En savoir plus sur les SoC adaptatifs AMD Versal™.
Les avantages de l'IA sont omniprésents et font partie intégrante de l'informatique moderne. Les entreprises doivent s'adapter et adopter des technologies innovantes comme celles d'AMD si elles veulent profiter de ces avantages.
Si vous souhaitez en savoir plus sur les produits AMD et la façon dont ils s'intègrent à l'écosystème grandissant de l'IA, contactez votre représentant local ou visitez le site Solutions d'IA d'AMD.
Ressources supplémentaires
AMD Arena
Améliorez vos connaissances sur les produits AMD avec des formations sur AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ et plus encore.
S'abonner
Recevez des communications mensuelles sur les derniers produits et ressources de formation AMD, ainsi que les webinaires Rencontrer les Experts.

Articles connexes
Notes de bas de page
- Source : Mercury Research Sell-in Revenue Shipment Estimates, T4 2023
- SP5-013D : comparaison SPECrate®2017_int_base basée sur les scores publiés à l'adresse suivante le 02/06/2023 : www.spec.org. Après comparaison, les résultats publiés pour la solution 2P AMD EPYC 9654 (SPECrate®2017_int_base de 1 800, TDP total de 720 W, 1 000 unités pour un total de 23 610 $, 192 cœurs au total, 2,500 perf/W, 0,076 perf/prix de CPU, http://spec.org/cpu2017/results/res2023q2/cpu2017-20230424-36017.html) sont 1,8 fois supérieurs aux résultats publiés pour la solution 2P Intel Xeon Platinum 8490H (SPECrate®2017_int_base de 1 000, TDP total de 700 W, 1 000 unités pour un total de 34 000 $, 120 cœurs au total, 1,429 perf/W, 0,029 perf/prix de CPU, http://spec.org/cpu2017/results/res2023q1/cpu2017-20230310-34562.html) [soit 1,75 fois les performances/W] [soit 2,59 fois les performances/prix de CPU]. Les résultats publiés pour la solution 2P AMD EPYC 7763 (SPECrate®2017_int_base de 861, TDP total de 560 W, 1 000 unités pour un total de 15 780 $, 128 cœurs au total, 1,538 perf/W, 0,055 perf/prix de CPU, http://spec.org/cpu2017/results/res2021q4/cpu2017-20211121-30148.html) sont présentés à 0,86 fois les performances à titre de référence [soit 1,08 fois les performances/W] [soit 1,86 fois les performances/prix de CPU]. Prix pour 1 000 unités AMD et prix et spécifications d'ARK.intel.com (par Intel) au 01/06/2023. SPEC®, SPEC CPU® et SPECrate® sont des marques déposées de la Standard Performance Evaluation Corporation. Rendez-vous sur www.spec.org pour plus d'informations.
- MI300-38A : Comparaison du temps de latence global pour la génération de texte à l'aide du modèle de chat Llama2-70b avec vLLM à l'aide d'un conteneur docker personnalisé pour chaque système, basée sur les tests internes d'AMD en date du 14/12/2023. Longueur de séquence de 2 048 jetons d'entrée et 128 jetons de sortie. Les tests vLLM ont utilisé une version améliorée du script benchmark_latency.py du répertoire benchmarks de https://github.com/vllm-project/vllm. Des améliorations ont été ajoutées pour permettre l'utilisation d'invites d'entrée de longueurs spécifiques. La version de vLLM utilisée pour le modèle MI300X contient des modifications qui ne sont pas encore disponibles en dehors d'AMD. Configurations : un serveur 2P propulsé par des CPU Intel Xeon Platinum 8480C exécutant 8 GPU AMD Instinct™ MI300X (192 Go, 750 W), version préliminaire de ROCm® 6.1.0, PyTorch 2.2.0, vLLM pour ROCm, Ubuntu® 22.04.2, par comparaison avec un serveur Nvidia DGX H100 exécutant 2 processeurs Intel Xeon Platinum 8480CL, 8 GPU Nvidia H100 (80 Go, 700 W), CUDA 12.1, PyTorch 2.1.0, vLLM v.02.2.2 (le plus récent), Ubuntu 22.04. Les résultats peuvent varier en fonction des configurations créées par les fabricants de serveurs. Les performances peuvent varier en fonction de l'utilisation de pilotes plus récents et des optimisations.
- MI300-33 : Texte généré avec le chat Llama2-70b basé sur une longueur de séquence d'entrée de 4096 et sur une comparaison de jetons de sortie de 32 à l'aide d'un conteneur docker personnalisé pour chaque système basé sur les tests internes d'AMD en date du 17/11/2023. Configurations : un serveur 2P propulsé par des CPU Intel Xeon Platinum exécutant 4 GPU AMD Instinct™ MI300X (192 Go, 750 W), version préliminaire de ROCm® 6.0, PyTorch 2.2.0, vLLM pour ROCm, Ubuntu® 22.04.2, par comparaison avec un serveur 2P propulsé par des CPU AMD EPYC 7763 exécutant 4 GPU AMD Instinct™ MI250 (HBM2e de 128 Go, 560 W), ROCm® 5.4.3, PyTorch 2.0.0., HuggingFace Transformers 4.35.0, Ubuntu 22.04.6. Dans ce test, 4 GPU ont été utilisés pour chaque système. Les résultats peuvent varier en fonction des configurations créées par les fabricants de serveurs. Les performances peuvent varier en fonction de l'utilisation de pilotes plus récents et des optimisations.
- Basé sur une taille de nœud plus petite du processeur AMD pour une plateforme x86 en septembre 2023. GD-203.
- Depuis janvier 2024, AMD possède le premier moteur d'IA dédié disponible sur un processeur pour PC de bureau, où « moteur d'IA dédié » est défini comme un moteur d'IA qui n'a aucune fonction autre que le traitement des modèles d'inférence d'IA et qui fait partie du circuit imprimé du processeur x86. Pour plus d'informations, consultez : https://www.amd.com/fr/products/processors/consumer/ryzen-ai.html. PXD-03
- Source : Mercury Research Sell-in Revenue Shipment Estimates, T4 2023
- SP5-013D : comparaison SPECrate®2017_int_base basée sur les scores publiés à l'adresse suivante le 02/06/2023 : www.spec.org. Après comparaison, les résultats publiés pour la solution 2P AMD EPYC 9654 (SPECrate®2017_int_base de 1 800, TDP total de 720 W, 1 000 unités pour un total de 23 610 $, 192 cœurs au total, 2,500 perf/W, 0,076 perf/prix de CPU, http://spec.org/cpu2017/results/res2023q2/cpu2017-20230424-36017.html) sont 1,8 fois supérieurs aux résultats publiés pour la solution 2P Intel Xeon Platinum 8490H (SPECrate®2017_int_base de 1 000, TDP total de 700 W, 1 000 unités pour un total de 34 000 $, 120 cœurs au total, 1,429 perf/W, 0,029 perf/prix de CPU, http://spec.org/cpu2017/results/res2023q1/cpu2017-20230310-34562.html) [soit 1,75 fois les performances/W] [soit 2,59 fois les performances/prix de CPU]. Les résultats publiés pour la solution 2P AMD EPYC 7763 (SPECrate®2017_int_base de 861, TDP total de 560 W, 1 000 unités pour un total de 15 780 $, 128 cœurs au total, 1,538 perf/W, 0,055 perf/prix de CPU, http://spec.org/cpu2017/results/res2021q4/cpu2017-20211121-30148.html) sont présentés à 0,86 fois les performances à titre de référence [soit 1,08 fois les performances/W] [soit 1,86 fois les performances/prix de CPU]. Prix pour 1 000 unités AMD et prix et spécifications d'ARK.intel.com (par Intel) au 01/06/2023. SPEC®, SPEC CPU® et SPECrate® sont des marques déposées de la Standard Performance Evaluation Corporation. Rendez-vous sur www.spec.org pour plus d'informations.
- MI300-38A : Comparaison du temps de latence global pour la génération de texte à l'aide du modèle de chat Llama2-70b avec vLLM à l'aide d'un conteneur docker personnalisé pour chaque système, basée sur les tests internes d'AMD en date du 14/12/2023. Longueur de séquence de 2 048 jetons d'entrée et 128 jetons de sortie. Les tests vLLM ont utilisé une version améliorée du script benchmark_latency.py du répertoire benchmarks de https://github.com/vllm-project/vllm. Des améliorations ont été ajoutées pour permettre l'utilisation d'invites d'entrée de longueurs spécifiques. La version de vLLM utilisée pour le modèle MI300X contient des modifications qui ne sont pas encore disponibles en dehors d'AMD. Configurations : un serveur 2P propulsé par des CPU Intel Xeon Platinum 8480C exécutant 8 GPU AMD Instinct™ MI300X (192 Go, 750 W), version préliminaire de ROCm® 6.1.0, PyTorch 2.2.0, vLLM pour ROCm, Ubuntu® 22.04.2, par comparaison avec un serveur Nvidia DGX H100 exécutant 2 processeurs Intel Xeon Platinum 8480CL, 8 GPU Nvidia H100 (80 Go, 700 W), CUDA 12.1, PyTorch 2.1.0, vLLM v.02.2.2 (le plus récent), Ubuntu 22.04. Les résultats peuvent varier en fonction des configurations créées par les fabricants de serveurs. Les performances peuvent varier en fonction de l'utilisation de pilotes plus récents et des optimisations.
- MI300-33 : Texte généré avec le chat Llama2-70b basé sur une longueur de séquence d'entrée de 4096 et sur une comparaison de jetons de sortie de 32 à l'aide d'un conteneur docker personnalisé pour chaque système basé sur les tests internes d'AMD en date du 17/11/2023. Configurations : un serveur 2P propulsé par des CPU Intel Xeon Platinum exécutant 4 GPU AMD Instinct™ MI300X (192 Go, 750 W), version préliminaire de ROCm® 6.0, PyTorch 2.2.0, vLLM pour ROCm, Ubuntu® 22.04.2, par comparaison avec un serveur 2P propulsé par des CPU AMD EPYC 7763 exécutant 4 GPU AMD Instinct™ MI250 (HBM2e de 128 Go, 560 W), ROCm® 5.4.3, PyTorch 2.0.0., HuggingFace Transformers 4.35.0, Ubuntu 22.04.6. Dans ce test, 4 GPU ont été utilisés pour chaque système. Les résultats peuvent varier en fonction des configurations créées par les fabricants de serveurs. Les performances peuvent varier en fonction de l'utilisation de pilotes plus récents et des optimisations.
- Basé sur une taille de nœud plus petite du processeur AMD pour une plateforme x86 en septembre 2023. GD-203.
- Depuis janvier 2024, AMD possède le premier moteur d'IA dédié disponible sur un processeur pour PC de bureau, où « moteur d'IA dédié » est défini comme un moteur d'IA qui n'a aucune fonction autre que le traitement des modèles d'inférence d'IA et qui fait partie du circuit imprimé du processeur x86. Pour plus d'informations, consultez : https://www.amd.com/fr/products/processors/consumer/ryzen-ai.html. PXD-03