Introduction

Alors que les réseaux neuronaux deviennent de plus en plus volumineux et complexes, la demande en densité de calcul supérieure associée à une consommation moindre continue de croître. Découvrez comment l'architecture NPU AMD XDNA™ répond à cet impératif.

Zoom sur l'image
espace réservé

AMD XDNA - AI Engine

AMD XDNA est une architecture NPU de flux de données spatiales, prenant la forme d'un réseau en mosaïque de processeurs AI Engine. Chaque « tuile » AI Engine inclut un processeur vectoriel, un processeur scalaire, ainsi que des mémoires de programme et données locales. Contrairement aux architectures traditionnelles qui nécessitent une récupération répétée des données issues des caches (une opération qui consomme de l'énergie), AI Engine utilise des mémoires sur puce et un flux de données personnalisé pour permettre un calcul efficace et à faible consommation pour l'IA et le traitement du signal.

À l'intérieur de la mosaïque

Chaque tuile d'IA Engine se compose d'un VLIW (Very Long Instruction Word, ou « mot d'instruction très long »), d'un processeur vectoriel SIMD (Single Instruction Multiple Data, ou « instruction unique/données multiples ») optimisé pour l'apprentissage automatique et d'applications de traitement du signal avancées. Le processeur AI Engine peut fonctionner à plus de 1,3 GHz, ce qui lui permet de gérer des fonctions efficaces, à haut débit et à faible latence. Chaque tuile contient également un programme et une mémoire locale pour stocker les données, les pondérations, les activations et les coefficients, un processeur scalaire RISC et plusieurs modes d'interconnexion permettant de gérer différents types de communication de données.

Zoom sur l'image
espace réservé

AMD XDNA 2

L'architecture AMD XDNA 2 de nouvelle génération est conçue pour permettre des expériences d'IA générative sur PC, en offrant des performances de calcul, une bande passante et une efficacité énergétique exceptionnelles.

Avantages

Big data analytics through machine learning, Artificial Intelligence concept background
Programmable par logiciel

La NPU AMD est programmable et se compile en quelques minutes. Elle tire également parti d'une conception sur bibliothèque pour simplifier le workflow des développeurs de frameworks d'apprentissage automatique.

Digital brain illustration on dark blue background, artificial intelligence
Déterministe

La NPU AMD comprend des mémoires d'instructions et de données dédiées, ainsi qu'une connectivité dédiée associée à des moteurs DMA permettant le déplacement planifié de données à l'aide de la connectivité entre les tuiles d'AI Engine.

Cyber big data flow. Blockchain data fields. Network line connect stream
Efficace

La NPU AMD offre une densité de calcul supérieure aux architectures traditionnelles, ainsi qu'une efficacité énergétique hors pair.

Generative ai embossed mesh representing internet connections in cloud computing
Évolutive

L'architecture de la NPU AMD est conçue comme une matrice 2D composée de plusieurs tuiles AI Engine. Cette particularité permet de passer de quelques dizaines à plusieurs centaines de tuiles AI Engine au sein d'un même appareil, répondant ainsi aux exigences de calcul d'une large gamme d'applications.

Produits associés

AMD Versal™

SoC adaptatifs AMD Versal™

Les SoC adaptatifs AMD Versal offrent des performances remarquables pour une grande variété d'applications intégrées, de l'automobile aux communications, en passant par les centres de données, l'industrie et plus encore.