简介

随着神经网络变得越来越庞大、越来越复杂,人们对更低功耗、更高计算密度的需求也在不断增长。了解 AMD XDNA NPU 架构如何应对这一需求。

图像缩放
占位符

AMD XDNA - AI 引擎

AMD XDNA 是一种空间数据流 NPU 架构,由平铺的 AI 引擎处理器阵列组成。每个 AI 引擎模块都包括一个矢量处理器、一个标量处理器以及本地数据和程序存储器。传统架构需要从缓存中反复获取数据(产生能耗),而 AI 引擎则充分利用片上存储器和自定义数据流,使 AI 和信号处理的计算效率提高,能耗降低。

深入了解引擎

每个 AI 引擎模块都由一个 VLIW(超长指令字)、SIMD(单指令多数据)矢量处理器组成,该矢量处理器针对机器学习和高级信号处理应用进行了优化。AI 引擎处理器的运行频率可超过 1.3GHz,可实现高效率、高吞吐量、低延迟运行。每个引擎模块还包含程序和本地存储器,用于存储数据、权重、激活和系数信息,另有 RISC 标量处理器和不同的互连模式,用于处理不同类型的数据通信。

图像缩放
占位符

AMD XDNA 2

新一代 AMD XDNA 2 架构专为个人计算机中的生成式 AI 体验而打造,可实现卓越的计算性能、带宽和能效。

优点

Big data analytics through machine learning, Artificial Intelligence concept background
软件可编程

AMD NPU 可编程,并可在几分钟内完成编译。它还充分利用了基于库的设计,简化了机器学习框架开发人员的工作流程。

Digital brain illustration on dark blue background, artificial intelligence
确定性

AMD NPU 具备专用指令和数据存储器,以及与 DMA 引擎配对的专用连接,可利用 AI 引擎模块之间的连接按计划进行数据移动。

Cyber big data flow. Blockchain data fields. Network line connect stream
高效

与传统架构相比,AMD NPU 可实现更高的计算密度,并且能效卓越。

Generative ai embossed mesh representing internet connections in cloud computing
可扩展

AMD NPU 是由多个 AI 引擎模块组成的 2D 阵列,可在单个设备中将 AI 引擎模块从 10 个扩展到 100 个,从而满足各种应用的计算需求。

相关产品