何为加速计算?
加速计算是一种现代计算方式,它将应用的数据密集部分分开并放在一个单独的加速器件上处理,而将控制功能留给 CPU 处理。这有助于需要高性能的应用更快、更高效地运行,因为对于所需的处理类型,使用底层处理器硬件更为高效。拥有不同类型的硬件处理器(包括加速器)被称为异构计算,因为应用可利用多种类型的计算资源。
硬件加速器通常具有并行处理结构,以便同时执行多项任务,而无需按线性或顺序逐项执行。因此,当 CPU 继续运行无法并行运行的控制层代码时,硬件加速器能够优化应用的密集数据层处理。这就实现了高效的高性能计算。

为什么需要加速计算?
您需要加速计算,因为现在应用要求的速度和效率更高,单靠传统 CPU 本身无法满足。特别是人工智能 (AI) 发挥的作用越来越大,对加速计算的需求也就更加迫切。为了保持竞争力,各个行业的企业对加速计算的依赖程度将越来越高。

图形处理单元 (GPU)
GPU 是一种专用芯片,用来加速那些通过 CPU 执行效率较低的数据。GPU 可与 CPU 配合使用,在应用中帮助 CPU 分担大量原始数据处理任务。得益于其并行处理架构,GPU 可同时处理大量数据。
顾名思义,GPU 旨在加速图形渲染。如今,GPU 的可编程性和灵活性得到了前所未有的提升,不同行业的开发者正在将其用于人工智能 (AI) 和创造性生产。此外,您还可以在超级计算机和工作站中同时使用多个 GPU,以加速视频处理、3D 渲染、仿真以及机器学习模型的训练。

张量处理单元 (TPU)
TPU 是实现必要控制及算术逻辑来执行机器学习算法的专用电路。它们的算术逻辑单元(执行算术运算和逻辑运算的数字电路)彼此直接相连。因此可直接传输数据,无需使用任何内存。TPU 经过优化可加速机器学习代码,专门用于加速 TensorFlow(Google 的开源 ML 和 AI 软件库)。
自适应计算
自适应计算建立在现有的现场可编程门阵列 (FPGA) 技术基础上。FPGA 包含经过精心设计的在制造后可配置的器件,因此被称为“现场可编程”。
自适应计算是一种在硬件制造过程中不会永久固定的加速计算。可以根据特定应用甚至特定加速功能对自适应计算涉及的硬件进行自定义。通过自定义可满足特定需求的架构,自适应计算解决方案可以助力各种应用实现出色的效率。