Übersicht
In der immer intelligenteren Welt, in der wir leben, steigt die Menge der zu verarbeitenden Daten exponentiell. Die ausschließliche Nutzung von Central Processing Units (CPUs) ist möglicherweise nicht mehr ausreichend. Beschleunigung ist erforderlich, um die Anforderungen bestimmter Anwendungen zu bewältigen.
Beschleunigtes Computing wird in verschiedenen Anwendungen allgegenwärtig – vom Rechenzentrum über Edge Computing bis zum Netzwerk dazwischen. Mehr Anwendungsanbieter und -entwickler erachten beschleunigtes Computing als Lösung für die Einschränkungen ihrer Anwendungen.
Was ist beschleunigtes Computing?
Beschleunigtes Computing ist eine moderne Art des Computing, bei dem die datenintensiven Teile einer Anwendung getrennt und auf einem separaten Beschleunigungsgerät verarbeitet werden, während die zu verarbeitende Steuerungsfunktionalität auf der CPU verbleibt. So können anspruchsvolle Anwendungen schneller und effizienter ausgeführt werden, da die zugrunde liegende Prozessorhardware für die Art der erforderlichen Verarbeitung effizienter ist. Die Nutzung verschiedener Arten von Hardwareprozessoren, einschließlich Beschleuniger, wird als heterogenes Computing bezeichnet, da der Anwendung mehrere Arten von Computing-Ressourcen zur Nutzung zur Verfügung stehen.
Typischerweise haben Hardwarebeschleuniger eine parallele Verarbeitungsstruktur, mit der sie Aufgaben simultan, und nicht wie bisher linear oder seriell, durchführen können. Als solche können sie die verarbeitungsintensiven Teile von Anwendungen auf Datenebene optimieren, während die CPU weiterhin Code auf Steuerungsebene ausführt, der nicht parallel ausgeführt werden kann. Das Ergebnis ist ein effizientes High-Performance-Computing.

Wozu benötigt man beschleunigtes Computing?
Man benötigt beschleunigtes Computing, weil die Anwendungen von heute mehr Geschwindigkeit und Effizienz benötigen, als von herkömmlichen CPUs selbst bereitgestellt werden kann. Dies gilt insbesondere, wenn man die zunehmende Bedeutung künstlicher Intelligenz (KI) berücksichtigt. Unternehmen aller Branchen verlassen sich zunehmend auf beschleunigtes Computing, um konkurrenzfähig zu bleiben.
Wo wird beschleunigtes Computing eingesetzt?
Beschleunigtes Computing wird heute in einer Vielzahl von Anwendungen und Branchen verwendet – insbesondere mit der Einführung von 5G und der steigenden Abhängigkeit vom Internet der Dinge (Internet of Things, IoT). Finanzdienstleister nutzen es für einen schnelleren Handel und minimale Latenz. Die Automobilbranche verwendet es für die Überwachung im Fahrzeug und Fahrerassistenzsysteme. Organisationen setzen es ein, um Daten auszuwerten. Videospielentwickler verlassen sich darauf, um hochwertige Simulationen und Grafiken zu erzeugen.
Da sich so viele verschiedene Branchen auf beschleunigtes Computing verlassen, müssen die Anwendungen von heute in der Lage sein, die Nachfrage nach verstärkter Datenverarbeitung zu bewältigen, um konkurrenzfähig zu bleiben.
Welche Lösungen stehen für beschleunigtes Computing zur Verfügung?
Es sind unterschiedliche Arten von Lösungen für beschleunigtes Computing verfügbar – und jede hat ihre eigenen Stärken und Schwächen. Welche Lösung Sie wählen, hängt von den Anforderungen Ihrer Anwendung ab.

Grafikprozessoren (GPUs)
GPUs sind spezielle Chips, die bestimmte datenverarbeitende Aufgaben beschleunigen, die von CPUs mit weniger Effizienz durchgeführt werden. Die GPU arbeitet mit der CPU, indem ein Großteil der Rohdatenverarbeitung in einer Anwendung ausgelagert wird. Dank der parallelen Verarbeitungsarchitektur können GPUs große Mengen an Daten simultan verarbeiten.
Wie der Name schon sagt, wurden GPUs entwickelt, um das Rendern von Grafiken zu beschleunigen. Heute sind GPUs so programmierbar und flexibel wie nie zuvor, und Entwickler verschiedener Branchen nutzen sie für KI und die kreative Produktion. Man kann auch mehrere GPUs zusammen in Supercomputern und Workstations verwenden, um Videoverarbeitung, 3D-Rendering, Simulationen und das Training von Modellen für maschinelles Lernen zu beschleunigen.

Tensor Processing Units (TPUs)
TPUs sind spezielle Schaltungen, die die erforderliche Steuerung und arithmetische Logik zur Ausführung von Algorithmen für maschinelles Lernen implementieren. Ihre arithmetisch-logischen Einheiten – digitale Schaltungen zur Ausführung arithmetischer und logischer Vorgänge – sind direkt miteinander verbunden. So können Daten direkt ohne Speicher übertragen werden. TPUs sind optimiert für die Beschleunigung von ML-Code und wurden speziell zur Beschleunigung von TensorFlow, der Open-Source-ML- und KI-Software-Bibliothek von Google, entwickelt.
Adaptive Computing
Adaptives Computing basiert auf einer bestehenden Art von Technologie: den Field-Programmable Gate Arrays (FPGAs). FPGAs bestehen aus Chips, die nach der Fertigung konfiguriert werden sollen, daher der Name „Field-programmable“.
Adaptives Computing ist die einzige Art von beschleunigtem Computing, bei der Hardware bei der Herstellung nicht dauerhaft befestigt wird. Stattdessen umfasst adaptives Computing Hardware, die an eine bestimmte Anwendung oder sogar eine spezielle Beschleunigungsfunktion angepasst werden kann. Durch die Anpassung der Architektur an bestimmte Anforderungen können Lösungen für adaptives Computing eine herausragende Effizienz für verschiedene Anwendungen erzielen.