AMD Software-Optimierungen für AI Inference
Framework-Unterstützung: AMD unterstützt die gängigsten KI-Frameworks, darunter TensorFlow, PyTorch und ONNX Runtime, und deckt damit verschiedene Anwendungsfälle wie Bildklassifizierung und Empfehlungs-Engines ab.
Open Source und Kompatibilität: Optimierungen sind in gängige Frameworks integriert und bieten umfassende Kompatibilität und Open-Source-Upstream-Freundlichkeit. Darüber hinaus arbeitet AMD mit Hugging Face zusammen, um deren Open-Source-Modelle sofort mit ZenDNN nutzen zu können.
ZenDNN-Plug-ins: Diese Plug-ins beschleunigen AI Inference Auslastungen durch die Optimierung von Operatoren, die Nutzung von Mikrokernen und die Implementierung von effizientem Multithreading auf AMD EPYC Kernen.