Una sólida base para la innovación en IA
La IA es la tecnología que define la próxima generación de informática a medida que una nueva ola de aplicaciones de IA evoluciona a un ritmo acelerado. Desde crear entornos virtuales realistas para juegos y entretenimiento hasta apoyar a científicos en el tratamiento y la cura de enfermedades o ayudar a la humanidad a prepararse mejor para el cambio climático, la IA tiene el potencial de enfrentar algunos de los desafíos más importantes del mundo. La explosión de la IA generativa y los grandes modelos de lenguaje (LLM), junto con el ritmo acelerado de la innovación en aplicaciones de IA, impulsa una enorme demanda de recursos informáticos y requiere soluciones que sean eficaces, de bajo consumo energético, generalizadas y que puedan escalarse de la nube al borde y los puntos de conexión.
AMD se encuentra en una posición única con una amplia cartera de plataformas de IA. Basada en arquitecturas innovadoras como AMD XDNA™ (una arquitectura de flujo de datos adaptable con motores de IA), AMD CDNA™ (una arquitectura innovadora para la aceleración de GPU en el centro de datos) y AMD RDNA™ (una arquitectura de aceleración por IA para jugadores), AMD ofrece una base completa de CPU, GPU, FPGA, SoC adaptables y otros aceleradores que pueden abordar las cargas de trabajo de IA más exigentes con un rendimiento a nivel de exaescala.
Aceleradores AMD Instinct™
AMD ha estado invirtiendo en el mercado de aceleradores de centros de datos por muchos años. Con modelos LLM y de IA generativa, la necesidad de un mayor rendimiento de procesamiento crece exponencialmente tanto para la formación como para la inferencia. Las GPU se encuentran en el centro de la habilitación de la IA generativa y, en la actualidad, las GPU AMD Instinct™ potencian a muchas de las supercomputadoras más rápidas que utilizan la IA para acelerar la investigación del cáncer o crear modelos LLM de vanguardia con miles de millones de parámetros, que se usan dentro de la comunidad científica internacional.
Los aceleradores AMD Instinct se diseñaron para acelerar significativamente las cargas de trabajo de HPC e IA. Basado en la innovadora arquitectura AMD CDNA y optimizado para un rendimiento a nivel de exaescala y ahorro de energía, el acelerador AMD Instinct™ MI300A corresponde a la primera unidad de procesamiento acelerado (APU) del mundo para HPC e IA y cuenta con 24 núcleos de CPU “Zen 4” y 128 GB de memoria HBM3 compartidos entre CPU y GPU para ofrecer un rendimiento increíble.
La GPU AMD Instinct™ MI300X es un acelerador de 153 000 millones de transistores de gran rendimiento, diseñado específicamente para el futuro de la informática con IA. Basada en la misma plataforma que el acelerador AMD Instinct MI300A, la GPU AMD Instinct MI300X se rediseñó esencialmente con aceleración de IA generativa. Con la eliminación de los tres chips de procesamiento del procesador AMD EPYC™ en favor de dos chiplets de GPU adicionales, la GPU AMD Instinct MI300X aumenta la memoria de la plataforma en 64 GB para proporcionar un sorprendente total de 192 GB de HBM3; es decir, hasta 2,4 veces la densidad que se ofrece en la competencia y 5,2 TB/s de ancho de banda de memoria que equivale a hasta 1,6 veces el ancho de banda del producto de la competencia1.
La nueva plataforma AMD Instinct también permitirá a los clientes de centro de datos combinar hasta ocho GPU AMD Instinct MI300X en un diseño estándar del sector para una solución sencilla que ofrezca hasta 1,5 TB de memoria HBM3. La incorporación de aceleradores AMD Instinct MI300X es una potente actualización de infraestructura de IA, ya que cuenta con tecnología AMD ROCm™, una plataforma de software abierta y comprobada que cuenta con lenguajes, compiladores, bibliotecas y herramientas de código abierto.
Procesadores para la aceleración de IA
El éxito en la IA requiere varios motores de IA desde la nube hasta el borde y los puntos de conexión. Además de los aceleradores AMD Instinct, los procesadores AMD EPYC admiten una amplia gama de cargas de trabajo de IA en el centro de datos, lo que proporciona un rendimiento competitivo basado en evaluaciones comparativas que son estándar de la industria, como TPCx-AI, que mide el rendimiento integral de flujos de IA en 10 casos de uso distintos y según una gran variedad de algoritmos diferentes2.
Con hasta 96 núcleos por procesador AMD EPYC de cuarta generación, los servidores disponibles en el comercio pueden acelerar muchas aplicaciones de borde y de centros de datos, entre las que se incluyen asistencia a clientes, comercio minorista, sector automotor, servicios financieros, servicios médicos y fabricación.
Productos adicionales en la cartera de IA de AMD
AMD lanzó recientemente los procesadores AMD Ryzen™ Serie 7040 para PC comerciales y de consumidor, que incluyen el primer motor de IA dedicado del mundo en un procesador x863. Dado que cuenta con tecnología AMD XDNA, este nuevo acelerador de IA puede ejecutar hasta 10 billones de operaciones de IA por segundo (TOPS, por sus siglas en inglés) para lograr experiencias de IA sin interrupciones con una increíble velocidad y duración de la batería, lo que, a su vez, permite preparar a los usuarios para el futuro con la IA.
Los clientes también utilizan aceleradores AMD Alveo™, SoC adaptables Versal™ y FPGA de liderazgo en muchos sectores, como el aeroespacial, en el que los rovers de Marte de la NASA pueden acelerar la detección de imágenes basada en IA; o bien en el automotor, en el que la asistencia al conductor y las funciones de seguridad avanzadas emplean la tecnología de AMD. La tecnología AMD también da paso a la robótica asistida por IA para aplicaciones industriales e impulsa la realización de diagnósticos más rápidos y precisos en aplicaciones médicas.
AMD habilita un ecosistema abierto para acelerar la innovación
Además de ofrecer una cartera de hardware que permite manejar las cargas de trabajo de IA más exigentes, AMD trabaja para promover software de IA abiertos y accesibles. Los desarrolladores y socios pueden aprovechar las herramientas de software de AMD para optimizar las aplicaciones de IA en el hardware de AMD. En la actualidad, la gama incluye AMD ROCm para aceleradores de GPU AMD Instinct, AMD Vitis™ AI para aceleradores adaptables, SoC y FPGA, además de bibliotecas de código abierto AMD para procesadores AMD EPYC.
AMD también está creando un ecosistema de IA con hardware y software abierto, herramientas, bibliotecas y modelos que ayudan a reducir las barreras de entrada para desarrolladores e investigadores. Dos ejemplos recientes incluyen el trabajo de AMD con PyTorch Foundation y Hugging Face.
A principios de este año, PyTorch, el popular marco de IA, lanzó su versión estable 2.0, lo que representó un importante paso y permitió brindar un rendimiento aún mayor para sus usuarios. Como miembro fundador de PyTorch Foundation, AMD está encantada de que la versión 2.0 de PyTorch admita las tarjetas gráficas AMD Instinct y AMD Radeon™, compatibles con la plataforma de software abierta AMD ROCm.
Hugging Face, una plataforma líder de IA de código abierto con más de 500 000 modelos y conjuntos de datos disponibles, anunció una colaboración estratégica con AMD a fin de optimizar los modelos para plataformas AMD, lo que permite ofrecer el máximo rendimiento y compatibilidad para miles de modelos LLM que los clientes utilizarán en diversas aplicaciones personales y comerciales. AMD también optimizará sus productos para mejorar el rendimiento y la productividad con los modelos que ofrecen Hugging Face y sus usuarios. Esta colaboración proporcionará a la comunidad de código abierto una excelente opción integral para acelerar la innovación de IA, y permitirá que la inferencia y la formación de modelos de IA sean más accesibles para los desarrolladores.
Resumen
AMD está logrando que los beneficios de la IA sean generalizados, ya que permite a los clientes abordar la implementación de la IA con facilidad. Además, ofrece soluciones que se escalan en una amplia variedad de aplicaciones, desde procesadores y SoC adaptativos que emplean motores de IA hasta inferencia de borde, inferencia de IA a gran escala y formación en centros de datos.
Comunícate con tu contacto local de AMD hoy mismo para obtener más información sobre las nuevas soluciones disponibles actualmente y las que llegarán al mercado a finales de este año.
Notas al pie
- MI300-005: Las mediciones realizadas en los laboratorios de rendimiento de AMD el 17 de mayo del 2023 en el acelerador AMD Instinct™ MI300X OAM de 750 W (192 GB de memoria HBM3) diseñado con la tecnología de proceso FinFet de 5 nm de AMD CDNA™ 3 arrojaron como resultado 192 GB de capacidad de memoria HBM3 y un rendimiento de ancho de banda de memoria máximo sostenido de 5,218 TFLOPS. La interfaz de bus de memoria MI300X es de 8,192 y la velocidad de datos de memoria es de 5,6 Gbps para el ancho de banda de memoria máximo sostenido total de 5,218 TB/s (interfaz de bus de memoria de 8,192 bits * 5,6 Gbps de velocidad de datos de memoria/8)*0,91 de ajuste proporcionado. Los resultados más altos publicados sobre el acelerador GPU NVidia Hopper H100 (80 GB) SXM arrojaron como resultado 80 GB de capacidad de memoria HBM3 y un rendimiento de ancho de banda de memoria de GPU de 3,35 TB/s.
- SP5-005C: Comparación máxima de SPECjbb® 2015-MultiJVM basada en los resultados publicados al 10/11/2022. Configuraciones: AMD EPYC 9654 2P (815 459 SPECjbb®2015 MultiJVM max-jOPS; 356 204 SPECjbb®2015 MultiJVM critical-jOPS; 192 núcleos en total, http://www.spec.org/jbb2015/results/res2022q4/jbb2015-20221019-00861.html) frente al AMD EPYC 7763 2P (420 774 SPECjbb®2015 MultiJVM max-jOPS; 165 211 SPECjbb®2015 MultiJVM critical-jOPS; 128 núcleos en total, http://www.spec.org/jbb2015/results/res2021q3/jbb2015-20210701-00692.html). SPEC® y SPECrate® son marcas comerciales registradas de Standard Performance Evaluation Corporation. Consulta www.spec.org para obtener más información.
- PHX-3a: A partir de mayo del 2023, AMD tiene el primer y único motor de IA dedicado disponible en un procesador x86 Windows, en el que “motor de IA dedicado” se define como un motor de IA que no tiene ninguna otra función aparte de procesar modelos de inferencia de IA y es parte del chip del procesador x86. Para obtener información detallada, visite: https://www.amd.com/es/technologies/xdna.html.
- MI300-005: Las mediciones realizadas en los laboratorios de rendimiento de AMD el 17 de mayo del 2023 en el acelerador AMD Instinct™ MI300X OAM de 750 W (192 GB de memoria HBM3) diseñado con la tecnología de proceso FinFet de 5 nm de AMD CDNA™ 3 arrojaron como resultado 192 GB de capacidad de memoria HBM3 y un rendimiento de ancho de banda de memoria máximo sostenido de 5,218 TFLOPS. La interfaz de bus de memoria MI300X es de 8,192 y la velocidad de datos de memoria es de 5,6 Gbps para el ancho de banda de memoria máximo sostenido total de 5,218 TB/s (interfaz de bus de memoria de 8,192 bits * 5,6 Gbps de velocidad de datos de memoria/8)*0,91 de ajuste proporcionado. Los resultados más altos publicados sobre el acelerador GPU NVidia Hopper H100 (80 GB) SXM arrojaron como resultado 80 GB de capacidad de memoria HBM3 y un rendimiento de ancho de banda de memoria de GPU de 3,35 TB/s.
- SP5-005C: Comparación máxima de SPECjbb® 2015-MultiJVM basada en los resultados publicados al 10/11/2022. Configuraciones: AMD EPYC 9654 2P (815 459 SPECjbb®2015 MultiJVM max-jOPS; 356 204 SPECjbb®2015 MultiJVM critical-jOPS; 192 núcleos en total, http://www.spec.org/jbb2015/results/res2022q4/jbb2015-20221019-00861.html) frente al AMD EPYC 7763 2P (420 774 SPECjbb®2015 MultiJVM max-jOPS; 165 211 SPECjbb®2015 MultiJVM critical-jOPS; 128 núcleos en total, http://www.spec.org/jbb2015/results/res2021q3/jbb2015-20210701-00692.html). SPEC® y SPECrate® son marcas comerciales registradas de Standard Performance Evaluation Corporation. Consulta www.spec.org para obtener más información.
- PHX-3a: A partir de mayo del 2023, AMD tiene el primer y único motor de IA dedicado disponible en un procesador x86 Windows, en el que “motor de IA dedicado” se define como un motor de IA que no tiene ninguna otra función aparte de procesar modelos de inferencia de IA y es parte del chip del procesador x86. Para obtener información detallada, visite: https://www.amd.com/es/technologies/xdna.html.