Uma base sólida para inovação em IA

IA é a tecnologia decisiva que molda a próxima geração da computação à medida que uma nova onda de aplicativos de IA evolui rapidamente. Da criação de ambientes virtuais realistas para jogos e entretenimento à ajuda científica para o tratamento e cura de doenças ou preparação para mudanças climáticas, a IA tem o potencial de resolver alguns dos desafios mais importantes do mundo. A expansão da IA gerativa e de modelos de linguagem grande (LLMs), associada ao ritmo rápido da inovação de aplicativos de IA, está gerando uma enorme demanda por recursos de computação e exigindo soluções eficazes, eficientes em termos de energia, abrangentes e que possam ser dimensionadas da nuvem para a borda e pontos de extremidade.

A AMD está muito bem posicionada com um amplo portfólio de plataformas de IA. Desenvolvido com base em arquiteturas inovadoras, como AMD XDNA™ (uma arquitetura de fluxo de dados adaptável com mecanismos de IA), AMD CDNA™ (uma arquitetura inovadora para aceleração de GPUs no data center) e AMD RDNA™ (uma arquitetura acelerada por IA para jogadores), a AMD oferece uma base abrangente de CPUs, GPUs, FPGAs, SoCs adaptativos e outros aceleradores que podem lidar com as cargas de trabalho de IA mais exigentes com desempenho de nível exascale.

Aceleradores AMD Instinct™

A AMD investe no mercado de aceleradores de data center há muitos anos. Com IA e LLMs gerativos, a necessidade de mais desempenho de computação está crescendo exponencialmente para treinamento e inferência. As GPUs estão no núcleo da habilitação da IA geradora. Hoje, as GPUs AMD Instinct™ alimentam muitos dos supercomputadores mais rápidos que usam IA para impulsionar as pesquisas sobre câncer ou criar LLMs de última geração com bilhões de parâmetros, usados pela comunidade científica global.

Os aceleradores AMD Instinct foram projetados para acelerar significativamente as cargas de trabalho de HPC e IA. Criado com base na inovadora arquitetura AMD CDNA e otimizado para desempenho em nível exascale e eficiência de energia, o acelerador AMD Instinct™ MI300A é a primeira unidade de processamento acelerado (APU) do mundo habilitada para HPC e IA, oferecendo 24 núcleos de CPU "Zen 4" e 128 GB de memória HBM3 compartilhada entre a CPU e a GPU para um desempenho incrível.

A GPU AMD Instinct™ MI300X é um acelerador de 153 bilhões de transistores com desempenho dedicado ao futuro da computação por AI. Com base na mesma plataforma do acelerador AMD Instinct MI300A, a GPU AMD Instinct MI300X foi reprojetada com aceleração de IA gerativa em seu núcleo. Substituindo os três dies computacionais de processadores AMD EPYC™ por dois chiplets de GPU adicionais, a GPU AMD Instinct MI300X aumenta a memória da plataforma em 64 GB para um total surpreendente de 192 GB de HBM3; essa é até 2,4 vezes a densidade da concorrente, e 5,2 TB/s de largura de banda de memória equivalem a 1,6 vezes a largura de banda do produto concorrente.1

A nova plataforma AMD Instinct também permitirá que clientes de data centers combinem até oito GPUs AMD Instinct MI300X em um design padrão do setor para uma solução simples que oferece até 1,5 TB de memória HBM3. Equipada com AMD ROCm™, uma plataforma de software aberta e comprovada que inclui linguagens de código aberto, compiladores, bibliotecas e ferramentas, a adição de aceleradores AMD Instinct MI300X é uma poderosa atualização da infraestrutura de IA.

Processadores para aceleração de IA

O sucesso na IA requer vários mecanismos de IA, da nuvem à borda e a pontos de extremidade. Além dos aceleradores AMD Instinct, os processadores AMD EPYC suportam diversas cargas de trabalho de IA no data center, oferecendo desempenho competitivo com base em referências padrão da indústria, como TPCx-AI, que mede o desempenho completo do pipeline de IA com base em 10 casos de uso diferentes e uma série de algoritmos diferentes.2

Com até 96 núcleos por processador AMD EPYC de 4ª geração, os servidores prontos para uso podem acelerar muitos aplicativos de data center e borda, incluindo os setores de suporte ao cliente, varejo, automotivo, serviços financeiros, serviços médicos e fabricação.

Produtos adicionais no portfólio de IA da AMD

A AMD lançou recentemente os processadores AMD Ryzen™ Série 7040 para PCs comerciais e individuais, que incluem o primeiro mecanismo de IA dedicado do mundo em um processador x86.3 Equipado com a tecnologia AMD XDNA, esse novo acelerador de IA pode executar até 10 trilhões de operações de IA por segundo (TOPS), proporcionando experiências de IA contínuas com incrível velocidade e duração da bateria, preparando os usuários para o futuro com IA. 

Os clientes também estão usando os aceleradores AMD Alveo™, SoCs adaptativos Versal™ e FPGAs líderes em muitos setores, como o aeroespacial, onde os Mars rovers da NASA podem acelerar a detecção de imagens baseada em IA, ou o setor automotivo, onde recursos de assistência a motoristas e segurança avançada usam a tecnologia AMD. A tecnologia AMD também possibilita a robótica assistida por IA para aplicativos industriais e impulsiona diagnósticos mais rápidos e precisos em dispositivos médicos. 

A AMD possibilita um ecossistema aberto para acelerar a inovação

Além de oferecer um portfólio de hardware que pode lidar com as cargas de trabalho de IA mais exigentes, a AMD está trabalhando para criar softwares de IA abertos e acessíveis. Desenvolvedores e parceiros podem aproveitar as ferramentas de software da AMD para otimizar aplicativos de IA no hardware da AMD. Hoje, a pilha inclui o AMD ROCm para aceleradores de GPUs AMD Instinct; IA AMD Vitis™ para aceleradores, SoCs e FPGAs adaptativos; e bibliotecas de código aberto AMD para processadores AMD EPYC.

A AMD também está construindo um ecossistema de IA com hardware, software aberto, ferramentas, bibliotecas e modelos que ajudam a reduzir as barreiras de entrada para desenvolvedores e pesquisadores. Dois exemplos recentes incluem o trabalho da AMD com a PyTorch Foundation e Hugging Face.

No início deste ano, o PyTorch, a popular estrutura de IA, lançou sua versão estável de 2.0, representando um avanço significativo e proporcionando um desempenho ainda maior para os usuários. Como membro fundador da PyTorch Foundation, é fenomenal para a AMD que a versão 2.0 do PyTorch inclua suporte para placas de vídeo AMD Instinct e AMD Radeon™, com suporte da plataforma de software aberto AMD ROCm.

A Hugging Face, uma plataforma líder de IA de código aberto com mais de 500 mil modelos e conjuntos de dados disponíveis, anunciou uma colaboração estratégica com a AMD para otimizar modelos para plataformas AMD, impulsionando o máximo em desempenho e compatibilidade para milhares de LLMs que os clientes usarão em aplicativos pessoais e comerciais. A AMD também otimizará seus produtos para melhorar o desempenho e a produtividade com os modelos oferecidos pela Hugging Face e seus usuários. Essa colaboração fornecerá à comunidade de código-fonte aberto uma excelente opção completa para acelerar a inovação da IA e tornar o treinamento e a inferência de modelos de IA mais amplamente acessíveis aos desenvolvedores.

Resumo

A AMD está difundindo os benefícios da IA ao permitir que os clientes realizem a implantação da IA com facilidade, além de fornecer soluções que podem ser dimensionadas em diversos aplicativos, desde processadores e SoCs adaptativos usando mecanismos de IA até inferência de borda, inferência de IA em larga escala e treinamento em data centers.

Entre em contato com seu representante local da AMD hoje mesmo para saber mais sobre as novas soluções disponíveis atualmente e as que serão lançadas no mercado no final deste ano.

Notas de rodapé
  1. MI300-005: Cálculos conduzidos pelo AMD Performance Labs em 17 de maio de 2023 para o acelerador AMD Instinct™ MI300X OAM de 750 W (HBM3 de 192 GB), projetado com a tecnologia de processo AMD CDNA™ 3 5 nm FinFet, que resultou em capacidade de memória HBM3 de 192 GB e desempenho de largura de banda de memória máxima e contínua de 5,218 TFLOPs. A interface do barramento de memória MI300X é de 8.192 bits, e a taxa de dados de memória é de 5,6 Gbps para largura de banda de memória total e contínua de ajuste de entrega de 5,218 TB/s (interface de barramento de memória de 8.192 bits * taxa de dados de memória de 5,6 Gbps/8)*0,91.  Os resultados publicados mais elevados para o acelerador de GPU NVidia Hopper H100 (80 GB) SXM resultaram em capacidade de memória HBM3 de 80 GB e desempenho de largura de banda de memória de GPU de 3,35 TB/s.
  2. SP5-005C: Comparação de valor máximo do SPECjbb® 2015-MultiJVM baseado nos resultados publicados em 10/11/2022. Configurações: 2P AMD EPYC 9654 (815459 SPECjbb®2015 MultiJVM max-jOPS, 356204 SPECjbb®2015 MultiJVM critical-jOPS, 192 núcleos totais, http://www.spec.org/jbb2015/results/res2022q4/jbb2015-20221019-00861.html)  vs. 2P AMD EPYC 7763 (420774 SPECjbb®2015 MultiJVM max-jOPS, 165211 SPECjbb®2015 MultiJVM critical-jOPS, 128 núcleos totais, http://www.spec.org/jbb2015/results/res2021q3/jbb2015-20210701-00692.html).  SPEC® e SPECrate® são marcas registradas da Standard Performance Evaluation Corporation. Consulte www.spec.org para obter mais informações.
  3. PHX-3a: A partir de maio de 2023, a AMD terá o primeiro e único mecanismo de IA dedicado disponível em um processador x86 Windows. "Mecanismo de IA dedicado" é definido como um mecanismo de IA que não tem nenhuma função além de processar modelos de inferência de IA e faz parte do die do processador x86. Para obter informações detalhadas, consulte: https://www.amd.com/pt/technologies/xdna.html