AI 혁신을 위한 견고한 기반

새로운 AI 애플리케이션이 빠른 속도로 발전하고 있는 상황에서 AI는 차세대 컴퓨팅을 형성하는 기술을 정의하고 있습니다. 게임 및 엔터테인먼트를 위한 현실적인 가상 환경을 조성하는 것부터 과학자들이 질병을 치료하는 데 도움을 주거나 인류가 기후 변화에 보다 잘 대비할 수 있도록 돕는 것까지, AI는 세계에서 가장 중요한 과제를 해결할 수 있는 잠재력을 가지고 있습니다. AI 애플리케이션의 급속한 혁신과 함께 생성형 AI 및 거대 언어 모델(LLM)의 폭발적인 증가가 컴퓨팅 리소스에 대한 엄청난 수요를 발생시키고 있으며, 이에 맞는 성능, 에너지 효율성, 보편성과 클라우드에서 엣지 및 엔드포인트로 확장할 수 있는 솔루션이 요구되고 있습니다.

AMD는 광범위한 AI 플랫폼 포트폴리오를 통해 독보적인 입지를 확보하고 있습니다. AMD XDNA™(AI 엔진이 탑재된 적응형 데이터 흐름 아키텍처), AMD CDNA™(데이터 센터의 GPU 가속을 위한 획기적인 아키텍처), AMD RDNA™(게이머를 위한 AI 가속 아키텍처)와 같은 혁신적인 아키텍처를 기반으로 AMD는 CPU, GPU, FPGA, 적응형 SoC 및 기타 가속기의 종합적인 토대로 엑사스케일급 성능을 이용해 가장 까다로운 AI 워크로드를 처리할 수 있습니다.

AMD Instinct™ 가속기

AMD는 데이터 센터 가속기 시장에 수년간 투자해 왔습니다. 생성형 AI 및 LLM으로 인해 학습 및 추론을 위한 컴퓨팅 성능에 대한 요구가 기하급수적으로 늘어나고 있습니다. GPU는 생성형 AI를 가능하게 하는 핵심적 요소이며, 현재 AMD Instinct™ GPU는 AI를 사용한 암 연구를 가속하거나 전 세계 과학 커뮤니티에서 사용되는 수십억 개의 매개변수로 최첨단 LLM을 만드는 가장 빠른 슈퍼컴퓨터를 구동하고 있습니다.

AMD Instinct 가속기는 HPC 및 AI 워크로드를 대폭 가속하도록 설계되었습니다. 혁신적인 AMD CDNA 아키텍처를 기반으로 하고 엑사스케일급 성능과 전력 효율에 최적화된 AMD Instinct™ MI300A 가속기는 HPC 및 AI를 위한 세계 최초의 가속 프로세싱 유닛(APU)으로 24개의 “Zen 4” CPU 코어와 128GB의 HBM3 메모리를 CPU와 GPU에서 공유하여 놀라운 성능을 제공합니다.

AMD Instinct™ MI300X GPU는 AI 컴퓨팅의 미래를 위한 성능이 집약된 1,530억 개의 트랜지스터 가속기입니다. AMD Instinct MI300A 가속기와 동일한 플랫폼을 기반으로 하는 AMD Instinct MI300X GPU는 생성형 AI 가속을 기반으로 재구축되었습니다. 3개의 AMD EPYC™ 프로세서 컴퓨팅 다이를 제거하고 2개의 GPU 칩렛을 추가한 AMD Instinct MI300X GPU는 플랫폼의 메모리를 64GB까지 증가시켜 총 192GB의 HBM3를 제공합니다. 이는 경쟁사 제품의 밀도에 비해 최대 2.4배 더 큰 수치이며, 5.2TB/s의 메모리 대역폭은 경쟁사 제품보다 최대 1.6배 더 큰 대역폭입니다.1

또한 새로운 AMD Instinct 플랫폼을 통해 데이터 센터 고객은 최대 8개의 AMD Instinct MI300X GPU를 업계 표준 설계에 결합하여 최대 1.5TB의 HBM3 메모리를 제공하는 간단한 드롭인 솔루션을 구축할 수 있습니다. AMD ROCm™ 기반의 오픈소스 언어, 컴파일러, 라이브러리 및 도구 등을 탑재한 검증된 개방형 소프트웨어 플랫폼에 AMD Instinct MI300X 가속기를 추가하면 강력한 AI 인프라 업그레이드를 실현할 수 있습니다.

AI 가속을 위한 프로세서

AI의 성공을 위해서는 클라우드부터 에지, 엔드포인트까지 다양한 AI 엔진이 필요합니다. AMD Instinct 가속기 외에도, AMD EPYC 프로세서는 데이터 센터의 광범위한 AI 워크로드를 지원하며 10가지 사용 사례와 다양한 알고리즘에 걸친 최첨단 AI 파이프라인 성능을 측정하는 TPCx-AI와 같은 업계 표준 벤치마크를 기반으로 경쟁력 있는 성능을 제공합니다.2

4세대 AMD EPYC 프로세서 당 최대 96개의 코어를 갖춘 기성품 서버는 고객 지원, 소매업, 자동차, 금융 서비스, 의료, 제조에 이르기까지 다양한 데이터 센터와 에지 애플리케이션을 가속할 수 있습니다.

AMD AI 포트폴리오의 추가 제품

AMD는 최근 x86 프로세서에 탑재된 세계 최초의 전용 AI 엔진을 포함하는 소비자 및 상업용 PC를 위한 AMD Ryzen™ 7040 시리즈 프로세서를 출시했습니다.3  AMD XDNA 기술을 기반으로 하는 이 새로운 AI 가속기는 초당 최대 10조 개의 AI 작업(TOPS)을 실행할 수 있어 놀라운 배터리 지속시간과 속도로 원활한 AI 경험을 제공하여 사용자가 AI로 미래에 대비할 수 있도록 합니다. 

고객들은 또한 항공우주 산업에서 NASA의 화성 탐사차량이 AI 기반 이미지 감지를 가속하고, 자동차 산업에서 AMD 기술을 이용해 운전자를 지원하며 첨단 안전 기능을 가능하게 하는 등 다양한 산업에서 AMD Alveo™ 가속기, Versal™ 적응형 SoC 및 리더십 FPGA를 사용하고 있습니다. 또한 AMD 기술은 산업 애플리케이션의 AI 지원 로봇을 실현하고 의료 분야에서 더욱 빠르고 정확한 진단을 가능하게 합니다. 

AMD, 오픈 생태계의 혁신 가속화

AMD는 가장 까다로운 AI 워크로드를 처리할 수 있는 하드웨어 포트폴리오를 제공하는 것 외에도 개방적이고 액세스 가능한 AI 소프트웨어를 개발하기 위해 노력하고 있습니다. 개발자와 파트너는 AMD 소프트웨어 도구를 사용하여 AMD 하드웨어에서 AI 애플리케이션을 최적화할 수 있습니다. 현재 스택에는 AMD Instinct GPU 가속기의 AMD ROCm, 적응형 가속기용 AMD Vitis™ AI, SoC, FPGA 및 AMD EPYC 프로세서의 AMD 오픈소스 라이브러리를 포함하고 있습니다.

AMD는 개발자와 연구자의 진입 장벽을 낮추는 데 도움이 되는 오픈 소프트웨어, 도구, 라이브러리, 모델과 하드웨어를 갖춘 AI 생태계를 구축하고 있습니다. 최근 두 가지 사례로는 AMD가 PyTorch Foundation 및 Hugging Face와 협업한 것이 있습니다.

올해 초, 잘 알려진 AI 프레임워크인 PyTorch는 2.0 안정 버전을 출시하여 상당한 발전을 이룩했으며 사용자들에게 더 우수한 성능을 제공하게 되었습니다. PyTorch Foundation의 창립 회원인 AMD는 PyTorch 2.0 릴리스에 AMD ROCm 오픈 소프트웨어 플랫폼에서 지원하는 AMD Instinct 및 AMD Radeon™의 그래픽 지원이 포함된 점을 기쁘게 생각합니다.

50만 개 이상의 모델과 데이터세트를 사용할 수 있는 선도적인 오픈 소스 AI 플랫폼인 Hugging Face는 AMD 플랫폼용 모델을 최적화하기 위해 AMD와의 전략적 협력을 발표했으며, 고객이 개인용 및 상업용 애플리케이션에서 사용할 수 있는 수천 개의 LLM의 성능과 호환성을 극대화했습니다. AMD는 또한 Hugging Face와 Hugging Face의 사용자가 제공하는 모델을 이용해 성능과 생산성을 향상하기 위해 제품을 최적화할 것입니다. 이러한 협업을 통해 오픈 소스 커뮤니티는 AI 혁신을 가속화할 수 있는 탁월한 엔드-투-엔드 선택권을 갖게 되고 개발자는 AI 모델 교육 및 추론을 보다 광범위하게 이용할 수 있게 될 것입니다.

요약

AMD는 고객이 AI 배포를 쉽게 처리할 수 있도록 지원하고, AI 엔진을 사용하는 프로세서 및 적응형 SoC부터 에지 추론, 대규모 AI 추론 및 데이터 센터 교육에 이르기까지 광범위한 응용 분야에 걸쳐 확장 가능한 솔루션을 제공함으로써 AI의 이점을 널리 실현하고 있습니다.

지금 바로 해당 지역의 AMD 담당자에게 문의하여  현재 제공되고 있거나 올해 말에 출시될 새로운 솔루션에 대해 자세히 알아보세요.

각주
  1. MI300-005: 2023년 5월 17일 기준, AMD 퍼포먼스 랩에 의해 AMD CDNA™ 3 5nm FinFet 프로세스 기술과 함께 설계된 AMD Instinct™ MI300X OAM 가속기 750W(192GB HBM3)에 대해 수행된 계산 결과, 192GB HBM3 메모리 용량 및 일관된 5.218TFLOPS 피크 메모리 대역폭 성능을 나타냈습니다. MI300X 메모리 버스 인터페이스는 8,192이고 5.218 TB/s(8,192비트 메모리 버스 인터페이스 * 5.6Gbps 메모리 데이터율/8)*0.91로 조정하여 제공된 일관된 총 피크 메모리 대역폭의 메모리 데이터율은 5.6Gbps입니다.  NVidia Hopper H100 (80GB) SXM GPU 가속기에 대해 게시된 최고 결과는 80GB HBM3 메모리 용량 및 3.35TB/s GPU 메모리 대역폭 성능입니다.
  2. SP5-005C: SPECjbb® 2015.-MultiJVM Max 비교는 2022년 11월 10일 기준 게시된 결과에 기초했습니다. 구성: 2P AMD EPYC 9654(815459 SPECjbb®2015 MultiJVM max-jOPS, 356204 SPECjbb®2015 MultiJVM critical-jOPS, 총 192코어, http://www.spec.org/jbb2015/results/res2022q4/jbb2015-20221019-00861.html)  vs. 2P AMD EPYC 7763(420774 SPECjbb®2015 MultiJVM max-jOPS, 165211 SPECjbb®2015 MultiJVM critical-jOPS, 총 128코어, http://www.spec.org/jbb2015/results/res2021q3/jbb2015-20210701-00692.html) . SPEC® 및 SPECrate®는 Standard Performance Evaluation Corporation의 등록 상표입니다. 자세한 사항은 www.spec.org를 참조하세요.
  3. PHX-3a: 2023년 5월 기준, AMD는 x86 Windows 프로세서에 최초이자 유일하게 사용 가능한 전용 AI 엔진을 탑재하였으며, 여기서 '전용 AI 엔진'은 AI 추론 모델 처리 이외의 기능을 수행하지 않고 x86 프로세서 다이의 일부인 AI 엔진으로 정의됩니다. 자세한 정보는 https://www.amd.com/ko/technologies/xdna.html를 확인해 주세요.