首页 신문 正文

상하이보 중국증권망 (정유한 이흥채 기자) 10월 11일, Advancing AI 2024에서 AMD는 5세대 AMD EPYC 서버 CPU, AMD Instinct MI325X 가속기, AMD Pensando Salina DPU, AMD Pensando Pollara 400 NIC, 기업 AI PC용 AMD RyZen PROZen 300 프로세서를 포함한 새로운 AI 고성능 컴퓨팅 솔루션을 선보였다.
AMD 이사회 의장 및 CEO 쑤쯔펑 박사는"새로운 EPYC CPU, AMD Instinct GPU, Pensando DPU를 통해 고객의 가장 중요하고 까다로운 워크로드를 지원하는 선도적인 컴퓨팅 능력을 제공할 것"이라고 말했다.미래를 내다보면 데이터센터 AI 가속기 시장 규모가 2028년 5000억 달러로 성장할 것으로 예상된다"고 말했다.
2018년 2% 에 불과했던 AMD EPYC 서버 CPU는 7년도 안 돼 현재 34% 에 달해 데이터센터와 AI가 AMD에 큰 성장 기회를 주고 있다.
EPYC CPU 전체 업그레이드
AMD의 핵심 제품 중 하나인 AMD EPYC 서버 CPU가 전면 업그레이드되었습니다.
"토리노(Turin)"라는 이름의 5세대 AMD EPYC 서버 CPU(AMD EPYC 9005 시리즈 CPU)는"Zen5"코어 아키텍처를 사용하여 SP5 플랫폼과 호환되며 최대 192개의 코어, 최대 5GHz의 주파수를 제공하며 AVX512 명령 세트는 전체 512비트 폭의 데이터 경로를 지원합니다.
AMD에 따르면 AMD EPYC 9005는 AI를 위한 첨단 CPU입니다.AMD EPYC 9005는 기존 하드웨어에 비해 랙 수를 크게 줄인 상태에서 동등한 정수 연산 성능을 구현하고 물리적 공간, 전력 소비량 및 필요한 소프트웨어 라이센스 수를 크게 줄여 새로운 AI 워크로드에 공간을 확보할 수 있습니다.
AMD는 또한 AMD EPYC 9005가 뛰어난 AI 추론 성능을 갖추고 있다고 밝혔다.5세대 AMD EPYC 9965 CPU 2개를 실행하는 서버는 이전 세대 제품에 비해 최대 2배의 추론 처리 능력을 제공합니다.
Dan McNamara AMD 수석 부사장 겸 서버 사업부 사장은"AMD는 데이터 센터 시장의 요구를 충족시킬 수 있다는 것을 입증했으며, 고객에게 클라우드, 엔터프라이즈 및 AI 워크로드의 요구를 충족시킬 수 있는 데이터 센터의 성능, 효율성, 솔루션, 기능을 벤치마킹했다"고 말했다.
Instinct GPU의 지속적인 발전
AI 계산력의 중요한 담체로서 AMD Instinct GPU도 업데이트 반복을 맞이했다.또한 AMD는 2025년과 2026년의 GPU 제품 노선 계획을 발표했다.
3세대 AMD CDNA 아키텍처를 기반으로 구축된 AMD Instinct MI325X는 256GB HBM3E 메모리와 6TB/s의 메모리 대역폭을 갖추고 있어 감탄할 만한 훈련과 추론의 성능과 효율을 선사하며 AI 성능의 새로운 표준을 수립했다.AMD가 발표 한 데이터에서 AMD Instinct MI325X는 여러 모델의 추론 분야에서 엔비디아 H200보다 우수합니다.
AMD는 AMD Instinct MI325X가 현재 2024년 4분기에 출하될 전망이며, Dell, 기가, HP, Lenovo 등 파트너사의 전체 시스템, 인프라 솔루션은 2025년 1분기부터 출시될 것이라고 밝혔다.
향후 제품 레이아웃에서는 AMD CDNA 3 아키텍처 기반 가속기보다 AMD CDNA 4 아키텍처 기반 AMD Instinct MI350의 추론 성능이 35배 향상될 것입니다.아울러 AMD Instinct MI350은 최대 288GB의 HBM3E 메모리를 장착할 수 있으며 2025년 하반기에 출시될 전망이다.
AMD는 또한 AMD CDNA Next 아키텍처를 기반으로 한 AMD Instinct MI400의 개발에 큰 진전을 이뤘으며 2026년에 출시할 계획이라고 밝혔다.
AI 네트워크 성능 향상
현재 AI 네트워크는 CPU와 가속기가 AI 인프라에서 효과적으로 활용되도록 하는 데 매우 중요하다.
AMD는 차세대 AI 네트워크를 지원하기 위해 광범위하게 배포된 프로그래밍 가능한 DPU를 이용해 초대형 컴퓨팅을 지원하고 있다.이 AI 네트워크는 AI 클러스터로 데이터와 정보를 전송하는 프런트엔드와 가속기와 클러스터 간 데이터 전송을 관리하는 백엔드 등 두 부분으로 나눌 수 있다.이를 위해 AMD는 프런트엔드용 AMD Pensando Salina DPU와 백엔드용 AMD Pensando Pollara 400을 선보였다.
AMD Pensando Salina DPU는 전 세계에서 가장 성능이 뛰어나고 프로그래밍이 뛰어난 3세대 DPU 중 하나로, 이전 세대 제품에 비해 성능, 대역폭, 규모를 2배 향상시켰다.400G의 처리량을 지원하며 고속 데이터 전송이 가능한 AMD Pensando Salina DPU는 AI 프런트엔드 네트워크의 핵심 구성 요소로 데이터 기반 AI 애플리케이션에 성능, 효율성, 보안 및 확장성을 최적화합니다.
Pensando Pollara 400은 업계 최초의 UEC-ready AI NIC (초이더넷 얼라이언스 사양을 준수하는 AI 네트워크 카드) 로 차세대 RDMA 소프트웨어와 개방된 네트워크 생태계를 지원하여 백엔드 네트워크에서 가속기 간의 성능 선두, 확장 및 효율적인 통신을 보장합니다.
출시 시기는 AMD Pensando Salina DPU와 AMD Pensando Pollara 400 모두 2024년 4분기에 고객에게 샘플을 공급할 예정이며, 2025년 상반기에 출시될 예정이다.
Forrest Norrod AMD 총괄 부사장 겸 데이터센터 솔루션 사업부 사장은 "새로운 AMD Instinct Accelerator, EPYC 프로세서, AMD Pensando 네트워크 엔진, 개방된 소프트웨어 생태계, 이를 AI 인프라로 통합하는 능력을 바탕으로 AMD는 세계 최고 수준의 AI 솔루션을 구축하고 배포할 수 있는 핵심 전문 지식을 갖추고 있다"고 말했다.
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

明绍宗朱聿键鼻 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    31