首页 신문 正文

엔비디아가 차세대 Blackwell 아키텍처인 인공지능 GPU 칩 B200을 최근 발표한 후, 엔비디아의 최대 고객 중 하나인 메타는 올해 말에 Blackwell 신제품을 받아 훈련사의 최신 인공지능 모델인 Llama에 빠르게 적용할 예정이라고 서둘러 발표했다.
화요일 늦게 엔비디아 임원도 대외적으로 이 제품이 올해 말에 처음으로 인도될 예정이며 판매가격은 3만~4만 사이로 예상된다고 밝혔다.
메타: B200으로 AI 모델 훈련 예정
미국 동부 시간으로 월요일, 엔비디아는 매년 열리는 GTC 2024 총회에서 차세대 Blackwell 아키텍처 인공지능 GPU 칩인 B200을 발표했다.엔비디아 CEO 황인훈에 따르면 B200칩은 2080억개의 트랜지스터가 집적되여있어 전세대 칩 800억개의 트랜지스터의 2.6배에 달하며 채팅로보트에 답안을 제공하는 등 임무를 처리할 때 B200칩의 속도는 전세대 칩보다 30배 빠르다.
이어 페이스북 모회사인 메타 플랫폼의 한 대변인은 올해 말 엔비디아의 블랙웰 신제품을 처음 받을 것으로 예상된다고 밝혔다.
소셜미디어 거물인 메타는 엔비디아의 최대 고객 중 한 명으로 그동안 수십만 개의 엔비디아 이전 세대 칩 H100을 구입해 콘텐츠 추천 시스템과 생성식 인공지능 제품을 업그레이드할 수 있도록 했다.
지난 1월 마크 저커버그 메타 최고경영자 (CEO) 는 이 회사가 올해 말까지 약 35만 개의 H100 칩을 비축할 계획이라고 밝힌 바 있다.그는 다른 GPU와 결합하면 그때까지 메타는 약 60만 개의 H100에 해당하는 프로세서를 갖게 될 것이라고 덧붙였다.
미국 동부 시간으로 월요일, 엔비디아가 B200 칩을 발표 한 후, 저커버그는 Meta가 Blackwell 제품을 사용하여 회사의 Llama 모델을 훈련 할 계획이라고 발표했다.
메타는 지난주'데이터 센터급'2개의 GPU 클러스터를 보유하고 있으며, 각 클러스터에는 약 24000개의 H100 GPU가 포함된 것으로 알려졌으며, 메타는 현재 이 두 GPU 클러스터에서 3세대 AI 모델을 훈련하고 있다.
메타 대변인은 메타가 Llama 3를 훈련하기 위해 이러한 클러스터를 계속 사용할 계획이며 향후 몇 세대 AI 모델의 훈련에 Blackwell 제품을 사용할 것이라고 밝혔다.
엔비디아 B200 연내 출하 예정 가격 3만~4만 달러
미국 동부 시간으로 화요일, 엔비디아의 최고 재무 책임자 인 콜렛 크레스 (Colette Kress) 는 투자자들에게"우리는 올해 말에 첫 번째 인도가 될 것으로 생각한다"면서도 2025 년까지 대량 공급이 이루어지지 않을 것이라고 밝혔다.
또 황인훈 엔비디아 CEO도 화요일 언론에 블랙웰 신제품의 판매가가 3만 달러에서 4만 달러 사이가 될 것이라고 밝혔다.그는 엔비디아가 연구 개발 비용으로 약 100억 달러를 썼을 것으로 전망했다.
이는 B200과 같은 신제품이 인기를 끌 수 있다는 것을 의미한다. 이전 세대 제품인 H100의 가격은 약 2만5000~4만 달러였지만 신제품의 성능은 이전 세대를 훨씬 앞질렀기 때문이다.
황인훈은 어제 GTC 콘퍼런스 연설에서 1조8000억 참가 GPT 모델을 훈련하려면 호퍼 GPU 8000장, 15메가와트의 전력을 소비해 90일 연속 달리기를 해야 한다고 예를 들었다.그러나 GB200 Blackwell GPU를 사용하면 2000장만 있으면 돼 역시 90일을 뛰면 4분의 1의 전력만 소모된다.훈련뿐만 아니라 Token을 생성하는 비용도 크게 낮아집니다.
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

明绍宗朱聿键鼻 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    31