首页 신문 正文

6월 28일 (현지 시각) 구글은 전 세계 연구진과 개발자들을 대상으로 90억 매개변수 (9B) 와 270억 매개변수 (27B) 두 가지 크기로 젬마 2대 언어 모델을 발표했다.
구글은 젬마 2-27B 모델의 성능이 두 배 규모의 주류 모델에 필적하며, 엔비디아 H100 ensor Core GPU 또는 TPU 호스트 하나만으로 이러한 성능을 구현할 수 있어 배치 비용을 크게 낮출 수 있다고 밝혔다.
구글은 또 앞으로 몇 달 동안 26억 매개변수의 젬마2 모델을 발표해 스마트폰의 인공지능 응용 장면에 더 적합할 계획이다.
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

真不是我干的的 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    37