모든 상대를 깔아뭉개?구글, 경량화 오픈 소스 모델 발표, 노트북 달리기 가능
茉莉707
发表于 2024-2-22 13:16:04
225
0
0
오픈 소스 대형 모델 트랙은 메가톤급 신제품을 맞이했다.
2월 21일 (현지 시각) 구글은 개발자와 연구자들이 책임감 있게 인공지능을 구축할 수 있도록 돕기 위한 새로운 오픈 소스 대언어 모델 (LLM)'젬마'를 공식 출시한다고 밝혔다.
소개에 따르면 젬마 대형 모델은 구글에서 규모가 가장 크고 능력이 가장 강한 인공지능 모델인 제미니와 기술과 인프라를 공유하고 있다."지미니의 영감을 받아 구글 딥마인드는 구글의 다른 팀과 협력하여 젬마를 개발했으며 라틴어로'보석'이라는 뜻의 젬마로 이름을 붙였다."
그러나 Gemma는 Gemini보다 경량화됩니다.이와 동시에 Gemma는 여전히 무료로 사용되고있으며 그 모형가중치도 함께 원천을 열고 상업용을 허용하고있다.
구글은 젬마 2B(20억 매개변수)와 젬마 7B(70억 매개변수) 등 총 두 가지 가중치 규모의 모델을 발표했다.각 규모에는 사전 훈련 및 명령 미세 조정 버전이 있으며 규모에 관계없이 모든 조직이 상업 및 배포를 책임감 있게 수행할 수 있습니다.
구글이 젬마를 발표한 같은 날, 한창 기세드높은 칩제조업체 엔비디아도 이미 구글과 협력을 달성하여 젬마모형이 그 칩에서 순조롭게 운행되도록 확보했다고 선포했다.엔비디아는 또 산하 챗봇 소프트웨어인 챗위드 RTX도 곧 젬마를 지원할 것이라고 밝혔다.
특히 구글은 젬마가 핵심 기준에서 더 큰 모델을 월등하게 깔아뭉갤 수 있다고 강조했다.더욱 인상적인 것은 Google Gemma가 노트북에서 작동한다는 것입니다.
Gemini는 오늘날 우리가 널리 사용하고 있는 가장 크고 강력한 AI 모델이라고 구글 측은 밝혔다.Gemma 2B 및 7B는 다른 오픈 모델에 비해 동급 최고의 성능을 제공합니다.젬마 모델은 개발자 노트북이나 데스크탑 컴퓨터에서 직접 실행할 수 있습니다."Gemma는 중요한 기준에서 더 큰 모델을 넘어 안전하고 책임 있는 출력의 엄격한 기준을 준수한다는 점에 주목할 필요가 있습니다."
구글은 오픈 소스 모델과 함께 젬마의 성능, 데이터 세트 구성, 모델링 방법에 대한 상세한 정보를 담은 기술 보고서도 공개했다.연구자들은 기술 보고서에서 젬마가 지원하는 어휘표의 크기가 256K에 이른다는 것을 발견했는데, 이는 영어 이외의 다른 언어에 더 좋고 더 빠른 지원을 제공할 수 있다는 것을 의미한다.
젬마와 메타사가 발표한 Llama 2의 매개변수 비교, 구글 홈페이지
젬마도 유명 오픈 소스 모델 라이브러리인 허깅페이스와 허깅챗에 가장 먼저 오픈했다.오픈한 지 얼마 되지 않아 HuggingFace의'대언어 모델 차트'에서 Gemma 2B와 7B 모델이 나란히 정상에 올랐다.
AI 업계 전문가이자 딥러닝 프레임워크인 Keras의 저자인 Franois Chollet은 이에 대해 최강 오픈 소스 대형 모델의 위치가 이제 바뀌었다고 말했다.
젬마의 경쟁사인 엘라마3도 출시를 앞두고 있다.1월 19일, 메타의 공동 설립자이자 CEO 저커버그는 메타가 Llama 3를 훈련시키고 있으며 책임 있는 방식으로 계속 오픈소스를 시작할 것이라고 발표했다.
CandyLake.com 系信息发布平台,仅提供信息存储空间服务。
声明:该文观点仅代表作者本人,本文不代表CandyLake.com立场,且不构成建议,请谨慎对待。
声明:该文观点仅代表作者本人,本文不代表CandyLake.com立场,且不构成建议,请谨慎对待。
猜你喜欢
- 엔비디아 갑자기 오픈소스!
- 엔비디아 오픈 소스 3400억 매개변수 모델 Nemotron-4 340B
- 메타, 최강 오픈 소스 모델 Llama 3.1 발표, 저커버그: 업계 전환점이 될 것
- 메타,'업계 최고'오픈 소스 인공지능 (AI) 모델 Llama 3.1 발표
- 메타 강세 발표 오픈 소스 대형 모델 Llama 3.1 엔비디아도 어시스트
- 메타, 최강 오픈 소스 AI 모델 커서 GPT4-o,Claude 3.5 Sonnet!엔비디아 파운드리 추가 저커버그: 업계 최고 수준
- 황인훈 저커버그 지원 AI 대형 모델 오픈 소스 두 사람 코트 교환 형제애 표현
- 리언굉 내부연설 폭로: 개원모델 효률이 높지 않아 계산력문제를 해결할수 없다
- 알리 통의 천문 코드 모델 Qwen2.5-Coder 전 시리즈 정식 오픈 소스
- 알리바바 CEO 오영명: AI 발전은 부동한 규모, 부동한 령역의 개원대모형이 필요하다
-
11月21日、2024世界インターネット大会烏鎮サミットで、創業者、CEOの周源氏が大会デジタル教育フォーラムとインターネット企業家フォーラムでそれぞれ講演、発言したことを知っている。周源氏によると、デジタル教 ...
- 不正经的工程师
- 6 小时前
- 支持
- 反对
- 回复
- 收藏
-
アリババは、26億5000万ドルのドル建て優先無担保手形と170億元の人民元建て優先無担保手形の定価を発表した。ドル債の発行は2024年11月26日に終了する予定です。人民元債券の発行は2024年11月28日に終了する予定だ ...
- SOGO
- 前天 09:05
- 支持
- 反对
- 回复
- 收藏
-
スターバックスが中国事業の株式売却の可能性を検討していることが明らかになった。 11月21日、外国メディアによると、スターバックスは中国事業の株式売却を検討している。関係者によると、スターバックスは中国事 ...
- 献世八宝掌
- 昨天 16:29
- 支持
- 反对
- 回复
- 收藏
-
【意法半導体CEO:中国市場は非常に重要で華虹と協力を展開】北京時間11月21日、意法半導体(STM.N)は投資家活動の現場で、同社が中国ウェハー代工場の華虹公司(688347.SH)と協力していると発表した。伊仏半導体 ...
- 黄俊琼
- 昨天 14:29
- 支持
- 反对
- 回复
- 收藏