找回密码
 立即注册
搜索
热搜: Apple Tesla Amazon
查看: 1336|回复: 0

マスクはオープンソースの自宅トップクラスの大モデルの圧力をOpenAIに対して行動で反撃

[复制链接]

0

主题

0

回帖

0

积分

新手上路

积分
0
发表于 2024-3-18 13:13:46 | 显示全部楼层 |阅读模式

AIモデルのオープンソースにこだわり続けていることをアピールするためらしく、マスクはアルトマンとは全く異なる選択をした。3月17日、マースクはオープンソースGrok-1を発表し、これによりGrok-1は現在のパラメータ量が最大のオープンソース大言語モデルとなり、3140億パラメータを持ち、OpenAI GPT-3.5の1750億をはるかに上回った。
興味深いことに、Grok-1がオープンソースを発表した表紙図はMidjourney生成で、「AI helps AI」と言える。
OpenAIをopenしないとツッコミを入れてきたマースク氏は、「OpenAIの開放的な部分をもっと知りたい」と、ソーシャルプラットフォームに影を含まなければならないのは当然だ。
Grok-1はApache 2.0プロトコルに従ってモデル重みとアーキテクチャを開放する。これは、個人的にもビジネス的にも、ユーザーが自由にソフトウェアを使用、修正、配布できるようにすることを意味します。この開放性はより広範な研究と応用開発を奨励した。プロジェクトが発表されてから現在まで、GitHubで6.5 k星印を獲得し、熱は増加し続けている。
プロジェクトの説明では、Grok-1は規模の大きい(314 Bパラメータ)モデルであるため、サンプルコードテストモデルを使用するには十分なGPUメモリを持つマシンが必要であることを明確に強調した。ネットユーザーは、628 GBのGPUメモリを持つマシンが必要かもしれないと話している。
また、リポジトリ内のMoEレイヤの実装効率は高くありません。この実装を選択したのは、モデルの正確性を検証するためにカスタムカーネルが必要にならないようにするためです。
現在オープンソースされている人気の大モデルには、MetaのLlama 2、フランスのMistralなどが含まれています。一般的に、オープンソースモデルをリリースすることは、コミュニティが大規模なテストとフィードバックを展開するのに役立ち、モデル自体の反復速度も速くなることを意味します。
Grok-1はハイブリッド専門家(Mixture-of-Experts、MOE)の大モデルで、マースク傘下のAIベンチャー企業xAIが過去4カ月間に開発した。モデルの開発過程をレビューする:
xAIの設立を発表した後、関係研究者はまず330億パラメータのプロトタイプ言語モデル(Grok-0)を訓練した。このモデルは標準言語モデルの試験基準でLLaMA 2(70 B)の能力に近いが、より少ない訓練資源を使用した。
その後、研究者はモデルの推論と符号化能力を大幅に改善し、最終的にGrok-1を開発し、2023年11月に発表した。これはより強力なSOTA言語モデルであり、HumanEval符号化タスクで63.2%の成績を達成し、MMLUで73%に達し、その計算クラスの他のすべてのモデルを超え、ChatGPT-3.5とInflection-1を含む。
他の大きなモデルと比べて、Grok-1の優位性はどこにあるのでしょうか。
xAIは特に、Grok-1は彼ら自身が一から訓練する大きなモデルであることを強調している。つまり、2023年10月からカスタム訓練スタックを用いてJAXとRustで訓練を開始し、特定のタスク(会話など)に対して微調整を行っていない、
Grok-1のユニークで基本的な利点は、Xプラットフォームを通じてリアルタイムに世界を知ることができ、他のAIシステムの多くに拒否されている辛い質問に答えることができることです。Grok-1リリースで使用されたトレーニングデータは、2023年第3四半期までのインターネットデータとxAIのAIトレーナーが提供したデータから、
3140億パラメータのMixture-of-Expertsモデルは、tokenごとにアクティブな重みの割合が25%であり、この膨大なパラメータ量は強力な言語理解と生成能力を提供します。
xAIはこれまで、Grok-1をGrokの背後にあるエンジンとして、問答、情報検索、クリエイティブライティング、コーディング支援を含む自然言語処理タスクに使用することを紹介してきた。将来的には、長いコンテキストの理解と検索、マルチモーダル能力は、モデルが探索する方向の1つである。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|www.LogoMoeny.com

GMT+8, 2024-12-23 13:20 , Processed in 0.140985 second(s), 8 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表