首页 报纸 正文

6月2日夜、英偉達の創始者で最高経営責任者の黄仁勲氏が登壇し、多くの重要な情報を明らかにした。同氏によると、NVIDIA NIMを使用してAIモデルをクラウド、データセンター、またはワークステーションに配備した開発者は、モデルの配備時間を以前の数週間から数分に短縮できるという。和碩、労氏会社、シーメンスなどの顧客が使用している。
また、英偉達に期待されている次世代AIチップとスーパーコンピューティングプラットフォームBlackwellチップの生産を開始し、2025年にBlackwell Ultra AIチップを発売する予定だ。
NVIDIANIMにより、モデルの導入時間を数週間から数分に短縮
6月2日夜、皮の服を着たインビダー創業者の黄仁勲氏はまた舞台上で自社製品をいじり始めた。重量ポンドはNVIDIANIMを紹介し、最適化された容器形式を通じてモデルを提供することができ、さまざまな規模の企業のAIサービスの導入を支援することを目指している。
しかし、厳密にはNVIDIANIMは新品ではなく、最初に姿を現したのは今年3月だった。英偉達氏は6月2日夜、世界2800万人の開発者がNVIDIANIMをダウンロードし、AIモデルをクラウド、データセンター、またはワークステーションに配備し、Copilot(AIアシスタント)、ChatGPTチャットロボットなどの生成型AIアプリケーションを構築できると発表した。来月からNVIDIA開発者プログラムの会員は無料でNIMを使用し、その選択したインフラストラクチャで研究、開発、テストを行うことができます。
英偉達氏によると、新しい生成式AIアプリケーションはますます複雑になっており、通常は画像、ビデオ、音声などの異なる機能を持つ複数のモデルを使用してテキストを生成する必要があるという。一方、NVIDIANIMは、モデルの導入時間を以前の数週間から数分に短縮するために、生成AIをアプリケーションに追加する簡単で標準化された方法を提供しています。
黄氏はまた、Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI、新思科技など200社近くの技術パートナーがNIMをプラットフォームに統合し、生成型AIの導入を加速させていることを明らかにした。「各企業はその運用にジェネレーションAIを組み込むことを望んでいますが、各企業が専門的なAI研究チームを持っているわけではありません。NVIDIA NIMは任意のプラットフォームに統合され、どこの開発者もアクセスでき、任意の環境で実行できます」黄仁勲氏によると。
「毎日経済新聞」の記者によると、NIMは事前に構築されており、現在開発者が体験できるNIMの端点として40近くのモデルがある。開発者は、オープンソースコミュニティプラットフォームHugging FaceからMeta Llama 3モデルに適したNVIDIA NIMマイクロサービスにアクセスし、Hugging Faceを使用してエンドポイントアクセスを推理し、Llama 3 NIMを実行することができる。
注目に値するのは、電子メーカーのFoxconnがNIMを使用してスマート製造、スマートシティ、スマート電気自動車のための特定分野向けの大言語モデル(LLM)を開発しているなど、大手顧客の使用状況を明らかにしたことだ。和碩はNIMを地元の混合専門家(MoE)モデルに使用している。ロイズ社はNVIDIA NIM推論マイクロサービスを用いて従業員と顧客の体験を向上させている、シーメンスはその運営技術とNIMマイクロサービスを統合しており、職場のAIワークロードに使用している。また、数十社の医療機関がNIMを導入しており、手術計画、デジタルアシスタント、薬物発見と臨床試験の最適化などを含む応用分野の生成的AI推論を支援している。
Blackwellチップの生産開始
黄氏はまた、上記の製品のほかにも講演で、英偉達Blackwellチップの生産を開始し、2025年にBlackwell Ultra AIチップを発売することを明らかにした。
今年5月、黄仁勲氏は財報電話会で、今年のBlackwellアーキテクチャチップは会社に大きな収入をもたらすと予想していると述べた。英偉達はBlackwellチップに大きな期待を寄せているが、やはり市場の強い需要と関係がある。最新発表された財務諸表のデータを見ると、2025年度第1四半期、英偉達は売上高260億ドルを実現し、前年同期比262%増加した。このうち、データセンター事業の売上高は226億ドルで、前年同期比427%増加し、業績収入の「頭でっかち」となった。
英偉達最高財務責任者のコレット・クレス氏によると、データセンター業務の成長はHopperアーキテクチャGPU(例えばH 100)の出荷量の増加に由来し、この四半期の重要なハイライトの1つは、MetaがLama 3オープンソース大モデルを発表し、2万4000枚近くのH 100 GPUを使用したことだ。
チップ量産の進捗状況を公開するほか、英偉達は今回、NVIDIA Blackwellアーキテクチャを採用した一連のシステムを発売した。
これらのシステムは、企業のAI工場やデータセンターの構築を支援するGraceCPUおよびNVIDIAネットワークとインフラストラクチャを搭載しているという。その中で、NVIDIA MGXモジュール化リファレンス設計プラットフォームは、主流の大言語モデルの推理、検索強化生成、データ処理に卓越した性能を提供するために作られたNVIDIA GB 200 NVL 2プラットフォームを含むNVIDIA Blackwell製品のサポートに参加した。
英偉達氏は、GB 200 NVL 2はデータ分析などの新興分野に適しており、NVLink-C 2 C相互接続技術による帯域幅メモリ性能とBlackwellアーキテクチャに特化した解凍エンジンを利用して、X 86 CPUを使用した場合のデータ処理速度より最大18倍、エネルギー効率が8倍に向上することを強調した。「新しい産業革命が始まり、多くの企業や地域がNVIDIAと協力して1兆ドル相当の伝統的なデータセンターの計算加速への転換を推進しており、新しいデータセンターAI工場を建設して新しい商品、人工知能を生産している」と黄仁勲氏は述べた。
英偉達氏によると、現在25社以上のパートナーの90以上のリリース済みまたは開発中のシステムがMGXリファレンスアーキテクチャを使用しており、開発コストはこれまでより最大4分の3削減され、開発期間は6カ月に短縮され、これまでより3分の2削減された。また、英偉達氏は、比亜迪電子、シーメンス、泰瑞達、Alphabet傘下のIntrinsicなど世界10社以上のロボット企業がNVIDIAIsaac加速ライブラリ、物理学に基づくシミュレーションとAIモデルをそのソフトウェアフレームワークとロボットモデルに統合し、工場、倉庫、配送センターの作業効率を高めていることを明らかにした。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

就放荡不羁就h 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    32