首页 报纸 正文

黄仁勳、またも「装備」アップグレード。11月14日、毎日経済新聞の英偉達記者は、現地時間11月13日、英偉達がNVIDIA HGX H 200(AIチップモデル、以下「H 200」と略称する)を発売すると発表したことを英偉達から明らかにした。H 200は初のHBM 3 e GPU(メモリ、これまでより速度が速く、容量が大きい)を採用し、生成式AIと大言語モデルをさらに加速させるとともに、HPC(高性能計算)のワークロードのための科学計算を推進し、伝送速度4.8 TB/秒の141 GBメモリを提供でき、前世代アーキテクチャのNVIDIA 100に比べて容量が2倍近く、帯域幅が2.4倍増加した。
超大規模で高性能なコンピューティングのIan Buck副総裁によると、生成型AIとHPCアプリケーションによるインテリジェントな創造には、大規模で高速なGPUグラフィックスメモリを使用して大量のデータを高速かつ効率的に処理する必要がある。H 200が超高速NVIDIA Grace CPUに超高速NVILink-C 2 C相互接続技術を採用している場合、HBM 3 eを搭載したGH 200 Grace Hopperスーパーチップ、大型HPCとAIアプリケーション用に設計されたコンピューティングモジュールが構成されています。
規格から見ると、H 200は4ウェイと8ウェイのH 200サーバーボードをオプションで提供し、HGX H 100システムのハードウェアとソフトウェアと互換性がある。今年8月にリリースされたHBM 3 eを採用したNVIDIA GH 200グレイスホッパースーパーチップにも使用できる。これらの構成により、H 200はローカル、クラウド、ハイブリッドクラウド、エッジなど、さまざまなデータセンターに配置できます。1750億パラメータ以上の超大型モデルに対するLLMトレーニングや推論など、さまざまなアプリケーションワークロードに最高のパフォーマンスを提供できます。
アーキテクチャでは、前世代と比べて、NVIDIA Hopperアーキテクチャは性能の飛躍を実現し、例えば700億パラメータのLLM--Llama 2上の推論速度はH 100(英偉達AIチップ)より2倍近く向上した。
英偉達側によると、2024年第2四半期から世界のシステムメーカーとクラウドサービスプロバイダを通じてH 200を提供する。サーバーメーカーやクラウドサービスプロバイダも、同じタイミングでH 200を搭載したシステムの提供を開始する予定だ。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

什么大师特 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    23