找回密码
 立即注册
搜索
热搜: Apple Tesla Amazon
查看: 164|回复: 0

英偉達加大杯B 200チップ:ムーアの法則が故障したマルチカード相互接続が王と呼ばれている

[复制链接]

23

主题

0

回帖

93

积分

注册会员

积分
93
发表于 2024-3-19 21:39:14 | 显示全部楼层 |阅读模式

北京時間3月19日未明、英偉達GTC(GPU技術大会)で、英偉達の黄仁勲最高経営責任者はHopperアーキテクチャチップの後継者であるBlackwellアーキテクチャのB 200チップを発表した。現在、英偉達HopperアーキテクチャのチップH 100とGH 200 Grace Hopperスーパーチップの需要量は大きく、世界で最も強力なスーパーコンピューティングセンターの多くに計算力を提供し、B 200は計算力のさらなる世代間飛躍を提供する。
BlackwellアーキテクチャのB 200チップは、従来の意味での単一GPUではない。対照的に、Nvidiaによると、統一されたCUDA GPUとして機能しているにもかかわらず、2つの緊密に結合されたチップで構成されています。2つのチップは、10 TB/s NV-HBI(Nvidia高帯域幅インタフェース)接続によって接続され、単一の完全に一致したチップとして正常に動作することを保証します。
マルチカード相互接続はB 200の計算力向上の鍵である。2つのGPUと1つのGrace CPUを結合したGB 200は、大言語モデルの推論作業に30倍のパフォーマンスを提供するとともに、効率を大幅に向上させることができます。英偉達氏によると、B 200はH 100に比べて生成式AIの計算コストとエネルギー消費を最大25倍削減できるという。
英偉達AIチップの性能自体の計算力の向上は主にデータ精度に依存し、FP 64、FP 32、FP 16、FP 8から現在のB 200チップのFP 4まで、FP 4の最大理論計算量は20 petaflops(データ精度単位)である。FP 4はFP 8の性能の2倍であり、FP 4の利点は帯域幅を向上させ、ニューロンごとに8ビットではなく4ビットを使用することで、計算、帯域幅、モデルサイズを2倍にすることである。B 200をFP 8に換算してH 100と同類比較すると、B 200は理論的にH 100より2.5倍の計算量を提供するだけで、B 200の計算力の向上の大部分は2つのチップの相互接続から来ている。
CPU汎用プロセッサ時代のムーアの法則(集積回路に収容できるトランジスタの数は、約18カ月ごとに倍増する)は晩年に入った。3 nmプロセスにおける台積電のブレークスルーは、チップ性能にブレークスルー世代の向上をもたらしていない。2023年9月、アップルA 17 Proが登場し、台積電製の初の3 nmプロセスチップを使用したが、CPUの性能はわずか10%向上した。また、先進プロセスチップの研究開発には莫大な費用がかかり、遠川研究所によると、2023年の台積電のウェハ代工価格は2年前に比べて約16%(先進プロセス)から34%(成熟プロセス)上昇した。
アップルのほかに、台積電のもう一つの大手チップ顧客は英偉達である英偉達の硬貨AIチップH 100は台積電N 4(5 nm)技術を採用し、台積電のCoWoS先進パッケージ生産能力を使用した。
ムーアの法則は失効し、黄仁勲の黄氏の法則は、GPUの効能は2年ごとに2倍以上増加すると指摘し、「革新はチップだけではなく、スタック全体だ」と指摘した。
英偉達は引き続きマルチカード相互接続に向かっている。3 nmチップの向上が限られている以上、雄大なB 200は2枚の4 nmチップを並べて、超高速チップ上の相互接続を通じて、2000億以上のトランジスタを構成する超大チップを選択した。英偉達GTCでは、黄仁勲氏はチップ自体の性能について一筆書きしており、DGXシステムに重点を置いている。
マルチカード相互接続では、インビルタのNVLinkとNVSwitch技術が堀となっている。NVLINKは点対点の高速相互接続技術であり、複数のGPUを直接接続し、高性能計算クラスタまたは深さ学習システムを形成することができる。また、NVLinkは統一メモリの概念を導入し、接続されたGPU間のメモリプールをサポートする。これは大型データセットを必要とするタスクにとって極めて重要な機能である。
NVSwitchは高速スイッチ技術であり、複数のGPUとCPUを直接接続して高性能計算システムを形成することができる。
NVLink Switchサポートの下で、英偉達は72枚のB 200を「強力に奇跡を起こす」ように接続し、最終的に「次世代コンピューティングユニット」GB 200 NVL 72となった。このような「計算ユニット」キャビネットでは、FP 8精度の訓練計算力は720 PFLopsに達し、H 100時代のDGX SuperPodスーパーコンピュータクラスタ(1000 PFLops)に迫る。
英偉達氏によると、この新しいチップは2024年以降に発売される。現在、アマゾン、デル、グーグル、Meta、マイクロソフト、OpenAI、テスラはBlackwell GPUの使用を計画している。
「荷造り卸販売カード」の方式は、大手モデル会社のカード需要にも合致している。複数のGPU相互接続をデータセンターに「パッケージ化」し、大規模なモデル企業やクラウドサービス事業者の購入形態に合わせています。アイオワ2023年度財務報告書によると、アイオワのデータセンター事業の40%が超大規模なデータセンターとクラウドサービス事業者から収益を得ている。
米東時間3月18日の日米株終値までの英偉達株価は884億550ドル、時価総額は2兆2100億ドルだった。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|www.LogoMoeny.com

GMT+8, 2025-3-17 16:36 , Processed in 0.719327 second(s), 7 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表