3行要約

  • AIチップのスタートアップCerebrasがIPOを申請し、OpenAIと総額100億ドル(約1.5兆円)規模の巨額契約を結んでいたことが判明しました。
  • 同社の「Wafer-Scale Engine 3」は、1つのシリコンウェハを丸ごと1枚のチップにする唯一無二の設計で、NVIDIA H100の57倍のサイズと圧倒的なオンチップメモリを実現しています。
  • これは単なる資金調達ではなく、LLM(大規模言語モデル)のトレーニングにおける「通信のボトルネック」という物理的限界を打破し、NVIDIA依存から脱却するための業界の総力戦です。

📦 この記事に関連する商品

GeForce RTX 4090

Cerebrasのような巨大チップの恩恵を受けられない個人開発者にとって、現時点の最高峰は24GBのVRAMを持つ4090一択です。

Amazonで見る 楽天で見る

※アフィリエイトリンクを含みます

何が起きたのか

AIハードウェア界の「巨獣」ことCerebras Systemsが、ついに米証券取引委員会(SEC)へ新規株式公開(IPO)の申請を行いました。これまでステルス気味だった彼らの実態がS-1書類によって白日の下にさらされたわけですが、その内容は私の想像を遥かに超えるものでした。

最も衝撃的なのは、OpenAIとの間で100億ドル(約1.5兆円)を超える契約を結んでいるという事実です。これは、Sam Altman(サム・アルトマン)が以前から掲げていた「NVIDIA以外の演算資源の確保」が、単なる構想ではなく既に実行フェーズに入っていることを意味します。さらにAWSとの間でも、Cerebrasのチップをデータセンターへ配備する契約が締結されています。

なぜ今、このニュースが重要なのか。それは、現在のAI開発における最大の課題が「GPUの性能」ではなく「GPU同士の接続」にあるからです。NVIDIAのH100やB200を数万個並べても、チップ間のデータ転送に時間がかかりすぎて、演算ユニットが遊んでしまう時間が無視できなくなっています。

Cerebrasはこの問題を、チップを分割せず「1枚の巨大なウェハのまま使う」という力技で解決しました。IPOによって得られる巨額の資金は、次世代チップの開発だけでなく、OpenAIのような巨大顧客に対する安定供給体制の構築に充てられます。これは、長らく続いてきたNVIDIAによる演算資源の独占(Monopoly)が、実務レベルで崩れ始める決定的な転換点です。

技術的に何が新しいのか

Cerebrasの核心技術は「Wafer-Scale Engine (WSE)」にあります。通常のチップ製造では、1枚のシリコンウェハ(直径約30cmの円盤)から数百個のチップを切り出しますが、Cerebrasはあえて「切り出さず、ウェハ全体を1つのチップ」として機能させます。

従来のアプローチでは、大規模なLLMを学習させる際、モデルのパラメータを数千台のGPUに分割して配置する必要がありました。このとき、GPU同士を繋ぐNVLinkやInfiniBandといったネットワークがボトルネックになります。どんなに高速な通信を使っても、同一シリコン内でのデータ移動に比べれば、基板外への通信は圧倒的に遅く、電力消費も激しいのが現実です。

最新の「WSE-3」は、4兆個のトランジスタと90万個のAI最適化コアを1つのチップに集約しています。特筆すべきは、44GBもの超高速SRAMを「演算コアのすぐ隣」に配置している点です。NVIDIA H100などが採用するHBM(高帯域メモリ)も高速ですが、それでもチップ外部のメモリと通信するためレイテンシが発生します。WSE-3のオンチップメモリ帯域は毎秒21ペタバイト。これはH100の数千倍の速度であり、データの移動待ち時間をほぼゼロに追い込んでいます。

開発者目線で言えば、Cerebrasのシステム「CS-3」は「単一の巨大なプロセッサ」として振る舞います。従来の複雑な分散学習(Data ParallelismやModel Parallelism)のコードを一切書く必要がなく、単一のデバイスを扱う感覚でPyTorchのモデルをそのままスケールさせられるのが最大の強みです。私がドキュメントを読み込んだ限り、彼らの独自コンパイラ「CSoft」の進化は凄まじく、既存の重い学習ジョブを移行するハードルは以前よりも格段に下がっています。

数字で見る競合比較

項目Cerebras WSE-3NVIDIA H100 (SXM5)Google TPU v5p
チップサイズ46,225 mm²814 mm²非公開(推定600-700mm²)
トランジスタ数4.0兆個800億個非公開
オンチップメモリ (SRAM)44,000 MB50 MB非公開
メモリ帯域21,000 TB/s3.35 TB/s4.8 TB/s
製造プロセスTSMC 5nmTSMC 4N非公開

この数字が意味するのは、Cerebrasが「密度」と「帯域」において別次元にいるということです。NVIDIAが「いかに効率よくチップを並べるか」に腐心しているのに対し、Cerebrasは「そもそも並べる必要がない」環境を作ろうとしています。

実務上の差は、特にパラメータ数が1兆を超える超大規模モデルの「学習効率」に現れます。H100クラスのクラスタでは、通信オーバーヘッドによって実行効率が50%以下に落ちることも珍しくありませんが、Cerebrasのアーキテクチャでは理論上、リニアに近いスケーラビリティを維持できます。

一方で、1ラックあたりの消費電力が23kWと巨大である点や、冷却システムを含めた物理的な設置難易度の高さは無視できません。NVIDIAは「既存のサーバーラックに挿せる」汎用性を武器にしていますが、Cerebrasは「専用の演算プラント」を構築する覚悟が必要です。OpenAIが100億ドルを投じるのは、その設置コストを補って余りある「学習速度の向上」と「モデルの巨大化」を狙っているからに他なりません。

開発者が今すぐやるべきこと

まず、Cerebrasが提供しているクラウドサービス「Cerebras AI Model Studio」のアカウントを作成し、自分のモデルがどれほどの速度で動くかベンチマークを取る準備をしてください。H100のインスタンスを確保するのに数ヶ月待たされる現状を考えれば、Cerebrasの計算資源が現実的な代替案になる時期はすぐそこまで来ています。

次に、自身のプロジェクトで使っているPyTorchやTensorFlowのコードから、NVIDIA固有の最適化(CUDA専用カーネルなど)への依存度を確認してください。Cerebrasは標準的なフレームワークをサポートしていますが、極限までパフォーマンスを引き出すには、彼らのアーキテクチャに適した「ウェイトストリーミング方式」の理解が必要です。具体的には、モデルの重みをデバイス内に保持するのではなく、ストリーミングしながら処理する手法へのコード修正が必要になる可能性があります。

最後に、ローカルLLMを扱っているエンジニアであれば、CerebrasがHugging Faceで公開している「Cerebras-GPT」シリーズの学習ログや構成を読み解いてください。彼らがどのようにこの巨大チップを使いこなしてモデルを構築したかの知見が詰まっています。NVIDIA一強の時代が終わるということは、複数の異なるアーキテクチャ向けに最適化できる「ハードウェア非依存のエンジニア」の価値が相対的に高まることを意味します。

私の見解

私は、CerebrasのIPOとOpenAIとの提携を「AIバブルの継続」ではなく「AIコンピューティングのパラダイムシフト」として捉えています。正直に言えば、これまでCerebrasのような非標準的なアーキテクチャがNVIDIAのCUDAエコシステムに勝てるとは思っていませんでした。しかし、OpenAIという世界最大の「計算機を消費する組織」が1.5兆円も投下するとなれば、話は別です。

NVIDIAの強みは、ゲーミングからHPCまでをカバーする汎用性と、強固なCUDAの壁です。しかし、今のAI業界が必要としているのは「ゲームもできるチップ」ではなく「LLMを最速でトレーニングするためだけの専用機」です。Cerebrasはその一点において、NVIDIAが絶対に真似できない物理構造を持っています。

懸念点としては、Cerebrasのビジネスが「OpenAIやAWSといった超巨大顧客」に依存しすぎている点でしょう。もしOpenAIが自社チップの開発に成功すれば、Cerebrasは梯子を外されるリスクがあります。しかし、向こう3年というスパンで考えれば、彼らのウェハスケール技術を追い越せる競合はいません。

私は、Cerebrasが提供する「ソフトウェア開発の簡素化(分散学習のコードが不要になること)」こそが、エンジニアにとっての真の革命になると確信しています。煩雑なインフラ構築から解放され、モデルの設計そのものに集中できる環境。その対価として1.5兆円は、決して高くありません。

よくある質問

Q1: NVIDIAのGPUで動いているコードはそのままCerebrasで動きますか?

基本的にはPyTorchやTensorFlowを介して動きますが、CUDA専用のカスタムカーネルを多用している場合は、Cerebrasのコンパイラに合わせてリライトが必要です。しかし、標準的なレイヤーのみで構成されたモデルなら、数行の変更で動作します。

Q2: 自宅サーバーや小規模なオフィスに導入することは可能ですか?

現実的ではありません。1ユニット(CS-3)で23kWの電力を消費し、特殊な水冷システムや電源設備が必要です。個人やスタートアップであれば、自前で購入するのではなく、Cerebrasのクラウドサービスを利用するのが唯一の現実的な選択肢です。

Q3: NVIDIAの株価に影響はありますか?

長期的には大きな脅威になりますが、短期的には影響は限定的でしょう。NVIDIAの需要は依然として供給を上回っており、CerebrasがOpenAIの需要をすべて満たせるわけではありません。ただし、ハイエンドのトレーニング市場において、NVIDIAの価格支配力が弱まる可能性は極めて高いです。


あわせて読みたい