3行要約

  • 名門VCのBenchmarkが、AIチップの有望株Cerebras Systemsへの投資を強化するため、2億2500万ドルの特別ファンド(SPV)を調達しました。
  • Cerebrasは「世界最大のチップ」であるWafer Scale Engine(WSE)を開発しており、学習・推論速度においてNVIDIAのGPUを圧倒する性能を誇ります。
  • 今回の巨額資金調達はCerebrasのIPOに向けた強力な後押しとなり、AIインフラ市場におけるNVIDIAの独占状態を揺るがす大きな転換点になる可能性があります。

何が発表されたのか

みなさん、こんにちは。AI専門ブロガーのねぎです。今日は、AI業界の勢力図を大きく変えるかもしれない、非常に興味深い投資のニュースが入ってきました。

シリコンバレーで最も尊敬されるベンチャーキャピタルの一つ、Benchmark Capital(ベンチマーク・キャピタル)が、AIチップ開発のスタートアップであるCerebras Systems(セレブラス・システムズ)に対して、さらに2億2500万ドル(日本円で約340億円)もの追加資金を投入するために、特別なファンド(SPV:Special Purpose Vehicle)を立ち上げたと報じられました。

まず、Benchmarkがどういう存在かをお話ししておくと、彼らはUberやTwitter、eBayといった、後に世界を変えることになる企業を極めて早い段階で見出してきた「目利き」の集団です。そのBenchmarkが、すでに2016年から投資しているCerebrasに対して、このタイミングでわざわざ別枠の巨大な資金を確保して「二の次、三の次」の勝負を仕掛けてきた。これは並大抵のことではありません。

Cerebrasは現在、新規株式公開(IPO)を目指して準備を進めていますが、その道のりは必ずしも平坦ではありませんでした。同社の最大の顧客であるアラブ首長国連邦(UAE)のAI企業「G42」との関係性が、米中対立の影響で当局の監視対象になっていたり、上場のタイミングが遅れたりと、いくつかのハードルに直面していたのです。

しかし、Benchmarkがこれだけの巨額資金をSPVで調達したということは、彼らがCerebrasの技術的優位性と、将来的な市場シェア獲得に対して、揺るぎない自信を持っていることの裏返しだと言えます。今回の資金調達は、単なる延命措置ではなく、IPOに向けた最終的なブーストであり、同時に「NVIDIAの代替案を求める市場の熱狂」に応えるための布石なのだと私は見ています。

背景として、現在のAI業界はあまりにもNVIDIAのGPU(H100やB200など)に依存しすぎています。計算リソースが足りず、コストは高騰し、納期も不安定。こうした状況下で、抜本的に異なるアプローチで計算速度を10倍、100倍に引き上げようとするCerebrasのようなプレイヤーに、投資家たちの期待が集中するのは当然の流れかもしれませんね。

技術的なポイント

さて、ここからは元エンジニアの視点で、Cerebrasがなぜこれほどまでに注目されているのか、その技術的な凄さを解説していきます。一言で言うと、Cerebrasが作っているのは「世界最大のチップ」です。

通常、半導体チップは直径300mmほどの大きなシリコンウェハー(円盤)から、小さな断片を切り出して作ります。スマートフォンのチップや、NVIDIAのGPUも、このウェハーから数百個、数千個と切り出されたものです。しかし、Cerebrasの「Wafer Scale Engine(WSE)」は、そのウェハーを切り分けずに、まるごと1枚の巨大なチップとして使ってしまうのです。最新の「WSE-3」は、1枚のチップに4兆個以上のトランジスタ、そして90万個ものAI専用コアが搭載されています。

なぜ、そんなに大きくする必要があるのでしょうか。そこには「データ移動の壁」という、現代のコンピューターにおける最大のボトルネックを解消する狙いがあります。

従来のGPUクラスター(NVIDIAのH100を何千枚も並べたもの)では、計算の途中でデータをチップ間でやり取りする必要があります。この「チップの外に出て、ネットワークを通って、別のチップへ行く」という過程で、莫大な通信遅延(レイテンシ)が発生し、エネルギーも消費されます。

一方で、Cerebrasの巨大チップは、すべてが「1枚の板の上」にあります。90万個のコアが、チップ内部の高速な通信網でつながっているため、データの移動速度は従来の数千倍になります。さらに、メモリもチップのすぐそば(オンチップSRAM)に膨大な量を配置しているため、メモリ帯域幅も異次元です。

具体的には、WSE-3は44ギガバイトのオンチップSRAMを搭載し、メモリ帯域幅は毎秒21ペタバイトに達します。これはNVIDIAの最新GPUと比較しても、圧倒的な数値です。大規模言語モデル(LLM)の学習においては、この「データの行き来」の速さがそのまま学習時間の短縮に直結します。

また、Cerebrasのシステム「CS-3」は、この巨大チップを1つの筐体に収めたもので、たった1台で数百台規模のGPUサーバーに匹敵する性能を出すことができます。セットアップも非常にシンプルで、ソフトウェア側(PyTorchなど)からは「1つの巨大なプロセッサ」として見えるため、開発者が複雑な並列処理のコードを書かなくても、モデルをスケールアップできるというメリットがあります。これは私のようなエンジニアからすると、夢のような話なんですよね。

競合との比較

Cerebrasを、私たちが普段使っているChatGPTやClaudeなどのサービス、そしてそれらを支えるハードウェアと比較してみましょう。

項目Cerebras WSE-3NVIDIA H100/B200ChatGPT / Claude
分類AI専用プロセッサ(ハード)汎用GPU(ハード)AIアプリケーション(ソフト)
アプローチウェハースケール(1枚の巨大チップ)小さなチップの並列接続LLMのクラウド提供
計算密度極めて高い(90万コア/チップ)高い(数千コアを数千枚接続)N/A
メモリ帯域21 PB/s (オンチップ)数 TB/s (HBM)N/A
プログラミング単一チップとして扱える複雑な分散処理が必要API経由で利用
主な用途大規模モデルの高速学習・推論汎用AI計算、CG、科学計算文章生成、コード作成等

まず明確にしておきたいのは、ChatGPT(OpenAI)やClaude(Anthropic)は「ソフトウェア」であり、Cerebrasはそれを動かすための「エンジン(ハードウェア)」であるという点です。OpenAIなども、将来的にはCerebrasのようなチップ上で自社のモデルを動かす可能性があります。

NVIDIAとの比較において、最も重要なのは「スケーラビリティの質」です。NVIDIAのアプローチは、優秀なチップ(H100など)を数万枚、光ファイバーでつないで巨大なシステムを作るというものです。これは非常に強力ですが、ネットワークの構築が極めて難しく、冷却や電力効率も課題になります。

一方、Cerebrasは「最初から1つの巨大な計算機」として設計されています。これにより、数千枚のGPUを管理する手間を省き、学習時間を週単位から日単位、時間単位へと短縮することを目指しています。ただし、NVIDIAには「CUDA」という圧倒的に普及したソフトウェアプラットフォームがあり、多くのライブラリが最適化されています。Cerebrasがこの「ソフトウェアの壁」をどこまで乗り越え、開発者に受け入れられるかが、今後の勝負の分かれ目になるでしょう。

業界への影響

今回のBenchmarkによる追加投資と、Cerebrasの台頭が業界に与える影響は、短期的・長期的に見て非常に大きいと言わざるを得ません。

短期的には、「NVIDIA一強」という現在の異常な市場構造に強力な楔(くさび)が打ち込まれることになります。現在、多くの企業がNVIDIAのGPUを手に入れるために、何ヶ月も待ち、法外なプレミアム価格を支払っています。Cerebrasが資金力を背景に供給体制を整えれば、特に大規模なAIモデルを開発しているテックジャイアントや研究機関にとって、非常に魅力的な選択肢となります。「NVIDIA以外の選択肢がある」という事実だけで、AI計算コストの適正化が進むことが期待されます。

また、推論市場への影響も見逃せません。Cerebrasは最近、Llama 3などのオープンモデルにおいて、毎秒数百トークンという驚異的な推論速度をデモンストレーションしています。これは私たちがChatGPTを使っていて感じる「文字が出てくるスピード」が、瞬時に、しかも大量に処理できることを意味します。推論コストが劇的に下がれば、リアルタイムでの高度なAI処理が可能になり、エージェント型AIや動画生成AIの普及が加速するでしょう。

長期的には、AIインフラの「垂直統合」が進む可能性があります。これまでは、チップを作る会社(NVIDIA)、サーバーを組む会社(デル、スーパーマイクロ)、そしてモデルを動かす会社(OpenAI等)が分かれていました。しかしCerebrasのように、チップからシステム、ソフトウェアスタックまで一貫して提供するスタイルが成功すれば、他のハードウェアメーカーもこれに追随せざるを得なくなります。

さらに、地政学的な影響も無視できません。Cerebrasは中東資本(G42など)との結びつきが強く、今回の資金調達もそうした国際的なパワーバランスの中で動いています。アメリカ政府が先端半導体の輸出規制を強める中、Cerebrasがどのようにグローバル展開を進めるのかは、今後のAI産業のルール作りにも影響を与えるはずです。

私の見解

ここからは、私「ねぎ」の率直な感想をお伝えします。

正直なところ、今回のニュースを聞いたとき、私は「ついにBenchmarkが勝負を賭けてきたか!」と、少し興奮してしまいました。私は元SIerのエンジニアとして、データセンターでサーバーのラッキングをしたり、分散処理の設定で夜通し悩んだりした経験があります。だからこそ、Cerebrasの「チップのデカさは正義」という脳筋とも言える、しかし極めて合理的なアプローチには強いロマンを感じるんです。

エンジニアリングの世界では、複雑なものを並列に並べてつなぐよりも、単一の大きなリソースとして扱える方が、バグも少なくパフォーマンスも出しやすいのは定石です。NVIDIAのGPUを数千枚並べて構成するクラスターは、もはや巨大な精密機械というよりは、繊細な生態系のようで、維持管理が本当に大変なんですよね。それを「1枚の巨大チップ」で解決しようとするCerebrasの発想は、インフラエンジニアの苦労を根本から解消するポテンシャルを持っています。

ただ、個人的に懸念している点もあります。それは、やはり「エコシステム」の壁です。NVIDIAがこれほどまでに強いのは、チップの性能が良いからだけではありません。世界中のエンジニアがCUDAを使いこなし、何年もかけて蓄積された膨大なノウハウとライブラリがあるからです。Cerebrasがどんなに速くても、自分の書いたコードがそのまま動かなかったり、最適化に手間がかかったりするようであれば、普及は一部のハイエンドな層に留まってしまうかもしれません。

それでも、今回のBenchmarkによる2.25億ドルの調達は、その「ソフトウェア側の壁」を突破するためのエンジニア採用やサポート体制の構築に充てられるはずです。Benchmarkほどの百戦錬磨の投資家が、このタイミングで勝負を上乗せしたということは、Cerebrasの製品が「単なる研究室の怪物」ではなく、実用的な商用製品として完成域に達したという確信があるのでしょう。

「NVIDIAがなければAIは作れない」というこれまでの常識が、来年の今頃には「最速を狙うならCerebrasだよね」という新しい常識に塗り替えられているかもしれません。一人のAIファンとして、そして元エンジニアとして、この巨大チップが世界中のAI開発の現場に並ぶ日を心から楽しみにしています。みなさんも、Cerebrasという名前、ぜひ覚えておいてくださいね。


📚 関連情報をもっと知りたい方へ

📖 Amazonで関連書籍を探す 🛒 楽天で探す