CoreWeaveのAIベンチマークは単なるニュースではない―クラウド大手に向けた警鐘だ
性能のブレークスルーか、それとも戦略的チェックメイトか?
CoreWeaveは、NVIDIAの最新GB200 Grace Blackwellスーパーチップを使用して、AI推論で記録的なパフォーマンスを達成しました。表面的には印象的です。しかし、クラウドAIの覇権争いを追跡している人々にとっては、単なる技術的な誇示以上のものです。それは戦略的なシグナルです。CoreWeaveは、ハイパースケーラーに遅れを取っているのではなく、ベンチマークを設定しているのです。
主要なクラウドプロバイダーが広範な発表に焦点を当てる一方で、CoreWeaveは実行に重点を置き続けています。そして、MLPerf Inference v5.0の結果が公開されたことで、追いつくだけでなく、業界に優先順位の再評価を迫っています。
数値が実際に意味すること
CoreWeaveは現在、NVIDIAのGB200チップを使用したMLPerf v5.0ベンチマークを公開した最初のクラウドプロバイダーです。このアーキテクチャは、2つのBlackwell GPUと1つのGrace CPUを組み合わせたもので、各GPUには192 GBのHBM3eメモリが搭載されています。
結果のハイライト:
- 最大規模のオープンソースLLMの1つであるLlama 3.1 405Bで1秒あたり800トークン。
- Llama 2 70Bで1秒あたり33,000トークン。これは、H100ベースのシステムよりも40%向上しています。
- EleutherAIのGPT-J-6Bモデルで、主要なクラウドプロバイダーよりも8〜10倍のパフォーマンス向上。
これらはマーケティングの数字ではありません。これらは、さまざまな展開シナリオにおける実際のMLパフォーマンスを評価するために使用される業界標準のベンチマークスイートであるMLPerfのものです。言い換えれば、これは理論ではなく、すぐに展開できる実力です。
CoreWeaveのCTOであるPeter Salankiは、次のように述べています。「これらのベンチマークMLPerfの結果は、主要なAI研究所や企業にとって、CoreWeaveが優先されるクラウドプロバイダーとしての地位を強化するものです。」
しかし、これは単なる生のパワーの問題ではありません。そのパワーが持つ戦略的な重みの問題なのです。
スピードを超えた重要性
1. 新しいレベルの効率
AI推論は単に高速であるだけでなく、より少ないリソースでより多くのことを行うことです。CoreWeaveのLlama 2 70Bでの33,000 TPSは、次のことを意味します。
- 推論あたりのコストの削減。
- トークンあたりの電力の削減。
- データセンターラックあたりの高密度化。
コンピューティングコストとエネルギー使用量がボトルネックになりつつある今、効率は堀(競争優位性)になります。
2. AIの最も差し迫ったボトルネックであるレイテンシを解決する
推論レイテンシは、現代のAI展開におけるアキレス腱です。それは、コパイロット、リアルタイムチャットボット、または自律エージェントであっても同様です。CoreWeaveの飛躍は、これに正面から取り組んでいます。レイテンシの低下は、より優れたユーザーエクスペリエンス、より優れた収益化、そしてより優れたスケーラビリティを意味します。
3. 最初に市場に投入し、最初に心に刻む
CoreWeaveは、H100をいち早く提供しました。次にH200です。そして今、GB200 NVL72クラスターを一般提供する最初の企業です。昨日のGPUが古いニュースとなる状況では、最初に市場に投入することは単なる見せかけではなく、長期的な優位性となります。
CoreWeaveの優位性
従来のハイパースケーラーに対して
AWS、Azure、およびGoogle Cloudは、より深い顧客ネットワークと幅広いサービスポートフォリオを持っています。しかし、方向転換が遅いです。CoreWeaveは高性能推論用に特別に構築されており、より無駄がなく、より機敏で、より専門的です。
AIインフラストラクチャのスタートアップに対して
Lambda LabsやCrusoeなどの企業は強力な製品を提供しています。しかし、CoreWeaveの繰り返されるベンチマークでのリーダーシップとNVIDIAとの緊密なパートナーシップにより、スピードとスケールの面で優位に立っています。
チップメーカーに対して
確かに、AMDのMI300XやIntelのGaudi 3が話題になっています。しかし、NVIDIAのBlackwellアーキテクチャは今日のパフォーマンスでリードしており、CoreWeaveはそのパフォーマンスにアクセスするための最も速い道です。
市場が見落としていること—そしてそれが間違いである理由
AI推論は新しいクラウドフロンティアである
過去10年間は、巨大なモデルのトレーニングに関するものでした。次の10年間は? 大規模な推論です。リアルタイムアシスタント、24時間365日のAIエージェント、インタラクティブコパイロットはすべて、高速でスケーラブルで効率的な推論を必要とします。
CoreWeaveは、推論インフラストラクチャの需要が爆発的に増加する中で、その未来のバックボーンとしての地位を確立しています。
CoreWeaveは単なる技術的要素以上のもの—戦略的資産である
投資家は、次の3つの重要なシグナルに注目する必要があります。
- OpenAIのワークロードをサポートするためのMicrosoftのCoreWeaveへの舞台裏での依存。それは単なるベンダー取引ではなく、戦略的なインフラストラクチャです。
- NVIDIAとの緊密な統合により、CoreWeaveは最新世代のハードウェアにいち早くアクセスできます。
- 40ドル/株で価格設定された15億ドルのIPOに続く230億ドルの評価額—それは、虚像ではなく、実際の収益と事業成長によって支えられています。
次に何が起こるか—そして、それがAIクラウドの展望をどのように変える可能性があるか
1. 市場の価格を再設定する可能性のあるIPO
CoreWeaveは、単なるユニコーン企業ではありません。現在、ベンチマーク、パートナーシップ、および評価額を裏付ける実行力を備えた公開企業です。その勢いが続けば、市場がAIインフラストラクチャの価値をどのように評価するかをリセットする可能性があります。
2. 特化の教訓
ジェネラリストの世界で、CoreWeaveは深い特化が勝利することを証明しています。一般的なクラウドサービスではなく、AI推論に焦点を当てることで、より迅速に動き、より広範なプラットフォームよりも深く最適化することができます。
3. 権力移行の兆し
ハイパースケーラーがCoreWeaveのペースに追いつくことができない場合、より多くの推論ワークロードをアウトソースせざるを得なくなる可能性があります。これにより、CoreWeaveはニッチなベンダーから重要なインフラストラクチャのバックボーンへと移行します—既存企業がそれを好むかどうかに関わらず。
一線を画す
CoreWeaveのMLPerf v5.0の結果は、印象的であるだけでなく、意図の表明でもあります。
「私たちは、AIインフラストラクチャのゲームに参加しているだけではありません。それをリードするつもりです。」
投資家と業界ウォッチャーにとって、これは重要なポイントです。
- AIスタックの最も重要な部分における高度に専門化され、急速に拡大しているプレーヤー。
- NVIDIAに支援され、ベンチマークで検証済みであり、すでにAIの最大手企業とのパートナーシップを築いています。
- 成長のためだけでなく、リーダーシップのために位置付けられています。
CoreWeaveが記録を打ち破りました。本当の問題は、誰が追いつくことができるのか—そして、どれくらいの時間がかかるのか?