2025年第1四半期のGPU市場を見ると、NVIDIAが92%のシェアを握っています。AMDは8%で再び一桁台に落ち込み、Intelに至っては0%という結果に。データセンター向けAIチップ市場でも状況は似たようなもので、NVIDIAが90%を超える圧倒的なシェアを持っています。誰が見てもNVIDIA一強の状態ですが、なぜAMDは追いつけないのでしょうか。
ハードウェア性能だけでは勝負にならない
AMDは2025年6月にMI350シリーズを発表しました。前世代のMI300Xと比べて4倍のAI性能、35倍の推論性能という大幅な向上を実現しています。特にMI355Xは288GBのHBM3Eメモリと8TB/sの帯域幅を搭載し、NVIDIAのB200と比較してもメモリ容量では1.6倍のアドバンテージがあります。数字だけ見れば十分競争力のある製品です。
NVIDIA側も黙って見ているわけではありません。2024年3月に発表したBlackwellアーキテクチャのB200は、2,080億個のトランジスタを搭載し、GB200 NVL72システムではH100と比較して推論性能を30倍も引き上げました。ハードウェアのスペック競争でAMDが善戦しているのは確かですが、市場シェアの差はむしろ広がっているのが現実です。
CUDAという15年分の蓄積
本当の問題はここから始まります。NVIDIAのCUDAは15年以上かけて作り上げられたソフトウェアエコシステムです。cuDNN、TensorRTといったAI特化のライブラリから、PyTorch、TensorFlowといった主要なフレームワークまで、すべてがCUDAに最適化されています。世界中のAI開発者がすでにCUDAでコードを書いていて、これをAMDのROCmに移行するには膨大な時間とコストがかかります。
AMDもROCm 7.0を2025年第3四半期にリリース予定で、前バージョンと比較して3.5倍の推論性能と3倍の学習性能向上を達成しました。WindowsとLinuxでPyTorchのネイティブサポートを開始し、OpenAIとも協力関係を結んでいます。実際、2026年下半期にはOpenAIにMI450ベースで1ギガワット規模のシステムを供給する予定です。
しかしROCmの成熟度は、まだCUDAに追いつくには程遠い状態です。Windows対応は2025年下半期から本格化する段階で、主要なライブラリのサポートは不完全、デバッグツールの完成度も低い状況が続いています。実際のAIワークロードでは、同じハードウェアスペックでもCUDAで最適化されたNVIDIA GPUの方が良いパフォーマンスを出すケースが多いのです。
メモリをめぐる競争
HBM4メモリの供給も重要な要素です。SK HynixがHBM市場で62%のシェアを持ち、NVIDIAとの緊密な協力関係で安定した供給を確保しています。HBM4は前世代と比較して帯域幅が2倍に向上し、電力効率は40%以上改善されるとされ、次世代GPUの必須要素として位置づけられています。
NVIDIAはB300シリーズからHBM3E 12段メモリを搭載する計画で、GB200 NVL72システムの価格は300万ドルからスタートします。それでも需要は供給をはるかに上回っている状況です。Morgan Stanleyの予測では、NVIDIAが2025年だけで6万から7万台のB200サーバーラックを出荷し、最低でも210億ドル(約29兆円)の売上を上げると見込んでいます。
結局はエコシステムの勝負
AMDは確実に成長を続けています。MI300シリーズから競争力のある製品を投入し、Microsoft、Meta、Oracleといった大手顧客とパートナーシップを結んでいます。MI400シリーズは2026年、MI500シリーズは2027年出荷予定で、製品ロードマップも明確です。
ただ、市場は冷静です。どれほど優れたハードウェアを作っても、開発者たちがすでに慣れ親しんだCUDAを捨ててROCmに移行する強い理由が必要です。NVIDIAは単にGPUを販売しているのではなく、AIプラットフォーム全体を提供しています。ハードウェア、ソフトウェア、ネットワーキング、システム設計まで、すべてが完璧に統合されたエコシステムを構築しているのです。
AMDがこの差を埋めるには、最低でも3年から5年はかかるでしょう。ハードウェアの性能向上だけでは不十分で、ソフトウェアエコシステムの育成、開発者コミュニティの拡大、主要なAIフレームワークとの協力強化が必要になります。NVIDIAの独走は、当分の間続きそうです。