AIバブルは崩壊するのか?No.2

>100 Views

January 29, 26

スライド概要

相変わらず、NVIDIA、OpenAIなどのAI関連のニュースが多い。日本企業でNVIDIAに紐づけられる代表的企業はアドバンテスト(AI向け検査装置製造企業)である。この会社の時価総額が、何とついに日立(4位)に次ぐ5位に躍進し、21兆円になった。これはソニーをも上回る。今3月期業績の純利益も2倍になる予定と発表された。米国も日本もAI分野一択の相場だが、いったい何が起きているのだろうか?
このような状況を理解しやすくするため、「AIバブルは崩壊するのか?」第一段に続く第2段をまとめてみたので公開する。

profile-image

定年まで35年間あるIT企業に勤めていました。その後、大学教員を5年。定年になって、非常勤講師を少々と、ある標準化機関の顧問。そこも定年になって数年前にB-frontier研究所を立ち上げました。この名前で、IT関係の英語論文(経営学的視点のもの)をダウンロードし、その紹介と自分で考えた内容を取り交ぜて情報公開しています。幾つかの学会で学会発表なども。昔、ITバブル崩壊の直前、ダイヤモンド社からIT革命本「デジタル融合市場」を出版したこともあります。こんな経験が今に続く情報発信の原点です。

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

ダウンロード

関連スライド

各ページのテキスト
1.

AIバブルは崩壊するのか? No.2 B-frontier 研究所 高橋 浩

2.

目的 • AI業界には「スケーリング」即ち、データ、GPU、コンピュー ティングインフラ等に大規模投資を行うことで業界全体の生産 性向上/収益性向上につなげられるとの確信がある。 • 但し「スケーリング」戦略には様々なリスクがある。 • 特に、2026-2030年に5兆ドルもの投資が計画されているAI データセンターへの投資はAIバブル崩壊に繋がらないかと懸念 もされている。 • 何故これ程大規模な投資が必要なのだろうか? • これについての正しい認識は共有されていないように見える。 • 本稿は、このような認識から、特に「スケーリング」戦略の中 味と、その背景について理解を深めることを目的とする。 2

3.

目次 1. 2. 3. 4. 5. はじめに データセンターに関わるリスク AIバブル崩壊に関連する4つの要因 今後に向けた幾つかの話題 AIバブルは崩壊するのか? 3

4.

1.はじめに 問題認識 • 最近のニュースで、「OpenAIがNVIDIAなどから巨額資金の提供を 受け、約200兆円のインフラ投資で循環投資を実施」とあった(日経 2025.10.16)。 • OpenAIはNVIDIAからの巨額資金をNVIDIA GPUの調達に利用する予定で あり、このような売り手と買い手で資金循環する手法はITバブル期にも類 似の形態があった。 • このような手法は、(ITバブル期と同様に)成長を実態以上に大きく見せ過 剰投資を呼び込む危うさがある。 • 既に、AI絡みの資金調達額はITバブル期の14倍にも上るとされる。 • 従って、これらの仕組みと今後の影響を正しく理解することはAI業務に携 わる者にとって重要性が増している。 4

5.

問題認識(続) • 何故このような状況が発生しているのか? • それは、ビジネスモデルが大きく変化したからである。 • 従来、ソフトウェア産業は、ソフトウェア開発の初期には開発費用が大き くなるが、一度完成してしまえば少ない資産で効率的に稼げた。 • 所が、AI事業の遂行にはデータセンターという「情報の工場」が絶対に欠 かせない。これがAI事業の中核になる。 • そのため、AI事業に取組む企業は、従来もてはやされてきた「持たざる経 営」を大きく転換させ、新たな形態にシフトさせなければならない。 • 結果、OpenAIのような新興AI企業も、巨大テック企業と競争してAI事業 に参加する際は、新形態への移行のため、借金はどうしても膨張する。 • このような旺盛な資金需要は世界的カネ余りを背景にウォール街などの投 資家によって支えられる。このような世界が現在のAIの世界である。 5

6.

今後の検討の構成 • このような背景がデータセンターを中心とするAIインフラへの膨大 な投資を支えている。 • 従って、今後のAIバブルの可能性等を検討する際も、この背景を踏 まえて検討する必要がある。 • そこで、以降を次の構成で論述する。 • データセンターを中心とするAIインフラのモデル ……第2節 データセンターに関わるリスク • このモデルに起因するAIバブルのリスクの分析 ……第3節 AIバブル崩壊に関連する4つの要因 6

7.

2.データセンターに関わるリスク データセンター問題を考える上での背景 • AIバブルの不確実性の一つに、投資が集中しているデータセンター の特性(不動産とインフラの両方の特性を持つ) がある。 • 現在、大規模データセンター構築は財力のあるGoogle, Microsoft, Amazon等と、Open AIなど新興AI企業が名を連ねている。 • そのうち、後者(Open AI等)はChatGPT有償分などでわずかな収益は あるものの、基本的には赤字で、それでもデータセンター投資に参 入している。 • これは、“循環型資金調達”(循環型 AI 取引)と呼ばれる特殊な資本 調達の仕組みで可能になっている。 • そこで、本節ではこの構造の分析を中心に考察する。 7

8.

概要説明 • もし関連分野の経済状況が悪化し、AIブームが消滅/減衰した場合、 当然、データセンターへの需要は減少する。 • その際、データセンター需要が呼び起こしていたエネルギープロ ジェクトや効率化イノベーションも失墜する。 • このような市場調整によってエネルギープロジェクトなどまで行き 詰まった場合、その影響は様々に波及する。 • その前提として、データセンター開発業者という存在が有る。彼等 はテナントである巨大テック企業/新興AI企業向けに施設を建設する にあたり、土地とエネルギー(電力など)を確保することから始める。 • テナントには潤沢な資本を持つGoogle、Meta、Microsoft、 Amazon等とAIに特化したOpenAI、CoreWeaveなどがある。 • どちらも大規模データセンター構築に参入しているので両方を合わ せて「ハイパースケーラー」と呼ばれる。 8

9.

概要説明(続) • この内、巨大テック企業と新興AI企業では当然債務の賄い方が違う。 • 前者は総じてキャッシュフローを自社債務で賄うことができる。 • しかし、新興AI企業は困難あるいは不確実なキャッシュフロー特性 を抱える。 • 新興AI企業は、当然エネルギープロジェクトなどまで賄うので、そ の影響を緩和するため、減価が速いGPU資産を担保(借り入れ根 拠)としたキャッシュフローで賄う手段が取られる。 • このような構造なので、現在のGPU需要急増の大部分は、健全な成 長の反映というよりは、担保獲得の争奪戦や市場ポジション維持の ための戦略という面がある。 9

10.

課題の整理 • 現在は、既存巨大テック企業と新興AI企業の両方を含むハイパース ケーラー間で支払いや株式投資の循環性が見られる「循環型資金調 達」が構築されてしまっている。 • そこで、もしこの仕組みに亀裂が生じた場合、ITバブル期と類似の 事態になりはしないかと懸念されている訳である。 • そこで、データセンター問題を以下の3つに分けて分析する。 A• 想定される4つのリスク B• データセンター投資が必要な背景 C• 循環型資金調達の構造 10

11.

A 想定される4つのリスク ①• 投資を拡大すれば、サービス提供コストは上昇する。しかし、サービ スプロバイダー間に現在明確な差別化はないため、サービス提供価格 上昇は難しく、これが上昇コスト回収を困難にするリスクになる。 ②• 基幹資産であるGPUの提供価値は新型GPUや競争的市場環境、不確実 な減価償却により、担保価値が急激に下落するリスクがある。 ③• テナントは単一リース期間中に複数回集中投資を繰り返す。そのため、 データセンター開発事業者にとっては解約リスクがあり、開発事業者 とテナント間に資産と負債のミスマッチが生じ得る。そのような状況 において、巨大テック企業からの保証が無いと、開発事業者の信用力 が圧迫されるリスクがある。 ④• ハイパースケーラー間の「循環型資金調達」構造そのものが負債構造 の相互依存関係を生み出しており、集中的リスクを発生させる懸念が ある。 11

12.

B データセンター投資を継続させる要因1 • このようなリスクがあるにもかかわらず、何故データセンター投資は急 激に推進されているのだろうか? • それは、第一にAI事業推進にはデータセンター(「情報の工場」)が欠か せないからである。 • 第二に、過去の実績から、コンピュータ需要の伸びがGPU性能向上の伸 びでは決定的に満たされないからである。 • AIの推論とトレーニングの伸びはGPUの「パフォーマンス向上」の2倍 以上の速度で増加している。 • 即ち、AI業界におけるコンピューティング需要の伸びが大きいことが GPU需要を急増させている重要な要因である。 12

13.

AI需要の成長率はムーアの法則の2倍以上 • これが、データセンター事業者が力ずくで「スケーリング(データセン ター増設)」に頼らざるを得ない背景である。 • AIのコンピューティング需要の伸びは、ムーアの法則の2倍以上(毎年4.5 倍)に達している。…次頁図参照 • このような背景とNVIDIAがGPUをほぼ独占していることから、NVIDIA は、資金に制約のあるCoreWeave等のネオクラウド企業達に、場合に よってはGPU購入ではなくGPUリースを押し付けることができる。 • この結果、NVIDIAは顧客を自社半導体技術に長期間縛り付けることがで き、価格決定力を維持することができる。 13

14.

コンピューティング需要はチップ効率向上の2倍以上で増加 • AI の飽くなき計算能力の需要にどう応えるかが課題となっている。 トレーニング計算量(FLOP) コンピュー ティング需 要の増加: 毎年4.5倍 Chip efficiency growth: 2x every years(Moore’s law) チップ効 率の向上: 年2倍 (ムーアの 法則) 発生日 注: チップ効率の向上は正確な尺度で示されておらず、向上率は説明を目的としている。FLOP は浮動小数点演算の数、またはシステムが実行する計算の数

15.

データセンター投資を継続させる要因2 • 次に、投資拡大の背景にAIの学習と推論にかかるコストが高騰している ことがある。 • AI関連のビジネスモデルは学習と推論の2つに大きく分かれる。 • 推論とは、学習済みモデルを幅広い顧客に展開しユーザーのプロンプト に対して正確な応答をすることで顧客に価値を提供するプロセスである。 • 推論は収益源となり易く、ビジネス拡大でますます重要性を増している。 • 一方、推論に特化したデータセンターのテナントは、必ずしも最高級の ハードウェアを必要としないが、遅延を最小限に抑えるため、データセ ンターがサービス提供地域に近いことを望んでいる。 • 他方、先端の学習には、多くの場合、最高クラスのGPU、大量の電力、 不安定な電力負荷変動に対応できる安定したグリッドアクセス、高度な 冷却インフラが必要である。 15

16.

先端AIトレーニングに要する電力需要は指数関数的に増加 • これらの事実は、条件が多様化しデータセンターに多大な負担がかかる にも関わらず、なかなか収益が向上しないことを意味する。 • 例えば、ChatGPT の新規バージョンは、従来のバージョンに比較してト レーニングに 3 ~ 5 倍のコストがかかっているとされる。 • そして、先端を切り拓く「フロンティア」モデルのトレーニングに対す る電力需要は指数関数的に増加している。…次頁図参照 • そのため、大規模オープンソースモデルや独自の「基礎的」生成 AI モデ ルの台頭などもあり、新しいモデルのトレーニングを縮小し、基礎モデ ルを使用する推論プロセスの微調整に進む可能性もある。 • 何れにしろ、データセンター投資はこれらの多様な戦略に備える必要が あり、これらへの対処は費用増大と実現までの期間延長に繋がる。 16

17.

最先端のAIトレーニングで予測される電力成長予想 • AIの学習と推論にかかるコストは高騰してゆく。 最先端のAIトレーニングにおいて予測される電力成長の推移 電力(MW) 全米のデータセンター数、2023年(概算) 新しい予想 2.6倍/年 (2.2倍~2.9倍) 最大規模の単一データセンター計画(Microsoft Stargate/UAE Stargate、5GW) Metaルイジアナ・データセンター(2GW、2023年予定) モデルベースの予測 歴史的なベースライン OpenAI アビリーン データセンター (1.2GW、2026 年予定) 2.2倍/年 従来の延長

18.

C 循環型資金調達の構造 • データセンターは、単に学習だけでなく、推論機能の拡充、コンテキス ト保存のメモリー増設など多様なニーズに対応するAI事業の根幹である。 • これは膨大な資金需要を発生させるため、データセンターの開発、設備 保有形態、資金調達には独自方式が取られる。以下に一般的傾向を示す。 ◼ データセンター所有者とテナントの分離 ◼ 取引あるいは契約を特別目的会社(SPV)を通じて実施 ◼ 企業は、AIモデルトレーニングサービス、AI推論サービス、GPUベースのクラウ ドサービス(GPU as a Service)など、提供サービスの種類に応じて、テナント要件 を決定 ◼ 巨大テック企業向けデータセンター、中堅、一般AI企業向け等多様な形態が並立 ◼ 巨大テック企業にとっては、(専用に保有時)データセンターは一種の不動産資産 ◼ 多くの企業はデータセンターのテナント顧客、あるいはサービス利用ユーザーと して契約(巨大テック企業が他データセンターのテナント顧客になることも多 い)

19.

SPV(特別目的会社) • 前述のような複雑なテナント契約 のハブとして特別目的会社(SPV) を介することが一般化した(右図)。 • GPU購入/リースのための特別目 的会社(SPV)はGPUを担保に 資金を調達することが多い。 • AI投資が続けば、SPVはGPUの利 用料収入が見込める。 • しかし、GPUの価値が下落すれ ば損失リスクを抱える。 GPU購入の場合の特別目的会社(SPV)

20.

循環型資金調達の例 • 循環型 AI 取引の急増は双方に利益をもたらすWin-Win関係と成れるか? • このような資金取引の増加はハイパースケール借入をもたらす懸念もある。 AI業界6社における資本の流れ インフラの購入やレンタル OpenAIは最近、約5年間でOracleか ら3000億ドルのコンピューティング パワーを購入することに合意した。

21.

循環的資金調達の例 最近の大手 AI 企業間の取引リスト 関係性 NVIDIAとOpenAI OpenAIを中心にした循環型資金調達の図 内容 NVIGIAはOpenAIに最大1000億ドル の投資をすることに合意 OpenAIとオラクル OpenAIはオラクルと3,000 億ドルの クラウド契約を締結 NVIDIAとコアウィーブ NVIDIAはコアウィーブから63 億ドル のクラウドサービスを購入 OpenAIとコアウィーブ OpenAIはコアウィーブに224億ドルを 支払う予定 OpenAIとAMD OpenAI は数十億ドル相当の AMD チップを導入することに同意 オラクルとNVIDIA オラクルは NVIDIA チップに 400 億 ドルを消費 NVIDIAとインテル NVIDIA は インテルに 50 億ドルを投 資し、チップの共同開発を計画 • オラクルは、ネオクラウド事業に急速に進出している。 コアウィーブ nvidia オラクル OpenAI マイクロソフト AMD 日経新聞 2025年10月16日

22.

GPUを中心とする市場動向 • 現在、GPUを提供する主要ベンダーはNVIDIA, AMDの2社しかなく、 中でもNVIDIAが寡占化する独自の世界を形成している。 • GPU as a Service 需要を当て込んだネオクラウド企業も参入してきた。 • 彼等の当初の目的はハイパースケーラーとの対抗軸にあったが、現在で はハイパースケーラー(自前データセンターを保有している場合も多 い)もネオクラウドサービスを契約する多様な形態になっている。 • 即ち、ハイパースケーラーは高級推論サービス提供などのため、先端 GPUチップをいち早く入手し自前データセンターで先端サービス提供を 目指す。その一方、多様な企業向けにGPU as a Serviceを提供する層も 存在し、階層化が進んでいる。 • この内、特に後者のサービスは殆ど差別化が無く、ネオクラウド企業は サービス価格支配力が弱いため、真っ先に低収益化に陥るリスクを抱え る。

23.

多様な形態が発生:典型例 • このような環境の中でOracleの例が話題に成り易いので概要を紹介する。 • ハイパースケーラーであるOracleは、ネオクラ ウド事業に急激に進出した。 • OpenAIにリースするNVIDIA GPUを確保するた め、3,000億ドル規模の巨額契約を締結した。 • そのデータセンターは Crusoe からリースして いる。…(右図参照) • NVIDIAのハイエンドBlackwellチップ購入と データセンター構築に莫大な投資をしている。 • 他のネオクラウドとの競争力を維持するため GPUレンタルサービスは低価格設定にせざるを 得ない模様である。 • これらの要因は、Oracleにとって短期的にはそ れ自体が危険というわけではないが、時々苦境 が伝えられる時がある。

24.

データセンターに関わるリスク(中間まとめ) • 今後のAI需要を見通せばデータセンター投資は必然であると 言える。 • その根本は、AI需要の伸びをGPU性能向上で吸収できない からである。 • ここまでは明確だが、巨額の投資費用を回収する目途(手段) が見えてこないのが問題である。 • それにもかかわらず、データセンター巨額投資を成立させる 資金調達/契約関係は構築されてしまった。 • このミスマッチ(あるいは時間差)が、今後のサービス需要変 動、および投資回収の目途が依然として立たない場合、将来 への大きなリスクになる可能性がある。 24

25.

3.AIバブル崩壊に関連する4つの要因 AIバブル崩壊に関するリスク分析 • 本節では、先述のデータセンターに関するリスク検討を基礎にして、 より広い視野でAIバブル崩壊のシナリオ(問題)を考える。 • 4つのシナリオ(問題): 1• 第一の問題:収益の錯覚 2• 第二の問題:ハイパースケール借入という時限爆弾 3• 第三の問題:アナログ世界における指数関数的成長 4• 第四の問題:AIのスケーリングが壁にぶつかる 25

26.

1 第一の問題:収益の錯覚 • NVIDIAが中核を担い、ネオクラウド企業やAI企業が周辺に位置する現在 の依存構造は、AI推論とトレーニングのコストを大幅に引き上げる。 • 例えば、NVIDIA H100 GPUの価格を約25,000ドルとすると、NVIDIAは リース(高稼働率を想定)によってわずか3年でGPU1台あたり27,000 ドルから70,000ドルの収益を上げると見られる。結局、NVIDIAのみが 法外な利益を得る。これがコストを押し上げる。 • 【Question1】このような状況で、果たしてAI業界が目論む2030年ま でに2兆ドルの収益獲得は可能だろうか? • AI業界は、2030年までに予想される巨額投資に対して、10%の利益を上 げるだけでも、年間6,500億ドルの収益を永続的に生み出す必要がある。 • これがもし全く不可能だということであれば、(NVIDIAを除く)AI企業は 現在著しく過大評価されていることになる。 26

27.

投資に見合う収益獲得は可能か? • 解決の方向性としては、1)(推論の)運用コストをもっと迅速に削減す る、2) 顧客への課金を大幅に引き上げる、のいずれかになる。 • しかし、前者は前節 • また、同様に まう。 の背景から、ほぼ不可能である。 の構造では、利益の多くはNVIDIAに持って行かれてし • そして、NVIDIAにとって現在の構造はハードウェアを継続的な収益源に 変えてしまっている。そのため、AI運用コストの削減は、NVIDIAにとっ て全く利益にならないという矛盾を抱える。 • 加えて、 掲載図に示すように、1~2年前と比べてトレーニングデータ の規模はますます拡大している。これは今後拡大する「推論」実施のた めに、今後も増えることを意味する。 • 結局、今の構造のままだと、顧客への課金引き上げしか残らないが、こ れはAI普及と矛盾する。 27

28.

2 第二の問題:ハイパースケール借入という時限爆弾 • OpenAI、Anthropic等は赤字が続いており、投資の大部分を投資家、銀 行、債券市場からの大規模借入によって賄なっている。 • ウォール街もこの流れに乗ろうと躍起になっている。 • ポイントは巨大テック企業等がデータセンター投資に伴うリスクを特別 目的会社(SPV)や合弁会社(JV)に肩代わりさせていることである。 • 特別目的会社(SPV)は通常、投資適格金利に加えて、最大2~3パーセン トという大幅なプレミアムを債券に支払う。 • これはウォール街の投資家に莫大な利益をもたらす。 • OpenAIなどに向けては、建設予定のデータセンターを担保とする資産担 保証券のような資金調達手段を提供する。 • これらのプレミアム債券、データセンター担保証券は、騙されやすい個 人投資家やその他の金融機関にも販売される。 • 事態が悪化すれば、結局は、彼等が損失を被る。 28

29.

証券化などでリスクが分散 • バブルはデータセンターだけにとどまらない。 • 電力会社は、巨大なデータセンターに電力を供給するため、数年以内に 現在の2~3倍の電力を必要とする。 • 電力会社は、大規模なエネルギー・インフラプロジェクトの開発・建設 のための資金調達手段として、レバレッジの高いSPVを好む。 • これだと、SPVが独立法人格を持ち、貸借対照表に連結が必要ないので、 データセンターブームに関与しているリスクを隠し易くなる。 • 結局、巨大テック企業、AIサービスプロバイダー、大手金融機関間の循 環型資金調達は、セクター全体に相互に絡み合った負債構造を生み出し、 貸し手と株主にとっての集中リスクを生み出す。 • こうした負債による取引の透明性の欠如と、シリコンバレーとウォール 街の絡み合った負債構造は、AI業界のシステムリスクを増大させる。 29

30.

デジタルレタスとは? • 資本支出は主としてGPUやサーバーに向けられており、これらは容赦な い技術革新によって、2~3年で経済的に陳腐化するリスクがある。 • これらのチップは汎用的計算エンジンではなく、生成AIモデルのトレー ニングと実行に特化しており、Google、Amazonなど大手ベンダーの特 定アーキテクチャとソフトウェアに向けて調整されている。 • 即ち、特定環境に最適化されており、クローズドシステムを形成してい る。従って、再利用が難しい。 • この状況をある経済学者は「あなたは腐りやすい商品に投資しているの です」と語り、AIハードウェアを「今にも腐ってしまうデジタルレタ ス」と呼んだ。 • 【Question2】データセンターの減価償却率が収益の伸びの2倍の速さ で進んでいる状況で、AI業界は適切な収益率で投資を回収できるだろう か? 30

31.

3 第三の問題:アナログ世界における指数関数的成長 • ハイパースケールデータセンター構築に必要なリードタイムは現在約2 年だが、今後は、はるかに長くなる。 • 何故なら、データセンターを支える上流サプライヤー、即ち、銅線から ガスタービン、変圧器、配電装置に至るあらゆるものを生産する既存の アナログ企業が生産を拡大する必要があるからである。 • これらのデータセンター部品サプライヤーは、新しい工場や設備を建設 し、労働者を雇用し、これら全てを賄う資金を調達する必要がある。 • その際、彼等は労働力不足、送電網接続や建設許可取得までの長い待ち 時間、資材サプライチェーンのボトルネック、規制の行き詰まりといっ た問題に直面する。 • これら全てがハイパースケールデータセンターの構築に必要なリードタ イムを長期化させる。 • 今後は7年以上と、はるかに長くなることが予想されている。 31

32.

ガスタービンの例 • かつてなくデータセンター需要が成長を牽引している中で、データセン ター事業者は従来の電力網を迂回し、オンサイト発電を利用して緊急の 需要を満たそうとしている。 • その中で、最も迅速な方法として天然ガスに注目が集まっている。 • 成熟した技術であり、広大なパイプライン網もあり、輸送でき、オンサ イトでの導入も可能である。 • OpenAI, Oracle, ソフトバンクのStargateプロジェクトは、ガスタービ ンと燃料電池を組み合わせて電力を供給することにしている。 • 同様に、xAIは最大60基のガスタービンを発注した。 • 所が、世界のガスタービン市場の75%以上は三菱重工、GE Vernova、 Siemens Energyの3社の寡占状態にある。彼等はデータセンターブーム がどれほど長く続くかに疑念を抱いている。 • 大手3社は事実上、供給を制限し、一時的な利益を生み出している。そ の結果、コストは大幅に上昇している。 32

33.

米国のデータセンターのエネルギー使用量 • 2025年の224TWhから2030年には606TWhへと2倍以上に増加すること が予測されており、米国総発電量の約10%を占め、電力網は大幅な拡張 が必要になっている。 • しかし、多くの場合、地域の電力網は、今後数年間に急増する電力需要 に対応するのには不十分な状態にある。 • すでにデータセンターの電力需要は卸電力コストの上昇を招いており、 データセンター周辺では5年前と比べて最大267%も価格が上昇している。 • 【Question3】電力はAI技術の導入と成長にとって最大の障害となる可 能性があるのではないか? 33

34.

AI関連の電力需要の特別な性質 • 更に、AI関連の電力需要には特別な性質がある。 • AIデータセンターは単一の同期システムとして動作する。 • AIモデルをトレーニングする際、数千のGPUがほぼ完全に同期して、集 中的な計算サイクルとそれに続くデータ交換サイクルを実行する。 • これにより、施設全体の電力プロファイルは、大規模かつ急速な負荷変 動を特徴とする。 • この結果、同期されたGPU負荷が送電網規模の振動を引き起こす可能性 がある。 • この状況を緩和するため、エンジニアは平均電流ではなくピーク電流に 対応するように設備の大型化を迫られ、コストと設置面積が増加する。 • 安定した電力系統の確保はAIの拡張にとって大きな障害になる。 34

35.

4 第四の問題:AIのスケーリングが壁にぶつかる • 「AIモデル は原理に基づいた推論器ではなく、テキストの洗練されたシ ミュレータに過ぎないので、特にトレーニングデータの外で使用する場 合、エラーを起こし続ける(幻覚の発生)」。 • 従って、「AIは、すぐに人間に取って代わることはない」。 • しかし、より高度な機能が求められる際、「スケーリング」は必須であ り、これが原因でトレーニングと推論のコストは上昇し、最終的には ユーザー料金の上昇につながる。 • その結果、ユーザーはAIサービスに支払う料金が増えるため、「費用に 見合う価値」をより厳しく見極めるようになる。 35

36.

ワークスロップ問題 • このような状況の中でワースロップ(Workslop)が問題になっている。 • これは、「優れた成果物を装っているが、特定のタスクを有意義に前進 させるだけの実質を欠いた、AIによって生成された作業内容」を指す。 • AIが作成した「一見まともだが、中身のない」質の悪いビジネスコンテ ンツが増加しまくっている。 • ワークスロップは修正・改善が必要であり、1万人規模の企業における この時間の浪費による年間コストは900万ドルと推定されている。 • 例えば、プログラマーは、AI出力の確認、AIシステムへの指示、AI生成 コードの修正に時間を費やすことになる。 • 結果、AIの使用が、ソフトウェア開発に新たな意図しない重大なセキュ リティリスクをもたらす可能性がある。 • このように、幻覚を発生させる根深い傾向は、医療、教育、金融といっ たハイリスクな分野におけるAIの有用性を継続的に制限する。 36

37.

ワークスロップは今後も増加する! • 何故なら、「本物のトレーニングデータ」の不足により、AI学習にAIが 生成した「合成」人工データの入力を増やすことが多くなるからである。 • これは、信じられないほどの自己汚染行為になる。 • モデルが取り込むAIワークスロップが多ければ多いほど、その出力が ジャンクになる可能性が当然高まる。 • 結果、AIシステムは、自身の出力でトレーニングされるため、徐々に精 度、多様性、信頼性を失って行く。 • これは、エラーがAIモデル世代を経るごとに蓄積され、歪んだデータ分 布とパフォーマンスの回復不能な欠陥につながって行く。 37

38.

データ汚染とAIシステム開発の方向性 • しかし、「イーロン・マスク氏はこの傾向を全く気にしていない」。 • 彼の生成AI「Grok」は、「マスク氏はアルバート・アインシュタインよ りも賢い」等と、AIによるごまかしや偽情報を積極的に生成している。 • 問題は他AIモデルがGrokの出力を食べて感染してしまうことである。 • 他の例では、医療向けAIツールは病院固有の臨床トレーニングデータに 共通する異常しか診断できない傾向がある。 • データが特定病院固有になるため、これらのツールはトレーニングドメ イン外(他の病院)で使用されると、パフォーマンスが著しく低下する。 • 一般的には、AIの乱用は、意図的に科学的探究と学術的議論を蝕み、疑 似科学や排除、あるいは監視への扉を開いてしまう。 • 【Question4】AIへの投資をますます増やして行くと、最終的には、モ デルの崩壊が深刻化し、AIの回答があまりにもひどくなり、無視できな くなってしまわないか? 38

39.

AIへの需要はどこから来るか? • AIコンピューティング能力に対する飽くなき需要は、主としてAI業界の 巨大テック企業(OpenAI、Microsoft、Meta、Amazon、Nvidia等)か ら来ている。 • これはAI業界の危険な循環性を浮き彫りにしている。 • これらの企業は、自前モデルのトレーニングと推論のためにコンピュー ティング能力を増強あるいは購入している。 • そして、自前モデル中心のAIエコシステムの外からの有料サービスへの 需要は、驚くほど少ない。 • 例えば、Microsoft 365 スイートの顧客は有料のAI 搭載「Copilot」製品 をほとんど使用しておらず、4 億 4000 万シートのうち 0.1% から 1% 程度の機能にしか料金を支払っていない(1 人あたり 30 ドルから 50 ド ル)との報道がある。 • これは、Microsoftが、人々がお金を出したいと本当に思うような製 品を見つけられていないことを意味する。 39

40.

AIバブル崩壊に関連する分析(中間まとめ) • 一般論としては、AIバブル崩壊は避けられないのではと思える。 • であるならば、例え有用な技術やインフラが生き残り、長期的には生産 性向上があったとしても、経済にとって痛手になる可能性はある。 • その過程で、どのようなAIツールが依然として有用かが再評価され、更 なる開発の基盤となるべく発展して行く。 • しかし一方、巨大テック企業の際限のない貪欲さを考えると、視覚芸術、 教育、医療、メディアといった分野は、労働条件を悪化させるAIツール が生き残る可能性も高い。 • また、生成AIはすでに軍隊や諜報機関に定着しており、監視や企業支配 に利用されて行く。 • このようにして、AIへの大きな期待が薄れていく、あるいは普遍化して ゆく過程で、多くの有害な用途も残る可能性がある。 • AIブームがもたらす短期的損害は、長期的な損害(例:ワークスロップの 増加、等)に比べれば取るに足らなかったと、後世の評価が出てくる可能 性もある。 40

41.

4.今後に向けた幾つかの話題 今後に向けた話題の選択 • 勿論、データセンターを中心とした分析だけで全体を把握すること はできない。 • 今後活性化が予想される次のような分野も考慮する必要がある。 • エージェントAIの開発と普及の行方 • フィジカルAIの開発と普及の行方 • 特化型AIの開発と普及の行方 • 偽情報を見抜くアルゴリズムの開発の行方 • AIチップに関する競争の行方、など • しかし、これらについてはかなり技術論になってしまうのと、情報 がまだ充分分からないことも多いので、本節では取り上げない。 41

42.

今後に向けた話題の選択(続) • 代わりに、以下の2テーマを取り上げる。 • 現行技術の延長で「スケーリング」することで、適応分野に大きな 影響を与える幻覚は縮小の可能性があるのか? • AIのスケーリングの見通しについてどのような評価や見解が登場し ているか? • これらは、前節までの検討を補完できる。 Ⅰ• 何故言語モデルは幻覚を引き起こすのか? Ⅱ• AIのスケーリングは2030年まで続くのか? 42

43.

Ⅰ 何故言語モデルは幻覚を引き起こすのか? • 言語モデルがもっともらしい虚偽を生成することは良く知られており、 これがモデルの有用性と信頼性を著しく低下させている。これは「幻覚 (ハルシネーション)」と呼ばれる。 • このような「幻覚」は最先端のシステムでさえも根強く残り、信頼を損 なっている。 • 最近、言語モデルが「幻覚」を起こすのは、学習と評価の手順が不確実 性を認めるよりも推測を優先させているためである、との主張が出て注 目されている。 • 即ち、誤った発言と事実を区別できない場合、事前学習済みの言語モデ ルは自然な統計的圧力によって「幻覚」を生じさせている可能性が強い、 ということである。 • そうであるならば、不確実な回答にペナルティを課すようなアルゴリズ ムが蔓延している以上、「幻覚」は必然的に残る。 43

44.

訓練データにエラーが無くても幻覚は避けられない • また、トレーニングデータでは対処できない問もある。 • 例1:“A氏(だれだれ)”の誕生日は何時ですか? 日付を知っている場合 にのみ答えて下さい、と指示しても、適当な日付を答えてくる。 • 例2:DEEPSEEKにはDが幾つありますか? 2, 3と答えたり、製品に よっては、6, 7と答えたりするものがある。 • 学習用データには必然的にエラーと半真実が含まれる。 • もし、学習用データにエラーがなかったとしても、言語モデルの訓練中 に最適化された目的関数によってエラーが生成される。【これは学術的 に厳密な分析によって論証されている】 • 現実の学習データには多少のエラーが含まれるのが常態なので、更に高 いエラー率が予想される。 • 結論的には、現行技術の延長で、いくら「スケーリング」しても「幻 想」は確実に残る。 44

45.

Ⅱ AIのスケーリングは2030年まで続くのか? • 近年、AIモデルの能力は大幅に向上した。計算資源の増加が能力向上に 大きく貢献したことは明らかである。 • 年間約4倍のペースでトレーニング計算能力が拡大しているとされる。 • これは近年の他技術革新の速さ(携帯電話2倍、太陽光発電1.5倍、など) のピーク成長率と比較しても高い。 • そこで、現在の「スケーリング」のペース(年約4倍)が2030年まで続く ことが可能かどうかに関する調査の一例を紹介する。 • 要点:スケーリングを制約するのは ①電力の利用可能性, ②AIチップ製造 能力, ③データの希少性, ④AIトレーニング計算で避けられない遅延によ る速度制限の4つと述べている。…(以下に4要因を述べる) • 本調査の基本構造:最初の制約は電力 次はAIチップ製造能力。更にそ れ以上の拡張には、発電所の建設、地理的に分散したデータセンターを つなぐ高帯域幅ネットワーク、など 45

46.

① 電力の制約 • 2030年までに1~5 GWのデータセンター容量が計画されている(米国)。 • Amazonの960MWの原子力発電やOpenAIの多数の計画、他 • 単一データセンターを超えた拡大連携も可能。地理的に分散したトレー ニングを伴うが、複数地域のエネルギーインフラを活用できる。 • 但し、その場合には、分散型ネットワークの能力の他に、データセン ター間帯域幅が制約になる可能性がある。【ほぼ拡充必須】 • また、新しい発電所費用を負担する意思のある機関は、拡張決定から3 ~5年以内に天然ガス、太陽光などによる急速供給拡大も可能である。 • 簡単な試算例: • Llama 3.1 405Bモデルは16,000台のH100 GPU使用した(27MW)。 • 2030年頃のトレーニングにはLlama 3.1 405Bモデルの5000倍が必要 • 1試算はハードウェア効率化4倍、FP16からFP8に移行、3倍(時間延 長)で、24倍の省力化が実現されたとすると、5000倍(拡大)/24倍(省力 化効果)=200倍位の電力が必要になる。【電力需要は5~6GW相当】 46

47.

② AIチップ製造能力の制約 • 「スケーリング」はNVIDIAなどのチップメーカーが生産できる最先端 GPUの数によっても制約される。 • 先端GPU生産は、ほぼ独占のNVIDIAの場合, 1) TSMC固有のパッケージ ング(CoWoS: Chip on Wafer on Substrate)と, 2) 高帯域メモリ(HBM: High Bandwidth Memory) (SKハイニクス製造)による制約が大きい。 • 特にTSMCの先端製造ラインをどれほど確保できるかがポイントになる。 • 簡単な試算例: • NVIDIAは2023年にデータセンター用GPUを376万台出荷していた。 • この延長で2030年頃にはH100換算で~1億台のGPUが期待されている。 • しかし、CoWoSパッケージングはTSMC独自手法であり、設備増強には 多くのベンダーからの複雑な機器入手と統合が必要になる。 • それでもNVIDIAもSKハイニクスも年率50%程度という猛烈なスピード で生産設備強化を行っている。 • 結局、先端GPU生産は暫く供給制約が続くと見られる。 47

48.

③ データ希少性の制約 • 大規模なAIモデルのトレーニングには、それに対応した大規模なデータ が必要である。 • 一方、毎年生成されるWebデータの量は、トレーニング用に期待される データ量よりも少ない。 • そこで、年間4倍の計算スケーリング傾向が続くと、約5年後にはテキス トデータでは「データの壁」に直面すると見られる。 • 簡単な対応策例: • これを緩和させるため、既存AIモデルから合成データを生成し、これを 活用する案がある。 • しかし、この方法は 「AIのスケーリングが壁にぶつかる」で述べた ように非常に難しい問題にぶつかる。 • 合成データへの過度な依存は能力の劣化や停滞を引き起こす可能性がある。 結局、これを回避する自己修正メカニズム等も開発する必要がある。 48

49.

④ 遅延壁の制約 • AIモデルがスケールするに連れて、トレーニングに必要な手順操作が増 え一種の「速度制限」(遅延壁: レイテンシウォール)が発生する。 • これは、並列処理するトレーニングトークンの数(バッチサイズ)増加で 短縮化することは出来る。しかし、限界がある。 • 臨界バッチサイズを超えるとトレーニング効率が低下し始める。 • この限界を突破するには、代替ネットワーク、通信遅延短縮、新たな バッチサイズ拡大など、負担のいる方式への移行が必要になる。 • 対策例の簡単な記述: • モデルをスケールする際、有限のトレーニング実行時間が与えられた場 合、モデルサイズ×トレーニング可能なデータ量に上限が発生する。 • この現象は現行レベルでは発生していないが、今後大規模トレーニング が進むと極めて重要な問題になる。 • サーバー内(複数GPU搭載)遅延、ノード間遅延に分解して対処が必要 • 対策例:トポロジー見直し、大型サーバー導入、新通信プロトコール採用、など 49

50.

今後に向けた話題(中間まとめ) • 「幻覚」が起きるのは、学習/評価の手順が不確実性を認めるよりも推 測を優先させるためなので、幾ら「スケーリング」しても幻想は消えな い。 • AIスケーリングを制約する最初の要因は電力である。ちょっと前までの 状況に比較して2030年頃には5000倍(あるいは色々省力化を工夫して も200倍)もの電力が必要になる。 • 次の制約は最先端GPUの製造である。NVIDIAのGPUの場合、TSMCの CoWoSパッケージングとSKハイニクスのHBMが特に問題になる。これ らは最先端製造技術なので、簡単には拡張できない。結果、需要を完全 には満たせない状況が続く。 • 次の制約はトレーニング用データの確保である。年間4倍の計算スケー リングが続けば、約5年後には「データの壁」に直面する。 • また、モデルをスケールして行くと、今までは発生してこなかった「遅 延の壁」への対応も必要になる。 • 当然、これらの壁全てを総合的に克服して行く必要がある。 50

51.

5.AIバブルは崩壊するのか? 検討結果からの示唆 2節より • AI事業推進にとって「情報の工場」データセンターへの投資は必然であった。 • 持たざる経営を推進してきたIT企業や新興AI企業にとって「不動産とインフラの 両特性を持つ」データセンター構築のための新たな資金調達手法は必須で、循 環型資金調達は渡りに船だった。 3節より • データセンター構築は軌道に乗り出したが、投資回収の見通しは立たない。そ の中で、NVIDIAにのみ高収益が確保される事態が発生している。 • また、データセンター構築の更なる規模拡大が射程に入るのに伴い、電力確保 問題、合成データ生成に起因するワークスロップ問題など新たな問題がクロー ズアップされて来ている。 4節より • 現行AIモデルをいくら拡張しても幻覚は消えない。 • しかし、現行の延長でAIスケーリングが継続的に推進される見通しである。 • そのプロセスにおける制約条件には、電力、先端AIチップ製造能力、更に「デー タの壁」「遅延の壁」への対応などが予想される。

52.

今後のあり得るシナリオ • 以上の検討を踏まえ可能なシナリオを描いてみる。 シナリオ1:AIバブル抑止としては理想型 • 電力ボトルネック等でAIデータセンター構築が一定程度スローダ ウン。一方、AI活用が進展し新たな価値訴求サービスが増加して、 投資と回収がかみ合った結果、AIバブル崩壊は発生しない。 シナリオ2:軽微なバブル崩壊 & AI活用が進展 • GPU担保割れなどで循環型資金調達の一部が破綻。一方、新規 AIチップ製造や電力確保は一定の進歩があり、AIサービス利用と も連動してAI活性化が継続する。 シナリオ3:AI活用のための投資継続 & AIバブル崩壊発生 • AIに積極挑戦でデータセンター増設が加速。一方、電力不足など ボトルネックも顕在化し、投資と投資回収の時間差が大きく拡大。 結果、脆弱なベンダーや投資会社中心にバブルが崩壊し、経済界 に一定の影響を与える。 52

53.

今後のあり得るシナリオ(続) シナリオ4:米中覇権争いの性格濃厚化 & 経済中心よりは戦略性安全性などに傾斜 • 経済的にはバブル崩壊すべき事態が発生したとしても、世界のAI 覇権に大きく係わる事態と認識されれば、判断は狭義の経済面 に限定されなくなる。(例えて言えば、嘗て宇宙への夢に大規模 な税金がつぎ込まれたように)このようなニーズと認識が一般 に共有されれば、投資回収は一定期間遅延が保留され、採算度 外視のプロジェクトが推進される。 53

54.

最終まとめ • AI投資の中心であるデータセンター投資の必要性と焦眉の資金調達に必要 であった循環型資金調達の仕組みを述べた。 • データセンター構築は進展したが、AI投資はまだ初期段階と捉えられてお り、今後もAI投資は継続して行く可能性が大きい。 • その際のAIバブル発生およびバブル崩壊に繋がる可能性のあるリスク要因 を抽出し論述した。 • AIスケーリングは、それでも2030年頃までは続く可能性が大きい。そこ で、このような状況に向けてより具体的なリスク要因の見通しを述べ、そ れに基づくシナリオを提示した。 • どのシナリオが有力かは現時点では定かでない。但し、米中の覇権争いが 激化しているので、経済中心のAIバブル/バブル崩壊論とは異なった視点 からAI投資が暫く続く可能性は大きい。 • そして、電力増強力など総合的産業競争力も重要になるので、更に多方面 からの評価が必要になってくると考えられる。 54

55.

編集後記 • 「中国の2025年の発電力増強は米国の7倍、データセン ター用の電力価格は3分の1」とある(日経 2026.1.20)。 • 具体的には2025年の中国の新規発電能力は470GW、米国は 64GW • AI投資/普及の最初のボトルネックが電力不足と断定さ れている状況では、これは問題である。 • 中国は低コストの電力を武器に、半導体性能で劣る弱み を補う戦略である。 • 中国の電力増強を牽引するのは太陽光や風力発電などの再生可能エネル ギー(新しい発電能力の8割を占める。米国は6割)。 • また、中国は原子力発電所も建築中が27基ある。 • 中国は国有企業が計画的に能力を増やしているのに対し、米国は地域毎 の電力会社や連邦、州レベルの規制もあって、意思決定は遥かに分散。 • AIのグローバル推移予想は、米中の技術・制度・意思決定等も含めた総 合的仕組みから比較や評価が必要な段階に来ていると感じた。 55

56.

文献