AIによる電力需要はどこまで増えるのか?~「AI電力問題」の予備的検討~

今、世界はAI開発競争のさなかにある。前例のないペースでAI用のハードウェアが増設され、浮上し始めているのが「AIの電力問題」だ。巨大IT企業が相次いでAI用のデータセンターの建設を急ぎ、電力確保にも動いている。各国政府も、国内のAI用計算資源の増設にますます多くの予算を投じ始めた。

消費電力は、こうしたハードウェア増強の量的な尺度となる。AIモデルの訓練および利用(推論)にかかる電力量(Wh、ワット時)は、人類がAIにどれくらいのエネルギーを費やしているかを表す。今後どこまでAIの消費電力は増えていくのだろうか。

このテーマについては両極の見方がある。一部の論者は、AIによる電力消費量の急上昇は過渡的なものであり、将来的には効率化や小型化が進むことで、長期的には減少さえありうると主張する。一方で、以下にみるように、指数的な電力消費の増大がしばらくは止まらないという予測も多い。その背景には、AIがもたらす産業界や安全保障上のインパクトがあまりに大きいため、各国や企業の「計算資源競争」はむしろ激化していくという見立てがある。

一般社団法人AIアライメントネットワーク(ALIGN)は、AIのもたらす長期的リスクについて検討し、その技術的対応も含めて研究・コミュニティ形成・対話を行ってきた。その中でAIの電力問題(ないし環境問題)もまた長期的リスクの一つとして捉えており、まずはこの問題についてパースペクティブを得ることを目的として本稿をまとめた。本稿で目指すのは、以下の三点である。

  1. AIの電力需要について、代表的な推計を紹介する

  2. AIの電力需要が指数的に増えるという見立てと、増えないという見立ての両方の根拠を確認する

  3. 上記を通して、AIの電力問題を今後見ていくパースペクティブを得る。

なお、本稿執筆の調査段階ではAIツールを活用したが、出典には筆者が直接当たった。本文も筆者の責任で執筆したものである。


1. AIによる消費電力の現状と予想

1.1 現時点のデータセンターの消費電力量は全体の1~2%程度

まず、現在のスナップショットはどうなっているのか。

国際エネルギー機関(IEA)によれば、「データセンター、暗号通貨、AIによる世界の電力消費量」は2022年で460TWhであり、これは世界全体の電力消費量の約2%に相当する。日本と米国をみると、

  • 日本国内では最新の統計が存在しないものの、2018年の科学技術振興機構の報告書では国内のデータセンターの電力消費量は1.4ThWであり、これは国内の総電力消費量の1.4%に相当。2022年に関しては別の機関がより低い推計を行うなど、ばらつきがあるものの、いずれも世界平均より小さくなっている。

  • 世界で最もデータセンターが多い(IEAによると世界に8000あるデータセンターの33%が米国に立地)米国は、2023年には総電力使用量の4.4%である176TWhに達したとされる

国によってはアイルランドのように企業のデータセンターが集積し特異的に割合が高い国も存在する(2023年で21%出典)ものの、世界では2%程度である。仮にこれが2倍になっても、1割を占めるといわれるエアコンの消費電力量に満たない。したがって、問題は現時点でのスナップショットの電力消費量ではなく、どれくらい早く、そしてどこまで増えるのかという点にある。

1.2 ハードウェアの指数的増加が、電力需要の急上昇を招く

これから、どれくらいのペースで増えると予想されているのだろうか。IEAの2024年1月の「Electricity 2024 Report」は、2026年の「データセンター、暗号通貨、AIによる世界の電力消費量」を620〜1050 TWh/年と予想した。これは、2022年の460 TWhからの160 TWh~590 TWh増加に相当し、「少なくてスウェーデン1国、多ければドイツ1国分の消費の増大」になる。なお、同レポートの2025年版では、全世界のIT部門などに限った増加の予測値は出していない。

出典:International Energy Agency (IEA) - Electricity 2024 Report

2024年12月に、米国エネルギー省(DOE)が Lawrence Berkeley National Laboratoryに委託したレポートでは、米国におけるデータセンターの電力消費量が、2023年の176TWh(米国の総電力消費量の4.4%)から2028年には325TWh~580 TWh(6.7%~12.0%)になると推計している。

出典:Lawrence Berkeley National Laboratory ”2024 United States Data Center Energy Usage Report”

これらの急激な増加の予測は、主にデータセンター用の半導体(GPU)の出荷状況から推計されたものである。米国ランド研究所の2025年1月のレポートでは、現在の半導体の出荷数は指数的に伸びており、このペースが続けば2027年には世界のAIデータセンター全体の電力需要が、2022年時点の世界のデータセンター電力需要の2倍、カリフォルニア州の2022年の総発電容量(86GW)に迫る規模となるとしている。

出典:RAND (2025) ”AI's Power Requirements Under Exponential Growth”

国内に関しては同様の「指数的増大」に関する予測は少ない。たとえば経産省の審議会資料では、電力中央研究所、地球環境産業技術研究機構(RITE)等が、国内の(データセンターやITに限らない)総電力需要が2050年までに900TWh(2022年と同水準)にとどまる予測から、1200TWhまで増えるというものまで幅のある予測を行っていることを示しているが、いずれもAIによる指数的な電力需要の増大を予想したものではない。例外として、三菱総研は2024年8月のレポートにて独自のシナリオ分析を行い、2040 年時点のICT セクターの電力需要が2020年比で約 2 倍〜約 27 倍になるとしている。

なお、ここまで見たいずれの予測も、2024年までの状況に基づく。2025年に入ってからの下記のような動きは考慮されていない。

  • 米国トランプ大統領は就任直後の2025年1月21日、OpenAI、ソフトバンクグループらとのStargate Projectを発表。米国のAI用データセンターに、4年間で最大で5000億ドル(約78兆円)への投資を行うとされ、すでにテキサス州に第1号となるデータセンターが建設中との報道もされている。

  • 英国政府は1月、AI Opportunities Action Planを発表した。国が持つ研究用のAI計算資源を2030年までに20倍にすることなどを掲げた。

こうした各国の積極的な投資により、AIによる電力需要の予測は2024年よりも上振れしていく可能性がある。

1.3 指数的増大をもたらす構造

大規模言語モデルの登場以降、先端モデルの訓練に投入される計算資源は毎年4-5倍のペースで増えているといわれる。また、上記のランド研究所レポートにみられるように、半導体の出荷数でみても、世界のAIのハードウェアは指数的に増大している。

その背景として、まずAIの性能が、訓練と推論にかかる計算量(FLOP数)と連動していることがあげられる。①AIに計算量を割くほどAIの性能が上がるということだ(「スケーリング則」)。したがって、現状においては、②AI開発企業にとってハードウェア増強は他社との競争力に直結する。一方、③各国の政府にとっても、自国にAIハードウェアがあることが産業競争力につながり、不足していることは安全保障上の脅威となる。その結果として、④官民を挙げた大規模データセンターなどへの投資が進み、⑤その結果AIがさらに高度化してAIの重要性が高まる。

計算資源の指数的増大をもたらす正のフィードバック構造(出典:筆者作成)

この正のフィードバックが働く限りにおいて、計算量は指数的に拡大していくと考えられる。問題はそれがダイレクトに電力消費量の指数的増大につながるかと、この正のフィードバックループがいつまで続くか、という点だろう。

2. 指数的増大が「続かない理由」 vs「続く理由」

この指数増大が続くのかどうかについては、両方の立場からの意見がある。

2.1 指数増大は続かない理由

AIの電力需要の指数的増加は長くは続かないと考える論者は、現在の基盤モデルの開発の状況が過渡的な段階にあると考える。今は各社が先行投資的に大型GPUクラスタを構築しているが、ある程度技術が成熟すれば、かつてメインフレームが小型PCに移行したように、AI処理もより効率的なチップや分散型アーキテクチャに収斂するという見方だ。

また、過去20年間、データセンターの電力消費が急増すると何度も予測されてきたが、その多くは実現しなかったことも、よく引き合いに出される。クラウド化や効率化によりデータセンターの電力消費は抑えられ、2010年代を通じて全電力消費の1.5%未満にとどまった。2010年にスタンフォード/ローレンスバークレー研のJonathan Koomey氏が示した、1ジュールあたりの計算(FLOP)数が約1. 57年ごとに倍になるという経験則は「クーメイの法則」として知られる。

こうした、AIが必要とする計算量の縮小と、FLOP当たりの電力コストの低減により、AIの電力需要は落ち着いていくだろうという見立てが一方に存在する()。

2.2 指数増大が続く理由

2025年1月、中国発のLLMであるDeepSeekが話題となった。前月に発表されたDeepSeek-V3は、671Bパラメータを持つにもかかわらずアーキテクチャ上の工夫により405BのLlamaより1/11の計算量で訓練できたという。DeepSeekのインパクトを機にひとしきり話題になったのがジェボンズのパラドックス(Jevons’ Paradox)である。これは、資源利用の効率化が進むほど、その資源の総利用量が却って増えてしまう現象を指す。AIハードウェアの省電力化や、アルゴリズム最適化によって「より安いコストでAIが使える」ようになればなるほど、かえって利用が加速し、電力消費の絶対量が増えるという見立てが成り立つ。

また、現状では、性能と計算量の正の相関は続いており、AI開発企業にとってモデルを大規模化するインセンティブは働き続けている。先端AIの分析で有名なシンクタンクEpoch AIの「スケーリングは2030年まで続くか?」という記事では、 2023年のGPT-4の訓練に要した計算量から、2030年までにその10,000倍の10^28~10^29 FLOPまでスケールアップすることが可能であるという見通しを示している。

以上のように、AIによる電力の指数的増大が続かないとする立場の論者は、「これまでと同様に効率化が解決する」と考え、指数的増大が続くとする立場は「基盤モデルはかつての技術とは異なる」 と考えている。

出典:筆者作成

3. AI電力需要の急増がもたらすリスク

AIによる電力需要の急増はどのようなリスクをもたらすのか。ここでは簡単に概観しておく。

  • 国・地域の電力ひっ迫:データセンターの集中は地域の電力供給に負担をかける。すでにアイルランドやシンガポールのように、新しいデータセンター建設に許可制を導入したり、再生可能エネルギーの導入義務づけを検討したりする例がある。地域の電圧品質が悪化したとの報道もある。

  • 電力以外の環境負荷:電力だけではなく、AI用データセンターの建設や運用はさまざまな環境コストを伴う。大規模データセンターは膨大な冷却水を必要とするため、水資源の乏しい地域では水不足が顕在化するおそれもある。データセンターの建設自体がもたらすembodied footprint(コンクリートや鉄鋼、半導体製造過程で排出されるCO2など)も無視できない。高性能サーバは3〜5年しか持たないとされており、頻繁なリプレースが必要になる。そうしたリプレースにかかる設備投資が、将来的にサンクコスト化したり、負債化したりするリスクもある(包括的な論点整理の例)。

  • 発電所の追加建設と化石燃料へのロックイン:AI用電力の需要が急増し、短期間での拡張が必要になると、再生可能エネルギーや原子力などのクリーン電源だけでは対応しきれず、結果的に石炭火力やガス火力など化石燃料ベースの発電所の増設が必要になる。いったん化石燃料の発電所が建設されると、その設備寿命が数十年に及ぶため、温室効果ガス排出にロックインされてしまうリスクが大きい。これはカーボンニュートラルの流れに反する動きであり、AI普及と環境負荷のトレードオフがますます顕在化すると考えられる。

もし、AIによる電力需要の指数的な増大シナリオに突入していくのであれば、上記のような問題への対処が急務となるはずだ。

5. AIの利用は「環境に悪い」のか

最後に、ユーザー視点で気になることとして、AIの利用の環境負荷がどの程度なのか、という点がある。とはいえ、現状はユーザ一人ひとりが自分の使うAIの環境コストを直接意識する機会は多くない。省エネを心掛ける人でも、クラウド上で動作するAIツールがどれほどの電力を消費しているかを知る術が限られている。

近年は、「訓練」よりも「推論」に、より多くのエネルギーが使われるという見方がコンセンサスとなりつつある。大規模なモデルをいったん訓練したあと、それを多人数のユーザが日常的に利用することで、トータルの消費電力が膨大になるためである。Hugging FaceのLuccioniらは2023年の研究で、様々なタスクをオープンソースのLLMに解かせ、消費電力量を比較する研究を行った。その結果、たとえばBLOOMのいくつかのモデルでは、2億〜6億回の推論が訓練のコストに相当するとしている。ChatGPTのWebサイトに2023年10月の時点で17億回アクセスされているという実績から、数週間から数か月の間に推論コストが訓練コストを上回るという試算が導かれる。

良く言及される推計に「ChatGPTの1回のクエリの推論時の消費電力は3Whであり、Google検索の10倍である」というものがある。この出自は、スタートアップDigiconomist創業者の Alex de Vries氏の2023年10月の論文である。その後、Epoch AIは、GPT-4oの典型的な消費電力は一桁少ない0.3Wh前後だという試算を出した。とはいえ、トークン長により推計は異なり、またChain-of-thoughtにトークンを多く使うリーズ二ングモデル等はより多くの電力を消費していると考えられる。o3が難易度の高いベンチマーク(ARC-AGI)を解いた際、1問あたり推定1700Wh以上を要したとの試算もある。

いずれにしても、一ユーザに知りうる情報が少なく、AI利用の環境負荷についてはきわめて不確かな推計しか存在していない。Hugging Faceは2025年2月に、各AIモデルのエネルギー消費量を比較する“AI Energy Score” を発表した。提出されたAIモデルを同条件で実験し、GPUのエネルギー消費量を測定して可視化するという試みである。こうした取り組みにより情報開示が進むことを期待したいが、OpenAI等の最先端のモデルについては不透明な状況が続くことが予想される。

小括

本テーマに関する未来は極めて不確実である。AIによる電力需要が指数的に増大したいとしても、どこかで供給能力の限界に達するはずだが、その変化が急すぎた場合、人類の文明に大きな負のインパクトももたらしかねない。問題は、この需要の上昇がどのくらいのペースでいつまで続くかだろう。また、AIは環境に対してポジティブな効果を発揮することも期待されている。省エネにつながるAI利用や、核融合や量子コンピュータの開発がAIによって加速することも期待されている。そうした、「AIがもたらす環境負荷をAI自体を通して相殺する取り組み」の重要性も増す。

以上は、公開情報をもとにした予備的な取りまとめである。本稿の時点ではまだわからないことだらけだが、2025年4月はIEAがSpecial Report on Energy and AIを発行予定だとされ、その内容によっては状況の少し見通しがよくなるかもしれない。直近の数か月は、米国で先行する巨額のAIハードウェア投資に各国・各企業がどれくらい追随するのかが焦点になりそうだ。企業間、国家間の競争が、各国のエネルギー政策に大きな見直しを迫るほどのAIハードウェア増強のプレッシャーとなるのか、予断を許さない。

AIアライメントネットワークとしては、こうした予備調査をもとに外部専門家とのディスカッションも行いながら、国内外のステークホルダーに資する情報発信を行う予定である。

調査・執筆担当:丸山隆一(フリーランス編集者)

※本調査は、AIアライメントネットワークの委託を受けて行われた。

Next
Next

【2025/1/15 10:00 開催】ALIGN Webinar #12 Jesse Hoogland : Singular Learning Theory for AI Safety