AIの現在の消費電力は、1回の質問あたり約2.9Whで、Google検索の約10倍という見積もりがあり、学習段階ではさらに大きな電力を消費し、GPT-3の学習には約1,287MWhが使われるとされています。
新しいモデル(GPT-4など)は公式な電力データが公開されていませんが、これより大幅に大きいと推定されています。
また、世界のデータセンターとAI関連の電力消費は、2022年に約460TWhでしたが、2026年には約1,000TWhに達する可能性があると指摘されています。
現在の消費電力
生成AIの電力消費は、「推論」と「学習」で性質が異なります。
推論は、ユーザーが利用するたびに積み上がっていく電力消費で、学習は巨大なモデルを構築する段階で、一度に大量の電力を使います。
現在は、推論がAI全体の電力消費の60〜70%を占めるとされていて、利用が増えるほど総消費電力も増えやすい構造になっています。
100分の1にできる可能性
消費電力を100分の1に抑える可能性はありますが、すべてのAIを一律に削減するというより、用途を限定したAIや専用ハードウェアで実現される見込みが高いです。
例えば、TDKと東北大学が開発中の脳型AI半導体は、同等性能のGPU処理と比べて消費電力を100分の1に抑えることを目標としていて、ニューロシンボリックAIでも、従来方式に比べて消費電力を100分の1に削減し、学習時間を36時間から34分に短縮した事例が報じられています。
実現しやすい条件
消費電力を大きく削減しやすいのは、次のような条件です。
・目的を絞ったタスクに限定する
・モデルを軽量化する
・脳型(ニューロモルフィック)などの専用チップを使う
・通信量も減らすため、エッジ側で処理する
現実的な見方
一方で、AIの利用自体は急速に拡大しているため、1回あたりの電力が100分の1になっても、総消費電力が減るとは限りません。
むしろ、効率化によって使いやすくなるほど利用回数が増え、結果として総消費電力が増加する可能性もあります。
つまり、技術的に100分の1は十分にあり得るものの、社会全体の電力問題を解決するには、モデルの効率化だけでなく、インフラ側の省電力化も同時に進める必要があります。
| 用途 | 1回あたり 典型値 | スマホ充電換算 | 規模感 | 目安・補足 |
|---|---|---|---|---|
| 検索エンジンの検索 | 約0.3Wh | 約0.02回(約50回で1回分) | 小 | 1回は微小だが回数が圧倒的 |
| 生成AIの1回の質問(推論) | 約2.9Wh | 約0.2回(約5回で1回分) | 小〜中 | 検索の約10倍 |
| 生成AIの推論全体 | ― | ― | 中〜大 | 利用増でどんどん積み上がる |
| データセンター全体 | ― | 約3,067億回/年 | 非常に大 | 460TWhベースで換算 |
※スマホ1回フル充電=約15Whで換算

読み取り方
1回あたりの推論は小さく見えますが、利用回数が多いため、合計は大きくなりやすいです。
一方で、学習は1回で非常に大きな電力を消費するため、新しいモデルを作るたびに大きな負担が発生します。
つまり、AIの電力問題は「1回の消費」と「総使用量」を分けて考える必要があります。
100分の1化との関係
消費電力を100分の1にする取り組みは、特に推論を専用チップや脳型AIに置き換える場面で現実味があります。
ただし、汎用的な大規模生成AIをそのまま100分の1にするのは難しく、実際には「軽量モデル化」と「ハードウェア最適化」の組み合わせで実現されていきます。

AIの消費電力削減には、「計測の難しさ」「精度とのトレードオフ」「総需要の増加」という3つの大きな壁があります。
主な課題
まず、AIの電力消費は企業が詳細データを公開しないことが多く、全体像を正確に把握しにくいという問題があります。
そのため、何をどれだけ改善すべきかの比較が難しく、削減効果の検証も簡単ではありません。
また、生成AIは推論回数が増えるほど電力を消費するため、利用が広がるほど削減努力が追いつきにくくなります。
技術的な限界
省電力化は、精度や汎用性とのトレードオフになりやすいです。
モデルを小さくすれば高速で軽量になりますが、複雑な質問への対応力は低下しやすくなります。
また、専用チップや脳型計算は有望な一方で、すべての用途にそのまま置き換えられるわけではなく、開発・量産・ソフトウェア対応にも時間がかかります。
インフラの制約
データセンターでは、GPUの高発熱と冷却負荷が大きな制約になります。
電力を削減するには、サーバーだけでなく、冷却、送電、設置場所、再生可能エネルギーの調達まで含めた最適化が必要です。
つまり、AI単体の改良だけでは限界があり、インフラ全体の見直しが不可欠です。
社会的な限界
効率が上がるほど利用が増える「リバウンド効果」も無視できません。
1回あたりの消費電力が下がっても、利用回数やモデル規模が拡大すれば、総消費電力はむしろ増える可能性があります。
そのため、削減は技術だけでなく、用途の選別や運用ルールの設計まで含めて考える必要があります。
100分の1の限界
消費電力を100分の1にする改善は、特定の用途や専用ハードでは現実的です。
ただし、汎用的な大規模生成AI全体に広く適用するのは難しく、「個別最適では可能でも、全体の標準的な改善幅とは言いにくい」というのが現実的な見方です。

AIの消費電力は、1回あたりでは小さく見えます。
しかし、それが世界規模で積み重なると、無視できないエネルギーになります。
効率化が進めば進むほど、私たちはさらにAIを使うようになります。
AIの進化は止まりません。
そして電力消費も、同じように増え続けます。

