
チャットGPTは環境にどのような影響をもたらすか
チャットGPT、BERT(バート)、LaMDA(ラムダ)、GPT-3、ダリ・ツー(DALL-E-2)、ミッドジャーニー、ステーブル・ディフュージョンといった新たな生成AI(人工知能)ツールの能力に、誰もが驚嘆している。だが、こうしたモデルの裏側にある環境面のコストと影響は、見過ごされがちだ。
このようなシステムの開発と使用には膨大なエネルギーが必要であり、物理的なインフラの維持には電力消費が伴う。現在、これらのツールは主流化に向けて勢いを増し始めたばかりだが、近い将来、環境コストが劇的に増えると考えるのが妥当だ。
データセンター業界、つまり情報通信技術のシステムを保管、管理するために設計された物理的施設は、世界の温室効果ガス(GHG)の2~3%を排出している。
世界全体のデータ量は、2年ごとに倍増する。大量に増え続ける情報を保管するデータセンターは、コンピュータのサーバーや機器および冷却システムを運用するために、膨大な量のエネルギーと水を(直接的には冷却のため、間接的には再生不能な電力を生み出すために)必要とする。これらのシステムが国の電力使用量に占める割合は、デンマークでは約7%、米国では2.8%に上る。
最もよく知られる生成AIモデルはほぼすべて、数千台のサーバーを使う「ハイパースケール」のクラウドプロバイダーによって生み出され、多くのカーボンフットプリントを伴う。具体的には、これらのモデルはグラフィックス・プロセッシング・ユニット(GPU)のチップで動く。GPUは従来のCPUに比べ、演算装置に使われるトランジスタの数が多いため10~15倍のエネルギーを必要とする。
現在の3大ハイパースケール・クラウドプロバイダーは、アマゾン・ドットコムのAWS、グーグルクラウド、マイクロソフトのアジュール(Azure)だ。
チャットGPTによる環境への影響をカーボンフットプリントの観点から理解するには、機械学習(ML)モデルに伴うカーボンフットプリントのライフサイクルをまずは理解する必要がある。これこそ、エネルギー消費の削減を通じて、生成AIをより環境に優しいものにするうえでカギとなる。
生成AIを使用した時のカーボンフットプリント算出方法
すべての大規模な生成AIモデルが同じようなエネルギー消費と炭素排出を伴うわけではない。あるMLモデルのカーボンフットプリントを割り出すうえで、考慮すべき3つの値がある。
・モデルの訓練から生じるカーボンフットプリント
・実装後のMLモデルで、推論(プロンプトなどの新たな入力データを用いて、結果の推測や予測を行うこと)を実行する際に生じるカーボンフットプリント
・必要なすべてのコンピュータハードウェアおよびクラウドデータセンターの機能を生産する際に生じるカーボンフットプリント
パラメータと訓練データが多いモデルほど、通常はエネルギー消費量と炭素排出量も多い。チャットGPTの「親」モデルであるGPT-3は、生成モデルの中でトップレベルの規模を誇る。1750億のパラメータを持ち、5000億語のテキストで訓練された。
ある研究論文によれば、最近の生成AIモデルの訓練には、モデルの種類次第で旧世代よりも10~100倍の演算能力が必要となる。このため、全体的な演算能力の需要は約6カ月ごとに倍増している。
モデルの訓練は、生成AIにおいて最も多くのエネルギーを消費する要素だ。研究者らの主張によれば、オープンAIのGPT-4やグーグルのPaLM(パーム)といった「一つの大規模言語・深層学習モデル」を訓練すると、推計約300トンの二酸化炭素が排出されるという。関連して、一人の平均的な人間が1年間で排出する二酸化炭素は約5トンだが、平均的な北米人の排出量はその数倍に上る。
別の研究者らの計算によれば、「ニューラル構造探索」(neural architecture search)と呼ばれる手法で中規模の生成AIモデルを訓練する際に消費された電力とエネルギーは、62万6000トンの二酸化炭素排出量に相当した。これは、平均的な米国製の車5台を製品寿命まで運転した場合の排出量と同じである。
また、一つのBERTモデル(グーグルが開発した大規模言語モデル)をゼロから訓練するには、大西洋を横断する民間航空機と同じ量のエネルギーとカーボンフットプリントを伴う。
推論(ユーザーのプロンプトに対する応答を導き出すこと)のためにモデルを使う際には、1回のやり取りで消費するエネルギーは少ないが、最終的には多くのやり取りを重ねることになる。1回のみの訓練を経てクラウドに実装された後、数百万人のユーザーによって推論に使われるモデルもある。その場合、推論のために大規模深層学習モデルをクラウドに実装することもやはり多くのエネルギーを消費する。
アナリストが報告するエヌビディアの推計によると、生物の学習メカニズムを模倣した機械学習の手法である「ニューラルネットワーク」のエネルギーコストの8~9割は、訓練済みモデルによる継続的な推論処理に費やされている。
大規模生成モデルを最初に訓練して推論を実行する際のエネルギー消費に加え、モデルのユーザーと再販業者が、ファインチューニングやプロンプトによる訓練を導入するケースが増えている。大量のデータで訓練された元の生成モデルとファインチューニングを組み合わせることで、組織の特定のコンテンツに合わせてカスタマイズしたプロンプトと回答が可能になる。