ファインチューニングが消費するエネルギーと演算能力は、最初の訓練に比べると大幅に少ないことが複数の研究で示されている。とはいえ、多くの組織がファインチューニングの手法を取り入れて頻繁に実行すれば、全体のエネルギー消費は相当な量になるかもしれない。
これらのAIソフトを動かすために必要なコンピュータの製造に伴うエネルギーコストを計算するのは難しいが、非常に大きいと考えるべき理由がある。2011年のある研究では、一般的なノートPCによるエネルギー消費の約70%は製造過程で生じ、デスクトップPCの場合はさらに多いと推計されている。AIモデルを動かす複雑で強力なGPUのチップとサーバーの製造に伴うエネルギー消費は、ノートPCやデスクトップPCよりも格段に多いはずだ。
より環境に優しいAIを実現する方法
以上を踏まえ、AIのモデリング、実装と使用を環境面でより持続可能にすることを目指す動きがある。目標は、エネルギー大量消費型のアプローチを、より適切で環境に配慮したものに置き換えることだ。
AIのアルゴリズムを環境に優しいものにし、害を及ぼすことなく有用性を広めるためには、ベンダーとユーザー双方における変化が求められる。特に生成モデルはエネルギー消費量が多いため、広く浸透する前に、環境に優しいものにする必要がある。
AIおよび生成AIをその方向に動かすことができるさまざまな方法を、以下で説明しよう。
独自の大規模生成モデルを開発せず、既存のものを使う
大規模な言語モデルと画像モデルのプロバイダーはすでに多くあり、今後も増えていくだろう。大規模生成モデルの開発と訓練は、膨大な量のエネルギーを要する。大手ベンダーでもクラウドプロバイダーでもない企業が、独自の大規模モデルをゼロから生み出す必要性はほとんどない。必要な訓練データと大量の演算能力は、すでにクラウドでアクセスできるため自社で獲得しなくてもよい。
既存のモデルにファインチューニングで学習させる
自社独自のコンテンツで学習した生成モデルがほしいのであれば、モデルの訓練をゼロから始めるのではなく、既存のモデルを改良すべきだ。
特定のコンテンツ分野でのファインチューニングやプロンプトで学習させるほうが、新しい大規模モデルをゼロから訓練する場合に比べてエネルギー消費は格段に少ない。そして多くの企業にとって、一般的な訓練を受けたモデルよりも有用性が高い。独自のコンテンツ用に生成モデルを導入したい企業は、この方法にまずは専念すべきだ。
省エネ型の演算方法を用いる
生成AIのエネルギー消費を抑える別のアプローチは、演算コストがより低い方法でデータ処理を行うことだ。たとえば、ユーザーはタイニーML(TinyML)のフレームワークを使うことで、帯域幅要件が低いマイクロコントローラー(マイコン)のような、小型で低電力のエッジデバイス上でMLモデルを実行できる(データを処理するためにサーバーに送る必要がない)。
一般的なCPUの消費電力は平均70ワット、GPUは400ワットだが、小さなマイコンは数百マイクロワットしか使わない。1000分の1の電力で、データをサーバーに送らずにローカルで処理できる。
大規模モデルは、大きな価値が生じる場合にのみ使う
データサイエンティストと開発者が重視すべきは、モデルがどの部分で価値をもたらすのかを知ることだ。電力を3倍多く消費するシステムを使っても、モデルの精度が1~3%しか向上しないのであれば、余分にエネルギーを消費するだけの価値はない。
より広くいえば、問題を解決するために機械学習と人工知能が常に必要なわけではない。開発者は最初に、代替となる複数の解決策について調査と分析を行い、その結果に基づいてアプローチを選択する必要がある。一例としてモントリオールAI倫理研究所は、この問題に積極的に取り組んでいる。