自社独自のデータで生成AIを訓練する方法
Anton Vierietin/Getty Images
サマリー:生成AI(人工知能)の土台を成す大規模言語モデル(LLM)は、領域が限られたプロンプトや質問には対応しにくい。一方で、生成AIを企業のナレッジマネジメントに活かすことができれば、競争力の向上やイノベーション... もっと見るの推進を実現できる。本稿では、生成AIをナレッジマネジメントに応用した事例を挙げながら、その方法を紹介する。 閉じる

生成AIでナレッジマネジメントを高度化する

 多くの企業が、チャットGPTをはじめとする大規模な言語モデルや画像モデルで実験をしている。複雑な概念を明瞭な言葉で伝えるその能力に、企業は総じて驚嘆させられている。

 とはいえ、これらのシステムが基本的にはインターネットからの情報で訓練されており、専有的なコンテンツや知識に関するプロンプトや質問には対応できないことを、ほとんどのユーザーは認識している。

 企業が自社独自の知識を活用することは、競争力とイノベーション力を発揮するうえで不可欠だ。変化の激しい今日の環境においてはなおさらである。知識資産とノウハウの創出、管理、適用、再結合、実装を効果的かつ迅速に行うことで、組織のイノベーションは加速する。

 しかし、組織内での知識の創出は、通常はさまざまな情報源と形式を通じて行われる。たとえば個々人の頭の中や、プロセス、方針、リポート、業務上の取引、インターネットの掲示板、オンラインのチャットや会議などだ。このため、社内の包括的な知識は往々にして把握されず、効果的または効率的な方法で整理して必要な場所に実装することが難しい。

 大規模な言語モデルや画像モデルに基づく生成AI(人工知能)という新興技術は、ナレッジマネジメントに新たな機会をもたらし、企業のパフォーマンス、学習、イノベーションのケイパビリティを強化する。

 例として、フォーチュン500に属する某業務プロセス支援ソフトウェア企業に関する研究によれば、カスタマーサポート向けの生成AIベースのシステムによって、担当者の生産性が向上して定着率が改善し、同時に顧客からの肯定的なフィードバックも増加した。さらに、新任担当者の学習と能力開発も加速した。

 この会社のように、自社独自の知的資本を確保して社内で(または顧客が)広くアクセスできるようにするために、大規模言語モデル(LLM)の言語処理能力と汎用的な推論能力を活用しようと試みる組織が増えている。たとえば、接客を行う従業員に会社の方針と製品・サービスの推奨事項を伝える、カスタマーサービスに伴う問題を解決する、退職する従業員の知識を企業が確保する、といった目的で使われている。

 これらの目的は、1990年代から2000年代初期におけるナレッジマネジメントのブーム全盛期にも見られた。だがほとんどの企業は、当時のテクノロジーではこれらのタスクに取り組むのに不十分であると気づいた。

 しかし現在、組織全体で縦割りの壁を超えて重要な知識を確保して広める機会を、生成AIが再びもたらしている。この目的で生成AIを使うマネジャーの一人は、「自分の生活に突然、ジェットパックが導入されたような感じ」だと表現した(ジェットパックとは、背中に装着してジェット噴射で推進する飛行装置)。

 ただし現在の進歩とは裏腹に、過去にナレッジマネジメントを困難にさせていた要因の一部はいまでも残っている。

生成AIベースのナレッジマネジメントの技術

 組織固有の知識をLLMに取り込むための技術は、急速に進化している。現時点で、専有コンテンツを生成AIモデルに取り込むには3つの主なアプローチがある。

LLMをゼロから訓練する

 1つ目は、独自の領域特化型モデルをゼロから構築して訓練するというアプローチだ。これにはLLMを訓練するための良質なデータが大量に必要となり、ほとんどの企業はそのようなデータを持っていないため、一般的なアプローチではない。加えて、膨大な計算能力と、熟練したデータサイエンス人材も求められる。

 このアプローチを採用した企業の一つはブルームバーグであり、金融業界に特化したコンテンツと自然言語インターフェースを同社のデータ端末で提供する、ブルームバーグGPTを開発したと先頃発表した。

 ブルームバーグは金融に関する40年分のデータ、ニュースと文書を有し、そこに財務報告書とインターネットのデータから得た大量のテキストを組み合わせた。同社のデータサイエンティストは合計で7000億トークン(約3500億ワードに相当)、500億パラメーター、130万GPU時間を使用した。これほどのリソースを持つ企業はごくわずかである。

既存のLLMをファインチューニングする

 2つ目は、一般的な知識と言語でのやり取りについて学習済みのシステムに、特定領域のコンテンツを追加することで既存のLLMを「ファインチューニング」(微調整)するというアプローチだ。これはベースモデルのパラメーターの一部を調整する作業を伴う。新しいモデルをゼロから構築する場合に比べ、格段に少ないデータ(数百万や数十億ではなく、たいていは数百や数千の文書)と計算時間で済むことが多い。

 例としてグーグルは、医療知識に特化したMed-PaLM2(メドパーム2)のモデルにファインチューニングを用いた。この研究プロジェクトでは最初に、グーグルの汎用LLMであるPaLM2(パーム2)を、公開されているさまざまな医療データセットから慎重に精選した医療知識で再訓練した。このバージョン2は米国医師国家試験の問題の85%に正しく答えることができ、最初のバージョンよりも精度は約20%向上した。

 飛躍的に進歩はしたものの、科学的事実性、精度、医学的コンセンサス、推論、バイアス、有害性などの基準でテストし、複数の国の専門家たちが人間の目で検証したところ、システムは臨床診療に導入する前にまだ大幅な改善が必要であると開発チームは考えた。

 ただし、ファインチューニングのアプローチにはいくつかの制約がある。必要な計算能力と計算時間はLLMの訓練に比べると大幅に少ないとはいえ、やはり費用は高くつく。これはグーグルにとっては問題ではないが、ほかの多くの企業にとっては問題となるだろう。データサイエンスに関する相当な専門知識も必要だ。たとえばグーグルのMed-PaLM2のプロジェクトに関する科学論文には、31名の共著者がいる。

 新しいコンテンツを加えるのではなく、コンテンツの新しい形式とスタイル(「チャット」や、「ウィリアム・シェイクスピアのような文体」など)を追加するのが最適であると主張するデータサイエンティストもいる。また、一部のLLMベンダー(オープンAIなど)は、最新のLLM(GPT-4など)のファインチューニングを許可していない。