オープンAI騒動を招いた、奇妙なガバナンス構造の問題点
HBR Staff; Joel Saget/AFP/Getty Images; Wizemark/Stocksy
サマリー:オープンAIはチャットGPTによって、高いエンジニアリング能力と製品の革新性を見せつけた。しかし、2023年11月、そのガバナンス改革は創業者のサム・アルトマンを追放し、会社の評価を大きく減少させる形で、失敗に... もっと見る至った。非営利団体が営利企業を支配するという同社の特異な構造は、経営とガバナンスのベストプラクティスから逸脱していたと言わざるをえない。 閉じる

奇妙なシステムは奇妙な結果をもたらす

「エンジニアリングは簡単だ。人間は難しい」。これは、ベル研究所、グーグル、そして有名なベンチャーキャピタルのセコイアを渡り歩いたテクノロジスト、ビル・コフランの言葉である。

 オープンAIは2023年11月、軽視されがちなこの教訓を学んだ。

 サム・アルトマンやイーロン・マスクらが設立したこのAI(人工知能)研究機関は、言語モデルのチャットGPTをリリースして世界を変えた。その高いエンジニアリング能力と製品の革新性は疑う余地がない。

 だが同社はそれを、長期的なインパクトの方向付けを目的とした重大なガバナンス改革と組み合わせようとした。そして、そのガバナンス改革は、取締役会がアルトマンを追放し、800億ドルという会社の評価をほぼ崩壊させる形でみごとに失敗した。

 オープンAIの特異なガバナンス構造については、その後の数週間で詳細に分析された。非営利団体が営利企業を支配し、従業員は営利企業の株式を保有しているが、CEOと取締役は保有していなかった。営利企業の投資家に還元される利益には上限が設けられていた。そして投資家は、非営利団体の理事会に留まっていたため、支配権を持っていなかった(実際、オープンAIの最大の出資者であるマイクロソフトのCEOは、アルトマンの追放を直前に知ったという)。

 営利モデルと非営利モデルを混在させることで、オープンAIは両方の「いいとこ取り」を目論んだ。だが実際には、最悪の結果となり、経営とガバナンスにおけるベストプラクティスの重要性を浮き彫りにした。革新的な創業者や企業は、一度にすべてを刷新したくなるが、成功するスタートアップはその衝動を抑える。彼らは、一つの大きなこと(通常は製品)の変革に集中しつつ、他の領域でのベストプラクティスを加速度的に増加させるのだ。

 筆者の研究では、成功するスタートアップのベストプラクティスを概説してきた。その中で、創業者が制約を受けない君主のような振る舞いをすると、スタートアップが失敗する可能性があることを説明した。それが、暗号資産交換業大手FTXトレーディングの失敗の一因である。大きな成功を収めたスタートアップが、経営権を創業者から投資家、経営陣、その他の従業員へと徐々に譲渡するのもそのためだ。理想は、これらすべてのグループが会社の株式を通じて連携し、一個人が全権を握らないことである。

 2023年11月上旬、マイクロソフト社長のブラッド・スミスは、オープンAIのガバナンス構造とメタ・プラットフォームズのようなハイテク巨大企業のガバナンス構造を区別しようとした。「非営利団体が構築したテクノロジーと、1人の人間によって完全にコントロールされている営利企業、どちらがより信頼できるでしょうか」

 残念ながら、この言葉は適切であることが証明された。ただし、スミスが意図した形ではなかった。オープンAIの意思決定は、スミスが揶揄した君主的なハイテク企業によく似ていた。「君主制は、君主がけっしてに過ちを犯さない限りは、世界で最も優れた意思決定方法である」という古いことわざがある。オープンAIの理事会は、自分たちと非営利団体のミッションに対する主観的な解釈にのみ責任を負っていたことから、混乱を招き、アルトマンに対するクーデターは失敗した。これは控えめに言っても、コーポレートガバナンスの改善ではない。ガバナンスの空洞化である。

 公平を期すために言えば、オープンAIの創設者らは、そうしたモデルを選択した理由があった。彼らは、無制限なAI開発の影響と、スタートアップの成長という古典的なモデルの下でそれがどのように展開するかを懸念していたという。しかし、彼らの取り組みはコストがかかるため資本が必要であり、ガバナンスのベストプラクティスを損なうという落とし穴に注意しなければならなかった。

 問題は、彼らが採用したような斬新なガバナンスモデルは、本質的に予測がしにくいことだ。ある経験豊富なCEOは筆者にこう述べた。「オープンAIのガバナンス構造は、言葉は悪いが、奇妙だ。奇妙なシステムは、必然的に奇妙な結果をもたらす」。AIの「安全性」が目標であったなら、理解されていないユニークな企業構造を採用することは大きな賭けで、オープンAIのような重要なスタートアップの存在を危険にさらす。

 オープンAIの現状はどうなっているかというと、アルトマンはCEOに復帰した。ただ、再編成された理事会からは外されている。アルトマンを追放した理事は1人を除いてすべて去った。しかし、ガバナンスが改善されるかどうかは、いまのところ不明だ。特に最近は不確実性が高まっているため、オープンAIには理解しやすい体制のほうが有効だろう。投資家や従業員は、より容易に規模を拡大できるというメリットを得ることができ、AIの安全性を懸念する人々は、より安定した予測可能な取り決めを確保する。規制当局も予測可能であることによる恩恵を受けるだろう。

 残念ながら、スタートアップの運営モデルやガバナンスモデルの大幅な変更は、特に危険である。規模拡大に伴う大幅な変更は、スタートアップを破滅させるリスクがある。そして、オープンAIはそうした状況に陥っている。実験的な試みをAIの研究と製品に限定し、実績のあるガバナンスモデルを慎重に採用する必要がある。しかし、そこまでの道のりは困難を伴うだろう。もっとも難しいのはエンジニアリングではなく、人間なのだ。


"OpenAI's Failed Experiment in Governance," HBR.org, November 30, 2023.