(1)実効性のあるAI倫理委員会を社内に設ける
IBMでは常に、自社が世界に送り出すテクノロジーの倫理問題を検討することに重きを置いてきた。AIの倫理という重要な問題について、長期にわたる実質的な変革を実現しようと思えば、全社の組織と文化の変化を推進すべきだと、筆者らは考えている。
たとえば、IBMでは、上層部主導による多角的なAIガバナンスの枠組みを設けている。その中核を成すのが社内の倫理委員会だ(筆者は最高プライバシー責任者とともに、この委員会の共同委員長を務めている)。同委員会は、信頼と透明性を重んじるIBMの原則を実践に移すために、テクノロジー面とそれ以外の面の取り組みの両方を支援している。
また、IBMでは、「信頼できるAI」という看板の下、この考え方のさまざまな側面(公正性、説明可能性、強靭性、プライバシー、透明性など)に取り組むための社内の活動を推し進めている。
(2)AIに関する方針を明確化する
2018年、IBMは「信頼と透明性に関する原則」を発表した。これは、AIに関して責任感ある行動を促進することを目的としている。2020年はじめに発表した「AIに対するピンポイントの規制」に関する見解も、この原則の延長線上にあるものだ。
IBMがこれらの原則を通じて打ち出したのは、AIを活用して人間の知性を補強するという約束、顧客のデータおよびそのデータから引き出せる情報を保護するための指針をつくるという約束、そしてAIに関して信頼性あるシステムを築くために透明性と説明可能性を尊重するという約束である。
IBMが発表した「AIに対するピンポイントの規制」に関する見解では、個別のテクノロジーと、それが人々に及ぼす影響を慎重に検討したうえで、リスクの高い利用方法に限って規制の対象にすべきだと提唱している。
(3)信頼できるパートナーと協働する
IBMはこれまで、AIに関する倫理を向上させることを目的に、社外のパートナーとともに、複数の利害関係者が加わる取り組みにいくつも参画してきた。
2020年2月にはいち早く、ローマ教皇庁の「AI倫理に関するローマの呼びかけ」に署名した。この呼びかけでは、ローマ教皇庁などと足並みをそろえて、これまでよりも人間中心のAIを実現させるべきだと訴えた。具体的には、社会的弱者への配慮など、人間の核を成す価値観に沿ったAIをつくり出すことを目指すものとした。
IBMは最近、欧州委員会の「AIに関するハイレベル専門家グループ(AI HLE G)」にも加わった。これは、欧州において信頼性のあるAIの倫理指針づくりを目的に設置された専門家グループである。同グループでつくった指針は、いま欧州だけでなく、それ以外の地域でも、AIに関する規制や基準を策定する際の手引きとして幅広く用いられている。
(4)AIの信頼性を高める土台づくりに寄与するために、オープンソースのツールを提供する
IBMでは、AIに関する原則、ポリシー、ガバナンス、協働に加えて、AIの信頼性を高めるという難題を解決するために役立つ実践的なツールを開発・公開することにも力を入れてきた。
2018年、IBM基礎研究所(IBMリサーチ)は、「AIフェアネス360(AIF360)」というオープンソースのツールキットをリリースした。これは、システム開発者がAIのバイアスを検知・是正するのに役立つ最先端のコードとデータを共有するためのものだ。
このツールキットは、開発者コミュニティ内での協力を促進し、さまざまなバイアスについて話し合い、AIのバイアスを検知・緩和するためのベストプラクティスの普及を推し進める手段にもなる。
AIF360のリリース以降も、IBM基礎研究所は、AIにおける信頼性の定義・測定・改善のためのツールをいくつも送り出してきた。
AIの説明可能性(エクスプレイナビリティ)に関する理解とイノベーションを促進することを目的とするツールの「AIエクスプレイナビリティ360(AIX360)」、AIの強靭性(ロバストネス)を高めるために役立つツールを提供する「アドバーサリアル・ロバストネス・ツールボックス(ART)」、AIのライフサイクルをエンド・トゥ・エンドで管理する際の透明性向上を目指す「AIファクトシート」などである。