フェイスブックはどうすればよいのか

 筆者は戦略論の教授として、たいていの人よりもフェイスブックに同情的なほうだろう。同社は人々をつなげるという戦略を持ち、膨大な価値を生んできたが、その戦略はいまや同社に多くのトラブルをもたらしている。あらゆる面で困難なトレードオフを伴う。

 筆者の見解では、明白な解決策はないものの、フェイスブックが並行的に追求できる3つの大まかな道筋がある。

 ・トレードオフについて透明な形で伝える

 過去にフェイスブックは責任を示す取り組みとして、自社が引き起こす問題への解決策を持っていると示唆したが、現時点ではそのようには見えない。

 1つの道筋として、SNSの使用に伴う根本的なトレードオフについて、透明性を高めることができる。人々をつなげることの価値を擁護する継続的な主張と併せて、具体的な問題、たとえば身体イメージとインスタグラムをめぐる事象などを記録した調査・研究を公表するとよい。

 こうした知見は規制当局の参考にもなり、業界にとって望ましい方向へと規制を導くための有利な立場をフェイスブックにもたらす。また、欧州のGDPR(一般データ保護規則)のような高くつくコンプライアンス要件を強いる規制は、フェイスブックを含む既存企業を守る参入障壁となりうる。

 ・モデレーションを大幅に強化する

 すべてのコンテンツに対して包括的なモデレーション(不適切な内容の監視、選別、管理)を行うために、フェイスブックはアルゴリズムによる不適切なコンテンツの検出を最先端でリードし続けると同時に、人間のモデレーターの数を桁違いに(または何倍も)増やす必要がある。2020年時点で、同社は1万5000人のモデレーターを擁し、各人が1日数百件のコンテンツに目を通しているが、さらに多くの人数が必要だ

 この取り組みには何十億ドルもかかるだろう。そして、コストよりもさらに悩ましいと思われるが、どのコンテンツを禁止するかをフェイスブック側が決めなくてはならない。それをキュレーションと解釈する人もいれば、検閲と捉える人もいるだろう。しかし、暗号化されたワッツアップやメッセンジャーでのコミュニケーションを通じて流れるコンテンツに関しては、モデレーションに注力してもあまり対処できない。

 ・適切な形で責任を負う

 フェイスブックに必要なのは、自社のプラットフォームにおけるどの要素に責任を負いたいのか、また負えるのかに関する明確な境界線を設けること、そしてその他の部分は、政府と独立機関とユーザーにしっかり責任を委ねることだ。

 アルゴリズム由来のつながりに関しては、往々にしてプロセスがブラックボックス化されており、この技術はフェイスブックの中核的な知的財産でもあるため、外部に責任を委譲するのは非現実的だ。したがって、そのアルゴリズムがどんなつながりを促進するかについては、同社が責任を持つ態勢を整える必要がある。

 一方、不適切なコンテンツへのユーザー由来のつながりに関しては、フェイスブックは責任の所在を明らかにしていない。半独立の監視委員会を通じて同社は責任を外部に委ねる方向に向かっているが、いまだに逃げ腰かつ不完全だ。

 委員会は、コンテンツに対するフェイスブックの決定を事後的に、ユーザーからの不服申し立てがあった場合にのみ審査する。そして資金面でフェイスブックに依存し、組織が小さすぎて大規模な運営ができない。

 今後、フェイスブックは3つの方法を取ることが可能だ。自社のモデレーションの取り組みを大幅に強化し、誠実に責任を負う。公式かつ確実に、責任を外部機関に委ねる。または、人々を自由に、望まれるがままにつなげるという元来のミッションを貫いて奮闘することで、責任を個々のユーザーの手に委ねる。

 現在のフェイスブックは、この3つすべてを曖昧な形で実行し、最終的に誰も責任を負っていない。