人間に関するデータを倫理的に取り扱っているか
データを符号化、保管、分析、共有する能力を備えた企業には、大きな機会がもたらされる。それこそが、経済の見通しが不確実な状況でさえ、各社がAI(人工知能)に熱心に投資する理由だ。どの顧客が、どのような製品を、いつ購入する可能性があるか。どの企業が前進あるいは後退しそうか。市場や経済全体で、商業的な優位性あるいは脅威がどのように生まれるか。データとアナリティクスは、これらの問いや他の多くの問いを抱える企業に対して、より的確な情報に基づく確度の高い答えを提供してくれる。
ただし、データの需要があるところには、不正利用への扉が開かれる。過去数年の間に、EU一般データ保護規則(GDPR)違反が理由で企業に制裁金が科された件数は1400を超え、その総額は30億ユーロに迫る。2018年に発覚したケンブリッジ・アナリティカの不祥事だけで、フェイスブックの360億ドル分の市場価値が吹き飛び、親会社のメタ・プラットフォームズに60億ドル近くの罰金が科されるという結果を招いた。
AI主導で、採用活動、与信審査、病気の診断、さらには犯罪の量刑判断を進めたところ、女性やマイノリティへの差別につながったという話は枚挙にいとまがなく、データの収集、活用、分析の方法をめぐる不安がかき立てられている。ましてや、チャットGPT、Bing AI、GPT-4など、開発者やユーザーからデータを与えられ「知能」を獲得するチャットボットの使用ともなれば、そのような恐怖は膨らむばかりだろう。チャットボットが知能を発揮して、恐ろしいことをしでかすかもしれない。Bingのチャットボットはあるやり取りの中で、対話者の人間より自身の生存を優先するとまで言った。