AI活用において
迫る倫理面の懸念
「組織はいかにAI(人工知能)を活用できるか(そして活用すべきか)」というのは新しい問いではないが、チャットGPTやミッドジャーニーのような生成AIの登場を受けて、答えを見つけるべき緊急性は急激に高まっており、また利害も急増している。至るところで「AIツールを活用してパフォーマンスを押し上げるには、どうすればよいか」という問いが持ち上がっている。
オープンAI、マイクロソフト、エヌビディアによってもたらされたAIの威力、そして市場での競争圧力を受けて、組織は必然的に、機械学習や大規模言語モデル(LLM)など実に多くの事柄に関して、オペレーション面や倫理面の配慮を求められている。ただ、多くのリーダーがオペレーション面の課題やディスラプションに重点を置いているのに対し、倫理面についての懸念は、控えめに言っても切迫している。技術ケイパビリティが規制に追いつかず、AIをめぐる状況が急展開する中、AIツールの安全かつ倫理的な活用を請け合うのは企業の責務である。
筆者は、職業、テクノロジー、組織が交差する領域を研究する中で、リーダー層はどのようにデジタルマインドセットを育むことができるのか、偏向したLLMの危険性は何かを、掘り下げてきた[注1]。また、組織によるテクノロジー利用のベストプラクティスを特定し、AI実装の倫理性を担保するための重要なイシューを詳しく論じてきた[注2]。