AIの使用と能力を規制する
悪人が外部のソフトウェアをハッキングするためにAIを活用する
報道によればチャットGPTは、政治色の濃い質問を特定して答えを避けるための措置を講じたという。とはいえ、もしもAIがハッキングされ、客観的なように見えるけれども、実は巧妙に隠されたバイアスや偏見を伴う情報を提供するように不正操作された場合、そのAIは危険なプロパガンダ製造機となりうる。
不正アクセスを受けて誤情報を広めるチャットGPTの能力は懸念を招き、高度なAIツールとオープンAIのような企業に対する政府の監視強化を余儀なくさせるかもしれない。
バイデン政権は2022年10月に「AI権利章典の青写真」を発表したが、チャットGPTの登場によってリスクはかつてなく高まっている。この青写真を踏まえ、オープンAIをはじめ生成AI製品を売り出す企業に対し、ハッキングを受けるリスクを減らすために自社のセキュリティ対策を定期的に見直すよう、徹底させるための監視が必要だ。
加えて、新たなAIモデルには、オープンソース化の前に最低限果たすべきセキュリティ対策の基準を義務づけるべきである。ビング(Bing)は独自の生成AIを2023年3月初旬に搭載し、メタ・プラットフォームズも独自の強力なツールの構築が最終段階を迎えた。ほかのテック大手からのリリースも続く予定だ。
チャットGPTの可能性と成長する生成AI市場について、人々が驚嘆し、サイバーセキュリティの専門家が熟考する中、このテクノロジーが手に負えなくなるのを防ぐためには、抑制と均衡が欠かせない。
サイバーセキュリティを担うリーダーは、従業員に再訓練し、装備を整え、政府は規制面でより大きな役割を果たすべきである。だがそれだけでなく、AIに対する私たちの考え方と態度を全面的に変える必要がある。
AIの根本的な基盤、特にチャットGPTのようなオープンソースの基盤はどうあるべきかを、私たちは再考しなくてはならない。AIツールが一般の人々の間で利用可能になる前に、その機能が倫理的かどうかを開発者は自問する必要がある。
新しいツールは、不正操作を確実に禁じる根本的な「プログラミングの核」を備えているだろうか。それを義務づける基準を、どう確立すべきだろうか。その基準を守れない開発者に、どのように責任を取らせればよいだろうか。
エドテック、ブロックチェーン、デジタルウォレットといった異なるテクノロジー間でのやり取りを安全かつ倫理的に行うため、中立的な基準が組織には導入されている。同様の原則を、生成AIにも適用することが不可欠だ。
チャットGPTをめぐる議論は最高潮に達しているが、テクノロジーリーダーは、自身のチーム、会社、そして社会全体にとってこのテクノロジーの発展が何を意味するのかを考える必要がある。そうしなければ、ビジネス成果の向上に向けた生成AIの導入と実装で、競合他社に後れを取るだけでは済まない。このテクノロジーをすでに個人的利益のために不正操作できる、次世代のハッカーを想定して防ぐことにも失敗するだろう。
レピュテーションと収益に関わるこの問題を前に、産業界は一丸となって適切な防御を整え、チャットGPT革命を恐怖の対象ではなく、歓迎すべきものにしなくてはならない。
"The New Risks ChatGPT Poses to Cybersecurity," HBR.org, April 21, 2023.