生成AIに潜む危険性とは
話の切り口として、HAL9000の話をしましたが、大前提として、現在の生成AIには、HAL9000のような高度な知性は存在しません。あくまで学習済みのデータをベースとして、ユーザーのインプットから、予測したアウトプットを生み出すだけです。学習データの中から普遍的なパターン、法則をメタ学習することができ、人間では生み出せないような未知なる回答を自然言語で出力できることから、まるで人工的な意思を持っているような錯覚を受けるかもしれないですが、あくまでアウトプットを予測しているにすぎません。しかしながら、生成AIはいくつかのリスクを抱えています。生成AIがこれから日本だけでなく、世界全体で活用されていくことを考えると、HAL9000以上に大きな問題を引き起こす可能性があります。
偏見の助長
「AIに偏見はあるのか?」と思われる方もいるかもしれないですが、それは当たり前のように起こりえます。私たち自身も、親の思考や価値観、学校では教師から影響を受け、それ以外の場所でもインターネットや、テレビ・雑誌といったメディアから、無意識にその影響を受けています。それはAIも同じであり、学習に利用するデータ自体に偏見を生み出すような情報が含まれている場合、AIは人間と同じように偏見を獲得してしまう危険性があります。そして、偏見を持つ生成AIから知見を得た人間はどうなるでしょうか。偏見がAIから人へと伝播していき、さらにそれは大きく広がっていきます。難しいのは「偏見」というのは定義が難しく、時代によって変わっていく不変的な情報でもあります。これをAIが獲得するのは非常に難しい問題と言われています。
誤情報の拡散
昨今の生成AIが優れているポイントは、学習したデータに沿った回答だけでなく、学習したデータの中から法則性を獲得できるところです。学習データに沿った回答しかできない状態を「過学習」と言いますが、生成AIは過学習が起こらないような調整が行われています。それこそが、存在しない情報の生成、幻覚(ハルシネーション)を生み出す原因となります。生成AIは、そのように存在しない創作された情報をまるで事実であるかのように出力する危険性があります。インターネットが登場して以降、誤情報による問題は後を絶ちません。生成AIによって、さらにそれが加速していく可能性があります。
機密情報の漏洩
生成AIの活用が進んでくると、多種多様な情報が生成AIに取り込まれていく可能性があります。AIに関するリテラシーは人それぞれであり、もしかすると、非常に個人的な内容についても無意識にインプットしてしまう危険性もあります。また、大規模言語モデルは Google Bard のエンジンである PaLM2 、ChatGPTのGPT-4だけではなく、オープンソース化されているものも存在するため、今後普及が進んでいくと情報が悪用されるケースも出てくるかもしれません。ただし、前提として、生成AIの提供元である企業には社会的な責任が問われており、学習で利用するデータの取り扱いは利用規約で明文化されています。利用する場合は、利用規約を確認し、どのように個人情報が取り扱われているのか、それを防ぐ手段があるのかを確認する必要があります。
前提となる Google のAI提供元としての基本理念
2023年4月、主要7ヶ国(G7)によるデジタル技術相会合で、「責任あるAIの推進」が共同声明に明記されたことからもわかる通り、世界基準でAIを安全に運用する取り組みが進んでいます。しかし、 Google はG7の共同声明以前から、AI原則を掲げ、社会的に意義のある安全なAIの開発に取り組んできました。 Google が掲げるAI原則には7つの基本理念が存在しますが、今回はその中から今回のテーマに沿った5つの理念について説明します。
①社会にとって有益である
AI技術の進歩は、社会と経済に深遠な影響を及ぼしています。 Google は、AIを用いて私たちの生活を劇的に変化させようとしており、医療からエンターテイメントまで多岐にわたる分野で、Google のAIは大きな期待を背負っています。医療分野では、早期診断や治療の提供を目指し、健康状態の改善に貢献。セキュリティ分野では、脅威の早期発見と即座の対応を可能にします。また、エネルギー管理や交通、製造業においても、AIは効率の改善とコスト削減につながります。しかし、この技術革新がもたらす利点とともに、社会的・倫理的問題も生じます。プライバシーやセキュリティ、公平性、透明性などの観点から、AIの適切な使用と規制が必要です。Google は、各国の文化的、社会的、法的規範を尊重しながら、AIの最大の可能性と最小のリスクを追求することを目指しています。
②不公平なバイアスの発生、助長を防ぐ
AIのアルゴリズムとデータセットは、バイアスを反映・強化したり、または緩和したりする可能性があります。これが公平か不公平かの判断は難しいですが、人種、性別、国籍などのデリケートなテーマについて、AIが不適切な影響を与えないよう努力が求められます。Google は倫理的配慮と透明性を重視し、公平なAI社会を目指しています。
③安全性確保を念頭においた開発と試験
Google は、予期せぬ害を未然に防ぐために、安全性とセキュリティ対策の強化に注力しています。これは、自社のAIシステムにおける厳密な慎重性の維持と、AIセーフティ研究の最新のベストプラクティスの実装を通じて行われます。さらに、適切な場合には、AI技術は制御された環境下でテストされます。これにより、問題が発生した場合でも迅速に対処できるようになります。また、運用開始後もAIの動作は定期的にモニタリングされ、安全性と効果性が維持されるようにします。このように、Google はAI技術の安全性とセキュリティを最優先に置き、ユーザーの信頼と満足度を高めるために全力を尽くしています。
④人々への説明責任
Google はAIシステムの設計において、ユーザーがフィードバックを提供したり、必要な説明を求めたり、異議を申し立てたりできるように配慮しています。この取り組みは、AIがユーザーの生活を向上させ、社会全体に利益をもたらす手段として有効に機能することを目指しています。その核心には、人間が中心となる考え方があります。すなわち、Google のAI技術は、人間による適切な指導と管理の下で行動するよう設計されています。これにより、Google はAIと人間が協働して、より良い未来を創り出すための基盤を確立しています。
⑤プライバシー・デザイン原則の適用
Google はAI技術の開発と利用において、自社のプライバシー原則を厳格に適用しています。ユーザーにプライバシーに関する通知を提供し、それに対する同意を得ることを優先しています。さらに、プライバシー保護が組み込まれたアーキテクチャを推奨し、データ利用に関して適切な透明性とコントロールを提供することで、ユーザーのプライバシーを尊重します。これらの取り組みにより、Google はAI技術がユーザーのプライバシーを侵害することなく、有効に機能するよう努力しています。これがGoogle が追求する、信頼されるAI社会のビジョンです。
Google Bard は生成AIのリスクにどう対処しているのか
稀に「 Google Bard は回答してくれないことがある」という意見を聞きますが、むしろ「回答しない」という部分に Google の考え方、技術力が反映されていると思います。要は、前述した通り、生成AIは性質上、「幻覚(ハルシネーション)」を生み出してしまう危険性があるからです。なんでも答えてくれるので「精度が高い」とは言い切ることができず、この部分のチューニングこそが、AIの提供元が最も注意が必要なポイントだと言えます。未知なる回答を生み出すことができる性能を「汎化性能」と言いますが、この性能を向上させること、つまり精度を評価することは非常に難しく、AIの提供元が競合優位性を確保するためにリリースを急ぐことは、社会にとって大きなリスクになる可能性があります。 Google は前述した基本理念をベースにかなり慎重にAIの開発を進めているように見えます。
Google は人間のフィードバックを重要視している
Google は、生成AIのアウトプットの正確性と倫理観を改善するために、教師あり学習、つまり「具体的な模範となるデータ」によって生成AIをチューニングしていますが、それに加えて、人間のフィードバックを重要視しています。
Google は長年にわたるAIの研究の中で、実用的なAIを開発するためには、最終的には人間の判断が重要であることを学んだと言えます。しかし、この事実は、現在のAIの限界を示しているとも言えます。
複数の可能性を提示する
Google は生成AIが出力するアウトプットが必ずしも正しいものではないことを、機能として示しています。ChatGPTには、複数の回答を提示する機能はなく、これは Google Bard 独自の機能であると言えます。 Google が利用者に対して、複数の回答を提示するのは、「本当にこの情報が正しいものなのか」情報の正確性に対して、利用者自身に立ち止まって考えさせることを意図しているのかもしれません。生成AIが生み出すアウトプットは、「正解」ではなく、「一つの選択肢」であることを機能が示しています。
まとめ
日本では、生成AIの利便性、活用方法に関する関心が高いと感じますが、海外では、人権問題が重視され、「どう安全に生成AIを運用していくか」に関する関心が高いように感じます。もちろん、国によって、考え方は様々であり、欧米でも、考え方に隔たりがあります。その背景には、生成AIを推進するビッグテックが米国に集中してしまっていることから制限をかけ、自国の産業を守りたいという思惑もあるのかもしれません。ただ、国によって関心のあるトピック、思惑に違いはあるとはいえ、国レベルでは「安全にAIを運用していく」という方針は一致しています。今後は、「人間が安全にAIを運用していく」という規制が強くなっていくことが想定され、その中で、「どう活用していくか」を考えていく必要がありそうです。