生成AIではどのような情報漏洩が発生する? リスクへの対策も解説
生成AIは、簡単な指示でテキストなどのコンテンツを生成する便利なサービスですが、情報漏洩のリスクも問題視されています。従業員が入力した機密情報や個人情報が漏洩する可能性はないのか、懸念を抱いている企業も少なくないのではないでしょうか。
本記事では、生成AIで情報漏洩が発生するパターンや、生成AIに対する各国の規制、情報漏洩リスクへの対策について解説します。
生成AIで情報漏洩が発生するパターン
生成AIで情報漏洩が発生するリスクは否定できません。一般的に、生成AIのサービスを提供している事業者は利用者に損害を発生させないように様々なセキュリティ対策を講じています。しかし、実際に情報漏洩が発生してしまったケースもあるため、注意が必要です。
生成AIで情報漏洩が発生する主なパターンとしては、下記の2点が挙げられます。
学習機能により入力した情報が第三者への回答に活用される
生成AIでは、学習機能により入力した情報が、第三者への回答に活用される可能性があります。生成AIは、ユーザーからの入力内容を学習して、回答の参考にしています。例えば、機密情報を入力した場合、その情報を学習したAIが、ほかのユーザーからの指示に対して機密情報を含んだ回答を行うリスクもあるのです。
そもそも、生成AIに入力した内容が生成AIのデータベースに保管され、利用されること自体も情報漏洩のひとつのパターンといえます。最悪のケースでは、入力したデータが保存された外部サーバーが攻撃を受け、悪意のある第三者の手に渡ってしまう可能性もあります。
例えばサムスン電子は、従業員が生成AIの代表的なサービスであるChatGPTを利用した際、ソースコードや社内会議の内容を入力したことを問題視して、社内でのChatGPTの使用を禁止しました。生成AIのサーバーに保存されただけでは損害は発生しないかもしれませんが、重要な情報がコントロールできない状態で外部に保存されているだけで、情報漏洩だと考えることもできます。
技術的なバグで入力内容が流出する
生成AIでは、技術的なバグが情報漏洩を引き起こすパターンもあります。例えばChatGPTでは、バグによってユーザーのチャット履歴のタイトルがほかのユーザーに表示される事態が発生しました。このケースで漏洩したのはタイトルだけで、入力した本文の内容は表示されなかったようですが、バグによって入力内容などの情報が漏洩してしまう可能性は否定できません。
生成AIに対する各国の規制
生成AIは便利なサービスですが、情報漏洩などのリスクもあるため、利用方法などに関する規制を設ける国・地域もあります。アメリカ、EU、中国では、下記のように規制の動きが進んでいます。
アメリカ
アメリカでは、2023年10月に、大統領がAIの安全性に関する大統領令に署名しました。この大統領令では、AIサービスを運営する企業に対して安全性テストの結果を提出させることや、AIで使用されるプライバシー保護の技術のガイドラインを当局が作成することなどが定められています。
また、カリフォルニア州などの州レベルでも、適切なセキュリティ対策を要求する動きが出てきています。
EU
EUでは、2024年3月に、包括的なAI規制法案が議会で可決されました。この法案では、企業が採用などでAIによる判断を利用するケースなどの規制に加えて、生成AIに関する規制も導入されています。生成AIに関する規制としては、例えば、生成AIが作成したコンテンツについてAIが作成した事実を明示することなどを義務づけ、違反した場合には罰則も設けられています。
中国
中国では、2023年7月に、「生成式人工知能サービス管理暫行弁法」と呼ばれる生成AIに関する規制が公布されました。この規制には、知的財産権・肖像権・プライバシーの侵害の禁止や、虚偽情報の流布の禁止といった内容が含まれています。一方で、生成AIの活用を奨励する内容も盛り込まれていて、規制と促進のバランスを取る姿勢が見られます。
生成AIの情報漏洩リスクへの対策
生成AIの情報漏洩のリスクはゼロではないため、企業が生成AIを利用する場合は、適切な対策が必要です。主な対策としては、下記の4点が考えられます。
利用ルールの明確化
生成AIの安全な利用を保証するためには、利用ルールを明確に設定することが必要です。例えば、下記のようなルールを設けることを検討しましょう。
- 生成AIの利用ルールの例
-
- 機密情報や個人情報などを入力させない
- 利用できる業務範囲を設定する
- アクセス可能なアカウントを限定する
生成AIに機密情報や個人情報などを入力しないようにすれば、生成AIからそれらの情報が漏洩することはありません。また、生成AIが利用できる業務を、機密情報や個人情報の取り扱いがない業務に限定することや、生成AIを業務で利用できるアカウントを限定して、利用をコントロールする方法も考えられます。
場合によっては、生成AIの利用自体を禁止するルールを設けることも選択肢のひとつとなります。
API連携の利用
情報漏洩を防ぐための効果的な手段として挙げられるのが、API(Application Programming Interface)連携の利用です。APIとは、アプリケーション同士を連携するインターフェイスのことで、生成AIを自社のアプリケーションと連携させれば、APIを介して生成AIのサービスと通信を行うようになります。
この方法により、生成AIに入力内容が学習されなくなるため、情報漏洩を防ぐことができます。
入力内容を学習しない設定の導入
生成AIの中には、入力内容を学習しないように設定できるサービスがあり、この設定を利用することで、入力されたデータが漏洩するリスクを下げられます。ただし、過去の入力内容を基に回答を最適化する生成AIの機能も利用できなくなる点や、入力内容と回答内容の履歴を確認できなくなる点には注意が必要です。
入力内容を学習しないプランの利用
入力内容を学習しない設定が適用されるプランを活用することも、情報漏洩対策のひとつの方法です。例えば、ChatGPTでは組織向けの有料プランとして、「ChatGPT Team」や「ChatGPT Enterprise」といったプランを提供しています。これらのサービスでは、入力内容がAIの学習に利用されないことが明示されています。
生成AIからの情報漏洩防止のために、ツール導入も検討しよう
生成AIは便利ですが、情報漏洩のリスクはゼロではありません。リスクに対処するには、適切なセキュリティ対策が不可欠です。業務での利用を認める場合は、社内ルールを明確にして、API連携などのAIによる学習を防ぐ仕組みを導入しましょう。
情報漏洩の対策には、専用ツールの導入も効果的です。情報漏洩対策ツールのひとつである「MaLion」シリーズはWebアップロード監視機能を持ち、生成AIのひとつであるChatGPTの利用があった場合に、利用者、利用時間、利用端末、入力内容といった情報を詳細に確認できます。ChatGPTからの回答内容は取得できませんが、入力内容による情報漏洩リスクを管理できます。
ほかにも、個人情報ファイル制御や送受信メールの監視といった機能もあります。網羅的な情報漏洩対策を導入したい場合は、ぜひ「MaLion」シリーズをご検討ください。