「生成AIを使いたいが、情報漏洩のリスクが懸念…」
「生成AIの情報漏洩を防ぐために、実施すべきセキュリティ対策は?」
生成AIの活用は新事業の創出や生産性向上が期待されていますが、同時に情報漏洩のリスクも懸念されています。生成AIの便利な機能を最大限に活用するには、適切な対策を講じてリスクを最小限に抑えることが重要です。
本記事では、生成AIによる情報漏洩について以下の内容を解説します。
- 生成AIによる情報漏洩のリスクと事例
- 情報漏洩が起こる要因
- 最新の活用動向とセキュリティの考え方
- 効果的な情報漏洩対策
本記事を読むことで、生成AIの情報漏洩リスクを低減しつつ、効果的に活用するポイントがわかるでしょう。企業で生成AI導入を検討している方や、セキュリティを強化したい方は、ぜひご一読ください。
生成AI活用にお悩みの企業さま、必見!
生成AIを取り入れて効率化を図りたいが、色々とリスクが気になる
生成AIは日々の業務効率化だけでなく、セキュリティ対策に取り入れることも非常に有効です。特に人手が必要な取り組みに活用することで、その効果は絶大です。生成AIを使った脆弱性診断の自動化は、こちらからご覧ください。
生成AIによる情報漏洩のリスク
現代のビジネス社会において、生成AIの活用は欠かせないものとなってきています。しかし、情報漏洩リスクがあることも見過ごせません。実際に報告された生成AIの主な情報漏洩事例や想定されるリスクは、以下の3つです。
- ChatGPT|第三者への情報流出
- Gemini|脆弱性による不正操作
- Copilot|機密情報への容易なアクセス
実際に起きた事例を学ぶことで、生成AIを安全に利用するためのセキュリティ対策を考える手がかりを得られるでしょう。
ChatGPT|第三者への情報流出
2023年3月、chatGPTでプログラムコードが外部に流出するインシデントが発生しました。韓国の大手電子機器メーカーに勤める従業員が製品のソースコードを修正する際、ChatGPTに依頼したのが原因とのことです。
一般的に、生成AIサービス(特に無償版やデフォルト設定の場合)は、ユーザーとの対話内容を自社のモデルの学習に利用することがあります。そのため、AIへの指示文であるプロンプトに企業の機密情報が含まれていると、その情報が学習データとして取り込まれ、将来的にほかのユーザーへの応答に影響を与えたり、間接的に情報が流出するリスクがあります。
Gemini|脆弱性による不正操作
2024年3月、アメリカのAIセキュリティ研究チームHiddenLayerが、Geminiの脆弱性を発見しました。この脆弱性を悪用すると、攻撃者がGeminiを不正に操作し、内部情報を引き出す可能性があります。
問題となったのは、Geminiの動作を制御するシステムプロンプトです。通常、Geminiはシステムプロンプトに関する質問には応答しないよう設計されています。しかし、質問の仕方を工夫することで、秘匿情報を含むプロンプトの内容が明かされてしまいました。
この脆弱性が悪用された場合、Gemini APIを利用している企業は、社外秘情報を含むプロンプトが流出するリスクに直面する可能性がありました。
Copilot|機密情報への容易なアクセス
Microsoft Copilotは、Microsoft 365アプリと連携し、業務効率を大幅に向上させる強力なツールです。しかし、多くの社内情報にアクセスできることから、情報漏洩のリスクが高いとも言えます。
Copilotはユーザーの権限に基づいて情報にアクセスし、回答を生成する仕組みです。アクセス可能であればすべての情報を表示できることから、適切な権限設定がなされていない場合、意図せず機密データにアクセスできてしまう可能性があります。
また、Copilotには情報の重要度を判断する能力がないため、本来表示すべきでない情報が露出してしまう可能性も。例えば、社内で作成した作業用のデータは、一時的な利用だからと適切な権限設定をせずに作成されることが多いのではないでしょうか。それらに重要な情報が含まれていると、情報漏洩のリスクが高まります。さらに、悪意のある者に不正利用されると、大規模な情報漏洩につながるおそれもあります。
生成AIで情報漏洩が起こる要因
生成AIの利用によって情報漏洩が発生する要因は、主に以下の4つです。
- 入力データの学習
- データベースへの不正アクセス
- 生成AIに潜むバグ
- 生成AIを悪用したサイバー攻撃
要因をしっかり理解し、どのような対策を講じるべきか検討しましょう。
入力データの学習
生成AIは過去に入力されたデータをもとに回答を生成するため、ユーザーが意図せず入力した情報が、他のユーザーへの応答に転用される可能性があります。
例えば、会議の議事録作成に生成AIを利用した場合、参加者の発言に含まれる機密情報がAIの学習データとして取り込まれるおそれがあります。さらに、データが保存されているサーバーが攻撃を受けると、機密情報が攻撃者の手に渡る危険性も否定できません。
データへの不正アクセス
生成AIサービスの多くはクラウド上で運用されており、ユーザーが入力したデータはインターネット上のデータベースに保管されます。クラウド上の管理は便利ですが、セキュリティ対策が不十分な生成AIサービスを利用した場合、不正アクセスによる情報漏洩のリスクがあるでしょう。悪意ある第三者がデータベースに侵入すれば、個人のプライバシー情報や企業の機密情報が流出する可能性があります。
生成AIに潜むバグ
生成AIの急速な発展と普及に伴い、システムに潜むバグによる情報漏洩リスクも課題となっています。バグはAIの開発過程や運用中に予期せず発生し、情報セキュリティの問題を引き起こすおそれがあります。
過去には、ChatGPTでユーザーのチャット履歴のタイトルが別のユーザーに表示されるインシデントが発生しました。意図しない情報の露出や不正アクセスの原因となり、個人情報や企業の機密情報を危険にさらす可能性があります。
生成AIを悪用したサイバー攻撃
生成AIの進化は、サイバー攻撃の手法にも大きな影響を与えています。攻撃者はAIの能力を悪用し、より巧妙な攻撃手段を編み出しているのです。
例えば、生成AIを使用して、ターゲットに合わせたフィッシングメールを作成することが可能になりました。さらに、リンク先や添付ファイルに仕込む攻撃コードの自動生成も行われています。実在する企業を装った偽メールを送信し、精巧に作られた偽サイトへ誘導する手口も報告されています。サイバー攻撃による個人情報やクレジットカード情報などの漏洩は、今後も増加すると考えられるでしょう。
生成AIを悪用したサイバー攻撃の高度化に伴い、企業に求められるセキュリティ対策も進化が必要です。従来の対策では不十分であり、AI技術を取り入れた新たな防御策の導入が急務となっています。人手に頼らない自動化された対策が、今後のセキュリティ対策の鍵となるでしょう。
生成AI活用の動向とセキュリティ
生成AIの活用は急速に広がっており、ビジネスにおける重要性が増しています。生成AI活用におけるセキュリティは単なるリスク回避策ではなく、AI技術を通じて企業の付加価値を向上させ、ビジネス機会を拡大するための重要な要素です。
企業は、生成AIの活用とセキュリティのバランスを取りながら、安全かつ効果的な利用方法を模索していく必要があります。
近年の活用動向
これまで見てきたように、生成AIの入力データを学習する仕様やバグなどにより、情報漏洩のインシデントが多々発生しています。一方で、生成AIをビジネスで活用するケースは年々増加しています。
2024年に実施された日本経済新聞の調査によると、仕事で生成AIを利用している人の割合は44%に達し、前年の18%から大幅に増加しました。また、生成AIの使用経験がある人は全体の64%と、前回調査の30%から2倍以上に膨らんでいます。

この調査結果は、生成AIが現代のビジネス環境において不可欠なツールとなりつつあることを示しています。企業が競争力を維持し、効率的な業務運営を行うためには、生成AIの導入が避けられないでしょう。
生成AI活用におけるセキュリティの考え方
生成AIの急速な普及を受け、2024年4月に総務省・経済産業省が「AI事業者ガイドライン」を発表しました。ガイドラインでは、AIシステムの開発・提供・利用において、セキュリティの確保が極めて重要であると強調しています。
ガイドラインが示している具体的な内容は以下のとおりです。
①AIシステム・サービスに影響するセキュリティ対策
・AIシステム・サービスの機密性・完全性・可用性を維持する
・AI活用時点での技術水準に照らし、常に合理的な対策を講じる
・AIシステム・サービスの正常な稼働に必要なシステム間の接続が適切かを検討する
・AIシステム・サービスの脆弱性は、完全に排除できないことを認識する
②最新動向への留意
・AIシステム・サービスへのサイバー攻撃は日々進化しているため、新たな手法に対応するための留意事項を確認する

また、AI開発者・提供者・利用者が特に留意すべき点も挙げています。
共通の指針 | 「共通の指針」に加えて主体毎に重要となる事項 | ||
AI開発者 | AI提供者 | AI利用者 | |
①AIシステム・サービスに影響するセキュリティ対策 ②最新動向への留意 |
|
|
|

生成AIを業務に活用する利用者は、ガイドラインに従ってセキュリティ対策を実施する必要があります。AI利用者に求められる主な対策は、以下のとおりです。
AI提供者が設計において想定した範囲内でAIシステム・サービスを利用するAIシステム・サービスへ個人情報を不適切に入力することがないよう注意を払うAI提供者が定めたサービス規約を遵守する |
ガイドラインを適切に活用できれば、業務効率化や生産性の向上、創造性が必要な仕事へのリソース投入など、AIがもたらすイノベーションの恩恵を最大限に享受できるでしょう。また、人間の判断を適切に介在させれば、予期せぬインシデントやトラブルを未然に防げます。
生成AIによる情報漏洩を防ぐための5つの対策
生成AIを活用するうえで、情報漏洩リスクへのセキュリティ対策は不可欠です。以下の対策を実施することで、リスクを最小限に抑え、安全な運用を実現できます。
- 社内ルールを明確にする
- 機密情報をプロンプトに入力しない
- 入力データを学習しない設定にする
- 生成AIの安全な活用方法を周知する
- セキュリティに配慮した生成AI活用ツールを導入する
いずれの対策も情報漏洩リスクの軽減には欠かせないものです。常にセキュリティ意識を持ち、生成AIを最大限に活用していきましょう。
1.社内ルールを明確にする
生成AIの安全な利用には、明確な社内ルールの策定とその徹底が不可欠です。適切なガイドラインを設けて従業員に周知すれば、情報漏洩リスクを軽減できます。
まず、入力可能な情報の範囲や機密情報の取り扱い方法を明記した、生成AIの利用ガイドラインを作成しましょう。単なる禁止事項の列挙ではなく、実際に起こった情報漏洩の事例紹介など、ルール順守の重要性を実感できる内容にすると効果的です。さらに、定期的な情報のアップデートを行い、常に最新の脅威に対応できる体制を整えましょう。
2.機密情報をプロンプトに入力しない
生成AIサービスによっては、プロンプトに入力された情報がモデルの学習に利用される可能性があります。そのため、機密情報をプロンプトに入力すれば、組織外への情報漏洩に直結する危険性があります。
情報漏洩を防ぐには、機密情報を決してプロンプトに入力しないのが重要です。顧客情報や社外秘の情報などは、生成AIの利用時に厳重に管理する必要があります。プロンプトへの入力を禁止する情報リストを作成し、従業員に周知・徹底するのが効果的です。
3.入力データを学習しない設定にする
生成AIの情報漏洩リスクを軽減するには、入力データを学習しない設定を行うのが有効です。
例えば、ChatGPTではユーザーのチャット履歴を残さない設定が可能です。この設定を有効にすれば、プロンプトに機密情報を含めても、原則として別のユーザーへの回答に転用されるリスクをなくせます。ただし、提供元のポリシーにより、不正利用監視などの目的で一時的にデータが保存される場合がある点には留意が必要です。安全性を最大限に高めるには、機密情報を含むプロンプトの使用を避けるべきでしょう。
また、生成AIが入力内容を学習しないAPI連携の活用も効果的です。APIを介して生成AIと自社のアプリケーションを連携させれば、より安全に生成AIの機能を活用できます。
4.生成AIの安全な活用方法を周知する
生成AIをより安全に活用するには、技術的対策だけでなく、利用者の正しい理解も欠かせません。どんなにしっかりとセキュリティ対策を講じても、利用者の知識が不足していれば、十分な効果が発揮されなくなります。
そこで重要となるのが、企業全体での生成AIに関する教育の実施です。定期的な研修会を開催し、従業員に生成AIの仕組みや情報漏洩が起こりうるシナリオ、より安全な利用方法などを、分かりやすく説明する機会を設けましょう。また、実際の業務での活用事例や注意点を共有すれば、より実践的な理解を促進できます。
5.セキュリティに配慮した生成AI活用ツールを導入する
生成AIの活用には高度なセキュリティが不可欠ですが、最近ではセキュリティを重視して開発された生成AI活用ツールも登場しています。これらのツールを適切に選択し導入すれば、生成AIの利点を享受しつつ、情報漏洩リスクを最小限に抑えられるでしょう。
ツールを導入する際は、以下の情報セキュリティ基準を満たした製品を選ぶとよいでしょう。
- 情報セキュリティマネジメントシステム(ISMS)
- ISMSクラウドセキュリティ認証
市場には、上記のセキュリティ基準を満たしたツールや、各業務ツールに生成AIの機能が組み込まれた製品が増えています。ツール選定の際は、提供元のセキュリティ体制や機能、プライバシーポリシーが十分になされているかを慎重に確認することが重要です。適切なツールを導入できれば、生成AIの活用による業務効率の向上と、高度な情報セキュリティの両立が可能となります。

当社のクラウド型Webアプリケーション脆弱性診断ツール「AeyeScan」は、人手が必要な脆弱性診断の分野でいち早く生成AIを取り入れています。AeyeScanの生成AI機能ではChatGPTの自然言語処理能力を活用し、巡回してほしい箇所をユーザーがフリーフォーマットで指示できます。さらに、診断結果から導いたエグゼクティブサマリの自動生成や、従来は手動でしか行えなかった診断項目の自動化も実現しています。もちろん、セキュリティへの配慮も行っており、安心してご導入いただけます。無料トライアルも実施しているので、まずはお気軽にご相談ください。
まとめ|セキュリティを強化して生成AIの情報漏洩リスクを下げよう
生成AIの活用は現代のビジネス環境において不可欠となっています。しかし、その利用には情報漏洩のリスクが伴うため、適切な対策が必要です。
生成AIによる情報漏洩を防ぐためには、以下の対策が効果的です。
- 社内ルールを明確にする
- 機密情報をプロンプトに入力しない
- 入力データを学習しない設定にする
- 生成AIの安全な活用方法を周知する
- セキュリティに配慮した生成AI活用ツールを導入する
対策を組み合わせて実施することで、生成AIの利点を最大限に活かしつつ、情報漏洩のリスクを最小限に抑えられます。
生成AIが持つリスクを十分に理解して適切な対策を講じれば、業務効率の向上を通してビジネス変革につなげられるでしょう。常に最新の動向に注意を払い、セキュリティ対策を継続的に強化していくことが重要です。