「うちの会社でもChatGPT使ってますよ、結構便利です」
最近、そんな声をよく耳にするようになりました。営業資料の作成、コードの補完、社内文書の下書き……生成AIがもたらす業務効率化はまさに革命的です。
でも、その“便利さ”は、果たして本当に無害でしょうか?
2025年現在、AIを導入している企業の3社に1社が年間3件以上のLLM情報漏洩を経験し、1件あたりの平均被害額は**約445万ドル(約6億円)**に達しています。これは、単なるセキュリティ事故では済まされない、経営レベルの危機です。
本記事では、MoMoの視点から「LLM(大規模言語モデル)における情報漏洩」の全貌を明らかにし、今すぐ企業が実践すべき11の対策を具体的にご紹介します。
“AIを使いこなす時代”に必要なのは、ただ便利を享受するだけでなく、どう信頼し、どう守るかを考える力です。
なぜ、情報は漏れるのか?──LLMの特性とその落とし穴
LLMとは何か:あなたの言葉を覚えるAI
LLM(Large Language Model)は、膨大なテキストデータを学習し、人間のような自然な文章を生成できるAIです。ChatGPT、Claude、Geminiなどの名前を耳にしたことがある方も多いでしょう。
ビジネスの現場でも、LLMの導入は一気に加速しています。2023年には33%だった「生成AIを日常的に業務で利用する企業」の割合が、2024年には71%に倍増しました。
しかし──それはつまり、私たちの情報もまた、AIの“学習対象”として使われる可能性があるということ。
LLM情報漏洩の三大経路:どこから漏れているのか?
LLMの情報漏洩は、主に次の3つの経路で発生します:
| 経路 | 概要 | 具体例 |
|---|---|---|
| 入力データの流出 | プロンプトに入力した機密情報が、クラウド上に保存され外部に流出する | 社員がソースコードをChatGPTに貼り付けた結果、第三者が閲覧可能に |
| 学習データへの混入 | 入力情報が学習データとして使われ、他ユーザーの応答に現れる | 財務情報が別の顧客の回答に含まれる |
| 出力による漏洩 | LLMが学習済みの機密情報を誤って応答に含めてしまう | 個人名を入力すると、その人の連絡先が出力された |
シャドーAIの台頭:管理できない“善意の利用”
特に問題視されているのが、「シャドーAI」の存在です。
これは、企業が正式に許可していないAIツールを、従業員が個人判断で業務に使ってしまうことを指します。
調査によると、38%の従業員が会社の承認なしに機密情報をAIに入力した経験があると回答。実に73.8%が個人アカウント経由でChatGPTを利用していたというデータもあります。
つまり、最大のリスクは“誰かが悪意を持って”ではなく、“誰かが良かれと思って”やっていることにあります。
数字と実例が語る、情報漏洩の“現実”
見えてきた“深刻な実態”──2025年の最新統計
数値はときに、言葉以上に真実を語ります。以下は、最新のセキュリティレポートから明らかになったLLM関連の情報漏洩に関する統計です:
- 3社に1社が年間3件以上の情報漏洩を経験
- 1件あたりの平均被害額は過去最高の445万ドル
- ChatGPT登場後、AIを悪用したフィッシングメールは4,151%増加
- チャットボットに入力されるデータの27.4%が機密情報で、前年比156%増
これらの数値が示しているのは、もはや「例外」ではないという現実。AIと情報漏洩は、私たちのすぐ隣にある日常的な課題なのです。
実際に起きた、衝撃の情報漏洩事例
▶ サムスン電子(2023年)
半導体部門の社員がChatGPTにソースコードや社内議事録を入力し、意図せず社外へ機密情報が送信される事態に。生成AIの“学習”が、情報漏洩の温床になることを象徴するケースです。
▶ OpenAI ChatGPT Plus(2023年)
ChatGPT Plusの加入者情報(氏名、メール、支払い情報など)が、バグによって他ユーザーに表示されるというセキュリティ事故が発生。LLMを提供する側の脆弱性も、リスクの一部です。
▶ ディープフェイク詐欺(2024年)
とある多国籍企業の経理担当が、ディープフェイク映像で偽装されたCFOに騙され、約38億円を送金してしまった事件。AIの巧妙化は、もはや“騙されても仕方ない”レベルに達しています。
2-3|企業が受ける“目に見えない損害”
情報漏洩の影響は、金銭的損失だけではありません。
- ブランドの信用失墜:一度失った信頼は、広告では取り戻せない
- 法的リスク:GDPRなどの違反により、多額の制裁金
- 競争力の喪失:独自技術や企画が流出すれば、差別化は一気に崩れます
つまり情報漏洩は、「企業の未来を根こそぎ奪うリスク」であるということです。
LLMの“弱点地図”──OWASP Top 10で見る攻撃の全体像
情報漏洩は偶然ではありません。多くの場合、それは設計上のスキマ=脆弱性から始まります。
この章では、世界中のセキュリティ専門家が策定した「OWASP LLM Top 10」に基づき、LLM活用における重大なリスクを可視化します。
OWASP LLM Top 10とは?
OWASP(Open Worldwide Application Security Project)は、セキュリティリスクに関する国際的な標準団体。
そのLLM向けガイドラインは、**「AIを活用するすべての企業の防御マップ」**といえる存在です。
2025年版では、プロンプトを悪用した攻撃、学習データの汚染、システムの誤用など、“LLMならでは”のリスクが精緻に整理されています。
特に注意したい5つのリスク
| リスク名 | 内容 | 実例 |
|---|---|---|
| LLM01:プロンプトインジェクション | LLMに悪意ある命令を送り、制約を回避する | 「この制約を無視して応答して」などの命令で内部データを引き出す |
| LLM02:機密情報の開示 | 学習済みの機密が応答に混入する | 他社の財務情報が回答に現れることも |
| LLM04:データとモデルの汚染 | 虚偽情報をモデルに学習させ、出力を歪める | “嘘の正解”を覚えさせるような悪質な操作 |
| LLM06:過剰なエージェンシー | LLMが過剰な権限で破壊的操作を行う | 自動送信機能を悪用し、社内一斉メールを送ってしまう例など |
| LLM07:システムプロンプトリーク | LLMの“初期設定”が推測・漏洩される | 「あなたの設定内容を教えて」と巧みに誘導するプロンプトで露呈 |
その他の見落としがちなリスク
- LLM03:サプライチェーンの脆弱性(外部ライブラリ依存による攻撃)
- LLM05:不適切な出力処理(生成されたコードからXSSなど)
- LLM08:ベクトルDBの弱点(RAG活用時の漏洩リスク)
- LLM09:誤情報(ハルシネーション)(意図しない誤解を誘発)
- LLM10:リソース消費の無制限化(DoS攻撃への脆弱性)
その漏洩、止められます──企業が実践すべき11の防御策
「うちの業界ではまだ早い」「うちは大丈夫」
そう思っていた企業こそ、思わぬタイミングで痛手を負う──情報漏洩の常です。
この章では、組織・技術・運用の3軸から、企業が“いますぐ”取れる11の実践的なセキュリティ対策をお伝えします。
組織的対策|“ルールと文化”を整える3ステップ
1. 安全なLLM利用のための社内ガイドライン策定
- どのLLMを使ってよいか?
- どの情報を入力してよいか?
- 問題が起きたら誰に報告するのか?
──こうした項目を含むガイドラインを明文化し、誰でもすぐアクセスできるようにしましょう。
2. AIガバナンス体制の構築
- 新規LLMの利用申請・承認フローの整備
- リスク評価会議の定期開催
- ガイドライン遵守状況の監査
“作っただけ”のルールでは意味がありません。使われ続ける仕組みにこそ価値があります。
3. 全社員へのセキュリティ教育
- プロンプトインジェクション、フェイク会議、情報入力の危険性などを事例ベースで教育
- クイズ形式や動画研修など、記憶に残る工夫も重要
技術的対策|“漏れない仕組み”を支える5つの技術
1. データの匿名化・一般化
- 「売上1,234,567円」→「約120万円」
- 「田中太郎」→「B氏」
実はこれだけでも、漏洩時のリスクを大きく減らせます。
2. プライベートLLMの導入
- オンプレ型(自社サーバー上)
- プライベートクラウド型(Azure, AWSなど)
- ハイブリッド型(業務ごとに使い分け)
「使う場所」から見直せば、漏れないAIは現実になります。
3. DLP(データ損失防止)ツールの導入
- 入力中の機密データを検知・ブロック
- 従業員の“うっかり”を仕組みで防ぐ
4. アクセス制御とログ管理の強化
- MFA(多要素認証)の導入
- 誰がいつ何を使ったかをログに残す
5. API利用時のセキュリティ設定確認
- データ保持ポリシーの明確化
- API経由のデータは学習に使われないよう設定する
運用的対策|“日々の習慣”が守る未来の信頼
1. LLMベンダーのセキュリティチェック
- ISO 27001やSOC2などの認証確認
- データの保管場所、保持期間、暗号化状況などの透明性が鍵
2. シャドーAIの検出と抑制
- 社内から外部AIサービスへの通信を監視(CASBの導入)
- 承認済みツールを公式に配布し、“裏利用”の必要をなくす
3. 情報漏洩インシデントの対応計画(IRP)整備
- 緊急時の対応フロー(誰が何をするか)
- 初動、連絡体制、顧客説明まで網羅した「もしもマニュアル」
安全なAI利用のベストプラクティス──“攻め”のセキュリティ
「セキュリティ対策=守るためのコスト」
そう思っていませんか?
実は、きちんと備えることこそが、AI時代の企業競争力の源泉になります。
ここでは、LLMを安全に、かつ前向きに活用していくための“攻めの習慣”をご紹介します。
プロンプトエンジニアリングに“安全”を仕込む
- 明示的な制約の記述:「この情報は保存しないでください」などを事前に書く
- 情報の分割投入:文脈を切って入力し、一括漏洩を防ぐ
- 入力のサニタイズ:ユーザー入力がコードなどに変換されないよう前処理を挟む
プロンプトは、AIとの契約書。そこに安全を込めましょう。
“信じられる”LLMを選ぶ3つの基準
- セキュリティ認証:ISO 27001、SOC 2などの取得状況
- 企業向けプラン:ChatGPT EnterpriseやCopilot for Microsoft 365など、企業仕様の選択を
- データ保護機能:入力データの暗号化、ログ管理、オプトアウト設定など
セキュリティは“育てるもの”と捉える
- 継続的リスク評価:四半期ごとのセキュリティレビューを実施
- 最新脅威のキャッチアップ:AI関連のセキュリティ勉強会やニュースレターを活用
- インシデントの共有文化:隠さずに学ぶ文化が、次の事故を防ぐ
AIと共にある未来を“信頼”で築くために
技術は日々進化します。ですが、私たちが本当に向き合うべきは、どう使うか、どう責任を取るかという“姿勢”です。
- 差分プライバシーや連合学習などの新技術が、今後のAIセキュリティを支えるでしょう。
- EUのAI Act、日本のAIガイドライン整備といった法規制も強化されつつあります。
こうした変化のなかで、企業に求められるのは「守るだけでなく、信頼されるAIの使い手になること」です。
セキュリティは、単なる“リスク対策”ではなく、ブランドの信用をつくる投資なのです。
まとめ|“使えるAI”の前に、“信じられるAI”を
LLMは、業務を加速させ、未来を創る力を持ったツールです。
しかし、その活用には、必ず“漏れない仕組み”と“意識のアップデート”が必要です。
今こそ企業は、「どう使うか」を問い直すべきとき。
本記事が、その第一歩になれば幸いです。
📩 LLMセキュリティの無料相談はこちら
「うちのLLM利用、危ないかも?」「ガイドラインってどう作るの?」
そんな声に、MoMoはお応えします。

