ChatGPTに顧客リストを貼り付けて分析を依頼した——その一操作が情報漏洩の起点になるリスクがある。生成AIの業務活用が中小企業にも広がる一方、機密情報の取り扱いルールが整備されていないケースは多い。本稿では漏洩経路の実態と、今日から実施できる具体的な対策を整理する。
生成AIで機密情報が外部に漏れる3つの経路
生成AI入力の漏洩リスクは学習データ化・誤共有・端末ログの3経路に集約されます。ベンダーの契約プランがデータ学習に利用されるか確認することが最初の一歩です。
生成AIに情報が「漏れる」経路は、大きく3種類に整理できる。
① 学習データへの取り込み
ベンダーのデフォルト設定では、ユーザーの入力データがモデル改善に使用されることがある。ChatGPTの無料プランや一部有料プランでは、設定変更をしない限りオプトインの状態になっている。AnthropicのAPI利用やOpenAIのエンタープライズ契約では学習に使われない仕様が標準だが、どのプランを契約しているかを把握していない企業が多い。
② 従業員の誤共有・権限管理の不備
会話履歴を共有URLで公開できるツールでは、内部情報が含まれた会話が意図せず外部に露出する事例が報告されている。チーム利用時の権限設定が甘い場合も同様のリスクがある。社内横断で利用するワークスペース型ツールでは、プロジェクト間のアクセス制御が不十分なまま運用されているケースが少なくない。
③ 端末・ブラウザのログ保存
ローカルに保存されたチャット履歴や自動入力補完のキャッシュが、端末紛失・不正アクセス時に流出する可能性がある。BYOD(個人端末の業務利用)環境では特に管理が困難だ。従業員が退職した際、個人端末上のチャット履歴がそのまま残るケースも想定される。
漏洩リスクが高い業務と情報種別
漏洩リスクが最も高い情報は顧客個人情報・契約書・財務データの3種類で、入力前の確認が不可欠です。これらを禁止入力情報として明文化するだけで現場の判断コストを大きく下げられます。
日常業務で生成AIに入力されやすく、かつ漏洩時のダメージが大きい情報を整理する。
- 顧客個人情報(氏名・住所・電話番号・メールアドレス): 個人情報保護法の観点から、漏洩時はインシデント報告義務が発生する
- 契約情報(見積書・契約書・受発注データ): 取引先との守秘義務に抵触する可能性がある
- 財務・経営情報(売上データ・予算・M&A計画): インサイダー情報に該当するケースがある
- 従業員情報(評価・給与・労務上の問題): 人事トラブルに直結しうる
特に注意が必要なのは「便利だから」という理由で無意識に入力してしまうケースだ。顧客対応の文章をAIに改善させる際に顧客の氏名や案件内容がそのまま貼り付けられる、というシーンは多くの職場で起きている。業種によって優先度は異なるが、上記4種は全業種に共通するリスク項目だ。
中小企業が今日から実施できる対策5ステップ
漏洩対策の第一歩は利用規程の制定で、禁止入力リストを1ページで文書化するだけでリスクを大幅に低減できます。コストをかけずに翌日から効果が出る施策から始めることが重要です。
以下のステップを順番に実施することで、最小コストで実効性の高い対策を構築できる。
- 利用規程の制定: 禁止入力情報の定義・違反発見時の報告フロー・ツール別の利用可否を明文化する。生成AI利用規程のテンプレートを活用すれば1日で草案が作れる。完璧な規程より「存在する規程」の方が現場への抑止力として機能する
- プランとデータ利用設定の確認: 現在契約しているプランがデータ学習に使用されるかをベンダーの管理画面で確認し、必要に応じてエンタープライズ契約への移行またはオプトアウト設定を行う。ChatGPT・Claude・Gemini、それぞれのプランごとにポリシーが異なるため個別に確認が必要だ
- 入力前チェックの習慣化: 入力する前に「この情報は社外秘か?」を確認する手順をワークフローに組み込む。1項目のチェックリストでも、現場担当者への意識付け効果は大きい
- 端末管理の強化: MDM(モバイルデバイス管理)の導入またはブラウザ設定でのチャット履歴無効化を実施する。エンドポイント管理ツールが導入済みであれば、ブラウザ拡張機能の制御も検討する
- 定期的な利用ログのレビュー: エンタープライズプランで提供される利用ログ機能を活用し、禁止情報の入力パターンがないか月次で確認する。ログの取得自体が抑止力になる
エージェントガバナンスが漏洩防止の基盤になる理由
AIエージェントが自律的に動くほど、アクセス権限と出力先の制御が機密漏洩防止の根幹になります。権限管理なしにエージェントを動かすと、社内データが予期しない外部サービスに送信されるリスクが生じます。
単一の生成AI(チャットツール)とは異なり、AIエージェントは複数のツール・APIを自律的に呼び出す。この特性が情報漏洩リスクを質的に変える。
例えば、社内ドキュメントを参照して提案書を作成するエージェントが、外部のWebhookやAPIに誤って機密データを送信するシナリオが現実に起こりうる。エージェントガバナンスの観点では、エージェントが「何にアクセスできるか」「どこに情報を送れるか」を明示的に制限する設計が不可欠だ。
シャドーAIの検知とガバナンスと組み合わせることで、承認されていないAIツールの使用も含めた包括的な情報漏洩対策が可能になる。Kuu株式会社のAIオペレーションサービスでは、エージェントの権限設計・監査ログ設定・定期レビューの仕組みを中小企業向けに構築している。社内エンジニアがいない環境でも、アクセス制御の実装から運用保守まで一貫してサポートする。
まとめ
生成AIの機密情報漏洩リスクは、学習データ化・誤共有・端末ログの3経路から発生する。漏洩しやすい情報種別を特定し、利用規程の制定から始めて段階的に対策を整備することが現実的なアプローチだ。
AIエージェントの活用が進む段階では、アクセス権限と出力先を制御するエージェントガバナンス体制が必要になる。Kuuでは現状診断から体制構築まで、中小企業の規模に合わせた支援を提供している。情報漏洩リスクへの対処を検討する場合は、無料相談から始めてほしい。