EU AI Act

読み: いーゆー えーあい あくと / English: EU AI Act (Artificial Intelligence Act)

SHORT DEFINITION

欧州連合が制定したAIに関する包括的規制法。リスクレベル別に禁止事項・義務・罰則を定め、2026年以降段階的に施行。日本企業もEU向け事業で該当する。

定義

EU AI Act (Artificial Intelligence Act、EU人工知能法) は、欧州連合が2024年に成立させた世界初の包括的AI規制法です。AIをリスクレベル別に分類し、禁止・高リスク・限定リスク・最小リスクのそれぞれに異なる義務と罰則を課します。

4段階のリスク分類

  1. 禁止AI (Unacceptable Risk): サブリミナル操作、社会的スコアリング等 — 使用禁止
  2. 高リスクAI (High Risk): 雇用・教育・医療・法執行等 — 適合性評価・リスク管理・ログ保存・人間の監督が義務
  3. 限定リスクAI (Limited Risk): チャットボット等 — 透明性義務 (AI であることの開示)
  4. 最小リスクAI (Minimal Risk): スパムフィルタ等 — 自由

日本企業への影響

日本国内で閉じた利用でも、以下の場合は該当する可能性があります。

  • EUの顧客・従業員に対しAIシステムを提供している
  • EU域内で AI の出力結果を使用している
  • 欧州の親会社・取引先からコンプライアンス対応を求められている

求められる対応

高リスクAIに該当する場合、リスク管理システム・データガバナンス・ログ記録・人間による監督・サイバーセキュリティを含む技術文書を整備し、適合性評価を受ける必要があります。これは単独ツールの導入では完結せず、エージェントガバナンスの体制構築と直結します。

違反時の制裁金は最大 3,500万ユーロまたは全世界売上の7% で、GDPRを上回る水準です。

関連用語

ISO/IEC 42001AIマネジメントシステム (AIMS) の国際規格。ISO 9001 や 27001 と同じアプローチで組織のAI活用を継続的に統制する枠組みを提供。エージェントガバナンス組織内で稼働するAIエージェントを設計・管理・評価・改善するための体系的な仕組み。複数エージェントの品質・コスト・リスクを統制する経営機能。AI-BCPAIサービスの障害・モデル変更・ベンダー撤退に備えた事業継続計画。従来のBCPを AI 前提業務向けに拡張したもの。