EU AI Act
読み: いーゆー えーあい あくと / English: EU AI Act (Artificial Intelligence Act)
SHORT DEFINITION
欧州連合が制定したAIに関する包括的規制法。リスクレベル別に禁止事項・義務・罰則を定め、2026年以降段階的に施行。日本企業もEU向け事業で該当する。
定義
EU AI Act (Artificial Intelligence Act、EU人工知能法) は、欧州連合が2024年に成立させた世界初の包括的AI規制法です。AIをリスクレベル別に分類し、禁止・高リスク・限定リスク・最小リスクのそれぞれに異なる義務と罰則を課します。
4段階のリスク分類
- 禁止AI (Unacceptable Risk): サブリミナル操作、社会的スコアリング等 — 使用禁止
- 高リスクAI (High Risk): 雇用・教育・医療・法執行等 — 適合性評価・リスク管理・ログ保存・人間の監督が義務
- 限定リスクAI (Limited Risk): チャットボット等 — 透明性義務 (AI であることの開示)
- 最小リスクAI (Minimal Risk): スパムフィルタ等 — 自由
日本企業への影響
日本国内で閉じた利用でも、以下の場合は該当する可能性があります。
- EUの顧客・従業員に対しAIシステムを提供している
- EU域内で AI の出力結果を使用している
- 欧州の親会社・取引先からコンプライアンス対応を求められている
求められる対応
高リスクAIに該当する場合、リスク管理システム・データガバナンス・ログ記録・人間による監督・サイバーセキュリティを含む技術文書を整備し、適合性評価を受ける必要があります。これは単独ツールの導入では完結せず、エージェントガバナンスの体制構築と直結します。
違反時の制裁金は最大 3,500万ユーロまたは全世界売上の7% で、GDPRを上回る水準です。