欧州で本格化するAIの法規制とサイバーセキュリティの論点

國谷武史 (編集部)

2025-06-03 06:00

 世界各地でAIの活用が進む中、際限のないAIの研究開発、利用が人や社会に有害な影響を与えることのないよう法律などで規制する動きが本格化し始めた。欧州連合(EU)では、2024年8月に「EU Artificial Intelligence Act」(EU AI法)が発効し、国内でも5月28日に「AI関連技術の研究開発・活用推進法」が国会で可決、成立した。

 これらのAI法で前提とされているのは、際限のないAIの研究開発、利用が人や社会に有害な影響を及ぼす事態を規制し、信頼性や安全性を確保して、AIの導入や利用の促進による変革を目指すことにある。信頼性や安全性を確保する鍵の一つが、サイバーセキュリティであり、今後本格化する規制の適用に備え、企業や組織ではセキュリティ対策の再確認が大切となりそうだ。

トレンドマイクロ セキュリティエバンジェリストの岡本勝之氏
トレンドマイクロ セキュリティエバンジェリストの岡本勝之氏

 トレンドマイクロでセキュリティエバンジェリストを務める岡本勝之氏は、「EU AI法では2月2日に総則や禁止されるAIに関する条項の適用が始まり、8月2日から汎用(はんよう)目的のAIモデルなどを対象とする条項の規制が本格化する。規制に違反すれば高額な制裁金が科せられる恐れがあり、日本の企業や組織も対象になる」と指摘する。

 EU AI法の規制対象者は、EU域内の市場で提供されるAIシステムと汎用目的のAIモデルになる。適用対象者はプロバイダー、EU域内に所在するデプロイヤー、AIシステムのインポーターやディストリビューターなど。しかし、EU域外の企業や組織でも、EU域内で利用可能なAIシステムを提供していたり、EU域内で使われるAIの成果物が生成されるプロセスに関与していたりすれば、同法の規制対象に該当する。

 企業や組織への制裁金は、同法で禁止されるAIの規定違反の場合が3500万ユーロ(約57億円)または全世界総売上高の7%のいずれか高い方、その他義務関連の規定違反の場合で1500万ユーロ(約25億円)または全世界総売上高の3%のいずれか高い方、EU当局などに対し不完全、誤解を招く情報を提供した場合で750万ユーロ(約13億円)または全世界総売上高の1%のいずれか高い方となっている。

EU AI法の適用スケジュール(出典:トレンドマイクロ)
EU AI法の適用スケジュール(出典:トレンドマイクロ)

 同法では、AIシステムの規制を4段階のリスクレベルで分類し、最も高い「人などの潜在意識を操作」「年齢や障害、社会的、経済的要因などを悪用して個人や集団に損害を与える」「社会的な数値評価により不利な扱いをもたらす」システムは、許容されないリスクとしてEU域内での使用を禁止している。

 2番目に高い「ハイリスク」の対象は同法の附属書で規定され、プロバイダーには各種要件の順守、ドキュメント管理、適合性評価、証明などと並んでログ保管が義務付けられている。デプロイヤーにも使用説明に従った技術的、組織的措置や人的な管理などと並んで、AIシステムの運用監視、リスクのある場合や重大インシデント発生時の当局などへの通知、ログ保管を義務付けている。3番目に高い「人と直接対話する」「合成音声や画像、動画を生成する」「感情認識または生体認証分類などのシステム」も限定的なリスクがあるとして、規制対象者に情報の透明性を義務としている。

 また、汎用目的のAIモデルでもプロバイダーには、「技術文書の作成と更新」「汎用目的AIモデルを自社AIシステムに組み込むプロバイダーへの情報提供」「著作権や関連権利に関するEU法の順守」「学習に使用したコンテンツに関する情報公開」の義務が課せられている。特に影響力が大きいシステミックリスクのあるモデルについては、「モデルの評価」「システミックリスクの評価と軽減」「是正措置に関する情報の記録と当局への報告」「適切なレベルのサイバーセキュリティ保護」を義務化している。

 岡本氏によれば、EU AI法に関して企業や組織には、まず適用対象に該当するかどうかを把握し、次に同法で定義されるどのリスクレベルに該当するのかを把握する。さらに、同法で定められた要件や義務に対応する上で現状を調査、評価し、相違などがあれば、同法の適用スケジュールやコストなどを勘案しながら、優先度などを整理して対応していく必要がある。

 EU AI法は、あくまでAIを有益に活用していく上で必要な基本的事項を定めたものになり、サイバーセキュリティに関する事項も詳細を規定しているわけではないという。しかし岡本氏は、日本などEU域外の企業や組織が関与するAIシステムや汎用目的モデルが、サイバー攻撃者に悪用されるなどして、EU域内に被害や影響が波及するような事態になれば、同法の罰則が適用される可能性があると指摘する。

 日本のAI関連技術の研究開発・活用推進法でも附帯決議の中で、AIにまつわるリスクに基づいた適切な措置などの対応を求め、ディープフェイクポルノなどの悪用に対し各種法令とともに必要な措置を講じることを定めている。

 カナダなどほかの国々で検討中のAI関連規制でも、AIの有効利用において信頼や安全の確保を求める方向にあるといい、サイバーセキュリティが重要な要素の一つになるという。ただ、AIのシステムやモデルに特化した世界的な法規制はまだなく、企業や組織にはAIを含めて、現在求められているサイバーセキュリティへの取り組みを着実に実施することが肝心だ。

 例えば、AIシステムやモデルの開発、構築、運用ではクラウドの利用が多く、AIと共にクラウド環境の全般的なセキュリティ対策が必要になる。ここ数年で急拡大する生成AIやAIエージェントであれば、サイバー攻撃者や犯罪者に不正操作されないために、人間のユーザーと同じく適切なIDやアクセスなどの権限の割り当て、管理、監視が必須だ。

 岡本氏は、ディープフェイクやフィッシングなどAIシステムやモデルを悪用する脅威が既に顕在化し、AIエージェントでシステムテストを自動化するような企業や組織向けの正規サービスを悪用する攻撃も出現するだろうと警鐘を鳴らす。

 AIに限らず技術やツールには功罪の両面があり、どちらに作用するかは、それらを使う人や組織に委ねられる。AIにまつわる法規制が世界的に広がり始める今、改めて技術やツールを有益なものとしていく上でのリスクを把握、評価、理解し、リスクを軽減していく取り組みが肝心だ。その中でサイバーセキュリティの意識や姿勢、実践もまた大切となる。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]