法令の情報時期:2024年07月 公布版 | ページ作成時期:2024年10月 |
目的

本規則の目的は、以下の通り:
EUの価値観に従い、EU域内における人工知能システム(AIシステム)の開発、上市、使用開始、使用について、特に統一的な法的枠組みを定めることにより、域内市場の機能を向上させること
民主主義、法の支配、環境保護など、健康、安全、基本的な権利憲章(「憲章」)に謳われている基本的な権利の高水準の保護を確保すること
人間中心の信頼できる人工知能(AI)の導入を促進し、域内におけるAIシステムの有害な影響から保護し、イノベーションを支援すること
概要

本規則は、域内市場の機能を改善し、人間中心で信頼性の高い人工知能(AI)の普及を促進すると同時に、EU域内におけるAIシステムの有害な影響から、健康、安全、民主主義、法の支配、環境保護など憲章に定められた基本的な権利を高い水準で保護し、イノベーションを支援することを目的としている。
また、AIに基づく商品およびサービスの国境を越えた自由な移動を保証するものであり、本規則によって明示的に許可された場合を除き、加盟国がAIシステムの開発、販売及び使用に制限を課すことを防止する。
さらに、自然人、企業、民主主義、法の支配及び環境保護の保護を促進する一方で、イノベーションと雇用を促進し、信頼できるAIの導入においてEUを主導的立場とするため、憲章に明記されたEUの価値観に従って適用される。
本規則に違反した場合、最大3,500万ユーロまたは全世界年間総売上高の最大7%の行政制裁金が科せられ、特定の義務に違反した場合は最大1,500万ユーロまたは全世界年間売上高の3%の制裁金が適用されることが求められる。
注目定義
■ 「プロバイダー」(provider)
「プロバイダー」とは、有償または無償を問わず、AIシステムまたは汎用AIモデルを開発する、または自己の名称もしくは商標の下で上市したり、使用を開始したりすることを目的としてAIシステムまたは汎用AIモデルを開発させる、自然人もしくは法人、公的機関、当局、あるいはその他の団体をいう。(第3条) |
■ 「使用者」(deployer)
「使用者」とは、AIシステムが個人的な非専門的活動の過程で使用される場合を除き、その権限の下でAIシステムを使用する自然人または法人、公的機関、当局あるいはその他の団体をいう。(第3条) |
■ 「輸入者」(importer)
「輸入者」とは、第三国に設立された自然人または法人の名称または商標が付されたAIシステムを上市するまたは使用開始する、EU内に設立された自然人または法人をいう。(第3条) |
■ 「流通業者」(distributor)
「流通業者」とは、サプライチェーンの中で、AIシステムを市場で利用可能にする、プロバイダーあるいは輸入者以外の自然人または法人をいう。(第3条) |
■ 「事業者」(operator)
「事業者」とは、プロバイダー、製品製造者、使用者、認定代理人、輸入者あるいは流通業者をいう。(第3条) |
■ 「AIシステム」(AI system)
「AIシステム」とは、さまざまな水準の自律性で動作するように設計され、配備後に適応性を示す可能性がある機械ベースのシステムであって、明示的または黙示的な目的のために、物理的または仮想的な環境に影響を与えることができる予測、コンテンツ、勧告、決定などの出力を生成する方法を、受け取る入力から推論するものをいう。(第1条) |
■ 「汎用AIモデル」(general-purpose AI model)
「汎用AIモデル」とは、そのようなAIモデルが大規模な自己監視を使用して大量のデータで学習される場合を含め、有意な汎用性を示し、モデルが上市される方法に関係なく広範囲の明確なタスクを適切に実行することができ、様々な川下のシステムまたはアプリケーションに統合することができるAIモデルをいう。、上市される前の研究、開発またはプロトタイピング活動に使用されるAIモデルは除く。(第1条) |
■ 「汎用AIシステム」(general-purpose AI system)
「汎用AIシステム」とは、汎用AIモデルをベースとしたAIシステムであり、直接使用する場合だけでなく、他のAIシステムに統合する場合にも、様々な目的に対応する能力を有するAIシステムをいう。(第3条) |
■ 「上市」(placing on the market)
「上市」とは、EU市場でAIシステムまたは汎用AIモデルを最初に利用可能にすることをいう。(第3条) |
■ 「市場で利用可能にすること」(making available on the market)
「市場で利用可能にすること」とは、商業活動の過程でEU市場での流通または使用のためにAIシステムまたは汎用AIモデルを供給することをいう。それが有償か無償かを問わない。(第3条) |
■ 「使用開始」(putting into service)
「使用開始」とは、直接的に最初に使用するために使用者にAIシステムを供給すること、または意図された目的のためにEU域内で自ら使用するためにAIシステムを供給することをいう。(第3条) |
■ 「意図された目的」(intended purpose)
「意図された目的」とは、AIシステムがプロバイダーによって意図された用途を意味し、具体的な文脈や使用条件を含め、プロバイダーが取扱説明書、宣伝または販売資料、声明、技術文書などで提供した情報に明記されるものをいう。(第3条) |
■ 「合理的に予見可能な誤用」(reasonably foreseeable misuse)
「合理的に予見可能な誤用」とは、AIシステムの意図された目的に従わず、合理的に予見可能な人間の行動または他システムとの相互作用から生じる可能性のある方法で、AIシステムを使用することをいう。(第3条) |
■ 「安全コンポーネント」(safety component)
「安全コンポーネント」とは、製品またはAIシステムの安全機能を果たす、あるいはその故障や誤動作が人の健康や安全、財産を脅かす製品またはAIシステムのコンポーネントをいう。(第3条) |
■ 「実質的な変更」(substantial modification)
「実質的な変更」とは、AIシステムの上市後または使用開始後の変更であって、プロバイダーが実施した最初の適合性評価では予見されなかったか又は計画されなかったものであり、本規則の第III篇第2章に定められた要件へのAIシステムの適合性に影響を与えるもの、またはAIシステムがそのために評価され、意図された目的に変更をもたらすものをいう。(第3条) |
■ 「市販後モニタリング」(post-market monitoring)
「市販後モニタリング」とは、AIシステムのプロバイダーが、必要な是正措置または予防措置を直ちに講じる必要性を特定する目的で、上市した、または使用開始したAIシステムの使用から得られた知見を収集し、レビューするために行うすべての活動をいう。(第3条) |
■ 「学習データ」(training data)
「学習データ」とは、AIシステムの学習可能なパラメーターを当てはめ、学習させるためのデータをいう。(第3条) |
■ 「検証データ」(validation data)
「検証データ」とは、特にアンダーフィッティングやオーバーフィッティングを防ぐために、学習済みAIシステムの評価を提供し、その非学習可能パラメーターや学習プロセスを調整するために使用されるデータをいう。(第3条) |
■ 「検証データセット」(validation data set)
「検証データセット」とは、固定または可変分割の、個別のデータセットまたは学習データセットの一部をいう。(第3条) |
■ 「テストデータ」(testing data)
「テストデータ」とは、AIシステムの上市または使用開始前に、当該システムの期待される性能を確認するために、当該システムの独立した評価を提供するために使用されるデータをいう。(第3条) |
■ 「入力データ」(input data)
「入力データ」とは、AIシステムが出力を行う基礎となる、AIシステムに提供されたデータまたはAIシステムが直接取得したデータをいう。(第3条) |
■ 「生体データ」(biometric data)
「生体データ」とは、自然人の身体的、生理学的または行動的特徴に関する特定の技術的処理の結果として得られる個人データであり、顔画像やダクティロスコピックデータ(dactyloscopic data)などを含む。(第3条) |
■ 「生体識別」(biometric identification)
「生体識別」とは、自然人の識別を確立する目的で、その個人の生体データをデータベースに保存されている個人の生体データと比較することによって、身体的、生理的、行動的、または心理的な人間の特徴を自動的に認識することをいう。(第3条) |
■ 「生体認証」(biometric verification)
「生体認証」とは、自然人の生体データを以前に提供された生体データと比較することによって、 認証を含め、自然人の識別の、自動化された、1対1の関係性の検証をいう。(第3条) |
■ 「個人データの特別カテゴリー」(special categories of personal data)
「個人データの特別カテゴリー」とは、規則(EU) 2016/679の第9条(1)、指令(EU) 2016/680の第10条、および規則(EU) 2018/1725の第10条(1)に言及される個人データのカテゴリーをいう。(第3条) |
■ 「要配慮業務データ」(sensitive operational data)
「要配慮業務データ」とは、刑事犯罪の防止、発見、捜査または訴追活動に関連する業務データであって、その開示が刑事手続の完全性を危うくする可能性があるものをいう。(第3条) |
■ 「感情認識システム」(emotion recognition system)
「感情認識システム」とは、自然人の生体データに基づいて自然人の感情や意図を識別または推測することを目的としたAIシステムをいう。(第3条) |
■ 「生体分類システム」(biometric categorisation system)
「生体分類システム」とは、他の商業的サービスに付随し、客観的な技術的理由により厳密に必要である場合を除き、自然人をその生体データに基づいて特定のカテゴリーに割り当てることを目的とするAIシステムをいう。(第3条) |
■ 「遠隔生体認証システム」(remote biometric identification system)
「遠隔生体認証システム」とは、自然人の生体データと参照データベースに含まれる生体データとの比較を通じて、自然人の積極的な関与なしに、通常は遠隔で自然人を識別することを目的とする AI システムをいう。(第3条) |
■ 「リアルタイム遠隔生体認証システム」(real-time remote biometric identification system)
「リアルタイム遠隔生体認証システム」とは、生体情報の取得、比較、識別がすべて遅延なく行われる遠隔生体認証システムを意味し、即座に識別ができるだけでなく、迂回を避けるために限られた短時間の遅延も含まれる。(第3条) |
■ 「ポスト遠隔生体認証システム」(post-remote biometric identification system)
「ポスト遠隔生体認証システム」とは、リアルタイム遠隔生体認証システム以外の遠隔生体認証システムをいう。(第3条) |
■ 「公的にアクセス可能な空間」(publicly accessible space)
「公的にアクセス可能な空間」とは、不特定多数の自然人がアクセス可能な、公有または私有の物理的な場所を意味し、アクセスに一定の条件が適用されるかどうか、ならびに潜在的な収容能力の制約といった条件に関係なく、アクセスできる場所をいう。(第3条) |
■ 「AI室」(AI Office)
「AI室」とは、2024年01月24日の欧州委員会決定で規定された、AIシステムおよび汎用AIモデルの実施、監視および監督、ならびにAIガバナンスに貢献する欧州委員会の機能を意味し、本規則におけるAI室への言及は、欧州委員会への言及と解釈されるものとする。(第3条) |
■ 「深刻な事象」(serious incident)
「深刻な事象」とは、直接的または間接的に以下のいずれかにつながるAIシステムの事故または誤作動をいう: (a) 人の死亡、または人の健康への深刻な損害 (b) 重要インフラの管理・運営に深刻かつ不可逆的な混乱が生じること (c) 基本的な権利の保護を目的とするEU法令の義務を侵害すること (d) 財産または環境に深刻な損害を与えること (第3条) |
■ 「プロファイリング」(profiling)
「プロファイリング」とは、、規則(EU) 2016/679の第4条(4)に定義されるプロファイリングをいう。(第3条) |
■ 「サンドボックス計画」(sandbox plan)
「サンドボックス計画」とは、参加プロバイダーと所管当局との間で合意された、サンドボックス内で実施される活動の目的、条件、期間、方法論および要件を記述した文書をいう。(第3条) |
■ 「AI規制サンドボックス」(AI regulatory sandbox)
「AI規制サンドボックス」とは、所管当局が設定する管理された枠組みを意味し、AIシステムのプロバイダーまたは潜在的プロバイダーに対し、規制当局の監督の下、サンドボックス計画に従って、限られた期間に、適切な場合には実環境条件下で、革新的なAIシステムを開発、学習、検証、テストする可能性を提供するものをいう。(第3条) |
■ 「AIリテラシー」(AI literacy)
「AIリテラシー」とは、本規則の文脈におけるそれぞれの権利と義務を考慮した上で、プロバイダー、使用者および影響を受ける者が、充分な情報を得た上でAIシステムを配備し、また、AIの機会とリスク、AIが引き起こしうる危害について認識を得ることを可能にするスキル、知識、理解をいう。(第3条) |
■ 「対象者」(subject)
「対象者」とは、実環境テストの目的において、実環境条件下のテストに参加する自然人をいう。(第3条) |
■ 「インフォームド・コンセント」(informed consent)
「インフォームド・コンセント」とは、被験者の参加決定に関連する検査のすべての側面について説明を受けた後、被験者が、実環境における特定の検査に参加する意思を、自由意思に基づき、具体的、明確かつ自発的に表明することをいう。(第3条) |
■ 「ディープフェイク」(deep fake)
「ディープフェイク」とは、AIが生成または操作した画像、音声、映像コンテンツで、実在する人物、物体、場所、実体、事象に似ており、人に本物または真実であると偽って見せるようなものをいう。(第3条) |
■ 「広範な侵害」(widespread infringement)
「広範な侵害」とは、個人の利益を保護するEU法令に反する行為または不作為を意味し、次のものをいう: (a) 次の加盟国以外の少なくとも2つの加盟国に居住する個人の集団的利益を害したか、または害する可能性があるもの。 (i) その作為または不作為が発生し、または行われた加盟国、 (ii) 当該プロバイダー、または該当する場合、その認定代理人が所在または設立されている加盟国、あるいは、 (iii) 使用者によって侵害が行われた場合、使用者が所在する加盟国。 (b) 少なくとも3つの加盟国において、同一の違法行為または同一の利益が侵害されているなど、共通の特徴を有し、かつ同一の事業者によって同時に行われ、個人の集団的利益に損害を与えている、または与える可能性があるもの。 (第3条) |
■ 「高インパクト能力」(high-impact capabilities)
「高インパクト能力」とは、最先端の汎用AIモデルに記録されている能力と同等か、それ以上の能力をいう。(第3条) |
■ 「システミック・リスク」(systemic risk)
「システミック・リスク」とは、汎用AIモデルの高インパクト能力に特有であり、その影響力の大きさによりEU市場に重大な影響を及ぼすリスク、または公衆衛生、安全、治安、基本的な権利、社会全体への実際の悪影響もしくは合理的に予見可能な悪影響により、バリューチェーン全体に大規模に伝播する可能性のあるリスクをいう。(第3条) |
■ 「浮動小数点演算」(floating-point operation)
「浮動小数点演算」とは、浮動小数点数を含むあらゆる数学的演算または代入を意味し、浮動小数点数は、固定精度の整数を固定底の指数でスケーリングした実数のサブセットをいう。(第3条) |
■ 「川下プロバイダー」(downstream provider)
「川下プロバイダー」とは、AIモデルを統合した汎用AIシステムを含むAIシステムのプロバイダーを意味し、AIモデルがそれら自身で提供され垂直統合されているか、契約関係に基づいて他の主体から提供されているかを問わない。(第3条) |
適用除外(対象外・猶予・免除等)

本規則は、AIシステムが軍事、防衛、国家安全保障のみを目的として使用される場合、その目的に限り適用されない。また、これらの目的にのみ使用される場合、EU域内で上市または使用開始されていないAIシステムにも適用されない。
第三国の公的機関およびEU域内の仲介サービスプロバイダーの責任には影響を及ぼさず、科学的研究および開発を唯一の目的としたAIシステムや、個人データの保護に関するEU法に従うデータ処理も本規則の適用外である。
さらに、上市または使用開始前の研究やテスト、消費者保護、製品安全に関する他のEU法に基づく規程も損なわれず、個人が純粋に個人的かつ非職業的な活動として使用する場合も適用外である。また、労働者に有利な法律や団体協約の適用を妨げることなく、無償かつオープンソースでリリースされたAIシステムも、特定の高リスクシステムとして上市される場合を除いて適用されない。
事業者が注意すべき内容
本法令が定める事業者に係わる主な要件は次の通りとなります。本項は網羅的なものではないため、詳細や罰則については、個別調査にて承ります。 ご関心がございましたら、お気軽にお問い合わせください。 |

以下のAI慣行は、個人や特定のグループの行動に不当な影響を与えたり、プライバシーや安全を脅かしたりするため、禁止されている。
人の無意識を操作し重大な害を引き起こすAIや、脆弱な人々の弱みを悪用するAI、特定の個人や集団を社会的スコアで評価し、それが不利益な扱いにつながるシステムは認められない。
また、プロファイリングによるリスク評価、無差別な顔画像収集や職場での感情推論、宗教や性的指向などの推測を目的とした生体分類システムも禁止されている。
さらに、リアルタイムでの遠隔生体認証システムを公共の場で使用することも、例外を除き認められていない。(第5条)

法執行目的で公的にアクセス可能な場所において「リアルタイム」遠隔生体認証システムを使用する場合、その目的は特定の個人の身元確認に限られ、システムを使用しなかった場合に予想される危害の深刻さや規模、および関係する全ての人の権利や自由への影響を考慮する必要がある。
使用にあたっては国内法に基づき、時間、地理、対象個人の制限といった適切な保護措置を守らなければならない。
このシステムの使用は、基本的人権への影響評価とEUデータベースへの登録が完了した後にのみ許可されるが、緊急事態の場合は登録前でも迅速に完了することを条件に使用を開始できる。(第5条)

AIシステムが高リスクと見なされるのは、以下の条件を満たす場合である。まず、製品の安全コンポーネントとして使われるか、EU調和化法令の対象製品であり、第三者による適合性評価を必要とするものとされる場合である。
さらに、附属書3で言及されたシステムも高リスクとされるが、これらが人間の健康や安全、基本的権利に重大なリスクをもたらさない場合は除外される。
システムが単に限定的な業務を行う、過去の活動結果を改善する、人間の決定からの逸脱を検出することが主な目的である場合には高リスクとはされない。
ただし、附属書3に該当するユースケースに関連する評価準備を目的とするAIシステムや、人のプロファイリングを行うシステムは常に高リスクと見なされる。
プロバイダーが高リスクではないと判断する場合は、上市前に文書化された評価が必要であり、国家当局の求めに応じて提出しなければならない。(第6条)

高リスクAIシステムは、最新の技術標準を考慮しつつ、この規則に定められた要件を遵守する必要があり、リスク管理システムによってその遵守が確保されるべきである。
AIシステムを含む製品については、プロバイダーがEUの関連法令すべてに完全に準拠する責任を負い、高リスクAIシステムがこの規則に適合していることを保証する義務がある。
さらに、プロバイダーは製品のテストや報告プロセス、情報提供、文書管理を、既存のEU調和化法令で求められる文書や手順に統合することによって、整合性を維持し、重複を回避し、追加の負担を最小限に抑える選択肢を有する。(第8条)

高リスクAIシステムに対しては、リスク管理システムを構築し、ライフサイクル全体で計画、実施、見直しを行う継続的プロセスが必要である。
このシステムは、既知および予見可能なリスクの特定や分析、誤用時のリスク評価、市販後モニタリングからのデータ分析、リスクに対応するための管理措置の導入を含む。
これらの管理措置は残留リスクを許容範囲に抑えるものでなければならず、リスクを排除または低減するために技術的な対策を講じ、使用者への適切な情報提供と訓練も行うべきである。
さらに、高リスクAIシステムはテストを通じて意図した性能と要件への適合性を確保することが求められる。(第9条)

高リスクAIシステムの開発には、常に品質基準を満たす学習、検証、テストデータセットが必要である。
これらのデータセットは、適切なデータガバナンスと管理慣行に従い、設計上の選択肢、データ収集の起源、注釈やクリーニングなどの準備処理作業、情報の仮定形成、データの量や的確性の評価、バイアスの調査と緩和策を含む。
データセットは意図された目的に適した、十分に代表的でエラーのないものであり、高リスクAIシステムが使用される個人や集団に関する適切な特性を備えている必要がある。(第10条)

高リスクAIシステムは、その運用において透明性を確保し、使用者が出力を理解し適切に活用できるように設計されなければならない。
プロバイダーと使用者の義務を遵守するために、適切な透明性の種類と程度が求められる。これに加え、使用者に関連性があり、アクセス可能で理解しやすい取扱説明書が提供されるべきであり、その内容は簡潔かつ正確でなければならない。
取扱説明書には、プロバイダーの情報、高リスクAIシステムの性能特性や能力、意図された目的や測定基準、既知の誤用状況やリスク、出力を説明するための技術的能力、性能に関する特定の個人集団に関する情報、入力データに関する仕様、出力の解釈に役立つ情報などが含まれる必要がある。
また、初期適合性評価の結果や変更、人的監視措置、必要なリソースやメンテナンスの情報、ログの収集・保存に関するメカニズムも記載されるべきである。(第13条)

高リスクAIシステムは、効果的な人的監視が可能な形で設計・開発されるべきであり、使用中に健康、安全、または基本的な権利に対するリスクを防止または最小化するために人的監視が重要である。
監視措置はリスクや使用状況に応じて適切であり、プロバイダーが事前に特定した措置を組み込むことや使用者が実施すべき措置を特定する必要がある。
高リスクAIシステムは、監視者がその能力や限界を理解し、異常や機能不全を検知して適切に対応できるように情報を提供し、出力への過度な依存を防ぐための注意喚起を行うことが求められる。
また、出力を正しく解釈するためのツールを用意し、特定の状況で使用を控える選択肢やシステムを中断する手段を提供することも重要である。(第14条)

高リスクAIシステムのプロバイダーは、以下の要件を満たす必要がある。
まず、高リスクAIシステムが定められた要件に準拠していることを確保することが求められる。次に、システムやその包装、付属文書に自身の名称や連絡先住所を表示する必要がある。
また、品質管理システムを有し、関連文書を保管することが求められる。自動生成されたログも管理下にある場合は保管し、上市または使用開始前に適合性評価手順を受ける必要がある。
さらに、EU適合宣言書を作成し、CEマーキングを適切に付与することが求められ、登録義務を遵守し、必要な是正措置を講じる義務もある。
国家所管当局からの要請があった場合には、適合性を実証することも求められ、アクセシビリティ要件への適合も確保しなければならない。(第16条)

高リスクAIシステムのプロバイダーは、本規則の遵守を保証するために品質管理システムを導入しなければならない。
このシステムは、文書化された方針、手順、指示を系統的かつ秩序ある方法で含む必要があり、具体的には、適合性評価手順や変更管理手順を含む規制遵守戦略、高リスクAIシステムの設計や管理に使用される技術や手順、開発や品質管理に関する技術、検査やテストの手順およびその実施頻度、技術仕様の適用手段、データ管理のシステムおよび手順、リスク管理システム、市販後モニタリングシステム、深刻な事象の報告手順、関連当局との連絡の処理、文書の記録保持、供給の安全性に関連するリソース管理、責任を明確にする説明責任の枠組みなどが含まれる。
これらの側面の実施はプロバイダーの組織の規模に比例する必要があり、プロバイダーは高リスクAIシステムの規則遵守を確保するために必要な厳格さと保護レベルを尊重しなければならない。(第17条)

輸入者は、高リスクAIシステムを上市する前に、当該システムが本規則に適合していることを確認しなければならない。
具体的には、プロバイダーによる関連適合性評価手順の実施や技術文書の作成、CEマーキングの表示、EU適合宣言および取扱説明書の付属、認定代理人の任命が求められる。
また、適合していない場合や改ざんされた文書がある場合、システムを上市してはならず、リスクがある場合にはプロバイダーや市場監視当局に通知する義務がある。
さらに、輸入者は自らの名称や連絡先をシステムや付属文書に表示し、保管や輸送条件が規定に適合することを保証する必要がある。
上市後10年間は、証明書の写しや取扱説明書を保管し、所管当局の要請に応じて必要な情報や文書を提供する義務がある。(第23条)

流通業者は、高リスクAIシステムを市場に提供する前に、必須のCEマーキングが付されていることやEU適合宣言の写し、取扱説明書が付属していることを確認し、プロバイダーや輸入者が必要な義務を遵守しているかを確かめなければならない。
流通業者が入手した情報に基づき、システムが要件に適合しないと判断した場合、適合するまでは市場で利用可能にしてはならず、リスクを提示する場合にはプロバイダーや輸入者に通知する義務がある。また、流通業者はシステムの保管や輸送条件が適合性を損なわないことを保証し、要件に適合しない場合には是正措置を講じる責任がある。
さらに、リスクがある場合は、直ちにプロバイダーや輸入者、関連当局に通知しなければならない。
所管当局からの要請があった際には、適合性を証明するための情報や文書を提供し、所管当局の措置に協力し、リスクの低減に努める必要がある。(第24条)

高リスクAIシステムの使用者は、取扱説明書に従い適切な技術的・組織的措置を講じ、必要な能力を持つ人間による監視を行う義務がある。
また、EU法や国内法に基づく他の義務を損なわない範囲で、入力データの適切性を保証し、システムの運用を監視しなければならない。
特に、リスクがあると判断した場合は、速やかにプロバイダーや関連機関に通知し、システムの使用を停止する必要がある。
使用者は、生成されたログを最低6か月間保存し、必要に応じてデータ保護影響評価を実施する義務も負う。公的機関は、高リスクAIシステムの登録義務を遵守し、未登録のシステムは使用しない。
犯罪捜査においては、事前に行政当局からの認可を求める必要があり、認可が拒否された場合は使用を停止し、関連データを削除しなければならない。
法執行目的での使用には厳しい制限があり、使用者は年次報告書を監視当局に提出する義務がある。
高リスクAIシステムが個人に対する意思決定に使用される場合は、その旨を通知する必要がある。(第26条)

AIシステムのプロバイダーは、自然人との相互作用を意図した設計を保証する必要があり、相互作用が明白である場合を除き、自然人がそのシステムと相互作用していることを認識できるようにしなければならない。
刑事犯罪の検出や調査のために法的に認められたAIシステムにはこの義務が適用されないが、一般市民が通報する際に利用される場合は適用される。また、汎用AIシステムなどのコンテンツ生成システムのプロバイダーは、出力が人工的に生成されたものであることをマークし、関連技術標準に基づいて信頼性のある技術的ソリューションを提供する義務がある。この義務は、標準的な編集を行う場合や、法的に許可された目的に限り適用されない。
感情認識システムや生体分類システムの使用者は、自然人にシステムの運用について通知し、個人データをEU法に従って処理しなければならないが、犯罪行為の検出を目的とする場合には特例がある。
ディープフェイクや公益に関する情報を生成するAIシステムの使用者は、それらが人工的に生成または操作されたものであることを開示する必要があり、この義務も法的に認められた場合や、人間の審査を経た場合には適用されない。(第50条)

汎用AIモデルのプロバイダーは、以下の義務を果たす必要がある。まず、AI室および国家所管当局の要請に応じて、モデルの技術文書を作成し、学習、テストプロセス、評価結果を含む情報を最新の状態に保つことが求められる。
次に、汎用AIモデルをAIシステムに統合しようとするプロバイダーに対し、能力と限界を十分に理解できる情報や文書を提供し、知的財産権や営業秘密を保護することに留意しつつ、附属書12に定める要素を含むようにする必要がある。
また、EU法に基づく著作権および関連権利を遵守する方針を策定し、特に指令(EU) 2019/790の第4条(3)に従った権利留保を特定し遵守することも必要である。
最後に、AI室が提供するテンプレートに従い、汎用AIモデルの学習に使用された内容について、詳細な要約を作成し、一般に公開する義務がある。(第53条)
目次
欧州議会及び理事会規則(EU) 2024/1689
第1章 一般規程
第1条 主題
第2条 適用範囲
第3条 定義
第4条 AIリテラシー
第2章 禁止されるAI慣行
第5条 禁止されるAI慣行
第3章 高リスクAIシステム
第1節 高リスクAIシステムの分類
第6条 高リスクAIシステムの分類規程
第7条 附属書3の改正
第2節 高リスクAIシステムに関する要件
第8条 要件の遵守
第9条 リスク管理システム
第10条 データおよびデータガバナンス
第11条 技術文書
第12条 記録保持
第13条 透明性および使用者への情報提供
第14条 人間による監視
第15条 正確性、堅牢性およびサイバーセキュリティ
第3節 高リスクAIシステムのプロバイダーおよび使用者、ならびにその他の当事者の義務
第16条 高リスクAIシステムのプロバイダーの義務
第17条 品質管理システム
第18条 文書の保持
第19条 自動的に生成されるログ
第20条 是正措置および情報提供義務
第21条 所管当局との協力
第22条 高リスクAIシステムプロバイダーの認定代理人
第23条 輸入者の義務
第24条 流通業者の義務
第25条 AIバリューチェーンに沿った責任
第26条 高リスクAIシステムの使用者の義務
第27条 高リスクAIシステムに関する基本的な権利の影響評価
第4節 届出当局および届出機関
第28条 届出当局
第29条 適合性評価機関の届出申請
第30条 届出の手順
第31条 届出機関に関連する要件
第32条 届出機関に関連する要件への適合性の推定
第33条 届出機関の子会社および請負業務
第34条 届出機関の業務上の義務
第35条 届出機関の識別番号およびリスト
第36条 届出の変更
第37条 届出機関の能力の確認
第38条 届出機関の調整
第39条 第三国の適合性評価機関
第5節 規格、適合性評価、証明書、登録
第40条 整合規格および標準化成果物
第41条 共通仕様
第42条 特定の要件への適合性の推定
第43条 適合性評価
第44条 証明書
第45条 届出機関の情報提供義務
第46条 適合性評価手順からの適用除外
第47条 EU適合宣言
第48条 CEマーキング
第49条 登録
第4章 特定のAIシステムのプロバイダーおよび使用者に関する透明性義務
第50条 特定のAIシステムのプロバイダーおよび使用者に関する透明性義務
第5章 汎用AIモデル
第1節 分類規程
第51条 システミック・リスクを有する汎用AIモデルとしての汎用AIモデルの分類
第52条 手順
第2節 汎用AIモデルのプロバイダーの義務
第53条 汎用AIモデルのプロバイダーの義務
第54条 汎用AIモデルのプロバイダーの認定代理人
第3節 システミック・リスクを有する汎用AIモデルのプロバイダーの義務
第55条 システミック・リスクを有する汎用AIモデルのプロバイダーの義務
第4節 実務規範
第56条 実務規範
第6章 イノベーションを支援するための措置
第57条 AI規制サンドボックス
第58条 AI規制サンドボックスのための詳細な取り決め、およびAI規制サンドボックスの機能化
第59条 AI規制サンドボックスにおける公共の利益のために特定のAIシステムを開発するための個人データの追加処理
第60条 AI規制サンドボックスの外側の実世界条件における高リスクAIシステムのテスト
第61条 AI規制サンドボックス外の実環境条件下のテストに参加するためのインフォームド・コンセント
第62条 プロバイダーおよび使用者、特に新興企業を含むSMEs、に関する措置
第63条 特定の事業者に関する適用除外
第7章 ガバナンス
第1節 EUレベルでのガバナンス
第64条 AI室
第65条 欧州人工知能委員会の設立と構成
第66条 委員会の任務
第67条 アドバイザリー・フォーラム
第68条 独立専門家の科学パネル
第69条 加盟国による専門家プールへのアクセス
第2節 国家所管当局
第70条 国家所管当局と単一連絡先の指定
第8章 高リスクAIシステムに関するEUデータベース
第71条 附属書3収載の高リスクAIシステムに関するEUデータベース
第9章 市販後モニタリング、情報共有および市場監視
第1節 市販後モニタリング
第72条 プロバイダーによる市販後モニタリングおよび高リスクAIシステムに関する市販後モニタリング計画
第2節 深刻な事象に関する情報の共有
第73条 深刻な事象の報告
第3節 執行
第74条 EU市場におけるAIシステムの市場監視および管理
第75条 汎用AIシステムの相互支援、市場監視および管理
第76条 市場監視当局による実環境条件下のテストの監督
第77条 基本的な権利を保護する当局の権限
第78条 機密性
第79条 リスクを呈するAIシステムに対応するための国家レベルでの手順
第80条 附属書3の適用において、プロバイダーが非高リスクと分類したAIシステムへの対応手順
第81条 EUセーフガード手続き
第82条 リスクを呈する適合AIシステム
第83条 形式的な不遵守事項
第84条 EUのAIシステムの支援構造
第4節 救済措置
第85条 市場監視当局に苦情を申し立てる権利
第86条 個別の意思決定に関する説明を受ける権利
第87条 違反の報告および報告者の保護
第5節 汎用AIモデルのプロバイダーに関する監督、調査、執行およびモニタリング
第88条 汎用AIモデルのプロバイダーの義務に関する執行
第89条 監視行動
第90条 科学パネルによるシステミック・リスクの警告
第91条 文書や情報を要請する権限
第92条 評価を実施する権限
第93条 措置を要請する権限
第94条 汎用AIモデルの経済事業者の手続き上の権利
第10章 行動規範およびガイドライン
第95条 特定要件の自主的適用に関する行動規範
第96条 本規則の実施に関する欧州委員会からのガイドライン
第11章 権限の委任と専門委員会手続き
第97条 委任の行使
第98条 専門委員会手続き
第12章 罰則
第99条 罰則
第100条 EUの機関、団体、事務所および当局に対する行政制裁金
第101条 汎用AIモデルのプロバイダーに関する罰金
第13章 最終規程
第102条 規則(EC) No 300/2008 の改正
第103条 規則(EU) No 167/2013 の改正
第104条 規則(EU) No 168/2013 の改正
第105条 指令2014/90/EUの改正
第106条 指令(EU) 2016/797の改正
第107条 規則(EU) 2018/858の改正
第108条 規則(EU) 2018/1139の改正
第109条 規則(EU) 2019/2144の改正
第110条 指令(EU) 2020/1828の改正
第111条 既に上市または使用開始されているAIシステム、および使用開始されている汎用AIモデル
第112条 評価および見直し
第113条 発効および適用
(注釈)
附属書1 EU調和化法令のリスト
セクションA. 新しい法的枠組みに基づくEU調和化法令のリスト
セクションB. その他のEU調和化法令のリスト
附属書2 第5条(1)第1副段落(h)(iii)で言及される犯罪行為のリスト
附属書3 第6条(2)に言及される高リスクAIシステム
附属書4 第11条(1)で言及される技術文書
附属書5 EU適合宣言
附属書6 内部管理に基づく適合性評価手順
附属書7 品質管理システムの評価および技術文書の評価に基づく適合性
附属書8 第49条に従って高リスクAIシステムを登録する際に提出すべき情報
セクションA – 第49条(1)に従って高リスクAIシステムのプロバイダーが提出すべき情報
セクションB – 第49条(2)に従い、高リスクAIシステムのプロバイダーが提出すべき情報
セクションC – 第49条(3)に従い、高リスクAIシステムの使用者が提出すべき情報
附属書9 第60条に従い、実環境条件下のテストに関連して、 附属書3に列挙された高リスクAIシステムの登録時に提出すべき情報
附属書10 自由、安全、および司法の分野における大規模ITシステムに関するEU法
附属書11 第53条(1)(a)で言及される技術文書 – 汎用AIモデルのプロバイダーに関する技術文書
セクション 1 汎用AIモデルのすべてのプロバイダーが提供すべき情報
セクション 2 システミック・リスクを有する汎用AIモデルのプロバイダーが提供すべき追加情報
附属書12 第53条(1)(b)で言及される透明性情報 – 汎用AIモデルのプロバイダーが、 そのモデルをAIシステムに統合する川下プロバイダーに提供する技術文書
附属書13 第51条で言及されるシステミック・リスクを有する汎用AIモデルの指定基準
基礎情報
法令(現地語) | |
法令(日本語) | 規則(EC) No 300/2008、(EU) No 167/2013、(EU) No 168/2013、(EU) 2018/858、(EU) 2018/1139および(EU) 2019/2144ならびに指令2014/90/EU、(EU) 2016/797および(EU) 2020/1828を改正し、人工知能に関する調和規程を定める2024年06月13日付欧州議会及び理事会規則(EU) 2024/1689(人工知能法) |
公布日 | 2024年07月12日 |
所管当局 | 欧州委員会 DG-CONNECT |
作成者

株式会社先読
調査相談はこちら
概要調査、詳細調査、比較調査、個別の和訳、定期報告調査、年間コンサルなど
様々な調査に柔軟に対応可能でございます。
- ●●の詳細調査/定期報告調査
- ●●の他国(複数)における規制状況調査
- 細かな質問への適宜対応が可能な年間相談サービス
- 世界複数ヵ国における●●の比較調査 など
無料相談フォーム
無料メールマガジンの申込み|
希望の情報分野を選択可能
登録はこちらからメールアドレスを入力してお申込みください。
「登録」クリック後、購読したいメールマガジンの種類を選択いただけます。
★配信頻度|各メルマガについて月に1~2回
(不定期)
メルマガ|全般(全分野)
当社で扱う情報分野全般の注目規制動向の情報にご関心がある方はこちら。
メルマガ|化学物質
化学物質分野の注目規制動向の情報にご関心がある方はこちら。一般・工業用化学品や軍事用途の化学品、食品添加物や農薬、医薬品などが対象です。
メルマガ|環境
環境分野の注目規制動向の情報にご関心がある方はこちら。大気・水・土壌汚染のほか、地球温暖化やオゾン層破壊、騒音・振動・悪臭などに対する規制が対象です。
メルマガ|先端技術
先端技術分野の注目規制動向の情報にご関心がある方はこちら。当社で言う先端技術分野とは、人工知能(AI)、仮想・拡張現実(VR・AR)、自動運転、エコカー、デジタルトランスフォーメーション(DX)などをいいます。
メルマガ|新領域
新領域分野の注目規制動向の情報にご関心がある方はこちら。当社でいう新領域分野とは、宇宙、海底・深海底、大深度地下などをいいます。