私達と接続

人工知能

人工知能法: 議会と議会が世界初の AI ルールに関する協定を締結

SHARE:

公開済み

on

私たちはあなたのサインアップを使用して、あなたが同意した方法でコンテンツを提供し、あなたの理解を深めます。 いつでも退会できます。

XNUMX日間の「マラソン」協議を経て、理事会議長国と欧州議会の交渉担当者は、人工知能(AI)に関する調和ルールに関する提案、いわゆる人工知能法に関して暫定合意に達した。 この規制草案は、欧州市場に投入され、EU 内で使用される AI システムの安全性を確保し、基本的権利と EU の価値観を尊重することを目的としています。 この画期的な提案は、ヨーロッパにおける AI への投資とイノベーションを促進することも目的としています。

カルメ・アルティガス、スペイン国務長官(デジタル化と人工知能担当)

これは歴史的な偉業であり、未来に向けた大きなマイルストーンです。 本日の合意は、社会と経済の将来にとって重要な分野で、急速に進化する技術環境における世界的な課題に効果的に対処するものです。 そして、この取り組みにおいて、私たちは、国民の基本的権利を完全に尊重しながら、ヨーロッパ全体でイノベーションと人工知能の普及を促進するという、非常に微妙なバランスを保つことに成功しました。カルメ・アルティガス、スペイン国務長官(デジタル化と人工知能担当)

AI法とは、 旗艦 これは、EU の単一市場全体で民間および公的主体による安全で信頼できる AI の開発と導入を促進する可能性を秘めた立法イニシアチブです。 主なアイデアは、AI が社会に害を及ぼす能力に基づいて規制することです。 「リスクベース」 アプローチ: リスクが高いほどルールは厳しくなる。 世界初のこの種の立法提案として、 グローバルスタンダード GDPR が行ったのと同様に、他の法域における AI 規制にも適用され、世界舞台での技術規制に対する欧州のアプローチが促進されます。

暫定合意の主な要素

当初の委員会提案と比較して、暫定合意の主な新しい要素は次のように要約できます。

  • ルール 影響力の高い汎用 AI モデル 将来的にシステミックリスクを引き起こす可能性があるもの、および高リスクのもの AIシステム
  • 改訂されたシステム ガバナンス EUレベルである程度の強制力を持つ
  • のリストの拡張 禁止 しかし、使用する可能性があります 遠隔生体認証 公共の場での法執行機関による行為(安全措置の対象となる)
  • 高リスク AI システムの導入者に対する、 基本的権利の影響評価 AIシステムを導入する前に。

より具体的に言えば、暫定合意には以下の側面が含まれます。

定義と範囲

それを確実にするために 定義 AI システムの定義は、AI をより単純なソフトウェア システムから区別するための十分に明確な基準を提供しますが、妥協協定はその定義を OECD が提案するアプローチと一致させます。

暫定協定では、この規制はEU法の範囲外の分野には適用されず、いかなる場合でも加盟国の権限に影響を与えてはならないことも明確にしている。 国際セキュリティー またはこの分野の業務を委託されたあらゆる組織。 なお、AI法は専用のシステムには適用されません。 ミリタリー用(軍用)機材 or 防衛 目的。 同様に、協定では、この規制は、次の目的のみに使用される AI システムには適用されないと規定されています。 研究とイノベーション、または専門的でない目的で AI を使用する人々向け。

広告

AI システムを高リスクおよび禁止された AI 実践として分類する

妥協合意では、次のことが規定されています。 水平の保護層、 これには、重大な基本的権利侵害やその他の重大なリスクを引き起こす可能性が低い AI システムが捕捉されないようにするための高リスク分類が含まれます。 AI システムのみを提示 限られたリスク 非常に光にさらされるだろう 透明性義務たとえば、コンテンツが AI によって生成されたものであることを開示して、ユーザーが今後の使用について情報に基づいた決定を下せるようにします。

広範囲の リスクが高い AI システムは認可されることになるが、EU 市場へのアクセスを得るには一連の要件と義務が課せられることになる。 これらの要件は、共同立法者によって明確化され、より適切なものとなるように調整されています。 技術的に実現可能 & 負担が少ない たとえば、データの品質に関して、またはリスクの高い AI システムが要件に準拠していることを証明するために中小企業が作成する必要がある技術文書に関連して、利害関係者が遵守する必要があります。

AI システムは複雑なバリュー チェーンを通じて開発および配布されるため、妥協案には、 責任の配分 & さまざまな俳優の役割 それらのチェーン、特に AI システムのプロバイダーとユーザー。 また、AI 法に基づく責任と、関連する EU データ保護法や分野別法などの他の法律にすでに存在する責任との関係も明確にしています。

AIの用途によってはリスクが考えられる 容認できない したがって、これらのシステムは EU から禁止されることになります。 暫定協定では、例えば認知的行為を禁止している。 行動操作、対象外 廃棄 インターネットまたは監視カメラの映像からの顔画像、 感情認識 職場や教育機関において、 ソーシャルスコアリング, 生体認証の分類 性的指向や宗教的信念などの機密データを推測するため。 予測的ポリシング 個人向け。

法執行の例外

の特異性を考慮すると、 法執行機関 重要な業務で AI を使用する能力を維持する必要性を考慮して、法執行目的での AI システムの使用に関する委員会提案のいくつかの変更が合意されました。 適切な対象となる 保障措置、これらの変更は、活動に関連する機密の運用データの機密性を尊重する必要性を反映することを目的としています。 たとえば、法執行機関が法規制を通過していない高リスク AI ツールを導入できるようにする緊急手順が導入されました。 適合性評価 緊急の場合の手続き。 ただし、次のことを保証するための特定のメカニズムも導入されています。 基本的権利 AI システムの潜在的な悪用に対して十分に保護されます。

また、リアルタイム性の活用に関しては、 遠隔生体認証 暫定協定では、法執行の目的でそのような使用が厳密に必要な場合、したがって法執行機関がそのようなシステムの使用を例外的に許可されるべき目的を明確にしています。 妥協合意では以下のことが規定されています 追加の保護 そして、これらの例外は、特定の犯罪の被害者の場合、テロ攻撃などの本物の脅威、現在の脅威、または予見可能な脅威の防止、最も重大な犯罪の容疑者の捜索などに限定されています。

汎用 AI システムと基盤モデル

AI システムがさまざまな目的に使用される状況を考慮するために、新しい規定が追加されました (汎用AI)、汎用 AI テクノロジーがその後別の高リスク システムに統合される場合。 暫定合意では、汎用AI(GPAI)システムの特定のケースについても言及している。

具体的なルールについても合意されている 基礎モデル、ビデオ、テキスト、画像の生成、横言語での会話、コンピューティング、またはコンピューターコードの生成など、幅広い独特のタスクを有能に実行できる大規模システム。 暫定合意では、基礎モデルが特定の基準に準拠する必要があると規定されています。 透明性義務 市場に投入される前に。 より厳格な制度が導入されました 「インパクト大」 基礎モデル。 これらは、大量のデータを使用してトレーニングされた基礎モデルであり、平均をはるかに上回る高度な複雑さ、機能、パフォーマンスを備えており、バリュー チェーンに沿ってシステミック リスクを分散させることができます。

新しいガバナンスアーキテクチャ

GPAI モデルに関する新しい規則と、EU レベルでの施行の明らかな必要性を受けて、 AIオフィス 委員会内には、これらの最先端の AI モデルを監督し、基準とテスト手法の促進に貢献し、すべての加盟国で共通のルールを施行する任務を負う組織が設置されています。 あ 独立した専門家からなる科学委員会 は、基礎モデルの機能を評価する方法論の開発に貢献し、影響の大きい基礎モデルの指定と出現について助言し、基礎モデルに関連する可能性のある物質安全リスクを監視することにより、GPAI モデルについて AI オフィスに助言します。

  AIボード、 この組織は加盟国の代表で構成され、調整プラットフォームおよび欧州委員会の諮問機関として残り、財団モデルの実施規範の設計を含む規制の実施に関して加盟国に重要な役割を与えることになる。 最後に、 諮問フォーラム 業界代表者、中小企業、新興企業、市民社会、学界などの利害関係者を対象とした委員会が設立され、AI理事会に技術的専門知識を提供する予定です。

罰則

AI法違反に対する罰金は、違反企業の前会計年度の世界年間売上高の割合またはあらかじめ決められた額のいずれか高い方として設定された。 これは、禁止された AI アプリケーションの違反に対しては 35 万ユーロまたは 7%、AI 法の義務の違反に対しては 15 万ユーロまたは 3%、不正確な情報の提供に対しては 7,5 万ユーロまたは 1,5% となります。 ただし、仮契約では次のように定められています。 より比例したキャップ AI法の規定に違反した場合の中小企業および新興企業に対する行政罰金について。

妥協合意では、自然人または法人が関連する団体に対して苦情を申し立てることができることも明確にしています。 市場監視当局 AI 法の違反に関するものであり、そのような苦情はその当局の専用手順に従って処理されることが期待される場合があります。

透明性と基本的権利の保護

暫定合意には次のことが規定されています。 基本的権利の影響評価 リスクの高い AI システムが導入者によって市場に投入される前に。 暫定合意では、増額も規定されている。 透明 ハイリスクAIシステムの利用について。 特に、委員会提案の一部の規定は、公的機関である高リスク AI システムの特定のユーザーも登録する義務があることを示すために修正されました。 EUデータベース 高リスクの AI システム向け。 さらに、新たに追加された規定では、利用者の義務が強調されています。 感情認識システム 自然人がそのようなシステムにさらされている場合には、それらに通知すること。

イノベーションを支援する措置

よりイノベーションに適した法的枠組みを構築し、証拠に基づいた規制学習を促進することを目的として、以下の規定が定められています。 イノベーションを支援する措置 委員会の提案と比較して大幅に変更されました。

特に、AI は次のことを行うことが明らかになりました。 規制サンドボックスは、革新的な AI システムの開発、テスト、検証のための制御された環境を確立することになっていますが、現実世界の状況で革新的な AI システムをテストできるようにする必要もあります。 さらに、新たな規定が追加され、 テスト AI システムの 現実世界の状況、特定の条件と保護措置の下で。 中小企業の管理負担を軽減するため、暫定協定にはこうした事業者を支援するために講じるべき措置のリストが含まれており、限定的かつ明確に規定されたいくつかの免除規定が設けられている。

発効

暫定合意ではAI法の適用が規定されている 2年 ただし、特定の規定については例外があります。

次のステップ

本日の暫定合意を受けて、新規制の詳細を最終決定するために今後数週間技術レベルでの作業が続けられる。 この作業が完了したら、議長国は承認を得るために妥協案を加盟国の代表者(Coreper)に提出する予定である。

全文は両機関によって確認され、共同立法者によって正式に採択される前に法的言語の修正を受ける必要がある。

基礎的な情報

2021年XNUMX月に提出された欧州委員会の提案は、基本的権利を尊重する安全で合法なAIの単一市場全体での開発と普及を促進するというEUの政策の重要な要素である。

この提案はリスクベースのアプローチに従い、法的確実性を確保することを目的とした AI のための統一的で水平的な法的枠組みを定めています。 規制草案は、AIへの投資とイノベーションを促進し、ガバナンスと基本的権利と安全に関する現行法の効果的な施行を強化し、AIアプリケーションの単一市場の発展を促進することを目的としている。 これは、ヨーロッパでの AI への投資を加速することを目的とした人工知能に関する調整計画など、他の取り組みとも連携しています。 6年2022月2023日、理事会はこのファイルに関する一般的なアプローチ(交渉任務)について合意に達し、XNUMX年XNUMX月中旬に欧州議会との機関間協議(「三者協議」)に入った。

この記事を共有する:

EU Reporterは、さまざまな外部ソースから幅広い視点を表現した記事を公開しています。 これらの記事での立場は、必ずしもEUレポーターの立場ではありません。

トレンド