2024 年 3 月 13 日、欧州議会は人工知能の規制枠組みに関連するすべての問題を包括的に解決する人工知能法を可決しました。これはヨーロッパにおける画期的なEU法となるだろう。
人工知能法は、公布から 24 か月以内の 2026 年末にヨーロッパで完全に施行されます。しかし、容認できないリスクをもたらす人工知能システムの禁止は6か月以内に実施される予定で、つまり2024年に実施される可能性がある。さらに、一般的な人工知能システムに関する規則は、2025 年半ばに施行され始める予定です。
AIシステムとは何ですか?
- 人工知能法で言及されている人工知能システムは、さまざまな程度の自律性で動作するように設計されたマシンベースのシステムとして定義されています。これらのシステムは、システムの展開後に明示的または暗黙的な目標に対する適応性を示し、受信した入力から、物理環境または仮想環境に影響を与える可能性のある予測、コンテンツ、推奨、決定などの出力を生成する方法を推測します。
- AI システムの広義の定義により、AI 法の適用範囲は非常に柔軟になり、ソフトウェア製品だけでなく、自律システムとみなされる可能性のある他のすべてのツール、ハードウェア、またはソリューションもカバーされ、新しい状況を学習して結論を下すことができます。以前に配信された入力データに基づいて。さらに、この広義の定義により、人工知能法は AI 製品自体だけでなく、AI コンポーネントを使用する他の製品やソリューションにも適用されます。
誰に適用されますか?
- 人工知能法は、人工知能システムを扱う事業体、特に以下に適用されます。
- プロバイダー – AI システムを開発し、それを市場に投入するか、独自ブランドのサービスとして提供する事業体。
- 導入者 – 独自の権限の下で AI システムを使用するエンティティ。
- さらに、AI 法は、輸入業者、販売業者、認定代理人などの他の種類の事業体にも適用されます。
禁止されているAIシステム
人工知能法は、リスクベースの評価アプローチを提案し、個人 (特定の AI システムの影響を受ける自然人) への影響に基づいて、さまざまなカテゴリの AI システムにさまざまな要件を課しています。
禁止された AI システムは、許容できないリスクをもたらします。一部の例外を除き、禁止されている人工知能システムには次のものが含まれます。
- 個人に情報に基づいた意思決定をさせるために、潜在意識的、操作的、または欺瞞的な技術を使用するシステム。
- 有害または不利な扱いをもたらす社会的採点システム。
- インターネットや監視カメラの映像から対象外の顔画像をキャプチャする顔認識システムを使用する。
- 職場や教育機関向けの感情認識システム。
- いくつかの生体認証分類システム。
- 特定のリアルタイム リモート生体認証システム。
ハイリスクAIシステム
人工知能法の中核となるカテゴリは、高リスクの人工知能システム、つまり自然人の健康、安全、または基本的権利に危害を及ぼす重大なリスクを引き起こす可能性のあるシステムです。人工知能法によれば、高リスク人工知能システムとは、EU 製品安全法の対象となるシステムを指します。これには、次のシステムが含まれますが、これらに限定されません。
- 重要インフラで使用される AI システム。
- 教育および職業訓練用の AI システム。
- 雇用、労働者管理、自営業のための AI システム。
- 法執行用人工知能システム。
- 移民、亡命、国境管理システム。
法案に含まれる高リスク AI システムのリストは網羅的ではありません。つまり、高リスク AI システムのサンプル カテゴリは将来追加され、技術トレンドに合わせて追加される可能性があります。
人工知能法は、高リスクの人工知能システムに加えて、他の中リスクおよび低リスクの人工知能システムも対象としています。
高リスクの人工知能システムに対する義務
高リスク AI システムのプロバイダーや導入者は、次のようなさまざまな義務に直面することになります。
- 高リスクの人工知能システムのライフサイクル全体にわたってリスク管理システムを実装します。これには、既知の合理的に予見可能なリスクの特定と分析、対象を絞ったリスク管理措置の実施が含まれます。
- 適切なデータ ガバナンス メカニズムを実装します。AI モデルのトレーニング、検証、テストに使用されるデータが目的に適合し、適切な品質であることを保証します。
AI システムの詳細な技術文書の草案を作成し、維持します。 - AI システムの動作中にイベントを自動的に記録する記録保持機能をシステムに装備します。
- AI システムに対する人間の監視を維持する。
- AI システムの精度、堅牢性、サイバーセキュリティを適切なレベルに維持します。
- 品質管理システムを導入します。
- 特定のカテゴリの人工知能システムに対する影響評価または適合性評価を実施します。
- 市販後調査を実施 - AI システム データを収集して分析します。
- EU データベース登録義務。
- 人工知能システムの影響を受ける個人に対する情報/透明性の義務。
一般的な人工知能
標準的な人工知能システムに加えて、人工知能法では、人工知能を使用したシステム (GPAI) という別のカテゴリも定義されています。これは一般的な性質のシステムであり、幅広い下流システムまたはアプリケーションで使用できます。 GPAI には、さまざまなタスクを実行できる人工知能モデルが含まれており、汎用的で、多くの場合、大量のデータから自律的に学習し、幅広いアプリケーションで使用できます。
人工知能法に基づき、GPAI は別の一連の要件に直面します。
- 実装モデルの詳細な技術文書。
- 著作権法に関する特定のポリシーを導入する。
- トレーニング データ セットの内容の「十分に詳細な」概要を提供します。
- 人工知能によって生成または操作されたコンテンツに対するラベル表示義務。
違反に対する制裁
違反の種類や企業の規模に応じて、AI法は違反に対して厳しい制裁を課します。人工知能法の禁止事項に違反した場合、最大 3,500 万ユーロまたは世界の年間売上高の 7% の罰金が科せられる可能性があり、一方、高リスク AI システムに基づく義務を履行しない場合は、最大 1,500 万ユーロまたは世界の年間売上高の 3% の罰金が科せられる可能性があります。世界の年間売上高。
より広範な法的枠組み
人工知能法は高リスクのアプリケーションと GPAI に焦点を当てていますが、より広範な AI の実装を見失わないことが重要です。企業は、自社の業務におけるすべての AI テクノロジーの導入を徹底的に評価し、AI 法案可決前にすでに運用されていたテクノロジーをレビューして、AI 法案だけでなく既存の法的枠組みにも確実に準拠する必要があります。これには、GDPR によって管理されるプライバシーとデータ保護の問題のほか、さまざまな AI システムに適用される知的財産、消費者保護、差別禁止法の遵守が含まれます。
Get exact prices For the country / regionE-mail: mail@yezhimaip.com |