Le 13 mars 2024, le Parlement européen a adopté la loi sur l'intelligence artificielle, qui a résolu globalement toutes les questions liées au cadre réglementaire de l'intelligence artificielle. Cela deviendra une législation européenne historique en Europe.
La loi sur l’intelligence artificielle entrera pleinement en vigueur en Europe fin 2026, dans les 24 mois suivant sa publication. Mais l’interdiction des systèmes d’intelligence artificielle qui présentent des risques inacceptables sera mise en œuvre dans un délai de six mois, ce qui signifie qu’elle pourrait être mise en œuvre en 2024. En outre, les règles concernant les systèmes généraux d’intelligence artificielle commenceront à être mises en œuvre à la mi-2025.
Qu'est-ce qu'un système d'IA ?
- Les systèmes d'intelligence artificielle mentionnés dans la loi sur l'intelligence artificielle sont définis comme des systèmes basés sur des machines conçus pour fonctionner avec différents degrés d'autonomie. Ces systèmes font preuve d'adaptabilité à des objectifs explicites ou implicites après le déploiement du système, déduisant des entrées qu'ils reçoivent comment produire des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant avoir un impact sur l'environnement physique ou virtuel.
- La définition large des systèmes d'IA rend le champ d'application de l'AI Act très flexible, couvrant non seulement les produits logiciels mais également tous les autres outils, matériels ou solutions susceptibles d'être considérés comme des systèmes autonomes, pouvant apprendre et tirer des conclusions sur de nouvelles situations. sur la base des données d’entrée qui leur ont été préalablement fournies. De plus, cette définition large rend la loi sur l'intelligence artificielle applicable non seulement au produit d'IA lui-même, mais également à tout autre produit ou solution utilisant des composants d'IA.
À qui s’applique-t-il ?
- La loi sur l'intelligence artificielle s'applique aux entités s'occupant de systèmes d'intelligence artificielle, notamment :
- Fournisseur – Entité qui développe un système d’IA et le met sur le marché ou en tant que service sous sa propre marque.
- Déployeur – Une entité qui utilise un système d'IA sous sa propre autorité.
- De plus, la loi sur l'IA s'applique également à d'autres types d'entités telles que les importateurs, les distributeurs et les représentants autorisés.
Systèmes d'IA interdits
La loi sur l’intelligence artificielle propose une approche d’évaluation basée sur les risques et impose différentes exigences aux différentes catégories de systèmes d’IA en fonction de leur impact sur les individus (personnes physiques concernées par un système d’IA donné).
Les systèmes d’IA interdits présentent un risque inacceptable. À quelques exceptions près, les systèmes d’intelligence artificielle interdits comprennent :
- Les systèmes qui utilisent des techniques subliminales, manipulatrices ou trompeuses pour inciter les individus à prendre des décisions éclairées ;
- les systèmes de notation sociale qui entraînent des traitements préjudiciables ou défavorables ;
- utiliser des systèmes de reconnaissance faciale qui capturent des images non ciblées de visages à partir d’Internet ou de séquences de vidéosurveillance ;
- Systèmes de reconnaissance des émotions pour les lieux de travail et les établissements d'enseignement ;
- Plusieurs systèmes de classification biométrique ;
- Certains systèmes biométriques à distance en temps réel.
Systèmes d'IA à haut risque
La catégorie principale de la loi sur l'intelligence artificielle concerne les systèmes d'intelligence artificielle à haut risque, c'est-à-dire les systèmes qui peuvent présenter un risque important de préjudice à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques. Selon la loi sur l'intelligence artificielle, les systèmes d'intelligence artificielle à haut risque font référence aux systèmes couverts par la législation européenne sur la sécurité des produits, y compris, mais sans s'y limiter, les systèmes suivants :
- Systèmes d'IA utilisés dans les infrastructures critiques ;
- Systèmes d'IA pour l'éducation et la formation professionnelle ;
- Systèmes d'IA pour l'emploi, la gestion des travailleurs et le travail indépendant ;
- Systèmes d’intelligence artificielle pour les forces de l’ordre ;
- Systèmes de gestion de l’immigration, de l’asile et du contrôle des frontières.
La liste des systèmes d'IA à haut risque figurant dans le projet de loi n'est pas exhaustive, ce qui signifie que les catégories d'échantillons de systèmes d'IA à haut risque pourraient être complétées à l'avenir et alignées sur les tendances technologiques.
Outre les systèmes d’intelligence artificielle à haut risque, la loi sur l’intelligence artificielle couvre également d’autres systèmes d’intelligence artificielle à risque moyen et faible.
Obligations pour les systèmes d’intelligence artificielle à haut risque
Les fournisseurs et/ou les déployeurs de systèmes d’IA à haut risque seront confrontés à une série d’obligations, telles que :
- Mettre en œuvre des systèmes de gestion des risques tout au long du cycle de vie des systèmes d'intelligence artificielle à haut risque ; cela comprend l'identification et l'analyse des risques connus et raisonnablement prévisibles et la prise de mesures ciblées de gestion des risques ;
- Mettre en œuvre des mécanismes de gouvernance des données appropriés – en garantissant que les données utilisées pour former, valider et tester les modèles d'IA sont adaptées à leur objectif et de qualité appropriée ;
Rédiger et maintenir à jour une documentation technique détaillée pour les systèmes d'IA ; - Équiper le système de capacités de tenue de registres pour enregistrer automatiquement les événements pendant le fonctionnement du système d'IA ;
- Maintenir la surveillance humaine des systèmes d’IA ;
- Maintenir des niveaux appropriés de précision, de robustesse et de cybersécurité des systèmes d’IA ;
- Mettre en œuvre un système de gestion de la qualité ;
- Réaliser des analyses d'impact ou des évaluations de conformité pour certaines catégories de systèmes d'intelligence artificielle ;
- Mettre en œuvre une surveillance post-commercialisation - collecter et analyser les données du système d'IA ;
- Obligations d’enregistrement dans la base de données de l’UE ;
- Obligations d’information/transparence envers les personnes concernées par les systèmes d’intelligence artificielle.
intelligence artificielle générale
Outre les systèmes d'intelligence artificielle standards, la loi sur l'intelligence artificielle définit également une catégorie distincte : les systèmes utilisant l'intelligence artificielle (GPAI). Il s'agit d'un système de nature générale qui peut être utilisé dans une large gamme de systèmes ou d'applications en aval. GPAI comprend des modèles d'intelligence artificielle capables d'effectuer diverses tâches, sont à usage général, apprennent souvent de manière autonome à partir de grandes quantités de données et peuvent être utilisés dans un large éventail d'applications.
En vertu de la loi sur l'intelligence artificielle, la GPAI est confrontée à un ensemble d'exigences distinctes :
- Documentation technique détaillée du modèle de mise en œuvre ;
- Mettre en œuvre des politiques spécifiques respectant la loi sur le droit d'auteur ;
- Fournir un résumé « suffisamment détaillé » du contenu de l'ensemble de données de formation ;
- Obligations d’étiquetage des contenus générés ou manipulés par l’intelligence artificielle.
Sanctions en cas d'infraction
Selon le type de violation et la taille de l'entreprise, la loi sur l'IA impose des sanctions sévères en cas de violation. La violation des interdictions de la loi sur l'intelligence artificielle pourrait entraîner des amendes allant jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, tandis que le non-respect des obligations liées aux systèmes d'IA à haut risque pourrait entraîner des amendes allant jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial. chiffre d'affaires annuel global. .
Cadre juridique plus large
Même si la loi sur l’intelligence artificielle se concentre sur les applications à haut risque et la GPAI, il est important de ne pas perdre de vue la mise en œuvre plus large de l’IA. Les entreprises doivent évaluer minutieusement le déploiement de toutes les technologies d’IA dans leurs opérations et revoir les technologies qui étaient déjà en service avant l’adoption du projet de loi sur l’IA pour garantir la conformité non seulement avec le projet de loi sur l’IA mais également avec les cadres juridiques existants. Cela inclut les questions de confidentialité et de protection des données régies par le RGPD, ainsi que le respect des lois sur la propriété intellectuelle, la protection des consommateurs et l'anti-discrimination qui s'appliquent aux divers systèmes d'IA.
Get exact prices For the country / regionE-mail: mail@yezhimaip.com |