Suivez nous sur

intelligence artificielle

Loi sur l'intelligence artificielle : le Conseil et le Parlement parviennent à un accord sur les premières règles mondiales en matière d'IA

PARTAGEZ:

Publié le

on

Après trois jours de négociations marathon, la présidence du Conseil et les négociateurs du Parlement européen sont parvenus à un accord provisoire sur la proposition de règles harmonisées en matière d'intelligence artificielle (IA), dite loi sur l'intelligence artificielle. Le projet de règlement vise à garantir que les systèmes d’IA mis sur le marché européen et utilisés dans l’UE sont sûrs et respectent les droits fondamentaux et les valeurs de l’UE. Cette proposition historique vise également à stimuler l’investissement et l’innovation dans le domaine de l’IA en Europe.

Carme Artigas, secrétaire d'État espagnole à la numérisation et à l'intelligence artificielle

Il s’agit d’une réalisation historique et d’une étape importante vers l’avenir ! L'accord d'aujourd'hui répond efficacement à un défi mondial dans un environnement technologique en évolution rapide dans un domaine clé pour l'avenir de nos sociétés et de nos économies. Et dans cette entreprise, nous avons réussi à maintenir un équilibre extrêmement délicat : stimuler l'innovation et l'adoption de l'intelligence artificielle dans toute l'Europe tout en respectant pleinement les droits fondamentaux de nos citoyens.Carme Artigas, secrétaire d'État espagnole à la numérisation et à l'intelligence artificielle

La loi sur l’IA est un vaisseau amiral initiative législative susceptible de favoriser le développement et l'adoption d'une IA sûre et fiable sur le marché unique de l'UE par les acteurs privés et publics. L'idée principale est de réguler l'IA en fonction de sa capacité à nuire à la société à la suite d'un « basé sur le risque » approche: plus le risque est élevé, plus les règles sont strictes. En tant que première proposition législative de ce type au monde, elle peut établir un norme mondiale pour la réglementation de l’IA dans d’autres juridictions, tout comme l’a fait le RGPD, promouvant ainsi l’approche européenne de la réglementation technologique sur la scène mondiale.

Les principaux éléments de l'accord provisoire

Par rapport à la proposition initiale de la Commission, les principaux nouveaux éléments de l'accord provisoire peuvent être résumés comme suit :

  • règles sur modèles d'IA à usage général à fort impact qui peuvent entraîner un risque systémique à l'avenir, ainsi que sur des Systèmes d'IA
  • un système révisé de gouvernance avec certains pouvoirs d'exécution au niveau de l'UE
  • extension de la liste des interdictions mais avec la possibilité d'utiliser identification biométrique à distance par les forces de l'ordre dans les espaces publics, sous réserve de garanties
  • une meilleure protection des droits grâce à l’obligation pour les déployeurs de systèmes d’IA à haut risque de mener une analyse d'impact sur les droits fondamentaux avant de mettre en service un système d’IA.

Plus concrètement, l'accord provisoire couvre les aspects suivants :

Définitions et portée

Faire en sorte que le définition d’un système d’IA fournit des critères suffisamment clairs pour distinguer l’IA des systèmes logiciels plus simples, l’accord de compromis aligne la définition sur l’approche proposée par l’OCDE.

L'accord provisoire précise également que le règlement ne s'applique pas aux domaines ne relevant pas du champ d'application du droit de l'UE et ne devrait en aucun cas affecter les compétences des États membres en matière de la sécurité nationale ou toute entité chargée de tâches dans ce domaine. En outre, la loi sur l'IA ne s'appliquera pas aux systèmes utilisés exclusivement à des fins militaire or la défense fins. De même, l'accord prévoit que le règlement ne s'appliquerait pas aux systèmes d'IA utilisés dans le seul but de recherche et innovation, ou pour les personnes utilisant l'IA à des fins non professionnelles.

Publicité

Classification des systèmes d’IA comme pratiques d’IA à haut risque et interdites

L'accord de compromis prévoit un couche de protection horizontale, y compris une classification à haut risque, pour garantir que les systèmes d’IA qui ne sont pas susceptibles de provoquer de graves violations des droits fondamentaux ou d’autres risques importants ne soient pas capturés. Systèmes d'IA présentant uniquement risque limité serait soumis à une très légère obligations de transparence, par exemple en révélant que le contenu a été généré par l'IA afin que les utilisateurs puissent prendre des décisions éclairées quant à leur utilisation ultérieure.

Une grande sélection d’ risque élevé Les systèmes d’IA seraient autorisés, mais soumis à un ensemble d’exigences et d’obligations pour accéder au marché de l’UE. Ces exigences ont été clarifiées et ajustées par les colégislateurs de manière à être plus Techniquement faisable et moins fastidieux que les parties prenantes doivent respecter, par exemple en ce qui concerne la qualité des données, ou en ce qui concerne la documentation technique qui doit être élaborée par les PME pour démontrer que leurs systèmes d'IA à haut risque sont conformes aux exigences.

Étant donné que les systèmes d’IA sont développés et distribués via des chaînes de valeur complexes, l’accord de compromis comprend des changements clarifiant les répartition des responsabilités et rôles des différents acteurs dans ces chaînes, notamment les fournisseurs et utilisateurs de systèmes d’IA. Il clarifie également la relation entre les responsabilités au titre de la loi sur l'IA et les responsabilités qui existent déjà en vertu d'autres législations, telles que la législation européenne relative à la protection des données ou la législation sectorielle pertinente.

Pour certaines utilisations de l’IA, le risque est jugé inacceptable et, par conséquent, ces systèmes seront interdits dans l’UE. L'accord provisoire interdit, par exemple, les activités cognitives manipulation comportementale, le non ciblé mise au rebut d'images faciales provenant d'Internet ou d'images de vidéosurveillance, reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement, notation sociale, catégorisation biométrique pour déduire des données sensibles, telles que l'orientation sexuelle ou les croyances religieuses, et certains cas de maintien de l'ordre prédictif pour les particuliers.

Exceptions en matière d'application de la loi

Compte tenu des spécificités de Autorités chargées de l'application de la loi et la nécessité de préserver leur capacité à utiliser l'IA dans leur travail vital, plusieurs modifications de la proposition de la Commission ont été convenues concernant l'utilisation des systèmes d'IA à des fins répressives. Sous réserve de garanties, ces changements visent à refléter la nécessité de respecter la confidentialité des données opérationnelles sensibles en relation avec leurs activités. Par exemple, une procédure d’urgence a été introduite permettant aux forces de l’ordre de déployer un outil d’IA à haut risque qui n’a pas passé les tests. évaluation de la conformité procédure en cas d'urgence. Toutefois, un mécanisme spécifique a également été mis en place pour garantir que droits fondamentaux seront suffisamment protégés contre toute utilisation abusive potentielle des systèmes d’IA.

Par ailleurs, en ce qui concerne l'utilisation du temps réel identification biométrique à distance systèmes dans les espaces accessibles au public, l'accord provisoire clarifie les objectifs pour lesquels une telle utilisation est strictement nécessaire à des fins répressives et pour lesquels les autorités répressives devraient donc être exceptionnellement autorisées à utiliser de tels systèmes. L'accord de compromis prévoit garanties supplémentaires et limite ces exceptions aux cas de victimes de certains crimes, à la prévention de menaces réelles, présentes ou prévisibles, telles que les attaques terroristes, et aux recherches de personnes soupçonnées des crimes les plus graves.

Systèmes d'IA à usage général et modèles de base

De nouvelles dispositions ont été ajoutées pour tenir compte des situations dans lesquelles les systèmes d’IA peuvent être utilisés à de nombreuses fins différentes (IA à usage général), et où la technologie d’IA à usage général est ensuite intégrée dans un autre système à haut risque. L’accord provisoire aborde également les cas spécifiques des systèmes d’IA à usage général (GPAI).

Des règles spécifiques ont également été convenues pour modèles de fondation, de grands systèmes capables d'effectuer avec compétence un large éventail de tâches distinctes, telles que la génération de vidéos, de textes, d'images, la conversation dans un langage latéral, l'informatique ou la génération de code informatique. L'accord provisoire prévoit que les modèles de fondations doivent respecter des obligations de transparence avant leur mise sur le marché. Un régime plus strict a été introduit pour 'fort impact' modèles de fondation. Il s’agit de modèles de base formés avec une grande quantité de données et dotés d’une complexité, de capacités et de performances avancées bien supérieures à la moyenne, qui peuvent diffuser les risques systémiques tout au long de la chaîne de valeur.

Une nouvelle architecture de gouvernance

Suite aux nouvelles règles sur les modèles GPAI et à la nécessité évidente de leur application au niveau de l'UE, un Bureau de l'IA Au sein de la Commission, la mission est de superviser ces modèles d'IA les plus avancés, de contribuer à promouvoir les normes et les pratiques de test et de faire respecter les règles communes dans tous les États membres. UN groupe scientifique d'experts indépendants conseillera le Bureau de l'IA sur les modèles GPAI, en contribuant au développement de méthodologies d'évaluation des capacités des modèles de fondations, en donnant des conseils sur la désignation et l'émergence de modèles de fondations à fort impact et en surveillant les risques possibles pour la sécurité des matériaux liés aux modèles de fondations.

Le Conseil d'IA, qui comprendrait des représentants des États membres, demeurera une plate-forme de coordination et un organe consultatif auprès de la Commission et donnera un rôle important aux États membres dans la mise en œuvre du règlement, y compris la conception de codes de bonnes pratiques pour les modèles de fondations. Enfin, un forum consultatif pour les parties prenantes, telles que les représentants de l'industrie, les PME, les start-ups, la société civile et le monde universitaire, seront mis en place pour fournir une expertise technique au Conseil de l'IA.

Pénalités

Les amendes en cas de violation de la loi sur l'IA étaient fixées en pourcentage du chiffre d'affaires annuel global de l'entreprise contrevenante au cours de l'exercice précédent ou en un montant prédéterminé, le montant le plus élevé étant retenu. Cela représenterait 35 millions d'euros ou 7 % pour les violations des applications d'IA interdites, 15 millions d'euros ou 3 % pour les violations des obligations de la loi sur l'IA et 7,5 millions d'euros ou 1,5 % pour la fourniture d'informations incorrectes. Toutefois, l'accord provisoire prévoit des plafonds plus proportionnés sur les amendes administratives pour les PME et les start-ups en cas de violation des dispositions de la loi sur l'IA.

L'accord de compromis précise également qu'une personne physique ou morale peut déposer une plainte auprès de l'autorité compétente. autorité de surveillance du marché concernant le non-respect de la loi sur l'IA et peut s'attendre à ce qu'une telle plainte soit traitée conformément aux procédures dédiées de cette autorité.

Transparence et protection des droits fondamentaux

L'accord provisoire prévoit un analyse d'impact sur les droits fondamentaux avant qu’un système d’IA à haut risque ne soit mis sur le marché par ses déployeurs. L'accord provisoire prévoit également une augmentation transparence concernant l’utilisation de systèmes d’IA à haut risque. Certaines dispositions de la proposition de la Commission ont notamment été modifiées pour indiquer que certains utilisateurs d'un système d'IA à haut risque qui sont des entités publiques seront également obligés de s'inscrire dans le Base de données de l'UE pour les systèmes d’IA à haut risque. De plus, des dispositions nouvellement ajoutées mettent l'accent sur l'obligation pour les utilisateurs d'un système de reconnaissance des émotions d'informer les personnes physiques lorsqu'elles sont exposées à un tel système.

Mesures en faveur de l’innovation

En vue de créer un cadre juridique plus favorable à l'innovation et de promouvoir un apprentissage réglementaire fondé sur des données probantes, les dispositions concernant mesures en faveur de l’innovation ont été substantiellement modifiés par rapport à la proposition de la Commission.

Il a notamment été précisé que l'IA bacs à sable réglementaires, censés établir un environnement contrôlé pour le développement, les tests et la validation de systèmes d’IA innovants, devraient également permettre de tester des systèmes d’IA innovants dans des conditions réelles. De plus, de nouvelles dispositions ont été ajoutées permettant vers les tests des systèmes d’IA dans conditions du monde réel, dans des conditions et des garanties spécifiques. Afin d'alléger la charge administrative des petites entreprises, l'accord provisoire comprend une liste d'actions à entreprendre pour soutenir ces opérateurs et prévoit quelques dérogations limitées et clairement spécifiées.

Entrée en vigueur

L'accord provisoire prévoit que la loi sur l'IA devrait s'appliquer deux ans après son entrée en vigueur, avec quelques exceptions pour des dispositions spécifiques.

Prochaines étapes

Suite à l'accord provisoire d'aujourd'hui, les travaux se poursuivront au niveau technique dans les semaines à venir pour finaliser les détails du nouveau règlement. La présidence soumettra le texte de compromis aux représentants des États membres (Coreper) pour approbation une fois ces travaux terminés.

L'ensemble du texte devra être confirmé par les deux institutions et faire l'objet d'une révision juriste-linguistique avant son adoption formelle par les colégislateurs.

Informations d'arrière-plan

La proposition de la Commission, présentée en avril 2021, est un élément clé de la politique de l'UE visant à favoriser le développement et l'adoption sur le marché unique d'une IA sûre et licite qui respecte les droits fondamentaux.

La proposition suit une approche fondée sur les risques et établit un cadre juridique uniforme et horizontal pour l’IA visant à garantir la sécurité juridique. Le projet de règlement vise à promouvoir l'investissement et l'innovation dans l'IA, à améliorer la gouvernance et l'application efficace de la législation existante en matière de droits fondamentaux et de sécurité, et à faciliter le développement d'un marché unique pour les applications de l'IA. Il va de pair avec d’autres initiatives, notamment le plan coordonné sur l’intelligence artificielle qui vise à accélérer les investissements dans l’IA en Europe. Le 6 décembre 2022, le Conseil est parvenu à un accord sur une orientation générale (mandat de négociation) sur ce dossier et a entamé des discussions interinstitutionnelles avec le Parlement européen (« trilogues ») à la mi-juin 2023.

Partagez cet article:

EU Reporter publie des articles provenant de diverses sources extérieures qui expriment un large éventail de points de vue. Les positions prises dans ces articles ne sont pas nécessairement celles d'EU Reporter.

Tendance