Suivez nous sur

EU

#ArtificialIntelligence - Le droit de l'UE devrait fixer des limites sûres pour les applications à haut risque, déclare #EESC

PARTAGEZ:

Publié le

on

Nous utilisons votre inscription pour fournir du contenu de la manière que vous avez consentie et pour améliorer notre compréhension de vous. Vous pouvez vous désinscrire à tout moment.

La reconnaissance biométrique pour le suivi, la surveillance et la détection des émotions ne devrait pas avoir sa place dans l'approche européenne centrée sur l'homme de l'intelligence artificielle (IA), déclare le Comité économique et social européen (CESE) dans sa réponse au livre blanc de la Commission européenne sur l'IA, adopté par la plénière du CESE en juillet.

La Commission européenne a proposé qu'une application d'IA soit considérée comme à haut risque si elle implique à la fois un secteur à haut risque (soins de santé, transports, énergie et parties du secteur public) et une utilisation à haut risque, à quelques exceptions près. reste à définir. Ce n'est que si ces deux conditions sont remplies, suggère la Commission, que l'on devrait parler d'IA à haut risque, qui relèverait de réglementations et de structures de gouvernance spécifiques.

Le CESE estime que cette définition risque de créer des failles potentiellement dangereuses. La publicité politique de Facebook en est un excellent exemple, selon le Comité.

"La publicité est un secteur à faible risque et la fonction d'agrégation d'actualités de Facebook peut être considérée comme une utilisation à faible risque. Cependant", affirme la rapporteure d'opinion Catelijne Muller, "nous avons vu lors des campagnes électorales que la propagation sur Facebook de fausses nouvelles et de deepfakes a généré avec l'aide de l'IA peut avoir de nombreux effets négatifs et influencer la façon dont les gens votent, avec des interférences même en dehors de l'Europe. "

Devrait-il y avoir des exemptions et combien devraient-elles y en avoir? Plutôt que de dresser une liste d'exemptions, le CESE estime qu'il vaudrait mieux dresser une liste de caractéristiques communes à considérer comme à haut risque, quel que soit le secteur.

De nombreuses candidatures ont un fort impact sur les droits fondamentaux, souligne Muller, non seulement sur la vie privée des personnes, mais aussi sur leur droit de manifester ou d'adhérer à un syndicat, par exemple.

Le côté obscur de la reconnaissance biométrique

Publicité

La reconnaissance faciale et biométrique est un domaine clé où l'IA touche aux droits fondamentaux. Son utilisation peut être autorisée à des fins d'identification personnelle - et est en effet réglementée par le règlement général sur la protection des données.

Mais l'utilisation généralisée de la reconnaissance biométrique basée sur l'IA pour la surveillance ou pour suivre, évaluer ou catégoriser le comportement humain ou les émotions devrait être interdite. D'autant plus qu'il n'y a aucune preuve scientifique que l'on puisse discerner les sentiments d'une personne en fonction de sa biométrie, souligne Muller.

Applications de suivi et de traçage COVID-19

Le CESE met également en garde contre une vague incontrôlée de technologies de traçabilité et de traçabilité qui pénètrent dans notre société beaucoup plus rapidement et avec beaucoup moins de contrôle qu'auparavant, dans le but de lutter contre l'épidémie de coronavirus.

"Les techniques et approches d'IA pour lutter contre la pandémie devraient être tout aussi robustes, efficaces, transparentes et explicables que toute autre technique d'IA dans toute autre situation", déclare le rapporteur du CESE. "Ils doivent respecter les droits de l'homme, les principes éthiques et la législation. Ils doivent également être volontaires, car, que cela nous plaise ou non, de nombreuses techniques introduites pendant la crise deviendront permanentes."

Le CESE espère que la Commission tiendra compte de sa contribution, comme elle l'a fait avec les recommandations formulées par le CESE depuis sa avis révolutionnaire sur l'IA en 2017, qui a d'abord défendu une approche «humaine aux commandes» de l'IA en Europe.

Contexte

La Livre blanc sur l'IA, qui fait partie d'un vaste ensemble de mesures sur l'IA annoncé dans la communication de la Commission européenne intitulée Façonner l'avenir numérique de l'Europe, propose:

  • Des mesures pour rationaliser la recherche, promouvoir la coopération entre les États membres et stimuler les investissements dans l'IA, et;
  • options politiques pour un futur cadre réglementaire de l'UE sur l'IA, avec un fort accent sur les applications à haut risque.

En février 2020, la Commission a lancé une consultation publique sur le Livre blanc qui s'est déroulée jusqu'au 14 juin et a recueilli plus de 1 200 réponses aux questionnaires et quelque 700 communications écrites. La Commission traite actuellement cette contribution et publiera bientôt un rapport.

Façonner l'avenir numérique de l'Europe décrit les actions que la Commission européenne envisage de prendre pour garantir une Europe adaptée à l'ère numérique, l'une des principales priorités d'Ursula von der Leyen pour son mandat de présidente de l'exécutif européen. Il repose sur trois piliers clés:

  • Une technologie qui fonctionne pour les gens;
  • une économie numérique juste et compétitive, et;
  • une société ouverte, démocratique et durable.

Le CESE a donné son avis sur "Façonner l'avenir numérique de l'Europe" en a, également adopté lors de la plénière de juillet du CESE, avec une recommandation clé:

"La vitesse même de la transformation numérique signifie que nous ne savons pas quelles nouvelles évolutions viendront le mois prochain. Nous devons donc être flexibles et adaptables. Cela nécessite un dialogue constant entre toutes les parties concernées. Le CESE, en tant que voix de la société civile organisée la société, devrait en faire partie, et nous demandons à la Commission de mettre en place un tel dialogue permanent », a déclaré le rapporteur d’avis Ulrich Samm.

Partagez cet article:

EU Reporter publie des articles provenant de diverses sources extérieures qui expriment un large éventail de points de vue. Les positions prises dans ces articles ne sont pas nécessairement celles d'EU Reporter.

Tendance