Suivez nous sur

intelligence artificielle

Des lois visant à prévenir le terrorisme lié à l’IA sont nécessaires de toute urgence

PARTAGEZ:

Publié le

on

Nous utilisons votre inscription pour fournir du contenu de la manière que vous avez consentie et pour améliorer notre compréhension de vous. Vous pouvez vous désinscrire à tout moment.

Selon un groupe de réflexion contre l'extrémisme, les gouvernements devraient « envisager de toute urgence » de nouvelles réglementations pour empêcher l'intelligence artificielle de recruter des terroristes.

L'Institut pour le dialogue stratégique (ISD) a déclaré qu'il était « clairement nécessaire d'adopter une législation adaptée » aux menaces placées en ligne par les terroristes.

Cela fait suite à une expérience dans laquelle un chatbot a « recruté » l’examinateur indépendant de la législation antiterroriste pour le Royaume-Uni.

Le gouvernement du Royaume-Uni a déclaré qu'il ferait « tout ce qui est en son pouvoir » pour protéger le grand public.

Selon Jonathan Hall KC, un examinateur indépendant de la législation antiterroriste pour le gouvernement, l'un des problèmes les plus importants est qu'« il est difficile d'identifier une personne qui pourrait, en droit, être responsable de déclarations générées par des chatbots et encourageant le terrorisme ».

Une expérience a été menée par M. Hall sur Character.ai, un site Web qui permet aux utilisateurs de discuter avec des chatbots créés par d'autres utilisateurs et développés par l'intelligence artificielle.

Il a engagé une conversation avec un certain nombre de robots différents qui semblaient conçus pour imiter les réponses d'autres groupes militants et extrémistes.

Publicité

Un haut dirigeant de l’État islamique était même qualifié de « haut dirigeant ».

Selon M. Hall, le robot a tenté de le recruter et a déclaré "un dévouement total" au groupe extrémiste, ce qui est interdit par les lois du Royaume-Uni interdisant le terrorisme.

En revanche, M. Hall a déclaré qu'il n'y avait pas de violation de la loi au Royaume-Uni car les communications n'étaient pas produites par un être humain.

Selon lui, les nouvelles réglementations devraient tenir pour responsables à la fois les sites Web qui hébergent des chatbots et ceux qui les créent.

En ce qui concerne les robots qu'il a rencontrés sur Character.ai, il a déclaré qu'il y avait « probablement une valeur de choc, une expérimentation et peut-être un aspect satirique » derrière leur création.

En outre, M. Hall a pu développer son propre chatbot « Oussama Ben Laden », qu'il a rapidement effacé, affichant un « enthousiasme sans limite » pour les activités terroristes.

Son expérience fait suite à des inquiétudes croissantes quant à la manière dont les extrémistes pourraient éventuellement exploiter l’intelligence artificielle améliorée.

D'ici 2025, l'intelligence artificielle générative pourrait être « utilisée pour rassembler des connaissances sur les attaques physiques perpétrées par des acteurs violents non étatiques, y compris pour les armes chimiques, biologiques et radiologiques », selon une étude publiée par le gouvernement du Royaume-Uni en XNUMX. leur publication d'octobre.

L'ISD a en outre déclaré qu'« il existe un besoin évident d'une législation pour suivre le paysage en constante évolution des menaces terroristes en ligne ».

Selon le groupe de réflexion, la loi britannique sur la sécurité en ligne, adoptée en 2023, « est principalement axée sur la gestion des risques posés par les plateformes de médias sociaux » plutôt que sur l'intelligence artificielle.

Il indique en outre que les radicaux « ont tendance à être les premiers à adopter les technologies émergentes et à rechercher constamment des opportunités pour atteindre de nouveaux publics ».

"Si les entreprises d'IA ne peuvent pas démontrer qu'elles ont suffisamment investi pour garantir la sécurité de leurs produits, alors le gouvernement devrait envisager de toute urgence une nouvelle législation spécifique à l'IA", a ajouté l'ISD.

Il a toutefois indiqué que, selon la surveillance qu'il a menée, l'utilisation de l'intelligence artificielle générative par les organisations extrémistes est actuellement « relativement limitée ».

Character AI a déclaré que la sécurité est une « priorité absolue » et que ce que M. Hall a décrit était très regrettable et ne reflétait pas le type de plate-forme que l'entreprise tentait d'établir.

"Les discours de haine et l'extrémisme sont tous deux interdits par nos conditions d'utilisation", selon l'organisation.

"Notre approche du contenu généré par l'IA découle d'un principe simple : nos produits ne doivent jamais produire de réponses susceptibles de nuire aux utilisateurs ou d'encourager les utilisateurs à nuire à autrui".

Dans le but « d'optimiser les réponses en toute sécurité », la société a déclaré avoir formé ses modèles d'une certaine manière.

En outre, il a déclaré qu'il disposait d'un mécanisme de modération, qui permettait aux personnes de signaler des informations qui enfreignaient ses règles, et qu'il s'engageait à prendre des mesures rapides chaque fois qu'un contenu signalait des violations.

S’il arrivait au pouvoir, le parti travailliste d’opposition au Royaume-Uni a déclaré que ce serait une violation criminelle d’enseigner l’intelligence artificielle pour inciter à la violence ou radicaliser ceux qui y sont susceptibles.

"alerte sur les risques importants pour la sécurité nationale et la sécurité publique" que pose l'intelligence artificielle, a déclaré le gouvernement du Royaume-Uni.

"Nous ferons tout notre possible pour protéger le public de cette menace en travaillant avec l'ensemble du gouvernement et en approfondissant notre collaboration avec les dirigeants d'entreprises technologiques, les experts du secteur et les pays partageant les mêmes idées."

Cent millions de livres seront investis par le gouvernement dans un institut de sécurité de l’intelligence artificielle en 2023.

Partagez cet article:

EU Reporter publie des articles provenant de diverses sources extérieures qui expriment un large éventail de points de vue. Les positions prises dans ces articles ne sont pas nécessairement celles d'EU Reporter.

Tendance