L’IA s’alimente notamment d’images d’agressions sexuelles d’enfants

Par Kelly Geraldine Malone 4:30 PM - 22 Décembre 2023 La Presse Canadienne
Temps de lecture :

David Thiel, technologue en chef à l’Observatoire Internet de Stanford et auteur de son rapport qui a découvert des images d’abus sexuels sur des enfants dans les données utilisées pour former les générateurs d’images de l’intelligence artificielle, pose pour une photo le mercredi 20 décembre 2023, à Obidos, au Portugal. . Les photos de victimes canadiennes font partie des milliers d’images. LA PRESSE CANADIENNE/Camilla Mendes dos Santos via AP

Des photos de victimes canadiennes font partie des milliers d’images d’agressions sexuelles d’enfants qu’un groupe de surveillance d’internet a trouvées dans des bases de données utilisées pour «former» de populaires générateurs d’images.

«C’est une autre gifle pour les victimes», estime Lloyd Richardson, directeur de la technologie au Centre canadien de protection de l’enfance.

Selon M. Richardson, cette découverte montre que l’intelligence artificielle doit être prise en compte par le gouvernement fédéral, qui prépare son projet de loi tant attendu sur le contenu préjudiciable en ligne.

Des chercheurs de l’Observatoire internet de l’université Stanford, en Californie, ont trouvé plus de 3200 images pédosexuelles présumées dans la base de données LAION, le réseau d’intelligence artificielle à grande échelle à but non lucratif. Cette base de données en code source libre a été utilisée en intelligence artificielle pour «former» des générateurs d’images bien connus.

L’observatoire de Stanford a travaillé avec le Centre canadien de protection de l’enfance pour vérifier les résultats grâce à l’outil «Projet Arachnid» du centre, qui contient une banque d’images connues d’agressions pédosexuelles. M. Richardson n’a pas précisé combien il y avait de victimes canadiennes parmi les milliers d’images trouvées.

Les générateurs d’images grâce à l’intelligence artificielle (IA) ont gagné en popularité après leur lancement, mais ils ont suscité de vives inquiétudes et d’importantes controverses, notamment de la part d’artistes dont les œuvres étaient utilisées sans leur consentement.

Ces générateurs puisent leur inspiration et leur formation dans des milliards d’images trouvées sur internet. Les générateurs les plus populaires utilisent le réseau LAION.

David Thiel, technologue en chef à l’Observatoire internet de Stanford, a déclaré que LAION ne contient pas seulement des images d’œuvres d’art, de monuments et de charmants corgis pour alimenter les générateurs d’images.

«Ces générateurs ont aussi été formés sur une tonne de matériel explicite (…) sur une tonne de photos d’enfants et de personnes d’autres âges, mais aussi sur (du contenu d’agressions sexuelles d’enfants)», a déclaré M. Thiel, l’auteur du nouveau rapport de l’Observatoire. 

Il admet que les images d’agressions sexuelles d’enfants ne représentent qu’une infime partie des 5,8 milliards d’images du réseau LAION. Mais il souligne que ces images affectent toujours ce que créent les générateurs IA. Cet entraînement peut contribuer à sexualiser l’image d’un enfant ou même faire ressembler certaines images à une victime connue, a déclaré le chercheur.

«Le mal est fait»

M. Thiel croit que les impacts négatifs sont incommensurables et se font déjà sentir partout dans le monde. Il a été contacté par des personnes de plusieurs pays préoccupées par les photos générées par l’IA d’adolescents et d’enfants nus.

Une école de Winnipeg a informé les parents plus tôt ce mois-ci que des photos générées par l’IA d’élèves mineures avaient été partagées. Au moins 17 photos d’étudiantes prises sur les réseaux sociaux ont été explicitement modifiées grâce à l’intelligence artificielle. Les autorités de l’école ont déclaré qu’elles avaient contacté la police.

«Il s’agit d’un dossier étroitement lié», estime M. Thiel. 

Le réseau LAION a déclaré cette semaine dans un communiqué à l’Associated Press qu’il avait temporairement fermé les banques de données pour garantir leur sécurité avant de les rendre publiques à nouveau.

Mais pour M. Thiel, le mal est fait et il est maintenant trop tard pour remettre le dentifrice dans le tube: les gens ont déjà téléchargé les ensembles de données qui contiennent des agressions sexuelles d’enfants et ils continueront à les utiliser.

«Il faut vraiment réussir du premier coup: on ne peut pas simplement commercialiser le produit et le réparer plus tard, souligne-t-il. On devra faire face à ce problème pendant des années parce que les gens se sont précipités sur ce marché sans prendre les précautions requises.»

Ces ensembles de données auraient dû être examinés avant d’être rendus publics pour détecter les agressions sexuelles d’enfants, soutient M. Thiel, qui ajoute que les images générées par l’IA se sont également révélées racistes et misogynes.

Ottawa doit agir

M. Richardson, du Centre canadien de protection de l’enfance, croit qu’il n’incombe pas uniquement à l’industrie, mais aussi aux États, de traiter les problèmes liés à l’IA.

Le premier ministre Justin Trudeau a promis de présenter un projet de loi sur le contenu préjudiciable en ligne lors de la campagne électorale fédérale de 2019. Cette loi serait destinée à lutter contre les discours haineux, la propagande terroriste, les propos qui incitent à la violence et l’exploitation sexuelle des enfants.

Mais l’année dernière, le gouvernement a renvoyé à la planche à dessin son ébauche de projet de loi, après avoir fait face à des critiques, notamment concernant ses impacts sur la liberté d’expression en ligne.

Le groupe d’experts qui a retravaillé le projet de loi a récemment publié une lettre ouverte affirmant que les enfants canadiens étaient actuellement moins protégés que ceux des pays où des lois similaires sont déjà en vigueur.

M. Richardson a déclaré qu’il y avait certainement des mesures qu’Ottawa pourrait prendre. «Il y a cette idée selon laquelle internet est quelque chose de très éloigné de la réalité du droit des États, ce qui est tout simplement absurde, a-t-il déclaré. Je suis convaincu qu’il y a des choses qu’on peut faire dans cet espace.»

Partager cet article