Lors de sa séance plénière à Bruxelles, le Parlement européen a voté le 26 mars dernier l'interdiction des services d'intelligence artificielle (IA) permettant de créer des images dénudées sans le consentement des individus concernés. Cette décision a été soutenue par une majorité écrasante, avec 569 voix en faveur et seulement 45 contre.
Selon le communiqué émis par le Parlement, la réglementation vise spécifiquement les systèmes de « nudification » qui utilisent l'IA pour manipuler des images explicites ou intimes ressemblant à des personnes réelles sans leur accord. Il convient de noter que les technologies disposant de « mesures de sécurité efficaces » pour éviter de telles pratiques ne seront pas concernées par cette législation.
De plus, le Conseil européen, composé de 27 pays, avait déjà validé le 13 mars une proposition similaire, encourageant ainsi un consensus autour de cette question éthique. Les discussions se poursuivent pour harmoniser les textes entre le Parlement et le Conseil afin que la mesure puisse entrer en vigueur.
Enquête contre Grok
Cette initiative fait écho aux controverses suscitée par l'assistant d'IA Grok, développé par Elon Musk. En effet, une fonction controversée de cet outil permettait aux utilisateurs de générer des montages hyperréalistes de femmes et d'enfants dénudés, ce qui a déclenché un tollé à l'échelle mondiale, incitant à l'ouverture d'une enquête par l'Union européenne, selon Le Monde.
Par ailleurs, le Parlement a également approuvé un report des nouvelles règles concernant les systèmes d'IA à hauts risques, préoccupant des domaines sensibles tels que la sécurité, la santé ou les droits fondamentaux. Ces règles, initialement prévues pour entrer en vigueur en août 2026, seront désormais étendues jusqu'au 2 décembre 2027 pour les systèmes autonomes et au 2 août 2028 pour ceux intégrés à d'autres applications.







