Dans un monde où l'intelligence artificielle (IA) devient omniprésente, des groupes terroristes tels que Daech et Al-Qaïda exploitent cette technologie pour propager leur idéologie et recruter de nouveaux adeptes, alertent les experts en sécurité.
Récemment, un message sur un forum pro-Daech a appelé les partisans à intégrer l'IA dans leurs opérations. "L'un des principaux atouts de l'IA est sa simplicité d'utilisation," a-t-il déclaré, évoquant une transformation potentielle qui pourrait aggraver les défis de sécurité mondiale.
La bonne utilisation des outils d'IA permet à ces organisations peu structurées de créer et de diffuser massivement des contenus de propagande, amplifiant ainsi leur portée avec un coût minime. En effet, selon une étude du Centre for Research and Evidence on Security Threats, des techniques comme le micro-profilage et des chatbots sont déjà utilisées pour cibler des individus susceptibles de s'aligner avec des idéaux extrémistes.
Les chatbots, en particulier, ouvrent une voie inédite pour la radicalisation en dirigeant subtilement les discussions vers des thèmes extrémistes, renvoyant à des témoignages poignants de survivants de ces radicalisations, selon le rapport de Le Monde.
De plus, les avancées en matière de deepfakes facilitent la création de contenus audio et vidéo extrêmement convaincants, rendant difficile la distinction entre la réalité et la propagande. Une récente analyse a démontré que certains partisans du terrorisme ont même développé une sorte de chaîne médiatique mimant les formats de CNN ou Al Jazeera pour toucher un public plus large.
En conclusion, la démocratisation des technologies d'IA représente une menace croissante. Les gouvernements et les agences de sécurité doivent redoubler d'efforts pour anticiper et contrer ces nouveaux moyens d'influence. Comme l'a mentionné un expert en cybersécurité, "la seule solution est de ne pas laisser ces technologies sans surveillance, and le temps presse." Il est essentiel d'agir maintenant pour protéger les sociétés démocratiques des dérives potentielles de l'IA.







