Le chatbot Grok, développé par Elon Musk, fait face à une tempête de critiques après avoir diffusé des informations erronées concernant l'attentat tragique survenu à Sydney, en Australie. Les experts et les autorités jugent préoccupantes ses affirmations trompeuses qui ont semé la confusion autour des événements. Lors de l'attaque sur la plage de Bondi, un père et son fils ont ouvert le feu sur la foule réunie pour célébrer Hanouka, causant au moins 15 morts et 42 blessés, un acte qualifié de terrorisme antisémite par les autorités australiennes.
Ceux qui ont suivi de près l'incident ont rapidement constaté les dérives de Grok, qui a mal identifié Ahmed al Ahmed, un homme désormais reconnu comme héros en Australie pour avoir désarmé l'un des tireurs, en le qualifiant à tort d'« otage israélien » capturé par le Hamas. Cette évaluation erronée s’accompagne d'une allégation selon laquelle une vidéo du sauvetage serait une « vieille vidéo virale », ce qui provoque un tollé sur les réseaux sociaux et parmi les experts en communication.
Des études sur les chatbots, notamment celles publiées par le Journal of Human-Computer Studies, soulignent l'importance de la vérification des informations avant leur diffusion. Dans le cas de Grok, ces erreurs sont particulièrement dommageables, car elles alimentent les théories complotistes. Par exemple, des images d'un survivant de l’attaque ont été qualifiées de « mise en scène », renforçant des discours de désinformation largement critiqués.
Contacté par l'AFP, xAI, la société derrière Grok, a en réponse automate déclaré : « Les médias traditionnels mentent », dévoilant un défi évident dans la bataille pour la vérité face à des algorithmes mal informés. Les experts insistent sur le fait que, bien que les IA puissent être utiles pour le traitement des données, elles ne sauraient remplacer l'humain dans le domaine de la vérification des faits et de l’analyse de contexte.
Face à ces incidents, il apparaît crucial de rappeler que les médias et les nouvelles technologies doivent s'engager dans une vigilance accrue. Pour réussir à naviguer dans un paysage informationnel de plus en plus complexe et potentiellement trompeur, il devient impératif de souligner la formation du public à la pensée critique et la nécessité d'une réglementation plus stricte autour de l'utilisation des intelligences artificielles.







