Sur le réseau X, de plus en plus d’internautes font appel à l’assistant d’IA pour demander du contexte derrière des images de guerre. Mais l’IA de Musk ne sait toujours pas identifier les faux clichés et multiplie les erreurs factuelles.
Depuis le début de la guerre en Iran, les réseaux sociaux se sont transformés en réservoirs à fausses images et vidéos truquées. Pour essayer d’y voir plus clair dans ce torrent de désinformation, de nombreux utilisateurs du réseau social X se tournent alors vers Grok, son assistant d’intelligence artificielle (IA) intégré. Il n’est pas rare, sous une publication en rapport avec le Moyen-Orient, de voir des dizaines de commentaires adressés à Grok pour demander plus d’informations et de contexte derrière ces images. «@grok, confirme que c’est faux», demande un internaute. «@grok c’était quand ?», interroge un autre. Mais l’IA d’Elon Musk est très peu fiable, et se distingue plutôt comme un générateur de «fake news» en masse.
Grok a ainsi donné du crédit à une vidéo publiée sur le réseau social mettant en scène des tirs de missile sur plusieurs habitations à Tel Aviv. Mais plusieurs éléments aident à reconnaître qu’il s’agit d’images générées par IA, comme des panneaux solaires déformés, ou la couleur de la fumée, qui n’est pas naturelle. Pourtant, lorsqu’un internaute interroge Grok sur la véracité de cette vidéo, l’outil IA de X est catégorique. «Oui, il s’agit d’images authentiques prises à Tel Aviv lors de récents tirs de missiles iraniens. Elles montrent les interceptions du système Iron Dome/Arrow», affirme Grok, avant d’ajouter que ces informations ont été vérifiées par «CNN, Al Jazeera, Euronews et AP». Ce qui est entièrement faux.
Ailleurs, l’IA d’Elon Musk a cette fois affirmé que des images, pourtant authentifiées, sont fausses. Dès les premiers jours de l’offensive en Iran, les images du bombardement d’une école iranienne, provoquant la mort de plus de 150 enfants, ont été mises en doute du côté des utilisateurs espagnols de X. Grok prétendait ainsi que le groupe de télévision et radio public RTVE avait utilisé des images d’une attaque de 2021, à Kaboul, pour illustrer cette attaque en Iran, jusqu’à accuser les journalistes de propager des «fake news». Avant de reconnaître son erreur dans une autre publication.
Plus tard, sous une vidéo publiée par le compte X de l’AFP, qui rend compte d’un incendie survenu à Téhéran après des frappes d’Israël sur des dépôts de pétrole, un utilisateur demande à Grok de vérifier si l’événement s’est bien produit dans la capitale iranienne. «Cette vidéo n’est pas authentique (...) ce clip précis est de la désinfo recyclée», affirme Grok. L’IA prétend que les images résultent d’un montage entre des vidéos d’une route située à Riyad, en Arabie saoudite, et celles d’un incendie survenu bien plus tôt. Plus tard, l’AFP a confirmé que ces images ont bien été tournées à Téhéran, s’appuyant notamment sur les panneaux routiers qui défilent en vidéo, et qui permettent de localiser la provenance du cliché.
En plus de se tromper lorsqu’elle est sollicitée pour expliquer le contexte derrière une image, l’IA interne à X en vient parfois à générer de faux clichés par elle-même. Alors que l’expert en désinformation Tal Hagin essayait, tant bien que mal, de faire reconnaître ses erreurs à Grok, l’IA a conclu l’échange en publiant une image générée par IA d’une habitation rasée.
Pour limiter ces dérives, le réseau social d’Elon Musk oblige, depuis la semaine dernière, toute vidéo de guerre à indiquer si elle a été générée par IA. Mais cela ne semble pas avoir enrayé le problème. D’autant plus que le programme de monétisation de X rémunère les utilisateurs dont les publications génèrent beaucoup de vues et d’interactions. Ce qui encourage indirectement les abonnés «Premium» à poster des images spectaculaires, pour attirer l’attention des internautes.
Ce n’est pas la première fois que l’IA intégrée à X suscite la polémique. En plus de s’être fait le relais de propos négationnistes, l’IA Grok avait été utilisé, fin 2025, pour générer de nombreuses images à caractère sexuel de femmes et de mineures, conduisant à plusieurs plaintes ainsi qu’une saisie de l’Arcom. Fin janvier, la Commission européenne a également ouvert une enquête sur Grok après la divulgation de ces images.
.png)
1 month ago
English (United States) ·
French (France) ·