Les IA mentent 6 fois sur 10 lorsqu’elles recherchent sur Internet… et elles le font avec aplomb !

0
944

L’intelligence artificielle est-elle en train de devenir une machine à désinformer plutôt qu’un outil d’assistance fiable ? Une récente étude de la Columbia Journalism Review vient jeter un sérieux doute sur la capacité des IA génératives à fournir des résultats précis lors de recherches sur le Web. Selon l’analyse, 60 % des réponses des IA sont incorrectes, et pire encore, elles le font avec une assurance déconcertante.

L’étude a testé plusieurs modèles d’IA génératives, dont ChatGPT (OpenAI), Gemini (Google) et Grok 3 (X, ex-Twitter). Les résultats sont édifiants :

• ChatGPT Search a fourni de mauvaises sources dans 40 % des cas et n’a même pas pris la peine d’en donner dans 21 % des réponses.

• Grok 3 de X (Elon Musk) est le pire élève, avec 94 % d’erreurs ! Autrement dit, il est presque plus sûr de ne pas l’utiliser.

• Perplexity AI, réputé pour son moteur de recherche avancé, affiche tout de même 37 % d’erreurs.

Pourquoi une telle inexactitude ? Tout simplement parce que ces IA ne se contentent pas d’extraire des résultats, elles les reformulent, synthétisent et “recréent” parfois des informations, au point d’inventer des faits ou des sources inexistantes.

L’un des points les plus inquiétants relevés par l’étude, c’est l’assurance avec laquelle ces IA délivrent des réponses fausses. Plutôt que de reconnaître leur incapacité à retrouver une information, elles inventent ou déforment les faits, donnant l’impression d’une vérité absolue.

Lors du test, les chercheurs ont demandé aux IA de retrouver des informations simples sur des articles existants : titre, auteur, date de publication, URL et une citation précise. Problème : plus de la moitié du temps, elles ont échoué, alors même que ces articles figuraient dans les trois premiers résultats Google lorsqu’on saisissait la citation exacte.

Si ces résultats sont préoccupants, ils ne signifient pas pour autant que l’IA est inutilisable. Toutefois, ils confirment une règle essentielle : ne jamais faire aveuglément confiance à une IA générative pour des recherches critiques. Contrairement à un moteur de recherche classique, qui redirige vers des sources authentiques, une IA reformule et synthétise… mais en perdant souvent la fiabilité en cours de route.

Le danger est que ces outils sont de plus en plus intégrés aux moteurs de recherche eux-mêmes, notamment avec Gemini AI de Google et d’autres systèmes qui remplacent les résultats classiques par des “résumés IA”. Cela pose un risque évident : plus la synthèse est erronée, plus la désinformation se propage.

• Les IA génératives se trompent massivement lors des recherches Web (60 % d’erreurs en moyenne).

• Elles inventent des informations plutôt que d’admettre leurs limites.

• Le moteur Grok 3 (X) est le plus mauvais avec 94 % d’erreurs.

• Les moteurs de recherche classiques restent bien plus fiables.

En clair, si vous utilisez une IA pour faire des recherches sur Internet, toujours vérifier les sources et ne jamais prendre une réponse pour argent comptant. L’IA est un outil puissant, mais quand il s’agit de trouver la vérité, elle a encore de sérieux progrès à faire.

🔴 Ne manquez rien des dernières tendances tech ! Abonnez-vous à TekTek sur les réseaux sociaux :

📲 Twitter/X : @iam_tektek

📲 Threads : @iam_tektek

📲 Rejoignez notre chaîne WhatsApp pour plus d’actu tech en temps réel : TekTek sur WhatsApp

Partager

Comments are closed.