Retour à l'Essentiel : Google réintroduit la recherche sans IA

SEO : Pourquoi Google AI Overview a échoué ?

En mai 2024, Google a lancé une nouvelle fonctionnalité utilisant l’IA générative pour fournir un résumé des résultats de recherche. L’objectif était de réduire le nombre de clics nécessaires pour obtenir des réponses, améliorant ainsi l’expérience utilisateur.

Cependant, des rapports d’erreurs grossières et souvent dangereuses dans les réponses générées ont rapidement circulé sur Internet, provoquant une indignation sur des plateformes sociales telles que LinkedIn, X et Facebook.

Par exemple, lorsqu’on lui a demandé combien de présidents musulmans les États-Unis ont eus, l’IA de Google a affirmé que Barack Obama était le seul président musulman du pays.

D’autres erreurs incluent des suggestions comme ajouter ⅛ de tasse de colle non toxique pour empêcher le fromage de glisser sur une pizza, ou encore affirmer que manger une petite pierre par jour est recommandé par des chercheurs de UC Berkeley pour leur apport en minéraux.

Google AI Overview a également donné des conseils dangereux, comme ajouter de l’huile à un feu d’huile pour l’éteindre, ou infuser des spaghettis avec de l’essence pour améliorer le goût.

Naturellement, des experts ont rapidement exprimé leur inquiétude concernant la propagation potentielle de la désinformation parmi les utilisateurs non méfiants.

Comment Google AI Overview a-t-il pu se tromper à ce point ?

Dr. Emily M. Bender, professeure de linguistique à l’Université de Washington, explique que l’information et son écosystème sont intrinsèquement relationnels. Lorsque des systèmes d’IA comme ceux de Google, Microsoft et OpenAI interviennent entre les chercheurs d’information et les fournisseurs d’information, ils perturbent cette relation.

L’IA générative ne sait pas ce qui est vrai, elle ne connaît que ce qui est populaire. Elle finit donc souvent par afficher des réponses provenant de sources peu fiables ou de comptes parodiques au lieu de faits vérifiés. Parfois, l’IA peut aussi « halluciner », c’est-à-dire inventer des données fausses pour combler ses lacunes.

Google a toujours été une plateforme où l’on peut trouver toutes sortes d’informations et de désinformations. Sans la possibilité de vérifier la réputation de la source, il est impossible de savoir si les réponses obtenues sont exactes.

L’entreprise a déclaré : « La grande majorité des résumés générés par l’IA fournissent des informations de haute qualité, avec des liens pour approfondir les recherches sur le web. »

« Beaucoup des exemples que nous avons vus concernaient des requêtes rares, et nous avons également constaté des exemples truqués ou que nous n’avons pas pu reproduire. »