Publié le 16 février 2026 08h30. Google est accusé de mettre en danger ses utilisateurs en affaiblissant la visibilité des avertissements concernant la fiabilité de ses conseils médicaux générés par intelligence artificielle.
- Google affiche des avertissements de sécurité en plus petit et à la fin des résumés médicaux produits par son IA.
- Des experts en IA et des défenseurs des patients s’inquiètent de ce manque de transparence, estimant qu’il encourage une confiance excessive dans des informations potentiellement erronées.
- Suite à une enquête, Google a supprimé les aperçus IA pour certaines recherches médicales, mais pas toutes.
La société Google est sous le feu des critiques pour la manière dont elle présente les informations médicales générées par son intelligence artificielle. Une enquête récente révèle que les avertissements de sécurité concernant la possible inexactitude de ces conseils ne sont pas suffisamment visibles, ce qui pourrait induire les utilisateurs en erreur et les dissuader de consulter un professionnel de santé.
Selon les informations de l’enquête, Google affirme que ses aperçus d’IA, qui apparaissent en haut des résultats de recherche, incitent les utilisateurs à consulter un médecin. La société assure que ses outils d’IA signaleront aux utilisateurs quand il est important de demander l’avis d’un expert ou de vérifier les informations présentées. Google a déclaré dans un document publié sur son site que les aperçus d’IA informeront les gens lorsqu’il est important de demander l’avis d’un expert.
Cependant, le Guardian a constaté que ces avertissements ne sont pas affichés dès que l’utilisateur reçoit un premier conseil médical. Ils n’apparaissent que si l’utilisateur clique sur un bouton intitulé « Afficher plus » pour obtenir des informations supplémentaires. Même dans ce cas, les mentions de sécurité sont reléguées en bas de la page, dans une police plus petite et moins visible.
La clause de non-responsabilité, accessible uniquement après avoir cliqué sur « Afficher plus », indique :
« Ceci est à titre informatif uniquement. Pour un avis médical ou un diagnostic, consultez un professionnel. Les réponses de l’IA peuvent comporter des erreurs. »
Interrogé sur cette pratique, Google n’a pas contesté le fait que les avertissements ne soient pas immédiatement visibles. Un porte-parole a déclaré que les aperçus d’IA « encouragent les gens à consulter un médecin professionnel » et mentionnent fréquemment la recherche de soins médicaux « lorsque cela est approprié » dans le résumé lui-même.
Des experts en IA et des défenseurs des patients se sont exprimés avec inquiétude. Pat Pataranutaporn, professeur adjoint au Massachusetts Institute of Technology (MIT) et spécialiste de l’IA, souligne que
« L’absence de clauses de non-responsabilité lorsque les utilisateurs reçoivent initialement des informations médicales crée plusieurs dangers critiques. Même les modèles d’IA les plus avancés peuvent encore produire des informations erronées ou privilégier la satisfaction de l’utilisateur plutôt que l’exactitude. Dans le domaine de la santé, cela peut être véritablement dangereux. »
Gina Neff, professeure d’IA responsable à l’Université Queen Mary de Londres, estime que le problème est intentionnel :
« Les aperçus de l’IA sont conçus pour la rapidité et non pour la précision, ce qui entraîne des erreurs dans les informations sur la santé, ce qui peut être dangereux. »
Une enquête précédente du Guardian, publiée en janvier en janvier 2026, avait déjà révélé que des personnes risquaient de subir des préjudices en raison d’informations médicales fausses et trompeuses fournies par les aperçus d’IA de Google.
Suite à ces révélations, Google a supprimé les aperçus d’IA pour certaines recherches médicales, mais pas pour toutes. Sonali Sharma, chercheuse à l’Université de Stanford, explique que le problème réside dans la position dominante de ces aperçus :
« Ces aperçus de Google apparaissent tout en haut de la page de recherche et fournissent souvent ce qui semble être une réponse complète à la question de l’utilisateur, à un moment où il essaie d’accéder à l’information le plus rapidement possible. »
Elle ajoute que cette présentation immédiate peut créer un sentiment de confiance qui décourage les utilisateurs de poursuivre leurs recherches ou de consulter les avertissements potentiels situés plus bas dans la page. Elle met en garde contre le risque d’informations partiellement correctes et partiellement incorrectes, difficiles à distinguer sans une connaissance préalable du sujet.
Tom Bishop, responsable de l’information des patients chez Anthony Nolan, une association caritative luttant contre le cancer du sang, appelle à une action urgente :
« Nous savons que la désinformation est un réel problème, mais lorsqu’il s’agit de désinformation sur la santé, elle est potentiellement très dangereuse. Cette clause de non-responsabilité doit être beaucoup plus visible, juste pour inciter les gens à prendre du recul et à réfléchir… »
Il suggère que la clause de non-responsabilité devrait apparaître en haut de la page, dans une taille de police identique au reste du contenu, afin de ne pas être négligée par les utilisateurs pressés.