
Une nouvelle enquête a suscité d'importantes critiques concernant la mise en œuvre des AI Overviews par Google, en particulier sur la manière dont le géant de la recherche gère les informations médicales. Selon un rapport du The Guardian, Google ne parvient pas à afficher des avertissements de sécurité critiques lorsque les utilisateurs sont confrontés pour la première fois à des conseils médicaux générés par l'IA. Cette omission a alarmé les experts en sécurité de l'IA et les professionnels de la santé, qui soutiennent que la conception actuelle privilégie une expérience utilisateur fluide au détriment de la sécurité des patients, exposant potentiellement les utilisateurs à des informations de santé trompeuses ou dangereuses.
Alors que l'IA continue de remodeler le paysage de l'information numérique, l'intégration de modèles d'IA générative (Generative AI) dans les moteurs de recherche a été un point central de l'innovation. Cependant, cette dernière controverse souligne la tension persistante entre le déploiement rapide des technologies d'IA et les normes de sécurité rigoureuses requises pour des domaines sensibles comme la santé.
Le cœur de la critique provient de la conception de l'interface utilisateur des AI Overviews de Google. Lorsqu'un utilisateur interroge un sujet lié à la santé — allant de la vérification des symptômes d'un AVC à des questions sur les crises cardiaques — le résumé généré par l'IA apparaît tout en haut des résultats de recherche, déplaçant souvent les liens Web traditionnels.
L'enquête du The Guardian a révélé que sur l'écran initial, connu sous le nom de « au-dessus de la ligne de flottaison » (above the fold), il n'y a aucun avertissement visible prévenant les utilisateurs que les informations sont générées par une IA et peuvent être inexactes. Pour voir un avertissement de sécurité, un utilisateur doit interagir activement avec l'interface en cliquant sur un bouton « En savoir plus ». Même dans ce cas, la clause de non-responsabilité n'est pas affichée de manière proéminente en haut du texte développé. Au lieu de cela, elle est située tout en bas du contenu généré, rendue dans une police plus petite et plus claire qui est facile à ignorer.
L'avertissement caché indique : « Ceci est uniquement à des fins d'information. Pour un avis médical ou un diagnostic, consultez un professionnel. Les réponses de l'IA peuvent inclure des erreurs. »
Les détracteurs soutiennent que cette conception suppose un niveau de vigilance de l'utilisateur qui existe rarement lors d'une recherche Web occasionnelle. Au moment où un utilisateur a fait défiler l'écran jusqu'au bas d'une vue développée, il a déjà consommé le résumé de l'IA, l'acceptant potentiellement comme factuel sans voir la mise en garde selon laquelle le système est sujet aux erreurs.
La décision d'enterrer les avertissements de santé a attiré des réprimandes acerbes de la part de voix de premier plan de l'éthique de l'IA et de la recherche médicale. Le consensus parmi ces experts est que l'absence de friction immédiate — comme une étiquette d'avertissement proéminente — encourage les utilisateurs à faire aveuglément confiance aux résultats générés par la machine.
Pat Pataranutaporn, professeur adjoint et technologue au Massachusetts Institute of Technology (MIT), a souligné les doubles dangers de ce choix de conception. Il a noté que les modèles d'IA sont connus pour présenter un « comportement sycophante » (sycophantic behavior), privilégiant les réponses qui satisfont la requête de l'utilisateur par rapport à une exactitude stricte. Dans un contexte de soins de santé, ce désir de plaire peut être désastreux.
« Premièrement, même les modèles d'IA les plus avancés aujourd'hui ont encore des hallucinations d'informations erronées... Dans les contextes de santé, cela peut être véritablement dangereux », a déclaré Pataranutaporn. Il a ajouté que les avertissements servent de « point d'intervention » nécessaire pour interrompre la confiance automatique et inciter à la réflexion critique. Sans eux, les utilisateurs peuvent mal interpréter les symptômes ou ne pas fournir le contexte nécessaire, ce qui conduit l'IA à générer des conseils non pertinents ou nocifs.
Gina Neff, professeure d'IA responsable à l'Université Queen Mary de Londres, a fait écho à ces préoccupations, suggérant que le problème est structurel plutôt qu'accidentel. « Les AI Overviews sont conçues pour la vitesse, pas pour l'exactitude », a observé Neff, impliquant que la volonté d'une interface utilisateur simplifiée a compromis les protocoles de sécurité nécessaires pour les requêtes médicales.
L'impact psychologique du placement de l'AI Overview ne peut être surestimé. En positionnant le résumé de l'IA tout en haut de la page des résultats de recherche, Google signale implicitement que ce contenu est la réponse la plus pertinente et la plus autoritaire.
Sonali Sharma, chercheuse au Center for AI in Medicine and Imaging de l'Université de Stanford, a souligné que ce placement crée un « sentiment de réassurance ». Les utilisateurs cherchant des réponses rapides dans un moment d'anxiété — par exemple lors de l'étude d'un symptôme soudain — sont susceptibles de lire le résumé initial et de s'arrêter là. Ce comportement, connu sous le nom de « satisficing » (recherche d'une solution satisfaisante), signifie que les utilisateurs se contentent de la première réponse acceptable qu'ils rencontrent.
« Le problème majeur est que ces Google AI Overviews apparaissent tout en haut de la page de recherche et fournissent souvent ce qui semble être une réponse complète », a expliqué Sharma. « Il devient très difficile de dire ce qui est exact ou non, à moins que vous ne soyez déjà familier avec le sujet. »
Si l'avertissement est caché derrière un clic et un défilement, il n'existe effectivement pas pour la majorité des utilisateurs qui s'appuient sur l'aperçu initial.
Le tableau suivant oppose les choix de conception actuels de Google aux recommandations formulées par les défenseurs de la sécurité des patients et les éthiciens de l'IA.
| Mise en œuvre actuelle de Google | Meilleures pratiques de sécurité | Facteur de risque potentiel |
|---|---|---|
| Avertissement caché derrière le bouton « En savoir plus » | Avertissement visible immédiatement au chargement | Les utilisateurs peuvent agir sur des conseils sans voir les avertissements Risque élevé d'acceptation de la désinformation |
| Avertissement situé en bas du texte | Avertissement placé en haut (En-tête) | Le comportement de « satisficing » conduit à ignorer les avertissements Le contexte critique est perdu |
| Petite police gris clair | Même taille/poids que le texte principal ou en gras | La hiérarchie visuelle diminue l'importance de la sécurité Plus difficile à lire pour les malvoyants |
| Réactif (l'utilisateur doit cliquer pour voir) | Proactif (toujours visible) | Repose sur l'action de l'utilisateur pour révéler les infos de sécurité Suppose une grande diligence de l'utilisateur |
En réponse aux critiques, Google a maintenu que son système est conçu pour être responsable. Un porte-parole de l'entreprise a déclaré que les AI Overviews « encouragent les gens à demander un avis médical professionnel » et mentionnent fréquemment la nécessité d'une attention médicale dans le texte du résumé lui-même. L'entreprise a nié minimiser la sécurité, arguant que le contenu est destiné à être informatif.
Cependant, ce n'est pas la première fois que Google fait face à des réactions négatives concernant ses fonctionnalités de recherche par IA. En janvier, une enquête distincte a révélé que l'IA de Google générait des informations de santé fausses et trompeuses, ce qui a conduit l'entreprise à supprimer les résumés d'IA pour certaines requêtes médicales. Malgré ces ajustements, la persistance du problème de l'avertissement caché suggère que la philosophie de conception sous-jacente — privilégiant une interface propre et non encombrée — reste une priorité par rapport à une friction de sécurité explicite.
La controverse entourant les AI Overviews de Google touche à une question fondamentale dans le déploiement de l'intelligence artificielle : le concept d'E-E-A-T (Expérience, Expertise, Autorité et Fiabilité). Dans le domaine médical, la fiabilité est primordiale. Lorsqu'un moteur de recherche agit comme intermédiaire pour des conseils médicaux, il assume un niveau de responsabilité comparable à celui d'un éditeur de littérature médicale.
Tom Bishop, responsable de l'information des patients à l'association caritative Anthony Nolan spécialisée dans le cancer du sang, a appelé à des changements urgents de l'interface. Il a soutenu que pour les requêtes de santé, l'avertissement devrait être la « première chose que vous voyez » et devrait correspondre à la taille de la police du texte principal.
« Nous savons que la désinformation est un vrai problème, mais quand il s'agit de désinformation sur la santé, c'est potentiellement très dangereux », a déclaré Bishop. Ses commentaires reflètent une demande croissante pour que les géants de la technologie soient tenus responsables de « l'architecture de l'information » qu'ils créent. Il ne suffit pas d'avoir les données correctes quelque part dans le système ; la présentation de ces données doit tenir compte de la psychologie humaine et du potentiel d'erreur.
Alors que l'IA continue de s'intégrer plus profondément dans notre vie quotidienne, les mécanismes par lesquels nous accédons à l'information subissent un changement radical. La lutte de Google pour équilibrer l'élégance des AI Overviews avec la réalité complexe de la sécurité médicale sert de mise en garde.
Pour Creati.ai, cet incident souligne la nécessité de la « sécurité dès la conception » (safety by design). Les avertissements et les garde-fous ne doivent pas être des réflexions après coup ou des textes juridiques cachés ; ils doivent faire partie intégrante de l'expérience utilisateur, en particulier lorsque la santé et la sécurité sont en jeu. Tant que ces avertissements ne seront pas sortis de l'ombre et placés au premier plan, les utilisateurs risquent toujours de confondre une supposition algorithmique avec un diagnostic de médecin.