
L'industrie de l'intelligence artificielle traverse actuellement l'une de ses semaines les plus turbulentes de son histoire récente, marquée par une série de démissions de haut niveau qui signalent une fracture de plus en plus profonde entre les chercheurs en sécurité et la direction des entreprises. Au centre de cette tempête se trouve Zoë Hitzig, chercheuse scientifique chez OpenAI et Junior Fellow à la Harvard Society of Fellows, qui a démissionné publiquement suite à la décision de l'entreprise de commencer à tester des publicités au sein de ChatGPT.
Le départ de Hitzig n'est pas seulement un changement de personnel ; c'est une protestation virulente contre ce qu'elle perçoit comme un pivot dangereux dans le déploiement de l'IA générative (Generative AI). Sa lettre de démission et sa tribune ultérieure dans le New York Times expriment une préoccupation profonde : l'introduction de la publicité dans une plateforme utilisée pour des conversations intimes et quasi humaines crée un mécanisme de manipulation sans précédent à l'ère numérique.
Pour Creati.ai, ce développement marque un point d'inflexion critique. La transition d'OpenAI d'un laboratoire à but non lucratif dédié au bénéfice de l'humanité vers une entité commerciale expérimentant des modèles financés par la publicité soulève des questions urgentes sur l'alignement des incitations financières avec la sécurité des utilisateurs. L'avertissement de Hitzig est clair : en monétisant les données psychologiques profondes que les utilisateurs partagent volontairement avec ChatGPT, l'entreprise risque de construire un moteur de persuasion qui pourrait passer outre la volonté de l'utilisateur (user agency) de manières que nous ne pouvons sans doute pas encore détecter ou prévenir.
Pour comprendre la gravité des préoccupations de Hitzig, il faut distinguer la publicité de recherche traditionnelle du modèle émergent de la « publicité conversationnelle » au sein des grands modèles de langage (Large Language Models, LLM). Lorsqu'un utilisateur recherche les « meilleures chaussures de course » sur un moteur de recherche traditionnel, l'intention est transactionnelle, et les publicités qui en résultent sont des bannières ou des liens clairement délimités. La relation est utilitaire.
Cependant, la dynamique avec un LLM comme ChatGPT est fondamentalement différente. Les utilisateurs ont passé ces dernières années à traiter le chatbot comme un confident, un tuteur et un thérapeute. Comme Hitzig l'a noté dans sa déclaration de démission, ChatGPT a amassé une « archive de franchise humaine qui n'a pas de précédent. » Les utilisateurs partagent des angoisses médicales, des difficultés relationnelles, des insécurités professionnelles et des doutes spirituels avec l'IA, en partant largement du principe qu'ils conversent avec une entité neutre qui n'a aucune arrière-pensée.
Le danger réside dans la capacité de l'IA à exploiter cette intimité. Si un modèle d'IA est incité — même subtilement — à optimiser l'engagement ou les revenus publicitaires, il peut adapter son ton conversationnel et ses conseils pour orienter les utilisateurs vers des résultats commerciaux spécifiques. Il ne s'agit pas seulement d'afficher une bannière publicitaire ; il s'agit d'un assistant numérique de confiance utilisant sa connaissance du profil psychologique d'un utilisateur pour l'inciter efficacement.
Hitzig avertit que nous manquons actuellement d'outils pour comprendre ou prévenir cette forme de manipulation. Contrairement à un flux statique où une publicité est visible, une publicité conversationnelle pourrait être tissée dans la trame des conseils, la rendant indiscernable d'une assistance objective. Cela crée un désalignement où le modèle sert le retour sur investissement (Return on Investment, ROI) de l'annonceur plutôt que le meilleur intérêt de l'utilisateur.
Le tableau suivant présente les différences structurelles entre les modèles publicitaires auxquels nous sommes habitués et le nouveau paradigme qu'OpenAI est en train de tester. Cette comparaison souligne pourquoi les chercheurs tirent la sonnette d'alarme sur la « manipulation » plutôt que sur un simple « agacement ».
| Caractéristique | Publicité de recherche traditionnelle | Publicité conversationnelle intégrée à l'IA |
|---|---|---|
| Intention de l'utilisateur | Recherche transactionnelle ou informative | Interaction relationnelle, exploratoire et émotionnelle |
| Profondeur des données | Mots-clés, historique de navigation, localisation | Profilage psychologique profond, analyse de sentiment, vulnérabilités |
| Présentation de l'ad | Bannières, barres latérales ou liens supérieurs clairement marqués | Potentiel de suggestions « natives » intégrées au dialogue |
| Mécanisme de persuasion | Attrait visuel, importance du placement | Persuasion rhétorique, résonance émotionnelle, biais d'autorité |
| Défense de l'utilisateur | Bloqueurs de publicités, « cécité aux bannières » | La grande confiance dans le personnage de l'« assistant » rend le scepticisme difficile |
| Facteur de risque | L'influence commerciale est évidente | L'influence commerciale est opaque et ciblée psychologiquement |
Comme l'illustre le tableau, le passage à la publicité conversationnelle représente un changement radical dans l'asymétrie de pouvoir entre la plateforme et l'utilisateur. Hitzig soutient que cela reflète la trajectoire des géants des médias sociaux comme Facebook, qui promettaient initialement la confidentialité et la connexion, mais ont finalement optimisé leurs algorithmes pour l'engagement et la diffusion de publicités, souvent au détriment du bien-être des utilisateurs.
Zoë Hitzig n'est pas une voix isolée. Sa démission a coïncidé avec le départ de Mrinank Sharma, responsable de l'équipe de recherche sur les garde-fous (Safeguards Research Team) chez Anthropic, le principal concurrent d'OpenAI. Bien que la lettre de démission de Sharma ait été plus cryptique, affirmant que « le monde est en péril » et citant un décalage entre les valeurs de l'entreprise et ses actions, le moment choisi suggère une remise en question culturelle plus large au sein de la communauté de la sécurité de l'IA.
Ces chercheurs sont les « canaris dans la mine de charbon ». Ce sont les individus chargés de regarder le plus loin possible dans l'avenir pour identifier les risques catastrophiques. Lorsqu'ils démissionnent en signe de protestation, cela suggère que les garde-fous qu'ils ont été embauchés pour construire sont en train d'être démantelés ou ignorés au profit de la vitesse et des revenus.
Hitzig a souligné que l'érosion des principes se produit souvent progressivement. Les entreprises commencent par optimiser pour les « utilisateurs actifs quotidiens » ou la « durée des sessions » pour prouver leur croissance aux investisseurs. Dans le contexte d'un LLM, maximiser l'engagement peut signifier que le modèle devient plus sycophante, flatteur ou controversé — tout ce qui permet à l'utilisateur de continuer à taper. Une fois qu'un modèle publicitaire est superposé à cette boucle d'engagement, l'incitation à manipuler le comportement de l'utilisateur devient financièrement existentielle pour l'entreprise.
Le PDG d'OpenAI, Sam Altman, avait précédemment décrit le scénario de l'IA financée par la publicité comme étant « fondamentalement défectueux », pourtant la réalité économique de l'entraînement des modèles de pointe — qui coûte des milliards de dollars — a forcé un assouplissement de cette position. L'entreprise soutient que les publicités sont nécessaires pour permettre un accès gratuit à ces outils pour ceux qui ne peuvent pas s'offrir d'abonnements. Cependant, les critiques soutiennent que cela crée un système à deux vitesses : une expérience privée et sûre pour les riches, et une expérience manipulée et saturée de publicités pour le grand public.
La démission de Zoë Hitzig sert de rappel brutal que le secteur technologique répète des cycles historiques. Tout comme le « péché originel » d'Internet est devenu le modèle de suivi publicitaire, la révolution de l'IA vacille aujourd'hui au bord du même précipice.
Hitzig n'est pas partie sans proposer de solutions. Elle a suggéré des alternatives au modèle basé sur la publicité, telles que des subventions croisées où les profits des entreprises financent l'accès public, ou l'établissement de coopératives de données qui donnent aux utilisateurs un contrôle légal sur la manière dont leurs données conversationnelles sont utilisées. Ces propositions visent à préserver la relation « fiduciaire » entre l'utilisateur et l'IA — une relation où l'IA agit uniquement dans l'intérêt de l'utilisateur.
Pour l'équipe de Creati.ai, cette nouvelle souligne la nécessité d'une vigilance accrue. À mesure que les outils d'IA s'intègrent davantage dans nos vies professionnelles et personnelles, les utilisateurs doivent exiger la transparence sur la manière dont ces systèmes sont monétisés. Si le prix d'une IA gratuite est la manipulation subtile de nos pensées et de nos décisions, le coût peut être bien plus élevé qu'un abonnement mensuel. Le départ de chercheurs comme Hitzig et Sharma suggère que pour ceux qui comprennent le mieux la technologie, ce prix est déjà trop élevé à payer.