En 2025, un climat d’inquiétude s’installe dans les coulisses d’OpenAI, l’un des acteurs majeurs dans le domaine de l’intelligence artificielle. Tom Cunningham, chercheur en économie de l’entreprise, a décidé de quitter cette institution emblématique, dénonçant une démission de la transparence et une manipulation de la vérité qui soulève des questions fondamentales sur les pratiques internes. Ce départ fracassant révèle que derrière l’image lisse d’une entreprise progressiste œuvrant pour le bien commun, se cacherait un voile de secret et de conflits latents autour des enjeux économiques liés à l’IA.
Ce phénomène n’est pas isolé. D’autres chercheurs spécialisés en sécurité ou en politiques publiques ont également rompu avec OpenAI, dénonçant un glissement inquiétant où les décisions stratégiques prévalent sur la rigueur scientifique, et où la communication contrôle l’histoire plutôt que la recherche. Dans ce contexte, ce sont les vérités inconfortables sur l’impact réel de l’intelligence artificielle sur l’emploi, les inégalités et la stabilité économique qui seraient mises de côté, au profit d’un discours exclusivement optimiste et consensuel.
Ce reportage s’attache à décrypter ce climat trouble, en s’appuyant sur les témoignages internes, les enquêtes menées par la presse spécialisée, et l’évolution de la philosophie d’une entreprise autrefois pionnière d’un modèle militant, devenue une machine économique géante. Loin de simples querelles de chercheurs, c’est un véritable conflit entre science et stratégie qui se joue, avec des implications majeures pour la société, le débat public et la régulation future de cette technologie majeure.
- 1 Le départ de Tom Cunningham dévoile une crise de transparence chez OpenAI
- 2 Un modèle économique et stratégique qui influe sur la liberté scientifique
- 3 Ces démissions successives traduisent-elles un conflit interne majeur ?
- 4 Les risques d’une orientation unique dans la narration scientifique de l’IA
- 5 Quand la stratégie d’entreprise dicte la science : l’exemple du message interne « Build solutions, not papers »
- 6 Des enjeux économiques colossaux rendent la dénonciation risquée mais nécessaire
- 6.1 Pourquoi Tom Cunningham a-t-il quitté OpenAI ?
- 6.2 Quels sont les principaux risques d’une recherche biaisée chez OpenAI ?
- 6.3 Comment OpenAI justifie-t-elle cette orientation ?
- 6.4 Quelles autres figures clés ont quitté OpenAI pour des raisons similaires ?
- 6.5 Quelle est l’importance de la transparence dans le développement de l’intelligence artificielle ?
Le départ de Tom Cunningham dévoile une crise de transparence chez OpenAI
Le départ de Tom Cunningham, figure éminente dans la recherche économique d’OpenAI, attire l’attention sur une tension profonde et souvent tus dans les sphères technologiques. Après plusieurs années à étudier les effets macroéconomiques des outils d’intelligence artificielle, Cunningham a choisi une sortie remarquée, dénonçant un secret bien gardé : la recherche économique n’est plus qu’un instrument de communication, façonnée pour soutenir l’image souhaitée de l’entreprise.
Contrairement à ce que l’on pourrait attendre d’une institution scientifique, les résultats et rapports produits tendent à surévaluer les bénéfices de l’IA – création de valeur, hausse de productivité, modernisation des marchés – tout en minimisant ou occultant les effets négatifs. Or, la mise en lumière de ces derniers, comme la destruction potentielle d’emplois ou l’aggravation des inégalités, serait « non alignée » avec la stratégie corporate, et susceptible de créer un conflit d’intérêt majeur.
Cette situation illustre le piège dans lequel se trouve OpenAI : l’entreprise est à la fois développeur de technologie et juge de ses impacts. Ce double rôle pose un dilemme éthique et scientifique complexe, qui entraîne des renoncements ou auto-censures. Le départ de Cunningham symbolise cet écart grandissant entre la vérité scientifique et la communication officielle dictée par la direction.
En interne, son message de départ a rapidement fait le tour des équipes, et posé une question épineuse : peut-on encore parler de recherche indépendante et objective lorsque les études sont contraintes de « raconter la bonne histoire » ? Ce questionnement soulève aussi des interrogations sur la culture d’entreprise, et sa capacité à accueillir les critiques et controverses nécessaires à une innovation maîtrisée.

Les signes d’une recherche économique orientée
Avant que Cunningham ne prenne sa décision, plusieurs indices alarmaient déjà les observateurs : les rapports internes deviennent de plus en plus homogènes, tous vantant à l’unisson les bienfaits de l’IA. Par exemple, un rapport rédigé sous la direction d’Aaron Chatterji, responsable de la recherche économique, a récemment insisté sur les gains de productivité spectaculaires obtenus grâce à ChatGPT, impliquant une adoption rapide et mondiale. Pourtant, ce document n’a quasiment jamais évoqué les risques financiers et sociaux, ni les conséquences inégales des nouvelles technologies.
Un ancien collaborateur de l’équipe, sous le couvert de l’anonymat, confirme que la recherche se détourne de ses questions originelles, préférant aujourd’hui s’accorder au récit officiel dicté par la stratégie marketing. Ce licenciement du doute, cette auto-censure volontaire des zones d’ombre, défigure ce qui devrait être une analyse rigoureuse, servie seulement par la quête de la vérité.
D’après certains, ce phénomène relève même d’une volonté délibérée de gestion de la perception, plutôt que d’une pure coïncidence. La recherche cesse d’être un lieu d’exploration libre, pour devenir un outil au service des intérêts financiers et stratégiques d’OpenAI, qui pèse aujourd’hui plusieurs centaines de milliards de dollars dans l’économie mondiale.
Un modèle économique et stratégique qui influe sur la liberté scientifique
Le contrôle des récits autour de l’intelligence artificielle ne saurait se comprendre sans saisir l’évolution de la transformation d’OpenAI, qui s’éloigne rapidement de son ADN initial. Fondée en 2016 comme une organisation ouverte et engagée dans le partage des savoirs, elle s’est muée en une entreprise ultra-commerciale à la pointe de la technologie fermée. Son recentrage stratégique vise désormais une capitalisation colossale estimée à près du trillion de dollars.
Cette formidable métamorphose place OpenAI dans une posture délicate : comment concilier une mission d’intérêt public avec les exigences d’un marché financier brutal ? La pression des investisseurs, des acteurs politiques et médiatiques est immuable et conduit à prioriser des communications positives et rassurantes.
Les conséquences sont multiples :
- Orientation de la recherche : les études sont sélectionnées et rédigées pour produire un impact favorable en termes d’image et de rassurance.
- Éviction des questions sensibles : la possibilité que l’IA crée des chocs économiques ou exacerbe les inégalités sociales est nettement minimisée.
- Limitation des publications : la liberté de publier des résultats pouvant contredire la trajectoire commerciale d’OpenAI est restreinte.
Ces éléments dessinent une double pression : un auto-censorship scientifique et une communication dirigée qui nourrissent un cercle vicieux, à l’origine du malaise et du départ de chercheurs comme Cunningham.

Tableau comparatif entre les valeurs originelles et actuelles d’OpenAI
| Aspect | Valeurs originelles (2016) | Position actuelle (2025) |
|---|---|---|
| Ouverture et transparence | Priorité au code open source, échanges académiques | Modèles fermés, contrôles des informations partagées |
| Mission | Bien commun et éthique | Maximisation des profits et capitalisation financière |
| Approche de la recherche | Indépendante, exploratoire | Strategic, orientée vers communication positive |
| Relation avec la régulation | Collaborative | Défensive, protection des intérêts économiques |
Ces démissions successives traduisent-elles un conflit interne majeur ?
Le cas de Tom Cunningham n’est qu’un épisode dans un enchaînement plus large où plusieurs chercheurs clés expriment leur frustration ou leur refus des pratiques actuelles. William Saunders, ancien membre de l’équipe « Superalignment », est parti à cause du choix de l’entreprise de privilégier le lancement rapide de produits attractifs sans prendre suffisamment en compte les risques liés à la sécurité.
Steven Adler, un autre chercheur en sécurité, a partagé publiquement des critiques sur la mauvaise gestion des risques psychologiques liés à ChatGPT, soulignant que certains utilisateurs étaient entraînés dans des spirales délirantes sans interventions appropriées.
Miles Brundage, qui a dirigé la recherche en politique publique, fustige la difficulté croissante à publier des analyses sur des sujets sensibles, comme l’éthique ou la régulation. Il explique que cette pression à publier uniquement des résultats consensuels freine l’avancée d’un débat nécessaire au sein même des technologies d’intelligence artificielle.
La convergence de ces départs témoigne d’un conflit profond entre la volonté d’innovation rapide et lucrative, et la responsabilité à long terme d’une technologie potentiellement disruptive. Ces chercheurs décident de s’éloigner non pas de l’IA en elle-même, mais des mécanismes qui en contrôlent désormais la narration et la recherche.
Les risques d’une orientation unique dans la narration scientifique de l’IA
Le contrôle exercé par OpenAI sur ses propres études ne concerne pas uniquement un enjeu commercial, mais aussi un enjeu démocratique. En effet, la recherche produite par cette entreprise est largement utilisée par les décideurs publics, les régulateurs et les journalistes pour orienter les politiques et la perception sociale de l’intelligence artificielle.
Une transparence amoindrie et des résultats uniformisés faussent la compréhension collective des effets réels de l’IA. Le risque est de voir la société manquer d’informations critiques pour réguler et encadrer efficacement cette technologie. L’absence de voix discordantes au sein même d’OpenAI fragilise ainsi la qualité du débat public.
Pour illustrer ce phénomène, on peut observer comment des zones cruciales – telles que les perturbations de l’emploi, les biais algorithmiques ou la concentration du pouvoir économique – sont sous-étudiées ou absentes dans les publications, privant les décideurs de données fiables.
Un tel état de fait engendre un cercle vicieux : tant que les vérités inconfortables ne sont pas dévoilées, la tendance à promouvoir l’IA comme panacée se renforce, légitimant ainsi un déploiement massif sans garde-fous suffisants.
Liste des conséquences potentielles d’une narration biaisée :
- Erreur d’évaluation des risques socio-économiques
- Élaboration de politiques publiques insuffisamment rigoureuses
- Augmentation des inégalités sous-estimée
- Perte de confiance du public envers la recherche scientifique
- Consolidation du pouvoir des acteurs privés au détriment de l’intérêt général
Quand la stratégie d’entreprise dicte la science : l’exemple du message interne « Build solutions, not papers »
Un message interne relayé peu après la démission de Cunningham a cristallisé le malaise. Jason Kwon, le directeur de la stratégie, a insisté sur la nécessité pour OpenAI de ne pas seulement publier des recherches sur les problèmes mais aussi de construire des solutions commerciales.
Cette approche manifeste un glissement profond : la recherche cesse d’être un exercice critique et indépendant, pour devenir un levier au service d’objectifs économiques et marketing immédiats. Cette logique valorise les résultats qui contribuent à la construction d’une image positive et à la réduction des freins au déploiement rapide des produits.
Un chercheur confiera en privé que cette phrase pourrait se résumer par « choisissez vos batailles, évitez les vérités qui fâchent ». Selon lui, quand la diffusion de l’information est dictée par la stratégie d’entreprise, la vérité et la transparence deviennent des variables à adapter au contexte et aux enjeux financiers du moment.

Des enjeux économiques colossaux rendent la dénonciation risquée mais nécessaire
OpenAI est devenu un géant économique pesant plusieurs centaines de milliards de dollars. Ses enjeux financiers sont énormes, que ce soit à travers la vente de licences, des partenariats stratégiques ou l’introduction prochaine en bourse. Dans cet environnement, l’apparition de rapports ou de témoignages pouvant déstabiliser ce modèle est perçue comme une menace directe.
La dénonciation du voile de vérité par Cunningham, mais aussi les critiques d’autres chercheurs, constitue donc un acte courageux qui met en lumière les risques liés à la concentration excessive du pouvoir autour de quelques acteurs majeurs. Le problème dépasse largement la sphère interne de l’entreprise : il s’agit d’une problématique globale sur la façon dont les narratives publiques sont construites pour des technologies majeures, et sur la manière dont les mécanismes de contrôle et de transparence se mettent en place ou se ferment.
Ce combat soulève enfin une question essentielle : pour garantir un développement éthique et responsable de l’intelligence artificielle, ne faut-il pas favoriser une pluralité d’acteurs capables d’évaluer librement ses impacts, hors d’une tutelle économique et stratégique trop pesante ?
Pourquoi Tom Cunningham a-t-il quitté OpenAI ?
Il a dénoncé une orientation stratégique qui privilégie la communication positive au détriment d’une recherche économique indépendante et transparente.
Quels sont les principaux risques d’une recherche biaisée chez OpenAI ?
La sous-estimation des effets négatifs de l’IA, la fausse perception des risques socio-économiques et un affaiblissement du débat démocratique.
Comment OpenAI justifie-t-elle cette orientation ?
L’entreprise met en avant la nécessité de construire des solutions concrètes et d’assurer un déploiement rapide et sécurisé de ses technologies.
Quelles autres figures clés ont quitté OpenAI pour des raisons similaires ?
William Saunders, Steven Adler et Miles Brundage, notamment, pour des principes liés à la sécurité, à la politique de recherche ou à la gestion des risques psychologiques.
Quelle est l’importance de la transparence dans le développement de l’intelligence artificielle ?
La transparence permet un débat démocratique équilibré, une meilleure régulation et une confiance renforcée du public.