Un investigador abandona OpenAI denunciando un velo de verdad dentro de la empresa

Adrien

diciembre 16, 2025

un chercheur d'openai démissionne en dénonçant un manque de transparence et un voile de vérité au sein de l'entreprise.

En 2025, un clima de inquietud se instala entre bastidores de OpenAI, uno de los actores principales en el campo de la inteligencia artificial. Tom Cunningham, investigador en economía empresarial, ha decidido dejar esta institución emblemática, denunciando una renuncia a la transparencia y una manipulación de la verdad que plantea cuestiones fundamentales sobre las prácticas internas. Esta salida impactante revela que detrás de la imagen pulida de una empresa progresista que trabaja por el bien común, se escondería un velo de secreto y conflictos latentes en torno a los desafíos económicos relacionados con la IA.

Este fenómeno no es aislado. Otros investigadores especializados en seguridad o políticas públicas también han roto con OpenAI, denunciando un inquietante desplazamiento donde las decisiones estratégicas prevalecen sobre la rigurosidad científica, y donde la comunicación controla la historia más que la investigación. En este contexto, serían las verdades incómodas sobre el impacto real de la inteligencia artificial en el empleo, las desigualdades y la estabilidad económica las que se dejarían de lado, en favor de un discurso exclusivamente optimista y consensuado.

Este reportaje se dedica a descifrar este clima turbio, apoyándose en testimonios internos, investigaciones realizadas por la prensa especializada, y la evolución de la filosofía de una empresa que en otro tiempo fue pionera de un modelo militante, convertida ahora en una gigantesca máquina económica. Lejos de ser simples disputas entre investigadores, se juega un verdadero conflicto entre ciencia y estrategia, con implicaciones mayores para la sociedad, el debate público y la futura regulación de esta tecnología clave.

La salida de Tom Cunningham revela una crisis de transparencia en OpenAI

La salida de Tom Cunningham, figura destacada en la investigación económica de OpenAI, llama la atención sobre una tensión profunda y a menudo silenciada en las esferas tecnológicas. Tras varios años estudiando los efectos macroeconómicos de las herramientas de inteligencia artificial, Cunningham eligió una salida destacada, denunciando un secreto bien guardado: la investigación económica ya no es más que un instrumento de comunicación, moldeado para sostener la imagen deseada de la empresa.

A diferencia de lo que podría esperarse de una institución científica, los resultados e informes producidos tienden a sobrevalorar los beneficios de la IA – creación de valor, aumento de productividad, modernización de mercados – mientras minimizan u ocultan los efectos negativos. Sin embargo, la exposición de estos últimos, como la potencial destrucción de empleos o el agravamiento de las desigualdades, sería “no alineada” con la estrategia corporativa, y susceptible de crear un conflicto de interés mayor.

Esta situación ilustra la trampa en la que se encuentra OpenAI: la empresa es a la vez desarrolladora de tecnología y juez de sus impactos. Este doble rol plantea un dilema ético y científico complejo, que conlleva renuncias o autocensuras. La salida de Cunningham simboliza esta creciente brecha entre la verdad científica y la comunicación oficial dictada por la dirección.

Internamente, su mensaje de despedida rápidamente recorrió los equipos, y planteó una pregunta espinosa: ¿se puede aún hablar de investigación independiente y objetiva cuando los estudios están obligados a “contar la historia correcta”? Este cuestionamiento también suscita interrogantes sobre la cultura empresarial y su capacidad para acoger las críticas y controversias necesarias para una innovación controlada.

un chercheur quitte openai en dénonçant un voile de vérité, soulevant des questions sur la transparence et les pratiques internes de l'entreprise.

Los signos de una investigación económica orientada

Antes de que Cunningham tomara su decisión, diversos indicios ya alertaban a los observadores: los informes internos se vuelven cada vez más homogéneos, todos alabando al unísono los beneficios de la IA. Por ejemplo, un informe redactado bajo la dirección de Aaron Chatterji, responsable de la investigación económica, recientemente destacó las ganancias productivas espectaculares obtenidas gracias a ChatGPT, implicando una adopción rápida y mundial. Sin embargo, este documento casi nunca mencionó los riesgos financieros y sociales, ni las consecuencias desiguales de las nuevas tecnologías.

Un antiguo colaborador del equipo, bajo condición de anonimato, confirma que la investigación se aparta de sus cuestiones originarias, prefiriendo hoy ajustarse al relato oficial dictado por la estrategia de marketing. Esta expulsión de la duda, esta autocensura voluntaria de las zonas oscuras, desfigura lo que debería ser un análisis riguroso, guiado únicamente por la búsqueda de la verdad.

Según algunos, este fenómeno responde incluso a una voluntad deliberada de gestión de la percepción, más que a una simple coincidencia. La investigación deja de ser un lugar de exploración libre, para convertirse en una herramienta al servicio de los intereses financieros y estratégicos de OpenAI, que hoy pesa varios cientos de miles de millones de dólares en la economía mundial.

Un modelo económico y estratégico que influye en la libertad científica

El control de los relatos en torno a la inteligencia artificial no se puede entender sin captar la evolución de la transformación de OpenAI, que se aleja rápidamente de su ADN inicial. Fundada en 2016 como una organización abierta y comprometida con el compartir de conocimientos, se ha convertido en una empresa ultracomercial a la vanguardia de tecnología cerrada. Su reciente reorientación estratégica apunta ahora a una capitalización colosal estimada en cerca de un billón de dólares.

Esta formidable metamorfosis coloca a OpenAI en una postura delicada: ¿cómo conciliar una misión de interés público con las exigencias de un mercado financiero brutal? La presión de los inversores, actores políticos y mediáticos es inmutable y lleva a priorizar comunicaciones positivas y tranquilizadoras.

Las consecuencias son múltiples:

  • Orientación de la investigación: los estudios son seleccionados y redactados para producir un impacto favorable en términos de imagen y tranquilidad.
  • Evicción de las cuestiones sensibles: la posibilidad de que la IA provoque choques económicos o exacerbe las desigualdades sociales es claramente minimizada.
  • Limitación de las publicaciones: la libertad de publicar resultados que puedan contradecir la trayectoria comercial de OpenAI está restringida.

Estos elementos dibujan una doble presión: una autocensura científica y una comunicación dirigida que alimentan un círculo vicioso, origen del malestar y de la salida de investigadores como Cunningham.

un chercheur d'openai dénonce un manque de transparence au sein de l'entreprise en quittant son poste, révélant un voile de vérité autour des pratiques internes.

Tabla comparativa entre los valores originarios y actuales de OpenAI

Aspecto Valores originarios (2016) Posición actual (2025)
Apertura y transparencia Prioridad al código abierto, intercambios académicos Modelos cerrados, controles de la información compartida
Misión Bien común y ética Maximización de beneficios y capitalización financiera
Enfoque de la investigación Independiente, exploratoria Estrategia, orientada a comunicación positiva
Relación con la regulación Colaborativa Defensiva, protección de intereses económicos

¿Estas renuncias sucesivas reflejan un conflicto interno mayor?

El caso de Tom Cunningham es solo un episodio en una cadena más amplia donde varios investigadores clave expresan su frustración o rechazo a las prácticas actuales. William Saunders, exmiembro del equipo “Superalignment”, se fue por la elección de la empresa de priorizar el lanzamiento rápido de productos atractivos sin considerar suficientemente los riesgos relacionados con la seguridad.

Steven Adler, otro investigador en seguridad, compartió públicamente críticas sobre la mala gestión de los riesgos psicológicos relacionados con ChatGPT, señalando que algunos usuarios fueron arrastrados a espirales delirantes sin intervenciones apropiadas.

Miles Brundage, que dirigió la investigación en política pública, denuncia la creciente dificultad para publicar análisis sobre temas sensibles, como la ética o la regulación. Explica que esta presión para publicar solo resultados consensuados frena el avance de un debate necesario dentro mismo de las tecnologías de inteligencia artificial.

La convergencia de estas salidas testimonia un conflicto profundo entre la voluntad de innovación rápida y lucrativa, y la responsabilidad a largo plazo de una tecnología potencialmente disruptiva. Estos investigadores deciden alejarse no de la IA en sí, sino de los mecanismos que ahora controlan su narrativa e investigación.

Los riesgos de una orientación única en la narrativa científica de la IA

El control ejercido por OpenAI sobre sus propios estudios no solo concierne a un asunto comercial, sino también a uno democrático. De hecho, la investigación producida por esta empresa es ampliamente utilizada por los responsables públicos, reguladores y periodistas para orientar políticas y la percepción social de la inteligencia artificial.

Una transparencia disminuida y resultados uniformizados distorsionan la comprensión colectiva de los efectos reales de la IA. El riesgo es que la sociedad carezca de información crítica para regular y encuadrar eficazmente esta tecnología. La ausencia de voces disonantes incluso dentro de OpenAI debilita así la calidad del debate público.

Para ilustrar este fenómeno, se puede observar cómo zonas cruciales – tales como las perturbaciones del empleo, los sesgos algorítmicos o la concentración del poder económico – están subestudiadas o ausentes en las publicaciones, privando a los tomadores de decisiones de datos confiables.

Tal estado de cosas genera un círculo vicioso: mientras las verdades incómodas no sean reveladas, la tendencia a promover la IA como panacea se fortalece, legitimando así un despliegue masivo sin suficientes salvaguardas.

Lista de consecuencias potenciales de una narrativa sesgada:

  • Error en la evaluación de riesgos socioeconómicos
  • Elaboración de políticas públicas insuficientemente rigurosas
  • Subestimación del aumento de las desigualdades
  • Pérdida de confianza del público hacia la investigación científica
  • Consolidación del poder de actores privados en detrimento del interés general

Cuando la estrategia empresarial dicta la ciencia: el ejemplo del mensaje interno «Build solutions, not papers»

Un mensaje interno difundido poco después de la renuncia de Cunningham cristalizó el malestar. Jason Kwon, director de estrategia, insistió en la necesidad para OpenAI no solo de publicar investigaciones sobre problemas, sino también de construir soluciones comerciales.

Este enfoque manifiesta un cambio profundo: la investigación deja de ser un ejercicio crítico e independiente para convertirse en una palanca al servicio de objetivos económicos y de marketing inmediatos. Esta lógica valora los resultados que contribuyen a construir una imagen positiva y a reducir los obstáculos para el despliegue rápido de productos.

Un investigador confió en privado que esta frase podría resumirse como “elige tus batallas, evita las verdades que molestan”. Según él, cuando la difusión de la información está dictada por la estrategia de empresa, la verdad y la transparencia se convierten en variables a adaptar al contexto y a los desafíos financieros del momento.

un chercheur quitte openai en dénonçant un voile de vérité au sein de l’entreprise, soulevant des questions sur la transparence et l’éthique de l’organisation.

Enormes desafíos económicos hacen que la denuncia sea arriesgada pero necesaria

OpenAI se ha convertido en un gigante económico que pesa varios cientos de miles de millones de dólares. Sus desafíos financieros son enormes, ya sea a través de la venta de licencias, alianzas estratégicas o la próxima salida a bolsa. En este contexto, la aparición de informes o testimonios que puedan desestabilizar este modelo se percibe como una amenaza directa.

La denuncia del velo de verdad por parte de Cunningham, así como las críticas de otros investigadores, constituye un acto valiente que pone de relieve los riesgos relacionados con la concentración excesiva del poder alrededor de unos pocos actores principales. El problema va mucho más allá del ámbito interno de la empresa: se trata de una problemática global sobre cómo se construyen las narrativas públicas para tecnologías clave, y sobre cómo los mecanismos de control y transparencia se implementan o se cierran.

Esta lucha plantea finalmente una cuestión esencial: para garantizar un desarrollo ético y responsable de la inteligencia artificial, ¿no deberían fomentarse una pluralidad de actores capaces de evaluar libremente sus impactos, fuera de un control económico y estratégico demasiado pesado?

{«@context»:»https://schema.org»,»@type»:»FAQPage»,»mainEntity»:[{«@type»:»Question»,»name»:»Pourquoi Tom Cunningham a-t-il quittu00e9 OpenAI ?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»Il a du00e9noncu00e9 une orientation stratu00e9gique qui privilu00e9gie la communication positive au du00e9triment d’une recherche u00e9conomique indu00e9pendante et transparente.»}},{«@type»:»Question»,»name»:»Quels sont les principaux risques du2019une recherche biaisu00e9e chez OpenAI ?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»La sous-estimation des effets nu00e9gatifs de lu2019IA, la fausse perception des risques socio-u00e9conomiques et un affaiblissement du du00e9bat du00e9mocratique.»}},{«@type»:»Question»,»name»:»Comment OpenAI justifie-t-elle cette orientation ?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»Lu2019entreprise met en avant la nu00e9cessitu00e9 de construire des solutions concru00e8tes et du2019assurer un du00e9ploiement rapide et su00e9curisu00e9 de ses technologies.»}},{«@type»:»Question»,»name»:»Quelles autres figures clu00e9s ont quittu00e9 OpenAI pour des raisons similaires ?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»William Saunders, Steven Adler et Miles Brundage, notamment, pour des principes liu00e9s u00e0 la su00e9curitu00e9, u00e0 la politique de recherche ou u00e0 la gestion des risques psychologiques.»}},{«@type»:»Question»,»name»:»Quelle est lu2019importance de la transparence dans le du00e9veloppement de lu2019intelligence artificielle ?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»La transparence permet un du00e9bat du00e9mocratique u00e9quilibru00e9, une meilleure ru00e9gulation et une confiance renforcu00e9e du public.»}}]}

¿Por qué dejó Tom Cunningham OpenAI?

Denunció una orientación estratégica que privilegia la comunicación positiva en detrimento de una investigación económica independiente y transparente.

¿Cuáles son los principales riesgos de una investigación sesgada en OpenAI?

La subestimación de los efectos negativos de la IA, la falsa percepción de los riesgos socioeconómicos y un debilitamiento del debate democrático.

¿Cómo justifica OpenAI esta orientación?

La empresa destaca la necesidad de construir soluciones concretas y asegurar un despliegue rápido y seguro de sus tecnologías.

¿Qué otras figuras clave han dejado OpenAI por razones similares?

William Saunders, Steven Adler y Miles Brundage, en particular, por principios relacionados con la seguridad, la política de investigación o la gestión de riesgos psicológicos.

¿Cuál es la importancia de la transparencia en el desarrollo de la inteligencia artificial?

La transparencia permite un debate democrático equilibrado, una mejor regulación y una confianza reforzada del público.