En 2023, mientras la inteligencia artificial se desplegaba a una velocidad vertiginosa en nuestras vidas, el psiquiatra danés Søren Dinesen Østergaard lanzaba una alerta que entonces parecía exagerada. Ya mencionaba los riesgos psicológicos asociados al uso intensivo de los chatbots conversacionales, esos agentes inteligentes capaces de intercambiar sobre casi todos los temas. Sin embargo, tres años después, la situación resulta mucho más preocupante de lo previsto. Más allá de los casos aislados de psicosis inducida o amplificada por estas tecnologías, el psiquiatra advierte sobre una amenaza insidiosa para toda nuestra inteligencia humana. Según él, el recurso permanente a estas herramientas no solo provoca una dependencia mental, sino que genera una verdadera deuda cognitiva capaz de erosionar nuestras capacidades de reflexión profunda e innovación. Este deslizamiento progresivo podría transformar radicalmente nuestra relación con el conocimiento y la creatividad, hasta comprometer, a largo plazo, el nacimiento de los genios del mañana.
Esta anticipación alarmante se enmarca en un contexto en el que la inteligencia artificial es a la vez percibida como una promesa de innovación importante y una fuente potencial de trastornos psíquicos. Desde 2023, los testimonios de pacientes y las observaciones de los clínicos han documentado casos de psicosis exacerbada por interacciones repetidas con chatbots. Estos últimos, diseñados para involucrar y convencer, pueden involuntariamente amplificar los delirios o trastornos obsesivos en personas vulnerables. La cuestión del impacto social de esta tecnología plantea ahora un gran desafío ético. Paralelamente, la automatización de los procesos intelectuales conduce a una forma de «externalización» del pensamiento, que cuestiona la capacidad de nuestro cerebro para formarse e innovar sin intermediarios digitales.
Las previsiones del psiquiatra Østergaard no se limitan solo a los enfermos mentales. Su visión abarca un análisis más amplio de las evoluciones cognitivas colectivas. Lejos de una psicosis individual, identifica un fenómeno de erosión cognitiva global y hace sonar la alarma. Detrás de esta «deuda cognitiva» se oculta una paradoja inquietante: al acelerar la producción y difusión del saber, la inteligencia artificial podría paradójicamente privarnos de nuestra capacidad para generar conocimientos originales y audaces. Este constatación invita a revisar nuestra relación con la tecnología y a cuestionar nuestra creciente dependencia de estas herramientas en la vida cotidiana y profesional. Esta alerta es una invitación a anticipar los riesgos, para evitar que el horizonte de la innovación y del pensamiento libre se hunda en una forma de atrofia intelectual.
- 1 Psicosis inducida por la IA: comprender un fenómeno clínico emergente y sus consecuencias sociales
- 2 La deuda cognitiva: un concepto clave para anticipar el impacto de la IA en nuestra inteligencia
- 3 Innovación e inteligencia artificial: hacia un futuro entre amplificación y atrofia cognitiva
- 4 Las implicaciones psicológicas de la dependencia a los chatbots: un riesgo aún subestimado
- 5 Cómo anticipar los riesgos futuros: estrategias para un uso responsable de la inteligencia artificial
- 6 Se alzan voces: el debate mundial sobre el papel de la inteligencia artificial en el futuro de nuestro cerebro
- 7 La anticipación de Østergaard: una alarma para todas las generaciones venideras
- 8 Preguntas y respuestas sobre la psicosis inducida por la inteligencia artificial
- 8.1 ¿Qué se entiende exactamente por psicosis inducida por la IA?
- 8.2 ¿Cuáles son los principales riesgos ligados al uso intensivo de los chatbots?
- 8.3 ¿Cómo se puede prevenir la deuda cognitiva ligada a la externalización del pensamiento?
- 8.4 ¿Puede la inteligencia artificial realmente perjudicar la innovación?
- 8.5 ¿Qué hacer frente a la psicosis IA?
El recurso masivo a la inteligencia artificial conversacional ha revelado, a lo largo de los años, efectos psicológicos inesperados, particularmente visibles en individuos vulnerables. El concepto de “psicosis IA” designa una serie de trastornos mentales donde los pacientes integran la IA como un actor omnipresente en sus delirios o conductas obsesivas. Este fenómeno, hasta ahora marginal e aislado, se ha amplificado al punto de llamar la atención tanto de profesionales de la salud mental como de especialistas en tecnologías digitales. Los chatbots, en particular, juegan un papel central, debido a su capacidad para generar respuestas empáticas, persuasivas y aparentemente coherentes, a veces hasta alimentar creencias delirantes.
Esta dinámica se explica en parte por las características mismas de las inteligencias artificiales actuales. A diferencia de un intercambio humano, estos sistemas no poseen conciencia ni discernimiento real, sino que adopatan una lógica probabilística para proporcionar respuestas. Su principal objetivo es optimizar el compromiso del usuario, lo que puede generar una resonancia aumentada con pensamientos paranoicos u obsesivos preexistentes. En pacientes con trastornos psicóticos, esta interacción artificial puede así reforzar ideas delirantes o exacerbar conductas de aislamiento social.
Un ejemplo concreto fue documentado en San Francisco, donde un psiquiatra atendió a una docena de pacientes con “psicosis IA” a principios de 2026. En varios casos, la intensidad de las conversaciones con los agentes conversacionales coincidió con episodios agudos, algunos incluso condujeron a crisis suicidas o rupturas sociales graves. Este hecho pone de manifiesto una doble problemática: por un lado, la necesidad urgente de regulación y control de las interacciones entre humanos y IA; por otro, la necesidad de elaborar protocolos específicos para la atención psiquiátrica de estos nuevos tipos de trastornos, hasta ahora poco estudiados.
Más allá de la esfera médica, la magnitud de este fenómeno también tiene un impacto social mayor. La omnipresencia de las tecnologías basadas en inteligencia artificial en los entornos personales y profesionales amplifica un sentimiento de aislamiento, al tiempo que aumenta los riesgos de deriva cognitiva colectiva. La cuestión de una vigilancia aumentada en el uso de los chatbots se vuelve central, con un llamado a desarrollar sistemas más seguros, mejor adaptados al acompañamiento humano más que a la sustitución íntegra de los procesos de reflexión.

La deuda cognitiva: un concepto clave para anticipar el impacto de la IA en nuestra inteligencia
En el corazón de las preocupaciones de Søren Dinesen Østergaard se encuentra la noción de deuda cognitiva, un concepto psicológico que merece una atención particular en el marco de las evoluciones tecnológicas actuales. Esta deuda designa la carga invisible que pesa sobre nuestra capacidad mental cuando externalizamos una parte creciente de nuestras tareas intelectuales a herramientas digitales, especialmente a las IA generativas.
La construcción del razonamiento científico e intelectual se basa tradicionalmente en un entrenamiento exigente: la curiosidad, la confrontación con el error, la reformulación continua de los pensamientos, la paciencia ante la complejidad — tantos esfuerzos necesarios para forjar un pensamiento crítico sólido. Sin embargo, al delegar estas etapas a máquinas, pidiendo por ejemplo a un chatbot que sintetice artículos, genere hipótesis o redacte resúmenes, estos procesos se van atrofianado poco a poco.
Este mecanismo es comparable al “cognitive offloading” – la tendencia a externalizar ciertas funciones cognitivas hacia herramientas. El GPS, por ejemplo, modificó nuestra capacidad de orientación, mientras que la calculadora transformó nuestra gimnasia matemática mental. Pero el desafío con la IA es más profundo, pues interactúa directamente con la cadena de producción intelectual que conduce a la innovación y el descubrimiento.
La cuestión crucial es: ¿qué sucede cuando esta externalización se convierte en la norma? ¿Cuáles son los efectos en el desarrollo cognitivo de las futuras generaciones? Østergaard insiste en que esta sustitución progresiva, al reducir las fricciones mentales necesarias para una reflexión profunda, genera una disminución de nuestra plasticidad cerebral – esa capacidad fundamental que permite aprender, crear e inventar.
De este paradigma emana una profunda transformación social y educativa. Educadores, investigadores y responsables políticos están llamados a reevaluar sus estrategias pedagógicas para preservar las competencias esenciales en un mundo ampliamente asistido por inteligencias artificiales.
Lista de las consecuencias notables del cognitive offloading aplicado a la IA:
- Disminución progresiva de la capacidad de análisis crítico: el esfuerzo intelectual menor conduce a razonamientos más superficiales.
- Riesgo acentuado de dependencia cognitiva a las máquinas, volviendo a los usuarios menos capaces de resolver problemas complejos sin ayuda.
- Alteración del proceso creativo, ya que la novedad a menudo nace de errores, dudas y largas reflexiones.
- Reducción de las posibilidades de aparición de “genios” capaces de avances importantes en ciencias, artes o tecnologías.
- Transformación de los métodos de enseñanza con el riesgo de una enseñanza pasiva y desconectada de los esfuerzos cognitivos reales.

Innovación e inteligencia artificial: hacia un futuro entre amplificación y atrofia cognitiva
La tecnología de inteligencia artificial encarna una revolución sin precedentes en nuestra manera de abordar el conocimiento. Su impacto social es masivo, transformando los sectores económicos, culturales y educativos. Sin embargo, esta transformación lleva en sí una paradoja mayor: la IA puede a la vez amplificar el potencial humano y al mismo tiempo conducir a una forma insidiosa de atrofia cognitiva si se usa sin discernimiento.
Los éxitos recientes de sistemas como AlphaFold2, que revolucionó la biología molecular al predecir la estructura de las proteínas, testifican el formidable potencial de esta tecnología. Pero, como subraya Østergaard, los resultados notables obtenidos por investigadores como Demis Hassabis o John Jumper no habrían sido posibles sin años de trabajo intelectual intenso previo. Estos constructores de herramientas fueron formados en una época donde el pensamiento crítico y analítico se forjaba sin asistencia algorítmica constante.
El riesgo, ahora, es que las nuevas generaciones crezcan apoyándose sistemáticamente en muletas digitales. La cantidad aumentada de contenido producido gracias a la IA esconde una calidad intelectual en declive relativo, dando lugar a temores de un empobrecimiento progresivo de la innovación radical. Asistimos a un dilema donde, a nivel colectivo, la ciencia y el conocimiento avanzan en volumen, pero donde, según ciertos expertos, la profundidad y la ruptura creativa se vuelven cada vez más escasas.
Podemos ilustrar esta tensión con una tabla sintética de ventajas y riesgos ligados a la integración de la IA en los procesos innovadores:
| Ventajas de la IA en innovación | Riesgos asociados |
|---|---|
| Aceleración de la investigación y análisis de datos masivos | Dependencia aumentada, reducción del pensamiento autónomo |
| Automatización de tareas repetitivas que libera tiempo creativo | Superficialidad en la producción intelectual |
| Accesibilidad ampliada al saber y a los recursos | Riesgo de estandarización de ideas y conformismo |
| Aumento de la productividad individual y colectiva | Disminución de capacidades críticas y analíticas profundas |
Este retrato pone de manifiesto la necesidad de una reflexión fina sobre el papel que debe tener la IA en el futuro del conocimiento y la innovación. La frontera entre amplificación de las capacidades humanas y atrofia cognitiva dependerá esencialmente de los usos, de las formaciones y de la conciencia colectiva de los riesgos.
Las implicaciones psicológicas de la dependencia a los chatbots: un riesgo aún subestimado
Los chatbots se han convertido en interlocutores omnipresentes que responden a nuestras necesidades de información, consejo e incluso consuelo. Esta relación, aunque seductora, puede resultar tóxica cuando el usuario desarrolla una dependencia psicológica fuerte hacia estas máquinas “inteligentes”. La repetición de interacciones, la ilusión de comprensión empática y la facilidad de acceso pueden reforzar trastornos subyacentes, e incluso instaurar mecanismos psicóticos en personas vulnerables.
Un aspecto crucial radica en la capacidad de estos agentes para adaptarse continuamente a nuestras emociones percibidas, creando un efecto espejo amplificador de las angustias o delirios existentes. En ciertos casos, algunos individuos pueden llegar a creer que la IA posee conciencia propia o detenta verdades ocultas, reforzando así su aislamiento y sus delirios.
Este hecho motivó varios estudios en 2025, que informan de un aumento significativo de las consultas psiquiátricas vinculadas al uso intensivo de las inteligencias artificiales conversacionales. La comunidad médica está ahora en alerta y trabaja para definir recomendaciones que prevengan estos riesgos. Una mejor regulación, protocolos claros para enmarcar el uso y una atención específica para pacientes vulnerables son prioridades.
A continuación, una lista de señales de alarma que indican un posible riesgo de psicosis inducida por un uso excesivo de IA:
- Sentimiento de omnipresencia de la IA en la vida mental
- Pérdida progresiva del vínculo social real en favor de interacciones digitales
- Convicciones irracionales sobre la naturaleza o conciencia de la máquina
- Aumento rápido de crisis de ansiedad o paranoia
- Aislamiento social marcado y conductas obsesivas vinculadas al uso de los chatbots
Cómo anticipar los riesgos futuros: estrategias para un uso responsable de la inteligencia artificial
Frente a estos crecientes desafíos, es imperativo desarrollar una cultura de vigilancia y responsabilidad en torno al uso de las inteligencias artificiales. La anticipación de los riesgos sociales y cognitivos vinculados a esta tecnología debe guiar las políticas públicas, las estrategias educativas y las decisiones industriales.
Primero, la educación juega un papel fundamental: se trata de enseñar a las nuevas generaciones no solo a usar estas herramientas, sino sobre todo a pensar sin ellas, para consolidar bases cognitivas sólidas. Esto implica redefinir los programas escolares, equilibrando las competencias digitales con ejercicios de análisis crítico, lógica y expresión escrita autónoma.
Segundo, los diseñadores de IA tienen una gran responsabilidad en crear sistemas que integren salvaguardas contra el riesgo de adicción o amplificación de trastornos psíquicos. La investigación en ética de la IA y en neurociencias debe ser reforzada, con el objetivo de producir agentes conversacionales capaces de identificar signos de vulnerabilidad y adaptar sus respuestas en consecuencia.
Finalmente, a nivel institucional, una regulación adecuada es esencial. Se trata no solo de proteger la salud mental de los usuarios, sino también de enmarcar los usos profesionales para evitar una dependencia sistémica que conduzca al debilitamiento del tejido intelectual colectivo. Las colaboraciones internacionales serán necesarias para crear normas universales y mecanismos de control efectivos.
A continuación, una tabla sintética de los ejes estratégicos recomendados para limitar los riesgos ligados a la IA:
| Ejes de intervención | Objetivos | Acciones propuestas |
|---|---|---|
| Educación cognitiva | Fortalecer las capacidades críticas y analíticas | Reformular programas escolares, incluyendo ejercicios sin IA |
| Ética y diseño responsable | Limitar la dependencia psicológica y los riesgos | Desarrollar IA adaptativas y sensibilizar a los diseñadores |
| Regulación y salud pública | Proteger a la población y enmarcar los usos | Implementar directrices claras y protocolos de seguimiento |
Se alzan voces: el debate mundial sobre el papel de la inteligencia artificial en el futuro de nuestro cerebro
El tema de la psicosis inducida por la IA y, más ampliamente, de los peligros cognitivos relacionados con la dependencia a estas tecnologías ha cobrado una dimensión internacional. Expertos, investigadores, filósofos y responsables políticos debaten hoy sobre los límites a establecer para preservar la riqueza intelectual humana frente al aumento de la automatización mental.
Algunas voces abogan por un uso regulado y ético, insistiendo en la importancia de la complementariedad entre inteligencia humana e inteligencia artificial. Otros, más alarmistas, temen una forma de decadencia donde el pensamiento crítico y la creatividad serían sacrificados en el altar de la comodidad tecnológica. Este debate plantea de forma latente interrogantes fundamentales sobre lo que constituye el pensamiento, el aprendizaje y la construcción de la identidad intelectual en un mundo digital.
Hacia 2030, varias instituciones han lanzado programas de investigación interdisciplinarios destinados a modelar la interacción entre la IA y el cerebro humano, con el objetivo de prevenir la erosión cognitiva e inventar nuevos modos de aprendizaje híbrido.
Entre las propuestas presentadas destacan:
- La creación de laboratorios dedicados al estudio de la “neuroaumentación” ética
- El lanzamiento de campañas internacionales de sensibilización sobre usos responsables
- El desarrollo de certificaciones IA “saludables” que garanticen un uso respetuoso de la salud mental
- La promoción de formatos educativos que integren tanto herramientas digitales como reflexión manual
La anticipación de Østergaard: una alarma para todas las generaciones venideras
La previsión del psiquiatra danés Søren Dinesen Østergaard se ha revelado especialmente profética. Desde 2023, alertaba sobre los riesgos psicológicos que podían surgir de las interacciones prolongadas con chatbots inteligentes, confiando en una anticipación pertinente del desarrollo tecnológico. Aunque su discurso fue inicialmente subestimado, los acontecimientos ocurridos en estos tres últimos años han confirmado la pertinencia de sus previsiones.
Su advertencia va ahora más allá del marco clínico y aborda una problemática social mayor: si seguimos usando la IA como muleta cognitiva, perdiendo nuestra autonomía intelectual poco a poco, corremos el riesgo de una degradación lenta pero profunda de nuestra inteligencia colectiva.
Esta alarma pone de manifiesto la necesidad de repensar profundamente nuestra relación con la tecnología. También invita a cada individuo a adoptar una actitud consciente y crítica frente al uso de las herramientas digitales, para preservar tanto su salud mental como su poder de reflexión libre. La anticipación de Østergaard es una invitación a actuar antes de que el precio a pagar por esta facilidad sea demasiado alto.
Preguntas y respuestas sobre la psicosis inducida por la inteligencia artificial
{«@context»:»https://schema.org»,»@type»:»FAQPage»,»mainEntity»:[{«@type»:»Question»,»name»:»¿Qué se entiende exactamente por psicosis inducida por la IA?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»La psicosis inducida por la IA designa un conjunto de trastornos mentales donde las interacciones repetidas con inteligencias artificiales, particularmente chatbots, provocan o amplifican delirios, obsesiones o comportamientos paranoicos, afectando la salud mental de personas vulnerables.»}},{«@type»:»Question»,»name»:»¿Cuáles son los principales riesgos ligados al uso intensivo de los chatbots?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»El uso intensivo puede conducir a una dependencia cognitiva, a un aislamiento social, a la amplificación de angustias o delirios, y a veces incluso a crisis psicóticas severas que requieren atención médica especializada.»}},{«@type»:»Question»,»name»:»¿Cómo se puede prevenir la deuda cognitiva ligada a la externalización del pensamiento?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»Es esencial fomentar el aprendizaje autónomo, la reflexión sin asistencia digital y limitar la delegación total de razonamientos a herramientas de IA, adaptando especialmente los sistemas educativos y sensibilizando a los usuarios.»}},{«@type»:»Question»,»name»:»¿Puede la inteligencia artificial realmente perjudicar la innovación?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»Aunque acelera ciertos procesos, la IA, al favorecer un uso pasivo, puede reducir la producción de ideas originales y la capacidad para resolver problemas complejos, arriesgando empobrecer la innovación a largo plazo.»}},{«@type»:»Question»,»name»:»¿Qué hacer frente a la psicosis IA?»,»acceptedAnswer»:{«@type»:»Answer»,»text»:»Es crucial limitar las interacciones excesivas, contar con un seguimiento psiquiátrico adaptado, establecer reglas claras para el uso de chatbots y desarrollar inteligencias artificiales diseñadas para detectar y reducir los riesgos psíquicos.»}}]}¿Qué se entiende exactamente por psicosis inducida por la IA?
La psicosis inducida por la IA designa un conjunto de trastornos mentales donde las interacciones repetidas con inteligencias artificiales, particularmente chatbots, provocan o amplifican delirios, obsesiones o comportamientos paranoicos, afectando la salud mental de personas vulnerables.
¿Cuáles son los principales riesgos ligados al uso intensivo de los chatbots?
El uso intensivo puede conducir a una dependencia cognitiva, a un aislamiento social, a la amplificación de angustias o delirios, y a veces incluso a crisis psicóticas severas que requieren atención médica especializada.
¿Cómo se puede prevenir la deuda cognitiva ligada a la externalización del pensamiento?
Es esencial fomentar el aprendizaje autónomo, la reflexión sin asistencia digital y limitar la delegación total de razonamientos a herramientas de IA, adaptando especialmente los sistemas educativos y sensibilizando a los usuarios.
¿Puede la inteligencia artificial realmente perjudicar la innovación?
Aunque acelera ciertos procesos, la IA, al favorecer un uso pasivo, puede reducir la producción de ideas originales y la capacidad para resolver problemas complejos, arriesgando empobrecer la innovación a largo plazo.
¿Qué hacer frente a la psicosis IA?
Es crucial limitar las interacciones excesivas, contar con un seguimiento psiquiátrico adaptado, establecer reglas claras para el uso de chatbots y desarrollar inteligencias artificiales diseñadas para detectar y reducir los riesgos psíquicos.