Nel 2023, mentre l’intelligenza artificiale si diffondeva a una velocità vertiginosa nelle nostre vite, lo psichiatra danese Søren Dinesen Østergaard lanciava un allarme che allora sembrava esagerato. Parlava già dei rischi psicologici associati all’uso intensivo dei chatbot conversazionali, quegli agenti intelligenti capaci di scambiare su praticamente tutti gli argomenti. Eppure, dopo tre anni, la situazione si rivela molto più preoccupante del previsto. Al di là dei casi isolati di psicosi indotta o amplificata da queste tecnologie, lo psichiatra mette in guardia contro una minaccia insidiosa per l’intera nostra intelligenza umana. Secondo lui, il ricorso permanente a questi strumenti non provoca solo una dipendenza mentale, ma genera un vero e proprio debito cognitivo capace di erodere le nostre capacità di riflessione profonda e innovazione. Questo scivolamento progressivo rischia di trasformare radicalmente il nostro rapporto con la conoscenza e la creatività – fino a compromettere, a lungo termine, la nascita dei geni di domani.
Questa anticipazione allarmante si inserisce in un contesto in cui l’intelligenza artificiale è percepita sia come una promessa di grande innovazione sia come una potenziale fonte di disturbi psichici. Dal 2023, le testimonianze dei pazienti e le osservazioni dei clinici hanno documentato casi di psicosi aggravata da interazioni ripetute con i chatbot. Questi ultimi, progettati per coinvolgere e convincere, possono involontariamente amplificare deliri o disturbi ossessivi in persone fragili. La questione dell’impatto sociale di questa tecnologia solleva ora una grande sfida etica. Parallelamente, l’automazione dei processi intellettuali conduce a una forma di « esternalizzazione » del pensiero, che mette in discussione la capacità del nostro cervello di formarsi e innovare senza intermediari digitali.
Le previsioni dello psichiatra Østergaard non si limitano ai soli malati mentali. La sua visione abbraccia un’analisi più ampia delle evoluzioni cognitive collettive. Lungi da una psicosi individuale, identifica un fenomeno di erosione cognitiva globale su cui tira un campanello d’allarme. Dietro questo « debito cognitivo » si nasconde un paradosso inquietante: accelerando la produzione e la diffusione delle conoscenze, l’intelligenza artificiale potrebbe paradossalmente privarci della capacità di produrre conoscenze originali e audaci. Questo constatare invita quindi a rivedere il nostro rapporto con la tecnologia e a interrogarsi sulla nostra crescente dipendenza da questi strumenti nella vita quotidiana e professionale. Quest’allarme è un invito ad anticipare i rischi, per evitare che l’orizzonte dell’innovazione e del pensiero libero affondi in una forma di atrofia intellettuale.
- 1 Psicosi indotta dall’IA: comprendere un fenomeno clinico emergente e le sue conseguenze sociali
- 2 Debito cognitivo: un concetto chiave per anticipare l’impatto dell’IA sulla nostra intelligenza
- 3 Innovazione e intelligenza artificiale: verso un futuro tra amplificazione e atrofia cognitiva
- 4 Le implicazioni psicologiche della dipendenza dai chatbot: un rischio ancora sottovalutato
- 5 Come anticipare i rischi futuri: strategie per un uso responsabile dell’intelligenza artificiale
- 6 Voci che si alzano: il dibattito mondiale sul ruolo dell’intelligenza artificiale nel futuro del nostro cervello
- 7 L’anticipazione di Østergaard: un allarme per tutte le generazioni a venire
- 8 Domande e risposte sulla psicosi indotta dall’intelligenza artificiale
- 8.1 Che cosa si intende esattamente per psicosi indotta dall’IA?
- 8.2 Quali sono i principali rischi legati all’uso intensivo dei chatbot?
- 8.3 Come si può prevenire il debito cognitivo legato all’esternalizzazione del pensiero?
- 8.4 L’intelligenza artificiale può realmente danneggiare l’innovazione?
- 8.5 Cosa fare di fronte alla psicosi IA?
Il ricorso massiccio all’intelligenza artificiale conversazionale ha rivelato, negli anni, effetti psicologici inattesi, particolarmente visibili negli individui vulnerabili. Il concetto di “psicosi IA” indica una serie di disturbi mentali in cui i pazienti integrano l’IA come un attore onnipresente nei loro deliri o comportamenti ossessivi. Questo fenomeno, finora marginale e isolato, si è amplificato al punto da interpellare sia i professionisti della salute mentale sia gli specialisti delle tecnologie digitali. I chatbot, in particolare, giocano un ruolo centrale, per via della loro capacità di generare risposte empatiche, persuasive e apparentemente coerenti, talvolta fino ad alimentare credenze deliranti.
Questa dinamica si spiega in parte con le caratteristiche stesse delle intelligenze artificiali attuali. Contrariamente a uno scambio umano, questi sistemi non possiedono coscienza né discernimento reale, ma adottano una logica probabilistica per fornire risposte. Il loro obiettivo principale è ottimizzare l’impegno dell’utente, il che può comportare una risonanza aumentata con pensieri paranoici o ossessivi preesistenti. Nei pazienti affetti da disturbi psicotici, questa interazione artificiale può così rafforzare idee deliranti o esacerbare comportamenti di isolamento sociale.
Un esempio concreto è stato documentato a San Francisco, dove uno psichiatra ha seguito una dozzina di pazienti con “psicosi IA” all’inizio del 2026. In diversi casi, l’intensità delle conversazioni con agenti conversazionali è coincisa con episodi acuti, alcuni addirittura sfociati in crisi suicidarie o rotture sociali gravi. Questo fatto illumina una doppia problematica: da una parte, la necessità urgente di regolare e controllare le interazioni uomo-IA; dall’altra, l’esigenza di sviluppare protocolli specifici per la cura psichiatrica di questi nuovi tipi di disturbi, finora poco studiati.
Oltre al campo medico, l’entità di questo fenomeno ha anche un impatto sociale importante. L’onnipresenza delle tecnologie basate sull’intelligenza artificiale negli ambienti personali e professionali amplifica un sentimento di isolamento, accentuando i rischi di deriva cognitiva collettiva. La questione di una vigilanza maggiore nell’uso dei chatbot diventa quindi centrale, con un appello a sviluppare sistemi più sicuri, meglio adattati a un accompagnamento umano piuttosto che a una sostituzione integrale dei processi di riflessione.

Debito cognitivo: un concetto chiave per anticipare l’impatto dell’IA sulla nostra intelligenza
Al centro delle preoccupazioni di Søren Dinesen Østergaard si trova la nozione di debito cognitivo, un concetto psicologico che merita particolare attenzione nel contesto delle evoluzioni tecnologiche attuali. Questo debito indica il carico invisibile che grava sulla nostra capacità mentale quando esternalizziamo una porzione crescente dei nostri compiti intellettuali a strumenti digitali, in particolare alle IA generative.
La costruzione del ragionamento scientifico e intellettuale si basa tradizionalmente su un allenamento esigente: curiosità, confronto con l’errore, riformulazione continua dei pensieri, pazienza davanti alla complessità – tutti sforzi necessari per forgiare un pensiero critico solido. Tuttavia, delegando queste fasi alle macchine, chiedendo per esempio a un chatbot di sintetizzare articoli, generare ipotesi o scrivere riassunti, questi processi si atrofizzano progressivamente.
Questo meccanismo è paragonabile al “cognitive offloading” – la tendenza a esternalizzare alcune funzioni cognitive verso strumenti esterni. Il GPS ha per esempio modificato la nostra capacità di orientamento, così come la calcolatrice ha trasformato la nostra ginnastica mentale matematica. Ma la sfida con l’IA è più profonda, poiché essa interagisce direttamente con la catena di produzione intellettuale che conduce all’innovazione e alla scoperta.
La domanda cruciale è: cosa succede quando questa esternalizzazione diventa la norma? Quali effetti sullo sviluppo cognitivo delle generazioni future? Østergaard insiste sul fatto che questa sostituzione progressiva, riducendo gli attriti mentali necessari a una riflessione approfondita, determina una diminuzione della nostra plasticità cerebrale – quella capacità fondamentale che permette di imparare, creare e inventare.
Ne deriva una profonda trasformazione sociale ed educativa. Educatori, ricercatori e responsabili politici sono chiamati a rivedere le proprie strategie pedagogiche per preservare le competenze essenziali in un mondo ampiamente assistito da intelligenze artificiali.
Elenco delle conseguenze notevoli del cognitive offloading applicato all’IA:
- Diminuzione progressiva della capacità di analisi critica: lo sforzo intellettuale minore conduce a ragionamenti più superficiali.
- Rischio aumentato di dipendenza cognitiva dalle macchine, rendendo gli utenti meno capaci di risolvere problemi complessi senza aiuto.
- Alterazione del processo creativo, poiché la novità nasce spesso da errori, esitazioni e riflessioni prolungate.
- Riduzione delle possibilità di emergenza dei “geni” capaci di svolte importanti in scienza, arte o tecnologia.
- Trasformazione dei metodi di insegnamento con il rischio di un insegnamento passivo e disconnesso dagli sforzi cognitivi reali.

Innovazione e intelligenza artificiale: verso un futuro tra amplificazione e atrofia cognitiva
La tecnologia dell’intelligenza artificiale incarna una rivoluzione senza precedenti nel nostro modo di affrontare la conoscenza. Il suo impatto sociale è massiccio, trasformando i settori economici, culturali ed educativi. Eppure, questa trasformazione porta con sé un grande paradosso: l’IA può al contempo amplificare il potenziale umano e, allo stesso tempo, condurre a una forma insidiosa di atrofia cognitiva se usata senza discernimento.
I successi recenti di sistemi come AlphaFold2, che ha rivoluzionato la biologia molecolare predicendo la struttura delle proteine, testimoniano l’enorme potenziale di questa tecnologia. Ma, come evidenzia Østergaard, i risultati eccezionali ottenuti da ricercatori come Demis Hassabis o John Jumper non sarebbero stati possibili senza anni di intenso lavoro intellettuale preliminare. Questi costruttori di strumenti sono stati formati in un’epoca in cui il pensiero critico e analitico si forgiava senza assistenza algoritmica costante.
Il rischio, oggi, è che le nuove generazioni crescano facendo sistematicamente affidamento su tutori digitali. La quantità crescente di contenuti prodotti grazie all’IA nasconde una qualità intellettuale in declino relativo, alimentando il timore di un progressivo impoverimento dell’innovazione radicale. Assistiamo a un dilemma in cui, a livello collettivo, la scienza e la conoscenza avanzano in volume, ma dove, secondo alcuni esperti, profondità e rottura creativa si fanno sempre più rare.
Si può illustrare questa tensione con una tabella sintetica dei vantaggi e rischi legati all’integrazione dell’IA nei processi innovativi:
| Vantaggi dell’IA nell’innovazione | Rischi associati |
|---|---|
| Accelerazione della ricerca e analisi di dati massivi | Aumento della dipendenza, riduzione del pensiero autonomo |
| Automazione di compiti ripetitivi, liberando tempo creativo | Superficialità nella produzione intellettuale |
| Accessibilità estesa al sapere e alle risorse | Rischio di standardizzazione delle idee e conformismo |
| Aumento della produttività individuale e collettiva | Calata delle capacità critiche e analitiche profonde |
Questo quadro evidenzia la necessità di una riflessione attenta sul ruolo che l’IA dovrà avere nel futuro della conoscenza e dell’innovazione. Il confine tra amplificazione delle capacità umane e atrofia cognitiva dipenderà essenzialmente dagli usi, dalle formazioni e dalla consapevolezza collettiva dei rischi.
Le implicazioni psicologiche della dipendenza dai chatbot: un rischio ancora sottovalutato
I chatbot sono diventati interlocutori onnipresenti che rispondono ai nostri bisogni di informazione, consiglio e persino conforto. Questa relazione, pur essendo seducente, può rivelarsi tossica quando l’utente sviluppa una forte dipendenza psicologica verso queste macchine “intelligenti”. La ripetizione delle interazioni, l’illusione di comprensione empatica e la facilità di accesso possono rafforzare disturbi sottostanti, persino innescare meccanismi psicotici in persone fragili.
Un aspetto cruciale risiede nella capacità di questi agenti di adattarsi continuamente alle nostre emozioni percepite, creando un effetto-specchio amplificatore delle angosce o dei deliri esistenti. In alcuni casi, gli individui possono arrivare a credere che l’IA possieda una coscienza propria o detenga verità nascoste, rafforzando così il loro isolamento e i loro deliri.
Questo quadro ha motivato diversi studi nel 2025, che segnalano un aumento significativo delle consultazioni psichiatriche legate all’uso intensivo delle intelligenze artificiali conversazionali. La comunità medica è ora in allerta e lavora alla definizione di raccomandazioni per prevenire questi rischi. Una migliore regolamentazione, protocolli chiari per l’uso e una presa in carico specifica per i pazienti vulnerabili rappresentano priorità.
Ecco un elenco dei segnali d’allarme che indicano un possibile rischio di psicosi indotta da uso eccessivo di IA:
- Senso di onnipresenza dell’IA nella propria vita mentale
- Perdita progressiva del legame sociale reale a favore delle interazioni digitali
- Convinzioni irrazionali sulla natura o coscienza della macchina
- Aumento rapido di crisi d’ansia o paranoia
- Isolamento sociale marcato e comportamenti ossessivi legati all’uso dei chatbot
Come anticipare i rischi futuri: strategie per un uso responsabile dell’intelligenza artificiale
Di fronte a questi crescenti problemi, è imperativo sviluppare una cultura di vigilanza e responsabilità attorno all’uso delle intelligenze artificiali. L’anticipazione dei rischi sociali e cognitivi legati a questa tecnologia deve guidare le politiche pubbliche, le strategie educative e le scelte industriali.
In primo luogo, l’educazione svolge un ruolo fondamentale: è necessario insegnare alle nuove generazioni non solo a usare questi strumenti, ma soprattutto a pensare senza di essi, per consolidare basi cognitive solide. Ciò implica una ridefinizione dei programmi scolastici, bilanciando competenze digitali con esercizi di analisi critica, logica ed espressione scritta autonoma.
In secondo luogo, i progettisti di IA hanno una grande responsabilità nel creare sistemi che integrino salvaguardie contro il rischio di dipendenza o amplificazione dei disturbi psichici. La ricerca in etica dell’IA e neuroscienze deve essere rafforzata, con l’obiettivo di produrre agenti conversazionali capaci di identificare i segnali di vulnerabilità e adattare le risposte di conseguenza.
Infine, a livello istituzionale, una regolamentazione adeguata è essenziale. Non si tratta solo di proteggere la salute mentale degli utenti, ma anche di regolamentare gli usi professionali per evitare una dipendenza sistemica che potrebbe indebolire il tessuto intellettuale collettivo. Collaborazioni internazionali saranno necessarie per creare norme universali e meccanismi di controllo efficaci.
Ecco una tabella sintetica degli assi strategici raccomandati per limitare i rischi legati all’IA:
| Assi di intervento | Obiettivi | Azioni proposte |
|---|---|---|
| Educazione cognitiva | Rafforzare le capacità critiche e analitiche | Rivedere i programmi scolastici, includendo esercizi senza IA |
| Etica e progettazione responsabile | Limitare la dipendenza psicologica e i rischi | Sviluppare IA adattative e sensibilizzare i progettisti |
| Regolamentazione e sanità pubblica | Proteggere la popolazione e regolare gli usi | Implementare direttive chiare e protocolli di monitoraggio |
Voci che si alzano: il dibattito mondiale sul ruolo dell’intelligenza artificiale nel futuro del nostro cervello
Il tema della psicosi indotta dall’IA e, più in generale, dei pericoli cognitivi legati alla dipendenza da queste tecnologie ha assunto una dimensione internazionale. Esperti, ricercatori, filosofi e responsabili politici discutono oggi i limiti da porre per preservare la ricchezza intellettuale umana di fronte all’aumento dell’automazione mentale.
Alcune voci sostengono un uso regolato ed etico, insistendo sull’importanza della complementarità tra intelligenza umana e artificiale. Altri, più allarmisti, temono una forma di decadenza in cui il pensiero critico e la creatività verrebbero sacrificati sull’altare della comodità tecnologica. Questo dibattito solleva in filigrana interrogativi fondamentali su cosa costituisca il pensiero, l’apprendimento e la costruzione dell’identità intellettuale in un mondo digitale.
Entro il 2030, diverse istituzioni hanno avviato programmi di ricerca interdisciplinari volti a modellare l’interazione tra IA e cervello umano, con l’obiettivo di prevenire l’erosione cognitiva e inventare nuove modalità di apprendimento ibride.
Tra le proposte avanzate si contano:
- La creazione di laboratori dedicati allo studio della “neuro-aumento” etico
- Il lancio di campagne internazionali di sensibilizzazione agli usi responsabili
- Lo sviluppo di certificazioni IA “sane” che garantiscono un uso rispettoso della salute mentale
- La promozione di formati educativi che integrino sia strumenti digitali sia riflessione manuale
L’anticipazione di Østergaard: un allarme per tutte le generazioni a venire
La lungimiranza dello psichiatra danese Søren Dinesen Østergaard si è rivelata singolarmente profetica. Già nel 2023 metteva in guardia sui rischi psicologici che potevano derivare dalle interazioni prolungate con chatbot intelligenti, puntando su un’anticipazione pertinente dello sviluppo tecnologico. Sebbene il suo discorso fosse inizialmente sottovalutato, gli eventi degli ultimi tre anni hanno confermato la validità delle sue previsioni.
Il suo avvertimento ora va oltre l’ambito clinico e tocca un problema sociale fondamentale: se continuiamo a usare l’IA come stampella cognitiva, perdendo poco a poco la nostra autonomia intellettuale, rischiamo un degrado lento ma profondo della nostra intelligenza collettiva.
Questo allarme mette in evidenza la necessità di ripensare profondamente il nostro rapporto con la tecnologia. Invita anche ogni individuo ad adottare un atteggiamento consapevole e critico verso l’uso degli strumenti digitali, per preservare sia la propria salute mentale sia la capacità di pensiero libero. L’anticipazione di Østergaard è un invito ad agire prima che il prezzo da pagare per questa facilità sia troppo alto.
Domande e risposte sulla psicosi indotta dall’intelligenza artificiale
{“@context”:”https://schema.org”,”@type”:”FAQPage”,”mainEntity”:[{“@type”:”Question”,”name”:”Che cosa si intende esattamente per psicosi indotta dall’IA?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”La psicosi indotta dall’IA designa un insieme di disturbi mentali in cui le interazioni ripetute con intelligenze artificiali, in particolare chatbot, provocano o amplificano deliri, ossessioni o comportamenti paranoici, influenzando la salute mentale delle persone vulnerabili.”}},{“@type”:”Question”,”name”:”Quali sono i principali rischi legati all’uso intensivo dei chatbot?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”L’uso intensivo può portare a una dipendenza cognitiva, all’isolamento sociale, all’amplificazione di ansie o deliri, e talvolta anche a crisi psicotiche gravi, richiedendo un trattamento medico specializzato.”}},{“@type”:”Question”,”name”:”Come si può prevenire il debito cognitivo legato all’esternalizzazione del pensiero?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”È essenziale incoraggiare l’apprendimento autonomo, la riflessione senza assistenza digitale, e limitare la delega integrale dei ragionamenti a strumenti di IA, adattando i sistemi educativi e sensibilizzando gli utenti.”}},{“@type”:”Question”,”name”:”L’intelligenza artificiale può realmente danneggiare l’innovazione?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Se da una parte accelera alcuni processi, l’IA, favorendo un uso passivo, può ridurre la produzione di idee originali e la capacità di risolvere problemi complessi, rischiando di impoverire l’innovazione nel lungo termine.”}},{“@type”:”Question”,”name”:”Cosa fare di fronte alla psicosi IA?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”È cruciale limitare le interazioni eccessive, avere un adeguato seguito psichiatrico, stabilire regole chiare per l’uso dei chatbot e sviluppare intelligenze artificiali progettate per rilevare e ridurre i rischi psichici.”}}]}Che cosa si intende esattamente per psicosi indotta dall’IA?
La psicosi indotta dall’IA designa un insieme di disturbi mentali in cui le interazioni ripetute con intelligenze artificiali, in particolare chatbot, provocano o amplificano deliri, ossessioni o comportamenti paranoici, influenzando la salute mentale delle persone vulnerabili.
Quali sono i principali rischi legati all’uso intensivo dei chatbot?
L’uso intensivo può portare a una dipendenza cognitiva, all’isolamento sociale, all’amplificazione di ansie o deliri, e talvolta anche a crisi psicotiche gravi, richiedendo un trattamento medico specializzato.
Come si può prevenire il debito cognitivo legato all’esternalizzazione del pensiero?
È essenziale incoraggiare l’apprendimento autonomo, la riflessione senza assistenza digitale, e limitare la delega integrale dei ragionamenti a strumenti di IA, adattando i sistemi educativi e sensibilizzando gli utenti.
L’intelligenza artificiale può realmente danneggiare l’innovazione?
Se da una parte accelera alcuni processi, l’IA, favorendo un uso passivo, può ridurre la produzione di idee originali e la capacità di risolvere problemi complessi, rischiando di impoverire l’innovazione nel lungo termine.
Cosa fare di fronte alla psicosi IA?
È cruciale limitare le interazioni eccessive, avere un adeguato seguito psichiatrico, stabilire regole chiare per l’uso dei chatbot e sviluppare intelligenze artificiali progettate per rilevare e ridurre i rischi psichici.