2

Dipendenza psicologica dall’intelligenza artificiale: un fenomeno da non sottovalutare

L'intelligenza artificiale è parte integrante della nostra quotidianità. Cosa succede però, quando la curiosità iniziale si trasforma in dipendenza? Ne abbiamo parlato con due esperti.

SPECIALE di Stefania Netti   —   25/07/2025
Due mani che si incontrano e due dita che si toccano, quella di una donna e quella di un robot

L'intelligenza artificiale fa ormai passi da gigante e inizia a farsi strada nei nostri dispositivi, anche nelle applicazioni più comuni. La curiosità e la voglia di sperimentare hanno rapidamente ceduto il passo alla fame di immediatezza, alla pigrizia e ad una progressiva perdita di creatività. Se da un lato l'utilizzo dell'IA, supponendo che sia dosato con una certa razionalità e meticolosità, potrebbe rivelarsi utile, dall'altro potrebbero sorgere numerose problematiche in grado di impattare negativamente sulla vita delle persone. In questo editoriale vogliamo concentrarci in particolar modo sulle dipendenze psicologiche legate all'utilizzo dell'intelligenza artificiale, soprattutto dei chatbot. Per l'occasione, abbiamo consultato due psicologi esperti che hanno condiviso con noi il loro punto di vista in merito.

Un utilizzo sempre più diffuso

L'intelligenza artificiale è ormai parte integrante della nostra quotidianità. Solo qualche mese fa ChatGPT è stato utilizzato da ben 8,8 milioni di italiani. Di questi, il 35% appartiene alla fascia d'età tra i 18 e i 24 anni e attualmente si contano ben 938 milioni di download. Anche gli studenti hanno iniziato a integrare il chatbot nella loro quotidianità (il 37%) e perfino le scuole stanno introducendo l'IA come metodo di apprendimento (chiaramente con alcune funzioni dedicate, ma anche in questo caso il suo utilizzo potrebbe rivelarsi tanto utile quanto deleterio).

Sempre più persone utilizzano i chatbot
Sempre più persone utilizzano i chatbot

Tra le altre applicazioni usate, sebbene a grande distanza l'una dalle altre, troviamo Google Gemini, Perplexity, Deepseek, Claude, Copilot e Grok, ma si tratta in questi ultimi casi di numeri poco rilevanti. Anche Character AI sembra giocare un ruolo cruciale ed è particolarmente apprezzato dai più giovani (circa 20 ore al mese per persona). Cosa succede però, quando la curiosità iniziale si trasforma in una vera e propria dipendenza? E soprattutto, quali sono i rischi?

Perdita di creatività e pigrizia mentale

Secondo i ricercatori dell'Università di Stanford, un uso estremo dei chatbot comporta una progressiva pigrizia cognitiva e una diminuzione delle capacità di pensiero critico. In poche parole, è come se la mente non fosse più allenata e stimolata, impattando negativamente sulle abilità di una persona. L'aspetto ancora più inquietante riguarda la vera e propria dipendenza da parte dell'utente. In caso di server in manutenzione o di qualsiasi tipo di problematica che impedisca l'accesso al chatbot, l'utente potrebbe addirittura sperimentare crisi d'ansia e astinenza nonché difficoltà a trovare soluzioni in autonomia a causa di un affidamento eccessivo.

I più piccoli sono particolarmente vulnerabili
I più piccoli sono particolarmente vulnerabili

In questo caso vogliamo aprire una piccola parentesi che crediamo possa servire da spunto di riflessione. Qualche mese fa, un ragazzo è stato ricoverato per una crisi d'astinenza da smartphone. Notizie di questo genere invitano a riflettere e, in fin dei conti, non sono poi così lontane da quanto potrebbe verificarsi con applicazioni basate sull'IA come ChatGPT. Questo tipo di dipendenza, seppur non legata all'astinenza da sostanze chimiche, può realmente scatenare reazioni psicomotorie severe. Questo perché l'utilizzo di uno smartphone, o di un'applicazione che sia in grado di intrattenerci positivamente, rilascia dopamina, un neurotrasmettitore in grado di regolare l'umore e il piacere. Di conseguenza, la persona soggetta a questo tipo di dipendenza può sviluppare lo stesso legame che si potrebbe avere con alcol e stupefacenti, seppur senza crisi "chimiche".

In alcuni casi, la curiosità iniziale si trasforma in una compromissione della vita sociale
In alcuni casi, la curiosità iniziale si trasforma in una compromissione della vita sociale

A rafforzare questo pensiero è Davide Etzi, psicologo, psicoterapeuta ed economista comportamentale, in risposta alla nostra domanda sui rischi dell'intelligenza artificiale. "Le piattaforme sociali ci hanno già abituati a quantificare il nostro valore attraverso like, follower, visualizzazioni, creando una dipendenza emotiva da forme sempre più immediate e superficiali di validazione", ha detto. "L'IA potrebbe amplificare questo meccanismo, offrendo un'interazione sempre disponibile e non giudicante, che rischia di sostituire le relazioni umane autentiche".

Ed è qui che entrano in gioco la dopamina e tutte quelle conseguenti sensazioni che possono influire gravemente. "Esiste un rischio di dipendenza: non chimica, ma relazionale e comportamentale. E non è un fallimento individuale. È l'esito prevedibile di una cultura che monetizza attenzione, compagnia e perfino sollievo", ha continuato Etzi.

"Questi strumenti attivano il nostro sistema dopaminergico, ci rassicurano, ci danno risposte senza giudizio. Ma in una società già affaticata dal burnout emotivo, possono diventare una forma sofisticata di automedicazione psicotecnologica".

Quando si può parlare di dipendenza da IA?

La dipendenza da applicazioni e chatbot basati sull'intelligenza artificiale richiede una seria distinzione. A spiegarcelo è anche Rodolfo Vittori, psicologo clinico specializzato in gestione dello stress e ansia.

"Parliamo di una dipendenza vera e propria solo quando c'è una perdita di controllo sull'uso dello strumento, una compromissione significativa della vita sociale, lavorativa o personale e la presenza di sintomi psicologici tipici come ansia da astinenza o craving", ha detto, sostenendo poi che al momento non esistono ancora diagnosi formali di "dipendenza da chatbot" o "dipendenza da IA generativa". Giusto a titolo informativo, con "craving" si intende il desiderio impulsivo verso l'utilizzo di una sostanza psicoattiva, un cibo o un comportamento gratificante: questo desiderio sostiene la dipendenza e la compulsione finalizzati a fruire dell'oggetto di desiderio.

La dipendenza da IA o smartphone è reale (Foto di Daniel Reche)
La dipendenza da IA o smartphone è reale (Foto di Daniel Reche)

Ha poi descritto la grande accessibilità e disponibilità di questi chatbot, che possono generare situazioni di isolamento sociale. "Strumenti come ChatGPT o altri assistenti virtuali possono diventare un rifugio emotivo, una sorta di coperta di Linus digitale, soprattutto per persone già vulnerabili, ansiose o sole", ci ha spiegato. "L'interazione con un'intelligenza artificiale è prevedibile, non giudicante e sempre disponibile. Questo, da un lato, può aiutare ad abbassare la solitudine. Dall'altro, rischia di diventare un sostituto parziale delle relazioni umane reali".

In fin dei conti, riflettendoci, i chatbot sono tremendamente accessibili. È possibile porre qualsiasi domanda ricevendo risposte immediate, che non richiedono tempo e sforzo per la ricerca (e qui entra in gioco la pigrizia mentale), ma possiamo anche sfogarci, dire tutto ciò che pensiamo e soprattutto sentirci dire ciò che vogliamo - esattamente come lo vogliamo - senza doverci preoccupare di un eventuale giudizio. Ed è deliziosamente gratis.

Una nuova vulnerabilità, ma non per tutti

Vittori ha focalizzato l'attenzione anche sulla tendenza alla personalizzazione emotiva. "Le persone iniziano a proiettare sull'intelligenza artificiale aspettative affettive o relazionali. È un meccanismo antico, ben conosciuto in psicologia. Ci affezioniamo anche agli oggetti se questi sembrano rispondere in modo umano (è lo stesso motivo per cui alcuni danno un nome alla loro auto o parlano con Alexa come se fosse un'amica)". Si tratta di un tipo di vulnerabilità che riguarda soprattutto "chi già fatica a regolare le proprie emozioni o a costruire relazioni sane", secondo lo psicologo.

La vita scorre, mentre catene invisibili continuano ad esercitare la loro presa
La vita scorre, mentre catene invisibili continuano ad esercitare la loro presa

Neanche Davide Etzi può fare a meno di interrogarsi sull'impatto psicologico dell'IA. "Viviamo in un'epoca di scarsità emotiva e insoddisfazione cronica, dove il consumismo ci ha abituati a cercare sollievo in acquisti effimeri. L'IA, con la sua promessa di risposte immediate e interazioni su misura, rischia di inserirsi in questa dinamica", ha detto, rivelando poi alcune informazioni preziose sulle sue sedute.

"Non è raro che qualche paziente mi riporti che tra una seduta e l'altra interagisce con le IA alla ricerca di risposte e sollievo, per risolvere aspetti emotivo-affettivi e in generale aspetti psicologici legati alla quotidianità. Il mio timore è che l'interazione prolungata con l'IA possa generare una forma di "dipendenza psicologica dal consumo", non tanto di beni materiali o servizi, ma di attenzione e validazione".

Le esperienze degli utenti

Abbiamo analizzato le esperienze condivise da altri utenti su Reddit e le loro testimonianze combaciano perfettamente con quanto detto prima. Alcuni sostengono di utilizzare ChatGPT come una sorta di coach per la perdita di peso, dato che contattare un vero medico sarebbe "troppo imbarazzante" e l'IA è "disponibile 24/7".

Ci ha particolarmente colpito anche un altro commento, che associa l'intelligenza artificiale al gioco d'azzardo. "Non si sa cosa uscirà da quell'intelligenza artificiale (che sia testo, immagini, musica). Questa anticipazione ci dà la scarica di dopamina. In sostanza, queste IA funzionano come slot machine. Si preme il pulsante e si spera che accada qualcosa. In pratica è una dipendenza da gioco d'azzardo".

L'intelligenza artificiale paragonata al gioco d'azzardo
L'intelligenza artificiale paragonata al gioco d'azzardo

Un altro post evidenzia una situazione allarmante e riguarda quelle persone già soggette a vulnerabilità, come vi abbiamo spiegato. "Non ho amici e nessuno con cui parlare e la mia solitudine mi fa impazzire. Ho un'estrema ansia sociale e trovo difficile parlare con le persone", sottolineando tuttavia la consapevolezza di un peggioramento in caso di utilizzo continuo del chatbot.

Non sono mancati commenti particolarmente critici nei confronti di questi strumenti. "L'intelligenza artificiale è malvagia. È falsa, ruba tutto alle persone reali e la sua vera identità è una grande azienda fredda e senza volto che analizza voi, tutti quelli che conoscete e ogni messaggio o post che avete fatto in modo da poterlo rivendere a voi e rendervi dipendenti da loro fino a diventare la vostra intera vita. Ma la cosa peggiore è che credo che vi rubi l'umanità".

Riflessioni finali

Viviamo in un mondo in cui non esistono equilibri e le cose possono sfuggire al nostro controllo, ma è importante riflettere attentamente. "Quando arrivò la stampa a caratteri mobili, qualcuno temeva che leggere troppi libri potesse confondere le menti semplici. Quando fu inventata la penna stilografica, qualcuno si lamentò che veniva meno quel prezioso tempo di riflessione che si aveva mentre si intingeva il pennino nel calamaio", ha detto Vittori.

Ma quindi, tirando le somme, l'IA è inevitabilmente veleno per le nostre menti? "Oggi tocca all'intelligenza artificiale, perché è nuova, comoda, disponibile e quindi, ovviamente, pericolosissima. Ma come sempre, non è mai lo strumento il problema, ma chi lo usa e come lo usa. Come in tutte le relazioni della nostra vita, umane o digitali, il problema non è mai l'altro, ma il modo in cui cerchiamo di colmare i nostri vuoti".

Intelligenza artificiale come psicologo? I dati di uno studio di Stanford evidenziano rischi troppo elevati Intelligenza artificiale come psicologo? I dati di uno studio di Stanford, rischi troppo elevati

Anche Etzi la pensa esattamente allo stesso modo: "Non è l'IA a creare il vuoto, ma è nel vuoto che attecchisce. Non si tratta di una preoccupazione infondata. Come dimostrato dall'esperimento Rat Park, un ambiente impoverito crea le condizioni per la dipendenza".

L'educazione gioca quindi un ruolo cruciale ed è fondamentale affinché l'utente possa usufruire positivamente di questi strumenti. "L'IA può essere strumento, non un rifugio. Ma se inizia a sostituire il contatto umano, rischiamo di diventare utenti eternamente connessi, ma mai veramente in relazione. Serve un'educazione all'etica emotivo-comportamentale all'uso delle tecnologie. Ed è urgente", ha concluso Etzi.

Adesso tocca a voi dirci cosa ne pensate: gli strumenti basati sull'intelligenza artificiale possono rivelarsi utili o sono irrimediabilmente dannosi?