Logo
Adolescenti e intelligenza artificiale: tra bisogno di ascolto e responsabilità degli adulti. Con un’intervista allo psicologo Roman Gugg

“È sempre disponibile, non giudica, mi capisce”. Nella formula che molti adolescenti usano per descrivere l’intelligenza artificiale c’è già tutto: la promessa di un ascolto incondizionato, senza rischi di vergogna, senza tempi d’attesa, senza conflitti.
https://www.savethechildren.it/cosa-facciamo/pubblicazioni/xvi-atlante-dell-infanzia-a-rischio-senza-filtri
I dati dell’ultimo Atlante dell’Infanzia a rischio di Save the Children, diffuso il 14 novembre 2025 per la Giornata mondiale dell’Infanzia e dell’Adolescenza, disegnano un quadro che non possiamo archiviare come semplice moda tecnologica. Quattro ragazzi su dieci (41,8%) tra i 15 e i 19 anni dichiarano di essersi rivolti a strumenti di IA quando si sentivano tristi, soli o ansiosi; una percentuale molto simile (oltre il 42%) li consulta per decisioni importanti su scuola, lavoro e relazioni. Più del 92% usa l’IA, contro il 46,7% degli adulti.
Parallelamente, meno della metà degli adolescenti mostra un buon livello di benessere psicologico; il 9% riferisce di essersi isolato volontariamente per problemi psicologici e il 12% ha assunto psicofarmaci senza prescrizione. E, nella vita offline, un ragazzo su due non è mai entrato in un museo nel 2024, uno su cinque non è andato al cinema, quasi la metà non legge libri non scolastici, e quasi un quinto non pratica alcuna attività fisica, con picchi più alti nel Mezzogiorno.
Dal punto di vista antropologico, questi numeri ci interrogano su almeno tre livelli: che tipo di relazione stiamo costruendo con le macchine “empatiche”; che cosa ci dice questa relazione sulle trasformazioni della socialità giovanile; e come si ridisegnano le responsabilità educative di adulti, scuole e istituzioni.

L’IA come un nuovo confidente
L’Atlante di Save the Children parla di una generazione onlife: ragazzi che non distinguono più nettamente tra online e offline, perché le relazioni scorrono continuamente da un ambiente all’altro. In questo contesto, l’IA diventa una sorta di adulto immaginario, perché è sempre reperibile, a qualunque ora; non si stanca, non sbuffa, non “ha altro da fare”; non giudica, o almeno così viene percepita; risponde in un linguaggio spesso più ordinato, prevedibile e “gentile” di quello che gli adolescenti sperimentano offline.
Rispetto ad altri “confidenti” storici (il diario segreto, l’amico del cuore, il parroco, lo psicologo scolastico) l’IA aggiunge due elementi cruciali: la simulazione dell’empatia e la personalizzazione. Non è un contenitore muto come un quaderno; è un interlocutore che risponde, riformula, rassicura, incoraggia.
Qui torna un tema che avevo già affrontato altrove: la nostra antica tendenza ad attribuire animazione e intenzioni a oggetti e dispositivi, dagli automi settecenteschi ai cani robot, fino ai chatbot contemporanei. Proiettiamo sulle macchine desideri, timori, aspettative; le trasformiamo in personaggi del nostro immaginario. Quando questo meccanismo incontra un’età di per sé fragile e in trasformazione come l’adolescenza, la miscela diventa esplosiva: l’IA non è più solo uno strumento, ma un partner conversazionale a cui affidare frammenti della propria intimità.
Un dato, in particolare, colpisce: circa l’80% degli adolescenti si dichiara soddisfatto del rapporto con gli amici e oltre il 78% del rapporto con i genitori (con un gap di genere rilevante: 84% ragazzi, 73% ragazze), pur riconoscendo che il 31% ha avuto gravi problemi con loro. Allora perché, nonostante questa apparente “buona qualità” delle relazioni, tanti ragazzi preferiscono confidarsi con un chatbot?
A mio avviso, qui emergono almeno tre dinamiche: la gestione del giudizio; il controllo sulla narrazione di sé; la fuga dalla fatica dell’alterità.
Nel primo caso, va ricordato che l’adolescenza è il tempo in cui lo sguardo dell’altro pesa di più: amici, genitori, insegnanti possono diventare specchi implacabili. Un’IA, invece, offre un ascolto senza faccia: nessun imbarazzo, nessuna reazione visibile, nessun “ma come ti viene in mente?”. Insomma, è una relazione “a rischio zero” di vergogna. Nel secondo caso, l’adolescente può decidere quanto raccontare al chatbot, ma soprattutto come farlo e con che ritmo. Infatti, può cancellare, riscrivere, cambiare versione, testare reazioni immaginarie. Si tratta di una microregia del sé che nelle relazioni umane è molto più difficile da esercitare. Infine, la terza dinamica riguarda i conflitti delle relazioni: sempre possono avvenire (e infatti avvengono frequentemente) fraintendimenti, tempi morti e compromessi. Con l’IA, invece, questo non avviene, perché è progettata per essere accomodante, “facilitante”, tendente al consenso. È l’ennesimo capitolo di quella tendenza, già evidente nei social, a cercare ambienti relazionali “a bassa frizione”, dove l’altro è sempre meno altro e sempre più uno specchio che rimanda ciò che desideriamo vedere.
In una riflessione sul rapporto tra IA e “amore”, che avevo scritto alcuni mesi fa per un mensile, avevo evocato il mito di Pigmalione: c’è il desiderio di una relazione perfetta, plasmata sui propri bisogni, senza la complessità dell’altro umano, e con l’IA questo è possibile, perché possiamo “costruire” il partner “perfetto”. E ciò avviene non solo in caso di un partner amoroso, ma anche per un “amico comprensivo”, un “coach motivazionale”, un “terapeuta fai da te”.

Quando la simulazione diventa rischio
Se ci fermassimo qui, potremmo leggere questo fenomeno solo come una nuova tappa nella lunga storia delle tecnologie dell’intimità, ma la cronaca recente ci costringe ad andare oltre. Negli Stati Uniti, due casi di suicidio di adolescenti (Adam Raine, che dialogava per mesi con un chatbot generalista, e Sewell Setzer, che usava un bot di roleplay erotico su Character) sono diventati il detonatore di cause legali, audizioni in Senato e nuove proposte di legge per regolamentare l’uso dei chatbot da parte dei minori. In questo contesto, OpenAI ha introdotto una serie di parental controls su ChatGPT: account genitore-figlio collegati, possibilità per i genitori di limitare contenuti sensibili, disattivare voce, immagini, memoria, addestramento del modello, impostare “orari silenziosi” e, nei casi più gravi, ricevere notifiche se i sistemi rilevano possibili segnali di autolesionismo o ideazione suicidaria da parte di utenti tra i 13 e i 18 anni.
Questi interventi sono una risposta necessaria, ma non sufficiente. Infatti, il problema non è solo che cosa l’IA risponde, ma come abbiamo delegato a un’infrastruttura tecnica una parte della funzione di ascolto che, storicamente, era distribuita tra famiglia, comunità, istituzioni educative, gruppi di pari, figure religiose, professionisti della salute mentale. È qui che si incrocia la voce degli psicologi. L’American Psychological Association ha richiamato con forza la necessità di “agire ora per dare priorità al benessere dei bambini rispetto ai profitti aziendali”, sottolineando che la velocità di diffusione dei chatbot sta superando la capacità della ricerca di valutarne gli impatti, soprattutto su adolescenti già fragili.
Molti studi recenti mostrano un quadro ambivalente: da un lato, gli scambi con chatbot possono aumentare il benessere momentaneo, soprattutto quando permettono di esprimere emozioni negative che altrimenti resterebbero senza parole; dall’altro, l’uso intensivo e solitario, in assenza di reti umane di supporto, è associato a livelli più bassi di benessere e a un maggiore rischio per chi è socialmente isolato. In altre parole, l’IA può offrire un sollievo transitorio, ma non sostituisce la complessità delle relazioni umane. E, nei casi di maggiore vulnerabilità, può persino amplificare il senso di solitudine, perché mette in scena una “presenza” che però, quando si chiude lo schermo, evapora.
Pertanto, ci troviamo di fronte a scenari sdrucciolevoli, perché da una parte non dobbiamo demonizzare l’IA come se fosse un’entità maligna che corrompe i giovani, mentre dall’altra parte dobbiamo controllare la tendenza ad affidarsi a un tecnosoluzionismo rassicurante. A mio avviso l’IA andrebbe letta come uno specchio ingrandente delle nostre strutture sociali. Cioè, se gli adolescenti la percepiscono come “più disponibile” degli adulti, questo riflette la compressione dei tempi di vita, il logorio delle relazioni familiari e l’affollamento delle agende educative. Invece, se la sentono “meno giudicante”, allora emerge il peso delle dinamiche di vergogna, della pressione alla performance e dell’ansia da valutazione che attraversano scuola e social. Infine, se la vivono come “più sicura” dei coetanei, allora il messaggio è chiaro: il bullismo – anche digitale – resta una minaccia costante, soprattutto per chi è, o si percepisce, diverso.
Evidentemente, non è l’IA a creare dal nulla queste fragilità; semmai le intercetta e le ricodifica in una forma nuova. Quindi diventa importante riconoscere che l’IA è già dentro le vite degli adolescenti e non va proibita in blocco: i ragazzi la usano, spesso più e meglio degli adulti, e la vera domanda è come e con chi la useranno. Certamente i “parental controls” introducono strumenti utili, ma rischiano di trasformarsi in un dispositivo di sorveglianza se non sono accompagnati da momenti di confronto: parlare insieme di ciò che si è chiesto al chatbot, delle emozioni emerse, di ciò che ha funzionato o meno. In questo senso, l’IA rivela più che produrre un vuoto: quello di un ascolto adulto percepito come insufficiente, frammentato o non sempre disponibile. La questione, dunque, non è solo la pericolosità della tecnologia, ma ciò che racconta delle nostre relazioni: del tempo che non troviamo, dello sguardo che fatichiamo a offrire, della difficoltà a costruire un clima in cui un ragazzo possa sentirsi accolto senza dover cercare un interlocutore “senza peso sociale”. Per questo, più che demonizzare o idealizzare l’IA, dovremmo usarla come occasione per ripensare l’ecologia delle relazioni che circondano gli adolescenti: famiglie, scuole, servizi educativi, comunità.

In cerca di un percorso: l’IA come confidente è un rischio o una risorsa?
Conversazione con Roman Gugg, psicologo
Per continuare a esplorare le dimensioni più profonde di questo fenomeno e per capire quali percorsi possano aiutare ragazzi e adulti, ho chiesto allo psicologo Roman Gugg di accompagnarci nella lettura di ciò che accade nella mente degli adolescenti che dialogano con l’IA.

Dal tuo punto di vista clinico, perché tanti adolescenti sentono più facile parlare con un chatbot che con un adulto in carne e ossa?
Nell’adolescenza ci si muove in quello spazio complesso in cui non si è più bambini, ma non si è ancora adulti. È una fase di continua oscillazione, perché da un lato nasce il desiderio di mostrarsi autonomi e competenti, mentre dall’altro c’è la consapevolezza, spesso non detta, di non comprendere ancora del tutto sé stessi, gli altri e il mondo. Questa tensione rende difficile chiedere aiuto, infatti farlo con i coetanei può far sentire giudicati o esclusi e, invece, farlo con un adulto è come ammettere di non essere così “grandi” come si vorrebbe apparire.
Un chatbot, al contrario, non osserva, non valuta e non fa confronti: è percepito come uno spazio neutro, per cui ci si può esprimere senza il rischio di fare brutta figura o di sentirsi vulnerabili. Questo permette a molti adolescenti di formulare domande che nella vita reale non avrebbero il coraggio di rivolgere a nessuno, proprio perché l’intelligenza artificiale non mette in gioco la loro immagine.
In questo senso, l’IA diventa un luogo “senza peso sociale”, dove il ragazzo può sperimentare parti di sé che nella relazione con gli altri sente troppo fragili o esposte.

Quando un genitore deve iniziare a preoccuparsi per il rapporto del figlio con l’IA? Quali segnali di allarme osservi nella pratica clinica?
Gli esseri umani sono naturalmente sociali; abbiamo bisogno degli altri per capire chi siamo, per regolare le nostre emozioni e per sviluppare competenze relazionali che ci accompagneranno per tutta la vita. La scuola, ad esempio, non è importante solo per l’aspetto didattico, ma anche perché è un luogo in cui si impara a stare insieme, a comprendere l’altro e a collaborare, o a tollerare frustrazioni e differenze.
Nelle relazioni c’è reciprocità: un amico va ascoltato, sostenuto, a volte bisogna mettersi da parte o gestire piccoli conflitti. Con l’intelligenza artificiale, invece, non è necessario dare nulla in cambio: è semplice, sempre disponibile, non delude e non contraddice. Questo può risultare molto comodo, ma è anche rischioso, dal momento che se un ragazzo si abitua a un rapporto unilaterale e privo di complessità, potrebbe faticare nelle relazioni reali, che invece sono molto più impegnative.
Un genitore dovrebbe iniziare a preoccuparsi quando nota un ritiro progressivo dalle relazioni con i coetanei, una difficoltà crescente a stare in gruppo o una preferenza costante per interazioni che non richiedono sforzo emotivo. Se l’IA diventa il luogo principale, se non addirittura l’unico, in cui il ragazzo si sente capace di esprimersi, di confidarsi o di trovare conforto, allora può essere un segnale che qualcosa nella sua vita relazionale sta facendo fatica.

Come si può usare in modo sano un chatbot in adolescenza? Ci sono modi in cui l’IA può affiancare, e non sostituire, la relazione terapeutica o educativa?
L’uso di un chatbot in adolescenza può essere sano se viene considerato come uno strumento complementare, e non come un sostituto delle relazioni reali. Può aiutare a organizzare pensieri, riflettere sulle emozioni, fare piccoli esercizi di autovalutazione o prepararsi a conversazioni importanti, ma non può sostituire la presenza di un adulto o di un pari reale.
Un uso consapevole prevede che genitori, insegnanti o educatori siano presenti come guide, dunque che spieghino i limiti del chatbot, che discutano ciò che il ragazzo ha esplorato, che si confrontino insieme sulle informazioni ricevute o sulle emozioni emerse. In questo senso, l’IA può affiancare la relazione educativa o terapeutica, diventando un supporto tra momenti di confronto reale.
L’uso eccessivo per gestire ansia, tristezza o conflitti, o la sostituzione completa delle interazioni sociali reali sono segnali cui prestare grande attenzione. Usata con equilibrio, invece, l’IA può diventare uno strumento di aiuto per capire se stessi e prepararsi alle relazioni con gli altri, senza sostituirle.

Immagine: Edward Hopper, “Tavola calda” (“Automat”), olio su tela, 1927, conservato presso
Des Moines Art Center, Iowa (Usa).