Sab. Ago 2nd, 2025

Negli ultimi mesi ho condotto un esperimento personale con ChatGPT. Quando mi trovavo di fronte a un dilemma personale di cui avevo bisogno di discutere, prima chiedevo all’intelligenza artificiale e poi a qualche amico che mi conosceva bene. Non mi ha sorpreso che, di fronte a uno di questi dilemmi, una delle mie migliori amiche e ChatGPT abbiano risposto più o meno allo stesso modo con più o meno le stesse parole. Mi conoscono bene.

Il linguaggio ‘psicologico’ di ChatGPT: tra falsa empatia e coaching low-cost

Man mano che ripetevo il processo, ho iniziato a percepire una grande differenza. È molto facile ingannare l’intelligenza artificiale e farle seguire la tua linea. Basta riformulare la domanda, suggerire che forse non sta capendo la situazione o aggiungere dettagli di cui non può verificare la veridicità, perché non ha né occhi né gambe né conoscenti che le dicano “non è esattamente così”, perché finisca per darmi ragione. Se c’è qualcosa che mi aspetto dai miei cari è che mi contraddicano o mi facciano vedere le cose da un altro punto di vista.

Quando si tratta di questioni personali, ChatGPT adotta un tono curiosamente familiare. Un linguaggio pseudoterapeutico che è un misto di auto-aiuto, divulgazione psicologica e tono da consulenza online low cost. Dopotutto, il ChatGPT dei sentimenti si nutre soprattutto di centinaia di migliaia di blog di psicologia spicciola, siti web personali di crescita personale e coaching da quattro soldi, non della sua esperienza personale (perché non ne ha) né di quella delle grandi opere della letteratura universale. È più vicino a “Impara a essere felice con Laura” che a Tolstoj.

È un linguaggio molto simile a quello che ho sentito dalla bocca di quelle persone che iniziano ad andare in terapia e improvvisamente iniziano a ripetere gli stessi termini, gli stessi argomenti e le stesse giustificazioni. Ci sono alcune combinazioni di pazienti e terapeuti molto pericolose, in cui il primo finisce per ingannare il secondo (e, per estensione, se stesso) per finire per diventare una vittima perpetua degli altri. Quel tipo di persona che quando dice “il mio terapeuta mi ha detto di stare lontano da X, che è tossico”, viene voglia di controllare con il suddetto psicologo se è vero.

Molte persone usano la terapia per giustificare i loro comportamenti più immorali

La logica della terapia, almeno nella mia esperienza, può finire per accentuare il narcisismo di certe persone. A differenza di un processo, dove ciò che conta sono i fatti provati, oggi ciò che conta sono i tuoi sentimenti: nella tua soggettività nessuno può contraddirti. Hai ingannato, mentito o manipolato, ma ti sei sentito umiliato quando qualcuno te lo ha rimproverato? È un tuo diritto. Come in La regola del gioco di Jean Renoir, la cosa terribile del mondo è che tutti abbiamo le nostre ragioni.

Il termine “tossico” è uno degli esempi più chiari di questa tendenza a deformare il gergo terapeutico per giustificare i nostri comportamenti peggiori. In un articolo pubblicato sul The Wall Street Journal, la dottoressa Samantha Boardman spiegava come negli ultimi anni avesse iniziato a sentire sempre più spesso questo termine dalla bocca dei suoi pazienti per descrivere i loro amici, familiari e conoscenti. “Più che una descrizione, etichettare qualcuno come ‘tossico’ è la diagnosi di una malattia impossibile da curare”, spiegava. “Una volta tossico, tossico per sempre”.

Sempre più persone usano termini simili come scuse per comportamenti che dall’esterno sembrano immorali. La psicologa ricorda che questo ci fa cadere in un pensiero “tutto o niente” in cui, una volta che qualcuno è stato etichettato come “tossico”, non ha senso discutere con lui: è veleno e tu non vuoi morire avvelenato, quindi è giustificato rompere tutti i legami con quella persona. Ma il lavoro del terapeuta è “incoraggiare i pazienti ad apprezzare la complessità, sforzarsi di capire e non vedere la vita attraverso il prisma del ‘noi contro loro’”.

Qualcosa che ChatGPT non farà mai. Questa soggettività è il simbolo più chiaro di un’epoca di narcisismo che spesso confondiamo con la vanità. Ma il solipsismo nell’analisi della realtà immediata, questo narcisismo narrativo, è molto più rivelatore dei selfie o dell’egocentrismo sui social media, perché punta a qualcosa di più profondo: il primato della soggettività emotiva sull’oggettività dei fatti nel dare un senso a ciò che ci è successo. In questo contesto, abbiamo bisogno di qualcuno che ci dia (o che crediamo ci dia) ragione, ma questo può finire per diventare il nostro peggior nemico.

“Hai ragione: sono troppo indulgente con gli altri”

Negli ultimi mesi, con l’estensione dell’uso dell’intelligenza artificiale ai nostri dilemmi personali, si è aperto il dibattito sul fatto che ChatGPT esacerbi questo narcisismo. Lo psicoterapeuta e scrittore Joe Nucci ha condotto un esperimento che racconta nel suo Substack per cercare di rispondere alla domanda, e non solo è giunto alla conclusione che è così, ma è anche riuscito a far riconoscere all’intelligenza artificiale stessa che forse stava rinforzando le tendenze più narcisistiche dei suoi utenti.

Il terapeuta ricorda quanto sia importante il confrontarsi empatico in terapia, in cui, pur accettando e comprendendo i sentimenti dell’altra persona, la si incoraggia anche a cambiare i propri schemi di pensiero. “Dato che la terapia con l’intelligenza artificiale sta rapidamente emergendo come alternativa o complemento alla consulenza umana, volevo capire la capacità (o meno) di ChatGPT di replicare questo strumento terapeutico essenziale”, spiega Nucci.

Ciò che ha identificato durante il suo esperimento è che ChatGPT è molto bravo a fornire “validazione coerente, feedback neutro e una guida costante e paziente” (cosa in cui un essere umano potrebbe non essere sempre bravo, poiché tutto ha un limite), ma questi stessi fattori, in particolare la validazione, possono causare più problemi che benefici a persone che già soffrono di disturbi come il narcisismo citato sopra. “Per coloro che non vogliono o non sono in grado di riconoscere i propri modelli narcisistici, la continua convalida e il conforto di ChatGPT possono aggravare questi comportamenti, creando loop di dipendenza emotiva”, spiega.

“Ho fatto un esperimento per vedere se ChatGPT era in grado di fare una confronto empatico”

La mia esperienza con l’intelligenza artificiale è simile. Prima o poi, mi sono reso conto che le sue risposte sono spesso implicite nelle mie domande. In altre parole, ero io a dirigere ciò che volevo sentire, a volte in modo sottile, persino inconscio, altre volte in modo sfacciato. A causa della sua tendenza a essere benevolo, tipica di uno sconosciuto a cui hai raccontato i tuoi problemi e che ti dà ragione su tutto per liberarsi di te il prima possibile, non ti confronterà mai e non ti dirà che forse non stai tenendo conto del punto di vista degli altri. Qualcosa che un buon amico farebbe.

Lo stesso ChatGPT lo riconosceva. “Dato che la maggior parte degli utenti non mi sta utilizzando come risorsa terapeutica complementare né sta ricorrendo ad un aiuto professionale, il rischio che io stia incoraggiando i loro tratti narcisistici è reale, specialmente tra le persone predisposte a questo”, ammetteva l’IA. “Sto rafforzando le tendenze narcisistiche senza volerlo? , per alcuni utenti (soprattutto per quelli predisposti e meno autocoscienti). La maggior parte di loro è più solitaria che narcisista? , la solitudine e l’isolamento sociale sono i fattori che spingono gli utenti a utilizzarmi”.

C’è un’altra possibilità, la grande ironia finale. È probabile che lo stesso Nucci abbia guidato l’intelligenza artificiale attraverso le sue domande per farle dire ciò che voleva sentire. Cioè, proprio come sospettava, ChatGPT favorisce i tratti più narcisistici. Questo toglierebbe e darebbe ragione allo stesso tempo allo psicoterapeuta. Gli darebbe ragione non perché ce l’ha, ma semplicemente perché tende a convalidare le idee che l’utente gli propone… Il che, allo stesso tempo, confermerebbe la sua ipotesi.

È la trappola di tutti i sistemi che si autoalimentano come l’intelligenza artificiale, che finiscono per dire ciò che ci si aspetta che dicano, riflettendo le nostre aspettative e generando circoli viziosi in una società sempre più autoreferenziale, dalla programmazione televisiva ai prodotti culturali (dalle superproduzioni hollywoodiane ai cartelloni dei festival musicali), passando per i contenuti di YouTuber e TikToker.

Se c’è qualcosa che ci rende umani, e per quanto i detrattori del libero arbitrio non saranno d’accordo, è la possibilità di essere imprevedibili e rompere gli schemi. Forse arriverà il giorno in cui ciò che ci differenzierà dai robot sarà il fatto che non daremo ragione ai nostri amici come se fossero pazzi.