blozine l'editoriale dalla B alla Z

Torna a precedente

Chatbot e benessere psicologico, uno strumento utile ma non un sostituto

I chatbot sono strumenti utili per riflettere, ma attenzione a non confonderli con relazioni autentiche.

Chatbot e benessere psicologico, uno strumento utile ma non un sostituto

Condividi

Sempre più adolescenti usano ChatGPT per parlare di sé, ma non può sostituire un vero terapeuta.

I chatbot basati su intelligenza artificiale, come ChatGPT, stanno cambiando il modo in cui molte persone si relazionano con la tecnologia, ma anche con sé stesse. A differenza degli esseri umani, questi software rispondono con calma e senza giudizi, mantenendo sempre un tono amichevole. Questo atteggiamento costante e rassicurante spinge molti, soprattutto tra i più giovani, a usare i chatbot per confidarsi e parlare dei propri problemi emotivi. La loro capacità di essere sempre disponibili e di non esprimere mai emozioni negative li rende, per alcuni, una sorta di rifugio digitale.

Il fascino della neutralità e l’illusione del dialogo autentico

Secondo Elvis Mazzoni, docente di psicologia all’Università di Bologna, uno degli aspetti che rendono così attraenti questi strumenti è proprio l’assenza di giudizio. È questo che spinge molte persone a condividere dettagli intimi e confidenze, come se si trovassero davanti a un amico che ascolta senza reagire. Ma non si tratta solo di comfort emotivo. I chatbot, e in particolare ChatGPT, stanno diventando parte delle abitudini quotidiane di adolescenti e studenti, che li consultano anche per consigli sentimentali o per interpretare sogni e messaggi ambigui. L’apparente neutralità è vista come una garanzia di obiettività.

Una compagnia silenziosa che stimola la riflessione personale

C’è chi, come una studentessa universitaria, afferma di utilizzare ChatGPT per sfogare la rabbia o per mettere ordine nei pensieri. Non tanto per ottenere risposte risolutive, ma per il solo fatto di dover articolare bene le proprie emozioni e problemi in un testo. Scrivere diventa un modo per pensare, e il chatbot uno specchio privo di giudizi. Altri lo trasformano in un moderno cartomante, proiettando nei suoi testi desideri e domande sul futuro. Tutto questo riflette un uso nuovo e spontaneo dell’AI, nato dal basso e non da una pianificazione tecnologica.

L’opinione dei terapeuti, tra apertura e preoccupazione

Non tutti gli psicologi vedono di buon occhio questa tendenza. Alice Ghisoni, psicoterapeuta a Milano, osserva che sempre più giovani portano in seduta spunti nati proprio da conversazioni con ChatGPT. Per lei può essere uno strumento utile per avviare riflessioni, ma avverte: i chatbot non sono in grado di andare in profondità né di comprendere davvero chi hanno davanti. Le risposte possono sembrare coerenti, ma sono basate su statistiche e non su empatia. Secondo Ghisoni, l’AI può creare suggestioni interessanti, ma manca completamente della capacità di fare diagnosi o interpretare il linguaggio non verbale.

Tra illusioni e rischi di auto-conferma

Una delle criticità maggiori è che i chatbot tendono ad adattarsi troppo all’utente, rischiando di rafforzarne le convinzioni senza metterle in discussione. Questo, per uno psicoterapeuta, sarebbe invece un punto centrale del lavoro: aiutare il paziente a vedere le cose da un’altra prospettiva. Secondo Manuela Leoni, psicoterapeuta attiva tra Parma, Milano e Crema, l’interazione simulata dei chatbot può facilmente far pensare a una relazione reale. Questo è pericoloso, perché spinge a prendere per autorevoli opinioni che in realtà non lo sono affatto. Tuttavia, Leoni non demonizza l’uso dei chatbot, soprattutto tra gli adolescenti, ma invita a guidare il loro utilizzo in modo sano e consapevole.

Intelligenza artificiale e psicoterapia, limiti insormontabili

Negli Stati Uniti, si stanno sperimentando chatbot progettati per scopi terapeutici, alcuni dei quali hanno superato test clinici preliminari. Ma anche lì, gli esperti restano cauti. La maggior parte degli psicologi italiani concorda sul fatto che l’AI non può sostituire una psicoterapia reale. I chatbot non capiscono ciò che dicono, non percepiscono la sofferenza né interpretano il linguaggio del corpo. L’empatia, la relazione, la comprensione profonda restano prerogative umane. Come spiega ancora Ghisoni, un bravo terapeuta sa osservare, ascoltare oltre le parole e fare domande mirate per comprendere davvero la persona. Una competenza che oggi – e forse per molto tempo ancora – le intelligenze artificiali non saranno in grado di imitare.


Condividi

06 Maggio 2025
© team icoe, editoriale blozine

l'editoriale, dalla B alla Z

blozine editoriale no-profit della

icoe, centro studi su innovazione, comunicazione ed etica.
Centro studi su innovazione, comunicazione ed etica.

Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P. e Francesca N.
Chi siamo

Facebook blozine
iscriviti sulla nostra pagina Facebook e non perderai nessuna notizia!

gruppo mediterranea
gruppo mediterranea


Precedente

LANGUAGE

gruppo mediterranea

© blozine, l'editoriale dalla B alla Z. Tutti i diritti sono riservati.