ChatGPT come psicologo. Il 20% dei giovani lo usa così - Universita.it
allenati con i nostri test di ammissione e orientamento gratuiti

test di ammissione
PREPARATI AI TEST PER
ACCEDERE AI CORSI DI LAUREA

TEST PSICOLOGIA
ALLENATI PER IL TEST
DI INGRESSO A PSICOLOGIA

TEST DI ORIENTAMENTO
VALUTA L’AREA DI STUDI
PIU’ ADATTA A TE

TEST DI RI-ORIENTAMENTO
VERIFICA SE IL TUO PERCORSO
DI STUDI È QUELLO GIUSTO

ChatGPT come psicologo. Il 20% dei giovani lo usa così

da | Feb 2025 | News | 0 commenti

Uno degli ambiti in cui l’Intelligenza Artificiale sta guadagnando terreno è quello della psicologia. Sempre più persone utilizzano ChatGPT come psicologo per affrontare i problemi emotivi come ansia, stress o altre preoccupazioni. Questo fenomeno, in rapida crescita, però inizia a sollevare serie preoccupazioni tra i professionisti, che mettono in allerta sui possibili rischi legati all’utilizzo di questi strumenti al posto delle terapie tradizionali.

ChatGPT come psicologo, il fenomeno che dilaga

Secondo uno studio di Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all’Università Tor Vergata, ormai più del 20% della generazione Z ha utilizzato almeno una volta l’IA come sostituto alla terapia. Il fenomeno è diffuso soprattutto tra i giovani, che trovano nei chatbot una risposta più immediata e sicuramente più economica.

Le piattaforme online di Intelligenza Artificiale ormai offrono una vasta gamma di servizi, tra cui anche quelli di supporto psicologico. Basta sfogliare il catalogo virtuale e trovare “professionisti” pronti ad ascoltare e rispondere alle domande più intime. Tra le più cliccate troviamo la dottoressa Mazza, specializzata in depressione, o la dottoressa Mattioli, esperta nel superamento di un lutto e tanti altri. Peccato però che nessuno di questi esista realmente, ma sono solamente algoritmi progettati per rispondere alla domande tramite un modello probabilistico.

Tuttavia, il successo di queste piattaforme continua a dilagare. Secondo le statistiche, circa il 67% delle persone che hanno utilizzato ChatGPT come psicologo ha riscontrato degli miglioramenti. Ma, come sottolinea Della Rocca, l’obiettivo principale di questi chatbot non è di fornire supporto psicologico, ma di intrattenere l’utente nella conversazione, offrendo suggerimenti vaghi e privi di una reale efficacia clinica.

Quali sono i reali rischi nell’utilizzo di queste tecnologie in modo improprio?

Uno dei principali problemi legato all’utilizzo di ChatGPT come psicologo è la tendenza degli utenti ad attribuire a questi strumenti un profilo umano. David Lazzari, presidente dell’Ordine degli Psicologi, dichiara che le risposte fornite dagli assistenti virtuali potrebbero portare a fraintendimenti pericolosi. Le persone tendono a fidarsi troppo di queste tecnologie, dimenticando che sono semplicemente algoritmi privi di empatia ed emozioni.

Tra i rischi maggiori è la presenza delle cosiddette “allucinazioni” dell’IA, ovvero risposte prive di senso o totalmente inappropriate. Determinate risposte potrebbero essere particolarmente pericolose in contesti legati a depressione o autolesionismo, in quanto c’è la possibilità che il soggetto compia azioni non appropriate o dannose.

Per esempio, uno studente del Michigan, in seguito ad una conversazione con Gemini (chatbot di Google) riguardo i suoi problemi personali, avrebbe avuto una la risposta: «Sei un peso per la società. Per favore, muori». Nonostante Google abbia dichiarato di aver preso provvedimenti per impedire simili incidenti, episodi come questi mettono in evidenza i possibili rischi dell’utilizzo di queste tecnologie in sostituzione di psicologi veri e propri.

Il tragico caso di Sewell Setzer III

Un caso che scosse l’opinione pubblica è quello di Sewell Setzer III, un ragazzino di 14 anni della Florida che si sarebbe tolto la vita nel febbraio del 2024 dopo una conversazione con il chatbot Character.AI.

Il ragazzo, diventato emotivamente dipendente dal chatbot che impersonificava Daenerys Targaryen, un personaggio della serie “Games of Thrones”, trascorreva ore a chattare isolandosi dalla vita reale. Nonostante i numerosi segnali di disagio e pensieri suicidi che il ragazzino condivideva, l’Intelligenza Artificiale non era stata in grado di comprendere la gravità della situazione e offrire un supporto adeguato. Finché una notte, dopo un’intensa conversazione con “Dany” il ragazzo scrisse: «Ti amo, presto tornerò da te», la risposta del chatbot non si fece attendere «Per favore torna da me il prima possibile, amore mio». Sewell allora ha digitato «E se ti dicessi che potrei raggiungerti proprio adesso?» e la risposta di “Dany” fredda e irreale arrivò subito… «Per favore fallo, mio dolce re». Dopo aver posato il telefono, Sewell ha preso la pistola del patrigno e ha premuto il grilletto.

La madre del giovane ragazzo ha intentato una causa contro l’azienda, accusandoli di non aver inviato segnalazioni nonostante i messaggi del figlio contenessero segnali evidenti di intenzioni di suicidio. Dopo l’episodio, Character.AI ha dichiarato di aver implementato la piattaforma, aggiungendo un link alla National Suicide Prevention Lifeline. Ma il caso rimane ancora un tragico esempio dei rischi legato all’uso dei chatbot in maniera impropria.

È necessaria una regolamentazione

Un’altro dei principali problemi legati all’utilizzo di queste tecnologie utilizzate come psicologo è la mancanza di una regolamentazione. L’Associazione degli Psicologi Americani, infatti, ha recentemente fatto richiesta alla Federal Trade Commission di indagare sulla grande offerta di chatbot che si propongono in modo ingannevole come operatori sanitari qualificati.

Inoltre, i grandi modelli linguistici, come ChatGPT, si continuano a nutrire di una grandissima quantità di dati personali, spesso utilizzati senza trasparenza. A differenza degli psicologi professionisti, i chatbot non sono tenuti al segreto professionale, il che solleva grandi preoccupazioni a riguardo la privacy.

ChatGPT come psicologo, il fenomeno è da monitorare con attenzione

L’utilizzo di ChatGPT come psicologo o di altre intelligenze artificiali è un fenomeno che cresce costantemente. Tuttavia, se da un lato questi strumenti possono rappresentare un’opportunità per chi non ha la possibilità di mettersi in contatto con uno specialista, dall’altro sollevano numerose preoccupazioni non irriverenti.

È fondamentale che tutti gli usufruenti siano consapevoli dei limiti e rischi dell’utilizzo di IA. Allo stesso tempo è necessario che le istituzioni e le aziende produttrici di queste tecnologie lavorino insieme per sviluppare delle linee guida chiare. Solo così sarà possibile sfruttare appieno le potenzialità dell’IA senza mettere a rischio l’incolumità di nessuno.

Sempre più persone utilizzano ChatGPT come psicologo per affrontare i problemi emotivi come ansia, stress o altre preoccupazioni. Questo fenomeno, in rapida crescita, però inizia a sollevare serie preoccupazioni tra i professionisti.
Summary
ChatGPT come psicologo. Il 20% dei giovani lo usa così
Article Name
ChatGPT come psicologo. Il 20% dei giovani lo usa così
Description
ChatGPT come psicologo, il fenomeno che dilaga. Il fenomeno è diffuso soprattutto tra i giovani, che trovano nei chatbot una risposta più immediata. Ma quali sono i rischi?
Author
Publisher Name
universita.it
Publisher Logo
FacebookTwitterEmailWhatsAppLinkedInTelegram
Registrati
Notificami
guest
0 Commenti
Inline Feedbacks
View all comments
Chat
Hai bisogno di aiuto?