“ChatGpt ho un problema”. In terapia con l’AI, (anche per il sesso). “Rischio dipendenza”

di MARIA CONCETTA VALENTE

URBINO – Quasi si imbarazza a dirlo, ma Chiara, 22 anni, ammette di aver chiesto a ChatGpt consigli sulla sua relazione sentimentale. Ridendo poi aggiunge di aver fatto anche qualche domanda sul tema della sessualità. “Mi ha saputo aiutare pure su questo. È stato gentile, ma – sottolinea – parlare con una persona mi avrebbe fatto sentire abbracciata. Non l’ho fatto per non sentirmi giudicata”. Chiara non è la sola a rivolgersi a chatbot per ricevere un sostegno psicologico. Lo dimostra la massiccia diffusione di “terapeuti” virtuali, destinati a crescere ancora.

L’AI nella ricerca clinica

Se da una parte ci sono i pazienti, dall’altra gli psicoterapeuti. Anche loro si affidano all’AI, soprattutto nella ricerca. Ce lo ha rivelato Antonello Colli, professore ordinario e responsabile del Servizio di Psicoterapia e Ricerca Clinica dell’Università di Urbino. “L’AI potrebbe essere utile nel processo diagnostico e nell’analisi dei dialoghi”, spiega Colli. Un esempio? Nella ricerca psicoterapeutica vengono analizzati i dialoghi tra terapeuta e paziente per studiare l’efficacia della terapia. Un lavoro tradizionalmente fatto a mano e che richiede molte ore, ma che un sistema di AI ben istruito potrebbe eseguire in pochi secondi. Un tema su cui Colli si è confrontato anche con i suoi studenti: “Abbiamo fatto delle simulazioni per comprendere come interagiscono con questi sistemi”.

Il terapeuta artificiale

Se l’AI potrebbe essere un’ottima collega nella fase di ricerca, la sua funzione da terapeuta è ancora dubbia. Sul tema infatti, dati concreti e verificabili sono molto ridotti. Chi si affida a questi strumenti lo fa quindi senza alcuna certezza sulla loro efficacia e sulle conseguenze. Colli non è affatto preoccupato e non considera i “terapeuti virtuali” una minaccia per la sua professione. Tuttavia solleva una serie di interrogativi a riguardo. Non confrontandoci con un essere umano ci potrebbe essere il vantaggio di poter trattare in modo più diretto, temi più sensibili a un giudizio sociale, come ad esempio la sessualità per Chiara. Tuttavia c’è il rischio che si crei una dipendenza da un “problem solver” esterno, disponibile h24 e immediato nelle risposte.

“D’altra parte, si potrebbe obiettare che anche la psicoterapia, in alcuni casi, potrebbe attivare vissuti di dipendenza. Ma c’è una differenza – osserva Colli – ed è il rapporto con il terapeuta”. Nel percorso psicologico è fondamentale la relazione umana, componente che l’AI non può fornire. Non si tratta solo di applicare un metodo infatti, ma di costruire una relazione che la ricerca ha dimostrato essere fondamentale per il successo della terapia. ChatGpt può simulare un’interazione, ma manca completamente dell’empatia relazionale di un essere umano. Quello che Chiara chiama “abbraccio”.

E poi è necessario ricordare che non tutte le persone sono uguali. “Chi ha un’identità solida può prendere le informazioni da un chatbot con il giusto distacco. Ma i più fragili potrebbero attribuire un valore oggettivo a ciò che dice l’IA”, mette in guardia Colli. Il pericolo è arrivare a percepire l’AI come una figura reale: personalizzare qualcosa che persona non è.

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra e di terze parti maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi