Skip to content Skip to footer

Intelligenza artificiale e psicoterapia: i limiti del delegare alla tecnologia la profonda conoscenza di sé

Il dibattito intorno all’Intelligenza Artificiale utilizzata come supporto alla psicoterapia o in alcuni casi come strumento di supporto o sostegno psicologico non è mai stato così acceso e trascurarlo o liquidarlo significa cedere al diniego o al pregiudizio.
L’intelligenza artificiale è un sistema complesso di elaborazione del linguaggio, in grado di riconoscere e interpretare gli input in base al contesto, trasformandoli in output coerenti. Le fonti dalle quali attinge sono informazioni generalizzate e statisticamente prevalenti, che non permettono al sistema di cogliere la complessità della realtà né dell’essere umano. Questo basterebbe per saltare alle conclusioni, ma alcune persone riferiscono di trarre beneficio dal supporto che ChatGpt può dare in alcuni momenti e non possiamo ignorarlo né intimare di non farlo senza provare a costruire una prova chiara dei limiti della pratica che si sta diffondendo.

Ho deciso di condividere alcune riflessioni preliminari sicuramente non esaustive, frutto di una personale e non controllata sperimentazione dello strumento, avvenuta principalmente in tre modi: fornendo input elaborati, fornendo input grossolani e come supporto alla diagnosi differenziale. Nel primo caso ne ho scorto le potenzialità (potenzialità, non vantaggi), nel secondo caso i limiti e nel terzo ho avuto modo di riflettere sul confine che è ancora e per fortuna ben tracciabile tra il supporto all’umano e la sostituzione dell’umano.
Negli ultimi giorni, alcuni articoli di stampa hanno riportato l’idea secondo alcuni che l’intelligenza artificiale possa rappresentare un’alternativa a un percorso psicoterapeutico. Una tale affermazione non è sostenibile per almeno tre motivi fondamentali, che ci portano a parlare d’altro, magari di psicoeducazione, ma non di psicoterapia.
Innanzitutto, manca l’elemento dell’Altro: la presenza viva e partecipe di un interlocutore umano, con cui si costruisce la relazione terapeutica. In secondo luogo, vengono meno lo spazio e il tempo della seduta, che non sono semplici coordinate né un setting scelto sulla base di arbitrarie preferenze, ma strumenti clinici in sé, all’interno dei quali si struttura l’esperienza trasformativa. Infine, il punto più rilevante: è assente l’arte del fare psicoterapia, intesa come l’integrazione tra le competenze teoriche e gli strumenti clinici e la capacità del terapeuta di cogliere, nel racconto del paziente, connessioni complesse e significative, la sua storia e i suoi modelli di funzionamento, anche osservando, registrandolo sul piano emotivo, quello che succede nella dinamica relazionale.
L’intelligenza artificiale non conosce la persona, le risponde. Non è in grado di restituire una concettualizzazione del caso né di valutare il cambiamento in ogni sua fase.

Uno degli aspetti in cui l’intelligenza artificiale mostrerebbe un potenziale significativo è nell’ambito della psicoeducazione; non è un caso che venga spesso percepita come affine ai principi della psicoterapia cognitivo-comportamentale, un approccio che valorizza, tra molti altri aspetti, l’informazione e la consapevolezza come parte integrante del processo terapeutico e probabilmente l’approccio più noto al sistema per via della possibilità di reperire più facilmente informazioni descrittive. Fornire contenuti chiari, accessibili e basati sull’evidenza può essere di supporto, ma la consapevolezza, da sola, non è sufficiente. Acquisire conoscenze può rivelarsi controproducente se non c’è una relazione terapeutica che aiuti a inserire quelle informazioni all’interno del proprio modello di cambiamento possibile e auspicabile.
Il terapeuta, nella dinamica relazionale, svolge un ruolo insostituibile, quello di costruire insieme un’alternativa al funzionamento abituale e offrire un contenimento emotivo che favorisca l’abbandono di modalità note e apparentemente più sicure quindi di aiutare la persona a esplorare la possibilità di pensare e scegliere in un modo diverso, più funzionale al benessere individuale.
Nondimeno, il terapeuta lavora costantemente sui propri bias cognitivi e, sebbene consideri la possibilità di commettere degli errori, è istruito a porvi rimedio o, eventualmente, a riconoscere l’insuccesso e agire di conseguenza per tutelare il paziente.

Come psicoterapeuti, non possiamo però limitarci a osservare con diffidenza la crescente fiducia che molte persone ripongono nell’intelligenza artificiale. È nostro compito provare a comprendere quale bisogno venga intercettato, quale vuoto venga colmato e soprattutto perché quel bisogno non trovi risposta nell’assistenza sanitaria. Se è vero che l’AI offre uno spazio di ascolto e restituzione immediata, dobbiamo domandarci perché strumenti di psicoeducazione, che da anni sono parte integrante di molti approcci terapeutici, non siano già pienamente accessibili e diffusi nei contesti relazionali e clinici. Che tipo di risposta sta dando l’AI che, almeno sul piano soggettivo, viene percepita come efficace e in cosa noi, come comunità professionale, potremmo fare di più?

È evidente che faccia leva su un umano bisogno di ascolto e comprensione: la disponibilità immediata e continua, l’assenza di giudizio, la rapidità di risposta e la possibilità di restare nell’anonimato, già da diverso tempo isolati fattori di rischio per lo sviluppo di una dipendenza da Internet (Young, 1999). Questi elementi, pur offrendo un sollievo temporaneo, non bastano a sostenere un cambiamento reale e duraturo.
Il lavoro del terapeuta consiste nel non farsi catturare dal modello di funzionamento del paziente e nel mostrare come questo non favorisca l’adattamento.
La fatica richiesta alla persona che decide di intraprendere un percorso di psicoterapia è perlopiù riconducibile allo sforzo di stare nella complessità della dinamica relazionale e dei contenuti emersi e il motivo per il quale se ne sta parlando probabilmente è proprio questo: ChatGpt solleva da questa fatica a scapito però, per tutte le riflessioni qui riportate, dell’efficacia.

L’etica ci invita a non cedere alla comodità dell’automazione in ambiti che richiedono lentezza, profondità e attenzione ai processi e non solo ai contenuti. Non per paura del progresso, ma per rispetto dell’umano.
La tecnologia è uno strumento da usare a nostro favore, ma per farlo è fondamentale evidenziare i limiti della delega che le facciamo, tra i quali, in conclusione, annoveriamo: l’inefficacia, il rischio di una dipendenza e la bassa tolleranza alla frustrazione come conseguenza del non essere più allenati a stare nei processi e nelle relazioni, nella dimensione familiare, sociale, lavorativa e terapeutica.

Il dibattito è ancora aperto, ma anche ciò che resta aperto necessita di essere definito e di definire.

Ringrazio le persone che hanno accolto l’invito a raccontarmi la loro esperienza.

 

Leave a comment