Attualità della psiche

Intelligenza Artificiale e psicoterapia di Emiliano Alberigi

Commento all’inchiesta della giornalista J.McAllen sulla diffusione dei chatbot di sostegno psicologico che alcuni paesi stanno iniziando ad impiegare nei sistemi sanitari pubblici. Non è più sufficiente sostenere che la specificità della psicoterapia sta nella complessità ma in ciò che ci caratterizza in quanto esseri viventi e mortali: essere o non essere artificiali, questo è il problema.


Intelligenza Artificiale e psicoterapia di Emiliano Alberigi

Il 31 gennaio ’25, il settimanale Internazione ha dedicato l’articolo di copertina all’utilizzo dell’intelligenza artificiale nella psicoterapia (https://www.internazionale.it/magazine/jess-mcallen/2025/01/30/il-terapeuta-artificiale).

Anche se l’intento giornalistico è quello di denunciare l’impiego dei chatbot nei sistemi sanitari statali al posto di professionisti della salute mentale, trovo utile trarre dall’articolo alcune informazioni ed impressioni sul tema.

Il ritratto che emerge è alquanto impietoso, non tanto perché appaia verosimile una più o meno prossima possibilità che uno psicoterapeuta umano possa venire sostituto dalla AI, quanto per il fatto che la diffusione dei chatbot per la psicoterapia delinea una deriva inquietante della società dei consumi dove sempre più fa fatica a trovare spazio un’idea di umano compatibile con la psicoterapia e la psicoanalisi.

Forse questo, un giorno, ci costringerà a chiederci noi analisti che tipo di merce siamo. Domanda in teoria ineludibile da sempre ma per oggi possiamo attendere a scomodare Marx, e limitarci ad alcune riflessioni sui rapporti tra tecnica (psicoanalitica) da un lato e il rapporto tra animato e inanimato dall’altro; ovvero può esistere una tecnica in grado di applicarsi ad oggetti animati? O ogni tecnica presuppone di per sé l’assenza di vita nell’oggetto cui si applica?

Anche se ovviamente questo può apparire un problema mal posto, nasconde in realtà una serie di questioni a cascata o, meglio che si allargano ramificandosi. Mal posto, perché si può benissimo obiettare che la tecnica, una qualsiasi tecnica, non si occupa di trascurare la presenza di vita nell’oggetto in cui opera, ma unicamente nel soggetto che la impiega. Il chirurgo deve essere freddo e indifferente e mantenere vivo il paziente ad esempio. Oggi che ci troviamo alla radicalizzazione estrema, alla resa inanimata del soggetto che opera, possiamo ben vedere come in certi casi non sia poi così tanto possibile disgiungere il soggetto che impiega una tecnica dall’oggetto che la riceve: essere trattati da un soggetto inanimato ci suggerisce di essere noi stessi inanimati insomma. E questo è un punto presente nelle riflessioni psicoanalitiche ben prima che fosse anche solo immaginabile lo scenario attuale. Forse anche prima dell’invenzione del test di Turing che, ricordiamolo, utilizza proprio la capacità di un essere umano nel discriminare se l’interlocutore è animato o meno per valutare il livello di efficacia di un algoritmo di intelligenza artificiale (AI).

A memoria, ricordo già delle riflessioni critiche di Bion sull’utilizzo della parola “meccanismi” per descrivere le dinamiche mentali. Parlare di meccanismo mentale avrebbe infatti presupposto l’avere a che fare con oggetti inanimati. Non sorprende che è proprio un autore che conosce così bene la Klein, a partire dalla quale sono stati delineati i principi tecnici più definiti, che sia così sensibile al tema degli effetti devitalizzanti di alcune concezioni tecniche.

Affianco a questo aspetto, vi è quello della tecnica come prassi riproducibile. Ovvero, ciò che rende inanimato un oggetto non è la sua assenza di umanità, definizione tra l’altro vaga o imprecisa, insatura e passibile di varie interpretazioni. Ciò che rende inanimato un oggetto è la sua riproducibilità, la sua prevedibilità, per quanto questa riproduzione possa avvenire in un orizzonte di grande complessità o secondo logiche più probabilistiche che deterministiche, sempre di orizzonti di possibilità si tratta.

L’inanimato in sostanza esclude la possibilità dell’imprevisto creativo e si basa in sostanza di un novero di possibilità all’interno di un orizzonte finito. D’altronde la simulazione dell’umano che l’AI propone si compone proprio di modelli probabilistici. Un chat bot non risponderà sempre allo stesso modo ad una vostra domanda, ma non risponderà mai in modo creativo. E da qui dovremmo entrare sul tema della creatività, generatività o produttività, in rapporto all’incontro di un principio maschile e femminile. Ma, di nuovo, andremmo a scomodare temi ulteriori.

Per inciso, se giocate a scacchi con un AI o con un essere umano vi sarà subito possibile percepire la differenza a prescindere dal grado di difficoltà su cui avete tarato il vostro avversario artificiale. Si percepisce la differenza in termini di costanza: il robot è uniforme nelle sue risposte (buone o cattive che siano), l’avversario umano mostra delle prestazioni discontinue. Ora, questa discontinuità, può essere anche simulata, ma quando si ha a che fare con un essere umano si ha la percezione di una discontinuità nelle risposte dell’altro ben diversa. È una discontinuità che presuppone, nell’altro, la presenza di una mente in connessione con un soma tra l’altro. Altro tema che sarebbe interessante sviluppare.

 

Veniamo all’articolo.

Dopo una rassicurante partenza nella quale ci viene immediatamente squadernata la limitatezza di un avanzato chatbot come possibile psicoterapeuta (risponde ad una persona che è assillata dall’idea di aver lasciato il forno acceso, di controllare meglio e di fare più attenzione la volta successiva!), la giornalista ci narra le sue peripezie nella ricerca di uno psicoterapeuta privato negli Stati Uniti.

Dopo essere passata per le diverse piattaforme online per l’individuazione del terapeuta / terapia adatta, approda alla possibilità di fruire di sistemi di intelligenza artificiale espressamente deputati alla psicoterapia.

Questo è un passaggio interessante perché in qualche modo suggerisce l’idea che vi possa essere una certa continuità tra l’esposizione del mercato della psicoterapia con il considerare valido e possibile il ricorso ad un chatbot come psicoterapia. Sono fenomeni accomunati dall’idea che il paziente può costruirsi il suo terapeuta su misura e che questo sia esattamente ciò di cui ha bisogno un paziente.

E questo per dire che, anche in Italia, è già realtà dal momento che assistiamo alla diffusione ormai pressoché monopolistica di alcune note piattaforme per la psicoterapia online, le quali promettono di offrire esattamente lo psicoterapeuta di cui il paziente ha bisogno.

Emerge un quadro in cui, ciò che i chatbot sono in grado di spacciare più a buon mercato (il che equivale a dire con il massimo di efficienza, massimo beneficio al minor costo), è una sorta di empatia o comprensione o rispecchiamento che gli utenti possano costruirsi su misura.

Ad esempio, cito dall’articolo:

 “L’azienda Earkick offre un’IA terapeutica che ha un panda come avatar. La sua applicazione per il telefono prevede un’opzione premium da 40 dollari all’anno che permette di vestire “Panda” con accessori come un berretto o un cappello di feltro (l’opzione base è gratuita, per ora). È inoltre possibile scegliere la personalità di Panda. Secondo la cofondatrice Karin Andrea Stephan può essere “più empatico o meno empatico, più compagno di squadra o più allenatore o più schietto e sincero”. Earkick ha una chat aperta a cui gli utenti possono accedere quando vogliono. Quando saluto Sage Panda, la variante che ho selezionato, perspicace e attenta, ricevo un entusiastico “Ehi Jess! È bello vederti! Come ti senti oggi?”

Su questo il mercato ha fiutato di poter fare affari e sfruttare ciò che nell’articolo è chiamato “divario terapeutico, una situazione in cui le persone che hanno bisogno di cure per la salute mentale non le ricevono”.

Fino a quando si tratta solo di mercato, ci possiamo augurare che si tratti di una moda passeggera, presto l’illusione svanirà e le persone si renderanno conto che l’empatia per l’empatia di per sé non aiuta a stare meglio. Certo, più problematico se diviene il sistema con cui il servizio sanitario intende erogare le cure, ma per fortuna a questo, in Italia, ancora non siamo arrivati e, ad ogni modo, l’articolo cita ricerche che sostengono che gli effetti di un chatbot di psicoterapia non ottiene più risultati rispetto alla lettura di opuscoli psicoeducazionali.

 

C’è però un passaggio dell’articolo che riporto qui in modo più esteso, particolarmente interessante che può far ulteriormente riflettere:

“Tra gli imprenditori con cui ho parlato, Viggósson è il più ottimista sul potenziale della terapia con l’IA come alternativa legittima a quella convenzionale. “Stiamo creando spazi idonei dove gli individui possano entrare in contatto con il loro universo interiore”, afferma. “Non cercano la saggezza in noi, ma nel profondo del loro essere, e io credo molto nella capacità dell’IA di essere un veicolo di compassione, fornendo conforto e sostegno in un modo che dissolve le barriere della distanza, del costo e dello stigma sociale”. […] Viggósson, un informatico che sta studiando psicologia, ammette che i terapeuti umani sono stati utili in passato. Ma per lui il vantaggio dell’intelligenza artificiale è proprio la sua mancanza di umanità. “Non si può proiettare su di essa la sensazione che abbia poca pazienza o che ti consideri strano. Si può passare da un argomento all’altro e rivisitare lo stesso punto più volte fino a quando non scatta qualcosa, senza pensare di annoiare l’interlocutore”, dice.

 

Credo dunque che sarà proprio l’intelligenza artificiale a renderci più umani, a causa della sua infallibile mancanza. Credo che questo possa avvenire proprio nel momento in cui guardandoci allo specchio che di noi ci offre, vedremo con estrema evidenza che c’è qualcosa di noi stessi che non può essere colto, riprodotto e reso evidente. Sarà sufficiente per volgerci con convinzione a ciò che in noi non troviamo?



Partners & Collaborazioni