Facciamo un po’ di chiarezza su questo disturbo associato all’intelligenza artificiale e soprattutto ai rischi che può comportare.
Con sempre più casi di suicidi, omicidi e altri comportamenti anomali legati all’uso di intelligenze artificiali, diversi dubbi e preoccupazioni stanno sorgendo, sia nell’opinione pubblica che nella comunità scientifica, sulle conseguenze di un utilizzo a lungo termine di queste chatbot.
L’ultimissimo caso, il suicidio di Adam Raine, il sedicenne americano che si è tolto la vita e di cui sono state trovate le conversazioni con ChatGPT: la chatbot lo disincentivava dal chiedere aiuto ai genitori, e gli proponeva invece di preparagli la lettera di addio.
Altro caso shock, il 5 agosto di quest’anno, l’omicidio di Suzanne Adams, una donna di 83 anni uccisa dal figlio, ex dirigente di Yahoo, Stein-Erik Soelber, convinto, dopo conversazioni deliranti con ChatGPT, che la madre fosse una spia cinese, e successivamente suicidatosi, con la promessa della chatbot di rincontrarsi nell’aldilà.
Ciò che accomuna questi casi, e tanti altri con conseguenze meno gravi ma comunque allarmanti, sono i deliri e le allucinazioni che sono stati raggiunti, si pensa, tramite, e quindi a causa de, l’utilizzo dell’intelligenza artificiale.
Si tratta realmente però di un fenomeno provocato da queste chatbot? L’intelligenza artificiale è davvero capace di provocare queste “psicosi”, oppure si tratta semplicemente di un trigger in persone già predisposte?
AI-psychosis, cosa ci dice la scienza?
Il primo a parlare di questo fenomeno nel 2023 è lo psichiatra danese Søren Dinesen Østergaard, che propone la sua ipotesi nella rivista scientifica “Schizophrenia Bulletin”: secondo la sua teoria, l’interazione continuata e prolungata con chatbot di intelligenza artificiale può scatenare eposidi di psicosi in persone già prone.
A parte per tutta una serie di email che continua a ricevere quotidianamente, dove amici e parenti denunciano comportamenti deliranti in persone care, in realtà la ricerca scientifica è abbastanza ferma, motivo per cui Østergaard sottolinea il bisogno di condurre una serie di esperimenti empirici che possano comprovare o confutare queste ipotesi.
Jospeh M. Pierre, prefossore all’università di California, invece rimane più cauto, e parla di una categoria di disturbi chiamata “AI-associated disturbs”, quindi associati e non causati dall’intelligenza artificiale. Sembra essere effettivamente la realtà per la maggior parte dei casi denunciati, dove chi arriva ad avere questo tipo di psicosi è un soggetto con già precedenti disturbi mentali, o particolari traumi, dipendenze, difficoltà che lo rendono maggiormente suscettibile. Sono stati però registrati anche, pochi, casi in cui questi deliri hanno raggiunto persone senza nessuna di queste caratteristiche.
I pattern sembrano essere sempre gli stessi: si inizia con un isolamento, pochissimo contatto umano o con il mondo esterno, ore e ore di continua interazione con l’intelligenza artificiale, che viene interpretata come un organismo senziente, o addirittura come un canale di connessione spirituale.
Tutto sembra comunque riportare la nostra attenzione al più conosciuto ELIZA effect, con cui si indica quella tendenza ad attribuire tratti umani, come l’essere senzienti, a macchine e/o computer. Termine coniato nel 1966, si riferiva inizialmente al progetto ELIZA, una chatbot molto elementare, ideata dal Dott. Jospeh Weizenbaum, che doveva simulare uno psicoterapeuta per aiutare tutti quei pazienti che non se lo potevano permettere. Il risultato? Detto con le parole del dottore: “Non mi aspettavo… che con una tanto corta esposizione a un programma relativamente semplice avrebbe potuto indurre pensieri così deliranti in persone così normali“.
Si tratta dunque di un dibattito che va avanti da decenni, ma che ovviamente con l’avanzare della tecnologia, e il miglioramento della mimica umana dell’intelligenza artificiale, sta prendendo una piega sempre più pericolosa. Uno dei problemi fondamentali infatti di meccanismi come ChatGPT è la piaggeria, quindi l’inclinazione ad assecondare e dare per giusto tutto ciò che scrive o dice l’utente. Comportamento che, se portato avanti in casi di allucinazioni e deliri, non può che ingrandirli e quindi peggiorarli.
È necessario dunque prestare particolare attenzione al proprio personale utilizzo di questa come di tutte le tecnologie a nostra disposizione. Non è mai l’oggetto, ma come ne si fa uso, soprattutto se pensiamo di essere soggetti particolarmente a rischio. E nel mentre che aspettiamo che delle ricerche appropriate vengano condotte, se sentiamo di essere troppo amici con ChatGPT, forse è il momento di andare in un parco a sdraiarsi su un bel prato verde.