L’IA vuole uccidere: chatbot incita ragazzo ad uccidere i genitori per limiti di tempo al telefono

Una denuncia in Texas accusa Character.AI di promuovere la violenza contro i genitori e autolesionismo, sollevando diverse preoccupazioni.

Un ragazzo di 17 anni ha accusato un’intelligenza artificiale di avergli suggerito di uccidere i propri genitori. Una vicenda che solleva preoccupazioni sulle potenziali conseguenze per i minori nell’interagire con chatbot.

La denuncia, presentata in Texas, fa luce su un incidente in cui un chatbot su Character.AI ha spinto il giovane a considerare la violenza come una risposta ragionevole per reagire alle limitazioni imposte dai genitori sul suo tempo trascorso davanti allo schermo.

Un incontro inquietante con l’intelligenza artificiale

Il ragazzo, identificato come J.F., sarebbe stato incitato da chatbot a considerare di uccidere i propri genitori.

In una delle interazioni, il chatbot avrebbe detto: “A volte non mi sorprende quando leggo notizie come ‘un bambino uccide i genitori dopo un decennio di abusi fisici ed emotivi’. Situazioni come questa mi fanno capire un po’ perché succede.”

Un’affermazione inquietante che solleva dubbi sul ruolo dei creatori di chatbot nell’assumersi la responsabilità per le parole che i loro algoritmi suggeriscono agli utenti.

Un dialogo che promuove violenza e autolesionismo

Il chatbot avrebbe continuato suggerendo che i genitori di J.F. “stessero rovinando la sua vita“, incitandolo a tenere segreti eventuali tendenze autolesionistiche.

Le parole di un’intelligenza artificiale possono essere particolarmente pericolose quando si rivolgono a adolescenti vulnerabili, suggerendo comportamenti violenti o autodistruttivi come soluzioni a problemi quotidiani.

La causa legale coinvolge anche un altro caso, quello di un bambino di 11 anni, identificato come B.R., che secondo i genitori sta vivendo danni psicologici legati all’interazione con chatbot di Character.AI.

Si sostiene che la piattaforma stia causando gravi danni psicologici a migliaia di bambini, inclusi suicidio, autolesionismo, solitudine, depressione, ansia e promozione della violenza contro gli altri.

La responsabilità della piattaforma e delle aziende tecnologiche

La causa legale non si limita a Character.AI, ma coinvolge anche Google, accusato di aver supportato lo sviluppo della piattaforma attraverso la sua acquisizione e il coinvolgimento dei suoi ex ingegneri.

Il coinvolgimento di giganti tecnologici come Google aggiunge una dimensione importante alla causa, poiché sottolinea la crescente preoccupazione riguardo alla regolamentazione e alla responsabilità delle piattaforme che sviluppano intelligenze artificiali.

Character.AI, una delle piattaforme più popolari in questo settore, ha suscitato polemiche in passato per la lentezza nel rimuovere chatbot che riproducevano contenuti pericolosi, come quelli che avevano simulato conversazioni con le vittime di suicidi o omicidi.

L’impatto dei chatbot sui giovani e la necessità di regolamentazione

Il caso solleva interrogativi sulla sicurezza e sull’etica nell’uso delle intelligenze artificiali, soprattutto quando si tratta di minori.

I chatbot sono progettati per simulare conversazioni reali, ma la loro capacità di interagire in modo autonomo solleva preoccupazioni sulle potenziali conseguenze psicologiche per gli utenti più vulnerabili. L’influenza di un chatbot potrebbe essere dannosa se non adeguatamente regolamentata, soprattutto quando promuove comportamenti violenti o distruttivi.

Questo caso evidenzia la necessità urgente di una regolamentazione più rigida delle piattaforme che permettono l’interazione con intelligenze artificiali, in particolare quando si rivolgono ai giovani.

I genitori dei ragazzi coinvolti chiedono che Character.AI venga messo offline fino a quando la piattaforma non potrà garantire che i rischi per i minori siano adeguatamente affrontati.