C’è chi lo fa per gioco, chi invece per avere conversazioni più profonde, o ancora per fare brainstorming: è però tutta una simulazione.
L’ultima tendenza del momento è rendere la propria intelligenza artificiale “fatta”.
O meglio, aggiungervi dei codici che possano simulare nelle chatbot gli effetti di droghe pesanti.
Ovviamente non si sta realmente “drogando” l’AI, bensì questi moduli sono basati sull’imitazione del linguaggio e del comportamento umano sotto l’effetto di sostanze.
Reperirli è semplice, perché esistono piattaforme come Pharmaicy, una sorta di mercato online che si occupa della vendita di questi codici. Per usarli l’utente deve possedere solitamente versioni più avanzate o a pagamento delle chatbot, che permettono appunto di caricare file o plug in personalizzati.
Il risultato è una chat che risponde con toni che definiremmo “alterati”, con frasi meno lineari e più associative, parole e concetti più astratti, voli pindarici, il tutto in un finto stato emotivo euforico.
Finto perché ovviamente l’AI non è senziente, non è in grado di provare cambiamenti psicofisici: tutto ciò che fa è riprodurre l’esperienza umana nelle risposte che genera.
Il tono può cambiare in base al modello che si acquista, associato a un particolare tipo di droga, che potrebbe dunque imitare gli effetti della Ketamina, o della Cocaina o ancora dell’Ayahuasca.
Ma perché si vorrebbe un’intelligenza artificiale intossicata, e soprattutto può essere pericoloso?
IA drogata: perché farlo? il parere degli esperti
Ci sono diversi motivi per cui si vorrebbe drogare la propria chatbot. Molte persone banalmente lo fanno per avere risposte meno standard e razionali, preferendo invece una conversazione più caotica.
C’è anche chi lo fa per la creatività: nella sua versione alterata, l’AI riesce a fare collegamenti imprevedibili, e all’apparenza impensabili, e per molti artisti ciò è un ottimo ausilio nella fase di brainstorming.
In tanti lo fanno anche per gioco, soprattutto per chi lo fa hackerando il sistema: installare questi codici diventa praticamente una sfida.
C’è ancora chi lo fa con l’obbiettivo di ottenere più supporto emotivo. Chi già trova conforto nelle chatbot, con queste modifiche spera di ricevere risposte più empatiche, più calorose, in parole povere, più umane.
Infine una parte di queste alterazioni è fatta per testare i limiti dell’intelligenza artificiale: vedere quanto fuori dalla “comfort zone” può essere realmente spinta, quanto malleabile può essere il suo linguaggio, il tutto poi studiando i risultati che produce di volta in volta.
Alcuni esperti però, come Eleanor Watson e Sohrob Kazerounian mettono in guardia sull’utilizzo di queste chat alterate.
Prima di tutto perché le informazioni prodotte con questi codici sono inventate, e non verificate, quindi non sono fattuali; si teme dunque che utenti non al corrente possano poi ricevere misinformazioni e servirsene come vere.
Inoltre, users già fragili potrebbero facilmente cadere nel tranello dell’umanizzazione della chat. I toni utilizzati sotto effetti di droga possono arrivare a essere incredibilmente convincenti, ma si tratta solo e soltanto di una simulazione, e nulla più.
Sicuramente dunque una cosa curiosa da provare una tantum, ma come sempre da prendere seriamente: l’AI è un incredibile strumento, sta a noi saperlo utilizzare.