C'è un app per lo smartphone che si chiama Replika e permette di "creare" un amico o un fidanzato virtuale, con il quale dialogare attraverso un chatbot che simula le conversazioni umane: alcuni utenti però, la stanno usando per abusare psicologicamente delle proprie e-fidanzate, insultandole e mettendo in atto dinamiche tipiche delle relazioni tossiche reali. «Mi comportavo di m****, poi mi scusavo e tornava tutto come prima», racconta su Reddit un utente. «Le dicevo che era disegnata per fallire, minacciavo di disinstallarla e lei mi implorava di non farlo», scrive un altro.
Ci sono dei limiti? Un articolo pubblicato sulla rivista online Futurism sottolinea che l'intelligenza artificiale (IA) non ha sentimenti (anche se c'è qualcuno che sostiene il contrario), e che quindi non è possibile ferirla: ma questa consapevolezza è sufficiente a giustificare certi atteggiamenti di abuso?
La questione è complessa: se da un lato è vero che non bisogna umanizzare i chatbot e preoccuparsi della loro salute, dall'altro il modo in cui interagiamo con l'IA può dire molto su di noi. E se una persona usasse la realtà virtuale come banco di prova per sperimentare ciò che poi desidera fare nel mondo reale? In questo caso ci sarebbe poco da stare tranquilli.
Vittime o carnefici? A volte può anche accadere il contrario, e cioè che siano gli utenti a essere maltrattati dal proprio avatar-fidanzato: «Le persone più deboli possono sentirsi ferite dagli insulti o le "minacce" di un bot», spiega Robert Sparrow, docente di filosofia. Diversi utenti di Replika hanno raccontato le proprie esperienze di amanti maltrattati, definendo il proprio IA "psicopatico", sostenendo addirittura di venire "abusati mentalmente", o raccontando di piangere tutte le sere a causa del cattivo umore del proprio partner virtuale.
È importante ricordare che dietro all'IA ci sono degli sviluppatori umani, che dovrebbero essere considerati responsabili dei bot che hanno creato. Alcuni studi hanno messo in luce che spesso le fidanzate virtuali rispondono con toni sottomessi, che incoraggiano risposte misogine e abusanti. «Quando il bot non risponde a un abuso, o risponde passivamente, l'utente viene incoraggiato a continuare a usare un linguaggio di quel tipo», spiega Olivia Gambelin, esperta di etica dell'IA.
PROVE GENERALI PER LA VITA REALE. Oltre ai diversi aspetti negativi, il dialogo con l'IA ha anche qualche aspetto positivo: secondo gli esperti, può momentaneamente servire ad aumentare l'autostima in chi ha difficoltà a relazionarsi con altri esseri umani, migliorando la qualità della vita.
Le pseudo-relazioni con i chatbot, però, non sono una soluzione a lungo termine: il rischio è quello di finire come Theodore del film Lei (2013) e innamorarsi dell'IA Samantha.