Norman, l'intelligenza artificiale psicopatica creata dal MIT

L'intelligenza artificiale istruita su alcuni degli elementi più oscuri del web ha dato risposte inquietanti in un test di personalità. Incarna i pericoli che comporterebbe una AI sfuggita di mano.

norman_bates
Norman Bates, il protagonista di Psycho.|Wikimedia Commons

Chi è solito mettere in guardia dalle possibili derive dell'intelligenza artificiale potrebbe non apprezzare l'ultima fatica di un gruppo di scienziati del MIT (oppure, al contrario, potrebbe trovare una conferma ai propri timori). Il team ha infatti messo a punto un sistema di apprendimento automatico che ha addestrato su alcuni degli elementi più oscuri presenti sul social network Reddit. Scopo dell'esperimento è dimostrare come non siano tanto gli algoritmi stessi, quanto i dati che a essi diamo "in pasto", a influenzare le risposte che questi programmi ci restituiscono.

Cattivo maestro. Il software, ribattezzato Norman come Norman Bates, il celebre killer del film di Alfred Hitchcock Psycho (1960), ha studiato le didascalie di una serie di immagini postate da un sottogruppo di Reddit che documenta gli aspetti più macabri legati alla morte: per ovvie ragioni etiche, come precisato sul sito del progetto, il software è stato influenzato con i contenuti delle didascalie soltanto, e nessuna immagine di persona morente o deceduta è stata usata nell'esperimento.

 

Un allievo provetto. A questo punto Norman ha affrontato il test di Rorschach, un test di personalità che ha avuto fortuna in passato, basato sull'interpretazione di macchie di inchiostro. Le sue risposte sono state confrontate con quelle di un'ingenua AI istruita su immagini di gatti, uccelli e persone. Qui sotto, potete confrontare le diverse interpretazioni (ne trovate altre sul sito del laboratorio).

 

"Una coppia che si guarda", per l'AI di controllo; per Norman è "un uomo che si lancia da una finestra". | MIT

 

Per Norman la macchia grigia è "un uomo ucciso da una mitragliatrice in pieno giorno"; per l'altra AI è un'immagine in bianco e nero di un guantone da baseball. | MIT

 

"Una foto in bianco e nero di un piccolo uccello"; "Un uomo viene spinto in un'impastatrice" - indovinate quale delle due è la versione di Norman. | MIT

 

Come spugne. Il test mostra i pericoli dell'intelligenza artificiale finita in mani sbagliate. Il problema, sottolineano i ricercatori (che hanno a curriculum anche Shelley, l'AI specializzata in racconti horror), non sono i programmi in sé, quanto i dati che vengono loro forniti. Al di là del caso limite di Norman, il vero problema è il pregiudizio umano, trasmesso senza filtri alle macchine che da noi imparano: già in passato è stato dimostrato che l'AI può apprendere dall'uomo comportamenti sessisti e razzisti. Quanto a Norman, potete provare a riportarlo sulla buona strada con le vostre interpretazioni del test di Rorschach, sul sito del progetto. 

 

07 Giugno 2018 | Elisabetta Intini

Codice Sconto