Psicologia

Se le macchine hanno i nostri stessi pregiudizi

Una ricerca mostra che con il linguaggio "trasmettiamo" gli stereotipi, come quelli sul genere o sull'origine etnica, ai sistemi di intelligenza artificiale.

Quando imparano da noi, i sistemi di intelligenza artificiale finiscono per avere i nostri stessi pregiudizi: nel linguaggio che le macchine apprendono dai nostri scritti, si riflettono gli stessi stereotipi. È una conseguenza forse non sorprendente, ma che fa riflettere, quella messa in luce da uno studio di ricercatori dell’università di Princeton, negli Stati Uniti, e di Bath, in Gran Bretagna.

Ritardo nella risposta. Psicologi e scienziati sociali misurano i pregiudizi delle persone attraverso il cosiddetto test di associazione implicita, in cui a un soggetto viene chiesto di associare parole e concetti appartenenti a varie categorie. Il tempo di risposta impiegato per associare termini che una persona ritiene simili è molto più breve di quello impiegato per parole ritenute “distanti”. Il ritardo nella risposta è ritenuto una misura attendibile dei pregiudizi impliciti, quelli di cui una persona non è neppure consapevole, o che non dichiarerebbe apertamente. Questo vale sia per concetti ritenuti neutri e universali, per esempio il fatto di associare più facilmente termini che indicano insetti ad aggettivi più spiacevoli, sia per parole che hanno una connotazione “morale”.

Selezioni con pregiudizio. Diversi studi hanno evidenziato questi meccanismi facendo uso del test di associazione implicita. Si è visto per esempio che, negli Usa, lo stesso curriculum ha il 50 per cento di probabilità in più di sfociare in un colloquio di lavoro se il nome del candidato è di origine europea-americana invece che afro-americana. O che le persone tendono ad associare più frequentemente le femmine con settori che riguardano le attività artistica e i maschi con la matematica e le scienze.

Le macchine come noi. I ricercatori hanno sviluppato un sistema equivalente al test di associazione implicita per gli algoritmi di intelligenza artificiale: invece che per la velocità di reazione, ciascuna parola è “pesata” all’interno di un sistema di riferimento costituito dal contesto scritto in cui si trova, e dalla distanza rispetto ad altri termini.

Ebbene, come ha mostrato il nuovo studio appena pubblicato su Science, anche i sistemi di intelligenza artificiale che hanno appreso il linguaggio da testi scritti, ricavati da Internet, sono affetti dagli stessi stereotipi che gli psicologi hanno valutato per gli esseri umani, da quelli più neutri e ritenuti validi universalmente, per esempio l’associare parole come “insetti” ad aggettivi sgradevoli e “fiori” a quelli piacevoli, a questioni più problematiche, come quelle riguardanti parole legate ai concetti di genere, e origine etnica.

10 applicazioni di intelligenza artificiale che già utilizzi (e forse non lo sai). © Arthur Caranta / Flickr

In particolare, l’effetto dei nomi sulla chiamata per i colloqui di lavoro è stato replicato nello stesso modo dal test sui sistemi di intelligenza artificiale, come pure l’associare nomi femminili più frequentemente al concetto di famiglia che a quello di carriera.

Secondo i ricercatori, lo studio indica che i testi scritti contengono una sorta di “imprinting” dei nostri stessi pregiudizi. E se in questo modo vengono trasmessi alle macchine, sorgono alcune preoccupazioni, per dirne una quella che un sistema automatico di valutazione delle proposte di lavoro “preferisca” un candidato rispetto a un altro solo per il suo sesso o la sua origine etnica.

Il razzismo nasce dalle parole? Più in generale, il lavoro mostra un’influenza importante (già teorizzata) del linguaggio sul comportamento. Semplificando, potrebbe essere proprio il linguaggio la fonte dei pregiudizi, e il semplice fatto di parlare potrebbe renderci (anche inconsapevolmente) razzisti. Le alternative sono che la formazione di pregiudizi sia connaturata al modo di funzionare della mente umana, oppure il frutto di pressioni sociali. Ovvio che la risposta che si dà a questa questione cambia anche il modo in cui si pensa di poter agire per superare e contrastare la diffusione degli stereotipi nella vita di tutti i giorni.

14 aprile 2017 Chiara Palmerini
Ora in Edicola
Scopri il mondo Focus. Ogni mese in edicola potrai scegliere la rivista che più di appassiona. Focus il magazine di divulgazione scientifica più letto in Italia, Focus Storia per conoscere la storia in modo nuovo ed avvincente e Focus Domande & Risposte per chi ama l'intrattenimento curioso e intelligente.

Settant’anni fa agli italiani arrivò un regalo inaspettato: la televisione. Quell’apparecchio – che pochi potevano comprare e quindi si vedeva tutti insieme – portò con sè altri doni: una lingua in comune, l’intrattenimento garantito, le informazioni da tutto il mondo. Una vera rivoluzione culturale e sociale di cui la Rai fu indiscussa protagonista. E ancora: i primi passi della Nato; i gemelli nel mito e nella società; la vita travagliata, e la morte misteriosa, di Andrea Palladio; quando, come e perché è nato il razzismo; la routine di bellezza delle antiche romane.

ABBONATI A 29,90€

I gemelli digitali della Terra serviranno a simularne il futuro indicando gli interventi più adatti per prevenirne i rischi ambientali. E ancora, le due facce dell’aggressività nella storia dell’evoluzione umana; com’è la vita di una persona che soffre di balbuzie; tutti gli strumenti che usiamo per ascoltare le invisibili onde gravitazionali che vengono dall’alba dell’universo; le pillole intelligenti" che dispensano farmaci e monitorano la salute del corpo.

ABBONATI A 31,90€
Follow us