Ancora oggi gli uomini spesso "valutano" le donne a partire dal loro aspetto. Chissà perché la cosa non sorprende più di tanto. È invece un po' più soprendente il fatto che anche i computer, pare, abbiano la stessa, odiosa tendenza. Sarà perché sono programmati soprattutto da maschi?
Onorevoli differenze. La ricerca, pubblicata su Sociological Research, è stata condotta da un team internazionale di scienziati coordinati da Carsten Schwemmer, del Leibniz Institute for the Social Sciences di Cologna (Germania).
I ricercatori hanno sottoposto le fotografie dei membri del Congresso degli Stati Uniti al sistema di riconoscimento immagini di Google e hanno preso nota dei tag restituiti dall'intelligenza artificiale di Big G. Quello che ne è emerso è sconcertante: in generale l'AI di Google, che si scopre sessista, ha attribuito agli uomini una serie di etichette riconducibili al mondo delle capacità e delle professionalità, mentre alle donne ha attribuito caratteristiche per lo più legate alla sfera dell'apparenza e del look. Lo studio evidenzia insomma come l'intelligenza artificiale, pur riconoscendo correttamente il contenuto delle immagini, tenda a riclassificarle utilizzando schemi tipici dell'essere umano (maschio), errori inclusi.
Non solo un tag. Le conseguenze di questo "errore di programmazione" non sono di poco conto: un'azienda, un ente pubblico o un organismo internazionale che decidesse di utilizzare un sistema di AI per riorganizzare il proprio archivio fotografico potrebbe inconsapevolmente far scomparire le foto delle donne che, per esempio, hanno ottenuto risultati o riconoscimenti, riclassificate da etichette che identificano il loro sorriso o la loro acconciatura.
Che cosa può instillare in un software preconcetti di questo tipo? Dipende tutto dal suo addestramento: i sistemi di intelligenza artificiale specializzati nel riconoscimento delle immagini vengono istruiti utilizzando enormi collezioni fotografiche, dove ogni scatto è accuratamente descritto da specifici tag.
La scuola dell'AI. Una ricerca condotta nel 2017 presso l'Università della Virginia (USA) aveva evidenziato come i database utilizzati per la formazione dei sistemi di AI non fossero affatto neutrali rispetto al genere: per esempio, la maggior parte delle figure etichettate come afferenti al mondo del business, degli affari e delle armi da fuoco erano uomini, mentre dietro ai fornelli erano raffigurate per lo più donne. Correggere questa stortura, oltre che doveroso, sembra sia anche tecnicamente possibile: un team di ricercatori dell'Università di Princeton (USA) sta infatti lavorando a REVISE, un sistema