L'Intelligenza Artificiale ha già dimostrato tutto il suo potenziale nei più diversi ambiti della scienza e della tecnologia: dall’analisi del dati alla lotta al terrorismo, dalla ricerca medica alle missioni spaziali; big data e supercomputer promettono di rivoluzionare la nostra vita.
C'è però un "piccolo" problema... La potenza dei sistemi di AI, se male indirizzata, potrebbe diventare molto pericolosa. E non stiamo parlando del rischio di robot killer che si aggirano per le nostre città sparando a chiunque, ma di "cattivi usi", più sottili e altrettanto pericolosi, di applicazioni già oggi esistenti.
Incidenti senza conducente. Il ciclista investito e ucciso lo scorso marzo negli Stati Uniti da una delle auto senza conducente di Uber ha riaperto il dibattito sull’effettiva maturità di questa tecnologia. Il sistema di guida della vettura non è infatti riuscito a identificare e classificare correttamente come “persona in bicicletta” la vittima: potrebbe averla scambiata per un sacchetto di plastica svolazzante e quindi averla consapevolmente travolta.
Un errore di programmazione dunque, che avrebbe potuto essere evitato con relativa facilità. Ma chi verifica l’effettiva sicurezza dei sistemi di guida autonoma? Chi si deve prendere la responsabilità di dare la patente ai robot? Dal punto di vista normativo la confusione è ancora tanta.
E l’intenzione dell’Highway Traffic Safety Administration, l'equivalente a stelle e strisce del nostro Ministero dei Trasporti, di ammorbidire le regole esistenti in materia, solleva più di qualche dubbio.
Influenzati dal bot. Lo scandalo Cambridge Analytica, scoppiato a marzo 2018, ha invece evidenziato l’effettiva capacità dei social media di pilotare la coscienza politica delle persone dando maggiore risalto a certe notizie e a certe fonti di informazione a discapito di altre.
Lo stesso Mark Zuckerberg, durante un’audizione di fronte al Senato degli Stati Uniti, ha promesso al mondo la realizzazione di sistemi di intelligenza artificiale in grado di bloccare sul nascere la diffusione delle fake news, sia in formato testuale che video. Facebook dovrebbe cominciare la sperimentazione di questa tecnologia già dai prossimi mesi, in occasione delle tornate elettorali che si terranno in Nigeria e in Sud Africa.
AI per la pace. Un altro caso è quello che ha visto protagonisti, lo scorso anno, alcuni ricercatori e impiegati di Google. Questi erano venuti a conoscenza della circostanza che la grande G avrebbe messo, con il Project Maven (questo il nome in codice del progetto), le sue tecnologie a disposizione del Pentagono per classificare e riconoscere immagini catturate da droni. In particolare il timore era che sistemi di Intelligenza Artificiale di casa Google potessero essere impiegati per fornire indicazioni a droni killer o per identificare bersagli da assegnare ad armi autonome.
Google ha accolto l’obiezione di coscienza dei suoi dipendenti e ha redatto e condiviso un codice etico per l’Intelligenza Artificiale, nel quale si impegna a non realizzare sistemi o software che utilizzino l’AI per arrecare danno all’uomo. Insomma, una moderna rilettura delle tre leggi della robotica di Asimov.
Ma il Pentagono sembra lasciarsi condizionare da questo dietrofront e, interessato com'è a raggiungere i suoi obiettivi, investirà anche nel 2019 somme ingenti per lo sviluppo di armi basate sull’Intelligenza Artificiale.
La parola ora passa alle Nazioni Unite, che nel corso dei prossimi mesi hanno in agenda diversi incontri sul tema, con l’obiettivo finale di una messa al bando definitiva e anticipata su questi sistemi d’arma.
Il Grande Fratello è tra noi. Che dire poi di quanto sta accadendo in Cina? Il Paese asiatico ha ammesso, nel corso del 2018, di aver realizzato il più vasto e capillare sistema di sorveglianza al mondo. Centinaia di migliaia di telecamere sparse per tutto il paese e un potentissimo software di riconoscimento facciale in grado di identificare praticamente chiunque: malviventi, ricercati, ma anche comuni cittadini, dissidenti politici o avversari del potere costituito.
Le associazioni per la tutela dei diritti umani mettono in guardia contro questa tecnologia, che già oggi permette di riconoscere i volti di tutti noi sui social network, di seguire i nostri spostamenti, di controllare le nostre frequentazioni. Secondo gli esperti del MIT nel corso dei prossimi mesi il riconoscimento facciale si spingerà ancora oltre e assisteremo alla comparsa di sistemi in grado di identificare le nostre emozioni davanti allo schermo, davanti a una vetrina o a uno scaffale del supermercato.
Ma si può sperare che vedremo anche le prime regolamentazioni legali sull’utilizzo di questi sistemi così invasivi.
Oltre le fake news. Se il 2018 è stato l’anno delle fake news, il 2019 potrebbe essere l’anno dei fake video. Sistemi di intelligenza artificiale sempre più evoluti come i Generative Adversarial Network permettono infatti di realizzare, in modo tutto sommato abbastanza semplice, video del tutto fasulli, ma praticamente indistinguibili da quelli veri.
Nvidia, azienda leader nella computer graphics e nei videogiochi, ha presentato lo scorso dicembre un prototipo di software che utilizza l’intelligenza artificiale per realizzare immagini di persone del tutto inventate di ogni razza, età e sesso.
Il rischio, dal punto di vista politico, è particolarmente sentito, al punto che la stessa DARPA, l’agenzia del governo americano che si occupa di tecnologie militari, sta lavorando su sistemi di AI in grado di riconoscere i fake video. Riuscirà l’AI a metterci al riparo dai guai che causati dall’ AI?
Preconcetti digitali. Infine c'è il tema del "pregiudizio", del quale sempre più spesso si sente parlare a proposito dei sistemi di intelligenza artificiale: è stato dimostrato infatti che se non sono correttamente programmati questi sistemi possono diventare razzisti e misogini, perché rispecchiano le convinzioni innate, e spesso inconsapevoli, di chi li ha creati.
O, questo è l'altro rischio, potrebbero ereditare errori da comportamenti del passato e continuare a metterli in pratica anche nel futuro. Un esempio? Un sistema di riconoscimento visuale addestrato su dati "non equilibrati" potrebbe avere problemi a identificare correttamente le donne o le persone di colore. Oppure potrebbe accadere che sistema di AI, impiegato per selezionare il personale che un'azienda e che si basa su dati del passato, possa continuare a rispecchiare, nelle sue scelte, determinate discriminazioni che ha ereditato dal passato.
Si tratta di situazioni difficili da modificare perché ancora oggi, nelle aziende che si occupano di AI, il 70% dei ruoli manageriali è occupato da uomini. E questo accade anche nelle università. Inoltre i neri e sudamericani costituiscono una percentuale molto minore rispetto ai bianchi.
Il 2019 potrebbe però essere l’anno della svolta: gli esperti del settore si stanno infatti preparando alla prima grande conferenza su questo tipo di problematiche che si terrà in Etiopia nel 2020. Perché proprio questo Paese? Perché gli scienziati locali che si occupano di AI hanno spesso problemi ad ottenere i visti necessari all’espatrio.