Digital Life

Droni, bot, algoritmi: le preoccupazioni degli esperti sul nostro futuro hi-tech

Cosa succede se un hacker prende il controllo di un drone? E se un algoritmo si guasta? Chi ci garantisce che l'intelligenza artificiale non sia "corruttibile"? Ecco cosa preoccupa gli esperti.

Che si tratti di algoritmi, di droni o di robot, in futuro faremo sempre più i conti con sistemi autonomi e "intelligenti", che avranno influenza su quasi ogni aspetto delle nostre vite dal punto di vista economico, sociale e personale. Sembra inevitabile: le nuove tecnologie non fanno che progredire e diventare, per certi versi, più accessibili.

Questo comporta però anche dei rischi: sempre più osservatori si chiedono infatti, man mano che la tecnologia diventa più invasiva, che impatto potrebbe avere sui diritti umani: dal diritto alla vita alla privacy, dalla libertà di espressione ai diritti sociali ed economici. E dunque: come si possono difendere i diritti umani in un panorama tecnologico sempre più modellato dalla robotica e dall'intelligenza artificiale (AI)?

Droni killer. Studiosi come Christof Heyns, docente di diritti umani all’università di Pretoria e relatore delle Nazioni Unite, ha espresso in diverse sedi preoccupazione per le leggi, allo studio in alcuni Paesi, che permetterebbero ai droni militari di decidere autonomamente quando colpire un bersaglio, senza un controllo umano da remoto. Questo li renderebbe armi da guerra decisamente più rapide ed efficaci. «Ma, per esempio», si chiede Heyns, «un computer sarà in grado di esprimere un giudizio di valore sul fatto che un gruppo di persone in abiti semplici che portano fucili non siano combattenti nemici, ma cacciatori ? O soldati che si arrendono?”.

Anche gruppi come l' International Committee for Robot Arms Control (ICRAC) hanno recentemente espresso la loro preoccupazione con una lettera pubblica per la partecipazione di Google a Project Maven, un programma militare che utilizza l'apprendimento automatico per analizzare i filmati di sorveglianza dei droni: le informazioni così ottenute potrebbero in teoria essere utilizzate per uccidere persone. ICRAC si è appellato a Google per garantire che i dati raccolti dai suoi utenti non vengano mai utilizzati a scopi militari, affiancandosi così alle proteste dei dipendenti della grande G per il coinvolgimento della società nel progetto. Google ha comunque poi annunciato che non rinnoverà il suo contratto.

Algoritmi razzisti e sessisti. Se da un lato la recente controversia relativa alla raccolta di dati personali da parte di Cambridge Analytica attraverso l'uso di piattaforme di social media come Facebook continua a causare apprensione per manipolazioni e interferenze in occasioni di elezioni, dall'altro gli analisti di dati mettono in guardia su pratiche discriminatorie associate a quello che chiamano il "problema dei bianchi" dell’intelligenza artificiale: i sistemi di AI attualmente in uso, infatti, sarebbero addestrati sui dati esistenti che replicherebbero gli stereotipi razziali e di genere e perpetuando pratiche discriminatorie in ambiti come la sicurezza, le decisioni giudiziarie o nella ricerca del lavoro.

Trasformare i droni commerciali in armi: secondo gli esperti è uno dei rischi legati all'uso distorto della tecnologia con cui saremo chiamati a misurarci © Shutterstock

La ricercatrice di Harvard, Cathy O’Neil ha messo in fila nel libro Armi di distruzione matematica (Mondadori) una lunga serie di casi in cui gli algoritmi matematici non sono così obiettivi, ma mostrano preferenze: dagli algoritmi usati nell’alta finanza a quelli che misurano la probabilità che un individuo possa ricadere in comportamenti criminali, O’Neil ritiene che, a parità di condizioni, gli algoritmi privilegino i bianchi di sesso maschile. E non è l’unica a pensarla così.

Secondo lo psicologo Thomas Hill, tra i maggiori studiosi al mondo del rapporto tra psicologia e big data, gli algoritmi soffrirebbero addirittura di veri e propri disturbi mentali. Lo ha scritto in un suo saggio pubblicato da Aeon, dove sostiene che questo accade a causa del modo in cui sono costruiti. Possono per esempio dimenticare cose vecchie, quando apprendono nuove informazioni e soffrire del cosiddetto "oblio catastrofico", in cui l’intero algoritmo non può più imparare o ricordare nulla.


Incubi digitali. La potenziale minaccia delle nuove tecnologie ai diritti umani e alla sicurezza fisica, politica e digitale è stata evidenziata dall'Università di Cambridge in uno studio sull'uso dannoso dell'intelligenza artificiale: 26 esperti di sicurezza delle tecnologie emergenti hanno pubblicato un rapporto sull’uso dell'intelligenza artificiale (AI) da parte di "Stati canaglia", criminali e terroristi. La preoccupazione è che la crescita della criminalità informatica nel prossimo decennio sia inarrestabile. E che un uso sempre maggiore di "bot”, possa arrivare a manipolare qualsiasi cosa, dalle elezioni all'agenda dei notiziari e ai social media.

Tutto questo richiede, secondo i ricercatori, attenzione e intervento dei politici: “L’AI - si legge - ha molte applicazioni positive, ma è una tecnologia a duplice uso e i ricercatori e gli ingegneri dell'intelligenza artificiale dovrebbero essere consapevoli del potenziale di abuso”.
Gli autori provengono da organizzazioni come: il Future of Humanity Institute della Oxford University, il centro per lo studio del rischio esistenziale dell'Università di Cambridge, la compagnia di ricerca di intelligenza artificiale senza scopo di lucro OpenAI, la Electronic Frontier Foundation e altre organizzazioni. Il rapporto di 100 pagine identifica tre domini di sicurezza (sicurezza digitale, fisica e politica) come particolarmente rilevanti.

Tra i pericoli con cui potremmo confrontarci in futuro, si sarebbero nuovi attacchi informatici come l'hacking automatizzato, e-mail spam mirate con precisione utilizzando le nostre informazioni raccolte sui social network o sfruttando le vulnerabilità dei sistemi di intelligenza artificiale stessi. C'è chi potrebbe trasformare droni commerciali in armi, mentre in politica, qualcuno potrebbe manipolare l'opinione pubblica, con una

propaganda mirata e fake news, raggiungendo livelli di efficacia finora inimmaginabili. E non solo.


Uno scenario distopico? Non secondo Seán Ó hÉigeartaigh, direttore esecutivo del Centro per lo studio del rischio esistenziale dell'Università di Cambridge, che ha dichiarato: «L'intelligenza artificiale è un punto di svolta e questo rapporto ha immaginato come potrebbe apparire il mondo nei prossimi cinque o dieci anni. Viviamo in un mondo che potrebbe diventare irto di pericoli quotidiani dall'uso improprio di AI e dobbiamo assumerci la responsabilità dei problemi - perché i rischi sono reali. Ci sono scelte che dobbiamo fare ora».

27 luglio 2018 Eugenio Spagnuolo
Ora in Edicola
Scopri il mondo Focus. Ogni mese in edicola potrai scegliere la rivista che più di appassiona. Focus il magazine di divulgazione scientifica più letto in Italia, Focus Storia per conoscere la storia in modo nuovo ed avvincente e Focus Domande & Risposte per chi ama l'intrattenimento curioso e intelligente.

Settant’anni fa agli italiani arrivò un regalo inaspettato: la televisione. Quell’apparecchio – che pochi potevano comprare e quindi si vedeva tutti insieme – portò con sè altri doni: una lingua in comune, l’intrattenimento garantito, le informazioni da tutto il mondo. Una vera rivoluzione culturale e sociale di cui la Rai fu indiscussa protagonista. E ancora: i primi passi della Nato; i gemelli nel mito e nella società; la vita travagliata, e la morte misteriosa, di Andrea Palladio; quando, come e perché è nato il razzismo; la routine di bellezza delle antiche romane.

ABBONATI A 29,90€

I gemelli digitali della Terra serviranno a simularne il futuro indicando gli interventi più adatti per prevenirne i rischi ambientali. E ancora, le due facce dell’aggressività nella storia dell’evoluzione umana; com’è la vita di una persona che soffre di balbuzie; tutti gli strumenti che usiamo per ascoltare le invisibili onde gravitazionali che vengono dall’alba dell’universo; le pillole intelligenti" che dispensano farmaci e monitorano la salute del corpo.

ABBONATI A 31,90€
Follow us