Poche opere dell'ingegno possono dirsi così squisitamente umane come Wikipedia, l'enciclopedia online frutto del continuo lavoro di revisione delle voci scritte in precedenza. E se fosse un'intelligenza artificiale a fare le pulci a questo nostro lavoro? Un nuovo sistema di IA riesce a individuare tra le fonti citate nelle voci di Wikipedia quelle ritenute meno affidabili o mancanti di informazioni, e a proporre valide alternative per sostituirle. Il suo funzionamento è stato descritto in un articolo su Nature Machine Intelligence.
Questa frase non mi torna... Il progetto si chiama SIDE ed è un sistema di reti neurali sviluppato dalla compagnia londinese Samaya AI. Le reti neurali sono modelli matematici per l'elaborazione delle informazioni ispirati al sistema nervoso dei viventi. SIDE riesce a capire se le fonti citate in fondo agli articoli di Wikipedia supportano in effetti le frasi a cui si riferiscono, se sono accurate o invece dubbie (e di conseguenza, se le citazioni contenute nell'articolo sono valide).
Si è allenato su standard altissimi: analizzando, cioè, le voci più accurate dell'enciclopedia online, i cosiddetti "featured articles" (contrassegnati da una stelletta di bronzo in alto a destra), quelli compilati con maggiore accuratezza, neutralità, completezza e stile.
Prova con queste. Questa formazione sulla crème de la crème dei contenuti di Wikipedia permette a SIDE di agire come un sistema di verifica e anche di saper "pescare" nella Rete fonti alternative con informazioni affidabili, fornendo poi una serie di opzioni per rimpiazzare le citazioni scorrette.
Fiducia nel revisore. Dopo il training, gli scienziati hanno chiesto a SIDE di verificare articoli che non aveva mai analizzato prima. Il sistema di IA ha passato in rassegna le fonti originali e ne ha proposte di affidabili secondo i suoi criteri. Il risultato del suo lavoro è stato poi sottoposto al giudizio insindacabile degli umani.
Nella metà dei casi, la prima opzione tra quelle proposte da SIDE era già contenuta nella voce di Wikipedia osservata. Ma per il primo 10% di citazioni evidenziate come non verificabili da SIDE, quando l'IA ha proposto fonti alternative, gli utenti intervistati dai ricercatori hanno dimostrato di preferire le sue raccomandazioni nel 70% dei casi.
Quando gli scienziati hanno creato una demo di questa applicazione e l'hanno sottoposta a una comunità di fruitori di Wikipedia di lingua inglese, nel caso di citazioni evidenziate come non verificabili gli utenti hanno mostrato di preferire la prima opzione fornita da SIDE il doppio delle volte rispetto all'esistente citazione di Wikipedia.
Un aiuto per gli editor? Per i ricercatori, i risultati suggeriscono che sistemi di questo tipo potrebbero lavorare a braccetto con l'uomo per rendere risorse come Wikipedia meglio verificabili, e ancora più affidabili.