Facebook ha annunciato qualche giorno fa l’apertura a Parigi di un nuovo laboratorio dedicato alla ricerca sull’intelligenza artificiale. Con questo polo le strutture scientifiche dell’azienda di Menlo Park diventano 3 (saranno ben 6 entro la fine dell’anno). Obiettivo di Facebook è lo sviluppo del deep learning, un insieme di tecnologie informatiche che, utilizzando algoritmi e modelli statistici, cercano di replicare il comportamento del cervello umano.
Siamo ciò che postiamo. Strutturando i dati su diversi livelli di astrazione (per esempio forme, colori, dimensioni, accostamenti di parole) è possibile permettere al computer di analizzare e interpretare immagini, frasi o suoni e attribuire loro un significato.
Il valore di queste tecnologie per Facebook è immediatamente evidente se si pensa che ogni giorno sul social network vengono caricate 350 milioni di foto. Analizzare queste informazioni e capire, per esempio, che chi le ha postate è appassionato di cucina o di auto o, ancora, di sport, ha un valore enorme per il mercato pubblicitario.
Lo stesso per i post: l’analisi semantica delle parole che pubblichiamo su Facebook, status, commenti, risposte ai contenuti degli amici, può dire moltissimo di noi: chi siamo, cosa ci piace, come passiamo il tempo libero. E quindi a quali messaggi pubblicitari potremmo essere più sensibili. Ma non solo: «L’applicazione di queste tecnologie ci permetterà di eliminare contenuti spiacevoli per gli utenti come lo spam o i video violenti» ha spiegato ai media Yann LeCun, professore alla New York University specializzato in deep learning e responsabile del progetto.
Phone sempre più smart. Facebook non è l'unica azienda a investire risorse nel deep learning. Alcune interessanti applicazioni di intelligenza artificiale già disponibili e a portata di telefonino sono state presentate qualche giorno fa da Google all’ I/O 2015, la conferenza annuale dedicata agli sviluppatori e alle novità di BigG.
Tra queste la nuova app Photos, dove è possibile cercare tra le proprie fotografie utilizzando una buca di ricerca in perfetto stile Google: basta digitare “barbeque“ o “gita a Venezia” per ritrovare in un’istante la foto dell’ultima grigliata con i parenti o quella scattata anni fa tra i piccioni di piazza San Marco.
Ma c’è di più: in M, la nuova versione di Android attesa per i prossimi mesi, è stata inserita la funzione “now on tap”. Google è cioè in grado di capire cosa stiamo facendo in quel momento e fornirci, al tocco di un tasto sullo schermo, le informazioni più rilevanti in quel momento. Se per esempio stiamo ascoltando una canzone dei Pink Floyd e vogliamo sapere in che anno è stata scritta, possiamo semplicemente lanciare “now on tap” e chiedere “In che anno è stata scritta?”. Il sistema capirà che ci stiamo riferendo alla canzone in playback e ci fornirà le informazioni del caso.
La segretaria in tasca. E diventa intelligente anche Inbox, l'ultima app di Google per la gestione della posta: è in grado di capire se qualcuno, in un messaggio, ci chiede qualcosa o ci invita da qualche parte e ce lo ricorda al momento più opportuno.
Ecco perchè Google ha rilasciato My Account (https://myaccount.google.com), una pagina dalla quale poter controllare in modo puntuale e dettagliato quali e quante informazioni BigG ha su di noi e che utilizzo ne fa.
Analogamente, dalle impostazioni della privacy di Facebook è possibile verificare con precisione quali contenuti (foto, post, ecc) condividiamo e con chi.