Era il 1969 quando Charles Kline, un giovane dottorando in informatica dell'UCLA, Università della California di Los Angeles, provava per la prima volta a mandare un messaggio con il suo computer a un altro computer. Riuscì a scrivere LO, ovvero le prime due lettere della parola "login". Subito dopo arrivò il crash. Il messaggio completo sarebbe stato mandato circa un'ora dopo e avrebbe segnato l'inizio dell'Advanced Research Projects Agency Network (ARPANET), il precursore di Internet.
Poco più di due anni dopo, nel 1971, ci fu un'altra prima volta: Intel mise in commercio il primo microprocessore. Si chiamava Intel 4004 e il 15 novembre 2021 ha compiuto 50 anni.
Raccontare la sua storia significa raccontare quella dell'informatica contemporanea che lo annovera tra i suoi antenati e lo ha posto alla base delle evoluzioni successive, sia nel campo dei microprocessori – a ottobre 2021 gli Intel Core, ultimi eredi dell'Intel 4004, sono arrivati alla dodicesima generazione, lanciata all'evento Intel Innovation - sia in quello dell'intelligenza artificiale.
La storia dell’Intel 4004
Per riportarci alla storia della nascita di Internet, quando gli informatici del Caltech fecero i primi tentativi, i computer avevano ancora dimensioni estese, tali da occupare anche una stanza intera. Quello che Intel fece con il 4004 fu di costruire circuiti integrati complessi e inserirli su un chip con una superficie pari a quella di un'unghia che avrebbe dato una svolta a quella strumentazione.
Federico Faggin, ex ingegnere Intel che ha progettato e prodotto l'Intel 4004 con Ted Hoff e Stan Mazor, a proposito raccontò: "[Ripensando al] 1970, era chiaro che i microprocessori avrebbero cambiato il modo in cui progettiamo i sistemi, passando dall'utilizzo dell'hardware al software. Ma la velocità con cui i microprocessori si sono sviluppati nel tempo e sono stati adottati dall'industria è stata davvero sorprendente".
Ma dove si trova un microprocessore?
Si può raccontare l'impiego del microprocessore attraverso gli oggetti di cui oggi facciamo uso quotidiano. È l'occasione per capire quanto abbiano inciso nella nostra vita e per ricordare l'evoluzione tecnologica a cui abbiamo assistito negli ultimi 50 anni grazie a loro. Qui una piccola cronistoria:
- Era il 1971 quando il microprocessore fu usato per la calcolatrice Busicom, The Unicom 141P*.
- Nel 1978 fu la volta delle prime lavatrici con microchip messe in commercio.
- Nel 1986 è la svolta per le console di gioco che approdano al mercato casalingo grazie a questa innovazione.
- Il 1990 sarà il turno del primo tostapane intelligente, in una forma primigenia di IoT, perché connesso al computer tramite un protocollo TCP/IP.
- Poi arriverà, nel 1991, il primo smartphone in grado di inviare e-mail e fax.
- Nel 2000 ci sarà il primo frigo intelligente connesso a Internet.
- Nel 2002 il primo aspirapolvere, con la stessa tecnologia.
- Nel 2009 arriverà la prima auto a guida autonoma, una Toyota Prius dotata un dispositivo in grado di rilevare pedoni, ciclisti, lavori stradali e altri ostacoli.
- Il 2012 sarà l'anno del successo dei tablet, che rappresentano ancora oggi l'hardware tecnologico il cui passaggio a dispositivo mainstream è avvenuto nel tempo più breve.
- Nel 2014 e nel 2015 arrivano smart TV e smartwatch.
- Per concludere, nel 2019 la cronistoria culmina con l'arrivo sul mercato del primo computer quantistico.
Ma come è stato possibile uno sviluppo tecnologico così rapido?
Qui, in una sorta di profezia visionaria, scriveva "I circuiti integrati porteranno a meraviglie come i computer di casa […] controlli automatici per automobili e apparecchiature di comunicazione portatili a uso personale". Aggiungeva che le tecnologie basate su microchip sarebbero diventate "maggiormente disponibili in tutta la società, eseguendo molte funzioni che attualmente vengono svolte in modo inadeguato con altre tecniche o non vengono svolte affatto".
A renderlo possibile, nella sua teoria, sarebbe stata la dedizione degli addetti ai lavori. Se inizialmente, infatti, questo tipo di tecnologia era di interesse (e sviluppo) solo dei militari, nel tempo a interessarsene furono anche ingegneri, che continuavano a perfezionare i dispositivi, rendendoli sempre più complessi e diminuendone il costo. Da questa riflessione sarebbe nata la cosiddetta Legge di Moore, che definiva un preciso tasso di crescita, legato al miglioramento costante e prevedibile della tecnologia.
La nuova era dei microprocessori.
Come descritto da Intel nella sua strategia "Il mondo sta cambiando e sta determinando la necessità sempre maggiore dell'informatica. Per prima cosa abbiamo sperimentato l'era dei PC, seguita dall'era dei dispositivi mobili e del cloud. Stiamo entrando nell'era dell'intelligenza distribuita, in cui l'informatica è pervasiva e fa in modo che tante oggetti della nostra vita quotidiana - le case, le automobili, gli ospedali, le nostre stesse città - funzionino come i computer. In questo mondo di intelligenza distribuita, le quattro tendenze in più rapido sviluppo sono l'intelligenza artificiale, le reti 5G, l'edge computing autonomo e intelligente, e il cloud".
Dalle auto autonome ai programmi di analisi diagnostica, che cosa ci aspetta nel futuro?
Se ne parla spesso, come in una visione utopistica. Il futuro ci porterà auto autonome, programmi che ci permetteranno di diagnosticare il cancro, altri che permetteranno di parlare a chi non può. La prospettiva è quella di una tecnologia intelligente e connessa che possa aiutarci a vivere meglio. Ogni settore evolve grazie alla tecnologia.
Un esempio promettente, con già molte applicazioni in atto oggi, è legato alla salute. La tecnologia del futuro, supportata dall'intelligenza artificiale, potrebbe permettere di raccogliere dati anonimizzati provenienti da cartelle cliniche, dati genomici, programmi di ricerca e trattamento. Questi sarebbero in grado di fornire le informazioni necessarie per fare scoperte rivoluzionarie in materia di salute mentale, malattie cardiovascolari, terapie farmacologiche e altro ancora. Garantendo il rispetto della privacy e la sicurezza, la disponibilità e l'interoperabilità dei dati è fondamentale affinché queste applicazioni, e l'intelligenza artificiale che vi è alla base, siano affidabili ed efficaci.
Il mondo è sempre più digitale. E tutto ciò che è digitale, funziona ed evolve grazie ai chip.