Nuovi materiali e nuove applicazioni.
La rivoluzione che sta cambiando il nostro modo di vivere e lavorare è solo all’inizio.
«Per rendere il mondo un posto migliore e più sicuro bisogna cominciare a migliorare noi stessi»
Il PIL dei 27 Paesi europei supera quello degli Stati Uniti. Gli Stati dis-uniti d’Europa sulla carta contano di più degli USA. Ma è vero solo sulla carta. Dopo il 1989 bisognava rendersi conto che non serviva fare l’Europa, ma bisognava costruire il mondo. L’unione politica europea è ancora un sogno perché ci siamo imposti un solo obiettivo: la stabilità economica. Solo con la stabilità – però – la crescita non può essere di sistema. I nostri cervelli migliori contribuiscono a far crescere il PIL del mondo, più di quello nazionale. Basti pensare a che cosa ha significato per Intel e Apple Federico Faggin con l’invenzione del primo microprocessore (il 4004) e la diffusione di massa del touchpad. «Se la disciplina fiscale del mercato e del lavoro cambierà – spiega Federico Faggin – sarà certamente possibile attrarre investimenti stranieri. Ci vuole talento, ma anche capacità per riconoscerlo e spirito imprenditoriale per rischiare».
Federico Faggin, perito elettronico e fisico vicentino, cresciuto alla scuola di Olivetti, è stato un giovane “cervello in fuga” nella Silicon Valley. Sul primo microprocessore della Intel ci sono le sue iniziali, ma Faggin non ha mai smesso di guardare avanti e farsi domande. Oggi, l’informatica è solo una parte della sua attività di ricerca. Faggin ha fondato la “Federico and Elvia Faggin Foundation” per lo studio della consapevolezza. All’età di tredici anni, con un padre docente di filosofia, decise di frequentare l’Istituto industriale. Oggi, a 72 anni compiuti, ha deciso di dedicarsi alle grandi domande della filosofia sull’essere e il mondo, scegliendo la strada della scienza per far luce sul mistero dell’autocoscienza. Nemesi storica?
Data Manager: E’ stanco dell’informatica?
Federico Faggin: No. Ho solo deciso di non scambiare la parte per il tutto. Si parla di intelligenza artificiale, ma nessuno sa cosa sia la coscienza e come funzioni. L’informatica è il risultato dell’interazione tra scienza, tecnologia e applicazioni. Oggi, possiamo fare interi sistemi in un singolo chip, possiamo portare in giro in una borsa computer con la capacità di un milione di ENIAC. Dispositivi come l’iPad stanno ridefinendo il nostro rapporto con le interfacce digitali.
Con l’avvento dei big data stiamo tornando ai grandi server che occupano capannoni di mille metri quadrati che ricordano i centri di calcolo di 50 anni fa, solo che i dati elaborati sono milioni di volte superiori. Queste server farm dissipano potenza, ma la rivoluzione del cloud computing permette l’accesso a questa enorme capacità di calcolo.
Qual è lo scenario evolutivo dell’industria informatica?
La microelettronica continuerà a essere al centro del futuro informatico. Nei prossimi 25 anni avremo transistor sempre più piccoli. Nel 1970, io usavo 8 micron, cioè ottomila nanometri, come dimensione minima per i circuiti integrati, oggi in produzione ci sono transistor che hanno una dimensione minima di 22 nanometri. Cinque nanometri è il limite fisico che raggiungeremo alla fine di questa corsa. Se questa tendenza continua – con un tempo di raddoppiamento di circa tre anni – avremmo microprocessori con circa 200 miliardi di transistori, memorie con 4 terabit per chip e memoria ram per circa 128 gigabit.
La nuova tendenza è quella di usare circuiti integrati a tre dimensioni. Un’altra tecnica che si sta sviluppando è quella di mettere chip eterogenei in più strati usando una specie di circuito stampato di silicio che collega tutti i chip insieme. Abbiamo imparato a fare i circuiti a un piano, fra qualche anno saremo in grado di fare grattacieli. Prevedo che fino al 2060 avremo la tecnologia di base sufficiente per trainare l’espansione dell’industria informatica.
Nel frattempo?
Nel frattempo, nuovi materiali sono allo studio e saranno gradualmente aggiunti al silicio per consentire di andare oltre il limite dei 5 nanometri. Ad esempio, il grafene o il carburo di silicio come substrato conduttivo. Questi materiali ci permetteranno di abbattere non solo gli attuali limiti fisici, ma anche di affrontare il problema della potenza dissipata dai grandi sistemi.
È possibile creare circuiti con le molecole organiche delle reti nervose?
Oggi, il computer biologico si trova nello stesso stadio evolutivo in cui si trovava l’informatica teorica nel 1936. La potenza dei computer è cresciuta con un fattore 10 ogni quattro anni e sarà così ancora per molti decenni e ci porterà anche allo sviluppo di applicazioni sempre più potenti e imprevedibili.
Tra ottanta anni, i componenti dei computer saranno atomi e molecole, funzioneranno secondo principi biologici e saranno una combinazione di computer classico, computer quantico e computer cognitivo. La rivoluzione informatica cederà il passo a quella bioinformatica a partire dalla seconda metà di questo secolo e in questo scenario il ruolo della vita e la gestione compassionevole e ragionata dell’ecosistema del Pianeta deve essere al primo posto, altrimenti saremo tutti in un mare di guai.
Si tratta di una rivoluzione che cambierà il mondo?
Questa rivoluzione poterà cambiamenti economici e sociali molto più profondi di quelli della rivoluzione industriale. Ci troviamo in un momento critico di questa fase evolutiva e solo attraverso un rinnovato impegno a rispettare l’umanità e amare la vita in tutte le sue forme sarà possibile concludere questa fase di trasformazione senza ferite troppo profonde. Ci sono molti rischi e i rischi aumentano con la complessità. Ma la trasformazione non può avvenire solo da fuori. L’assunzione di responsabilità ci deve cambiare da dentro. Non può essere una coercizione dei governi o della società. Per rendere il mondo un posto migliore e più sicuro bisogna cominciare a migliorare noi stessi.
Il computer cognitivo è ancora fantascienza?
Fare computer sempre più intelligenti è la strada che ci ha portato all’informatica come la conosciamo oggi. Domani progetteremo macchine che impareranno da sole. Io stesso negli anni 80, ho creato una società che per molti anni ha fatto reti neuronali artificiali, ma non siamo riusciti a realizzare una architettura d’insieme in grado di reggere un computer cognitivo.
Che cosa vede nel futuro?
Non sono un indovino. Ma posso prevedere che ci saranno display flessibili a basso costo, display tridimensionali e occhiali display per la realtà aumentata. Il riconoscimento vocale e di immagini sarà sempre più avanzato e ci permetterà di abbattere ogni barriera di comunicazione tra i popoli. Ci sarà un continuo sviluppo di interfacce naturali. Con la mia società Synaptics ho dato impulso alle interfacce tattili. Nel futuro si potrà arrivare a una prima forma di interfaccia tra cervello e computer.
Molte delle applicazioni del futuro sono impossibili da prevedere?
Siamo in balia della nostra immaginazione e della tecnologia a disposizione. Non abbiamo ancora il computer quantico che funziona sul principio della fisica quantistica, ma se riusciremo a costruirlo, potremo fare in due ore calcoli che richiederebbero cento milioni di anni. Questo permetterà di analizzare dati e sistemi complessi e riusciremo a prevedere eventi catastrofici, forse anche le guerre e le crisi economiche. Questo tipo di capacità di calcolo permetterà di accelerare il tempo, andando oltre il real time. Questa sarà la futura evoluzione della business intelligence: non solo avere i dati per prendere le decisioni giuste, ma conoscere le conseguenze di ogni decisione. Prevedo che i primi computer quantici commerciali saranno disponibili fra meno di trent’anni. Questa direzione permetterà lo sviluppo dell’industria informatica per un tempo lunghissimo.
Quale sarà la prossima frontiera?
La biologia sarà la nuova frontiera delle tecnologie informatiche. Inseguiamo il sogno di costruire un computer in grado di simulare il sistema nervoso, ma ci sono sistemi biologici che sono sistemi informatici formidabili. Prendiamo un paramecio che è un protozoo. Un organismo unicellulare eucariote del diametro di circa 0,1 millimetri. Questa cellula riesce a muoversi, evitare ostacoli, trovare il cibo, ma non ha un sistema nervoso. È un sistema sensoriale e motorio autonomo, capace di auto-ripararsi e di auto-riprodursi. Dobbiamo considerare questi organismi come dei veri e propri sistemi informatici.
Il futuro delle applicazioni informatiche?
I libri elettronici sono già una realtà: saranno flessibili e si potranno mettere anche in tasca. Il commercio elettronico crescerà a vista d’occhio. È possibile ipotizzare qualche forma di mobile money avanzato, nuovi dispositivi biomedicali e realtà aumentata.
Ci saranno auto dotate di sistema visivo computerizzato, di radar anticollisione, di gps con comunicazione diretta ad altri dispositivi stradali. La tecnologia sarà disponibile molto prima che le questioni politiche, legali e assicurative siano risolte. Le prime auto commerciali con guida automatica per condizioni di traffico facili saranno disponibili al massimo tra una decina di anni. E nel 2040, avremo auto capaci di guidarsi in tutte le condizioni di traffico e nel 2050 la guida automatica potrebbe addirittura diventare obbligatoria.
Quale potrebbe essere una applicazione della realtà aumentata?
Penso a una applicazione per i viaggiatori. Penso a Milano in vista dell’Expo 2015. Chi arriva in città dall’aeroporto potrebbe essere guidato attraverso una interfaccia visiva come un paio di occhiali Made in Italy: come muoversi, dove alloggiare, imparare la storia, calarsi in un ambiente nuovo. Sarebbe come una specie di guida interna che permette di navigare servizi e offerte.
Alcune imprese informatiche sono troppo piccole, altre – forse – troppo grandi e da molte di queste non esce più neppure una vite. Nel futuro avremo una grande “big intelligence company”?
Non credo. La storia ci ha dimostrato che società leader per anni nel proprio settore sono state spazzate via. La società più importante nel campo dei semiconduttori dal punto di vista del fatturato e del valore di mercato è Intel. Intel – però – ha saputo prevedere che i microprocessori erano la strada del futuro e l’ha imboccata prima degli altri. C’è sempre un ricambio tra leader e follower. Anche Google dovrà guardarsi le spalle.