Inauguriamo oggi la Rubrica Web “Pillole di Tecnologia”. In questa Puntata numero 1 un approfondito excursus “dalla valvola ai quanti” tra aneddoti e curiosità
Computer deriva dal latino «computare» e significa «fare di conto». Il 16 febbraio 1946 venne avviato negli Stati Uniti, per l’esattezza ad Abrerdeen nel Maryland, l’ENIAC, acronimo di «Electronic Numerical Integrator Calculator». Costato un patrimonio per l’epoca (circa 500.000 dollari), aveva bisogno di un locale di 135metri quadri per essere ospitato, perché era un mostro di 30 tonnellate composto da 17000 valvole. Poteva effettuare 300 moltiplicazioni o 5000 addizioni al secondo (confrontatele con le svariate miliardi di operazioni di oggi del vostro computer) e si guastava anche continuamente, ovvero circa quattro volte al giorno, ma ad esso l’onore di essere stato il vero primo computer elettronico dell’era moderna. Dall’ENIAC è derivato il termine bit, quando un suo progettista, John Tikey, coniò questo acronimo contraendo i termini «binary digit», ovvero gli stati 0 e 1 alla base dei calcoli digitali. Sapete, invece, che il termine «bug», utilizzato come sinonimo di errore informatico, deriva dall’utilizzo di un altra tipologia di macchina calcolatrice, ovvero dal tipo precedente di calcolatore elettromeccanico? Per l’esattezza una matematica, Grace Murray Hopper, dopo intere ore a inseguire la causa di un guasto del gigantesco sistema Harward Mark 1 di IBM, basato su 3000 relè, ne scoprì finalmente l’origine: uno scarafaggio che ne bloccava proprio uno di questi, e scarafaggio in inglese si dice proprio bug!
Poco più di un anno e mezzo dopo, ovvero il 23 dicembre del 1947, tre ricercatori americani; Bardeen, Brattain e Shockley, annunciarono il transistor, invenzione rivoluzionaria in ambito elettronico che avrebbe sostituito le valvole e avviato l’era della miniaturizzazione. E’ bello allora ricordare un «primato italiano», ovvero quando nell’ottobre del 1957 venne lanciato il modello Olivetti Elea 9003, primo computer commerciale del mondo interamente basato su tecnologia a transistor e con capacità multitasking. Nello stesso anno la Digital Equipment Corporation introduceva nel mercato il primo minielelaboratore che richiedeva spazi ridotti, il PDP-1.
Nel 1963 venne inventato il mouse. Un altro primato italiano ricordo che fu nel 1965, quando ancora Olivetti presentò la rivoluzionaria Programma 101 – oramai acclarato primo personal computer al mondo ed esposta oggi addirittura al MOMA, importantissimo museo d’arte moderna di New York.Grazie al programma registrato in memoria e a dispositivi di input-output magnetici, da cui poi derivarono i floppy disk, poteva venire utilizzato comodamente in casa o in ufficio, senza dover ricorrere ai grandi calcolatori. Pur costando ancora molto (oltre ai due milioni dell’epoca) il successo fu enorme e aprì le porte ad un’ulteriore corsa tecnologica. Infatti nel 1968 venne fondata Intel che mirò a miniaturizzare ulteriormente i componenti, attraverso la produzione di «chip» che integravano in piccoli contenitori numeri considerevoli di transistor o diodi, dando origine ai circuiti integrati.
Ecco allora nel 1970 la nascita del primo chip di memoria da 1Kbyte o ancor più importante quella dell’anno successivo del microprocessore, ovvero «il cuore» dei computer, grazie a un gruppo di progetto al cui interno collaborò anche un nostro connazionale, Riccardo Faggin. Negli anni seguenti geniali pionieri informatici, che cambieranno il mondo, si affacciarano sulla scena. Parlo di Bill Gates che avvia Microsoft con l’amico Paul Allen nel 1975 e Steve Jobs che un anno più tardi inaugura Apple insieme a Stephen Wozniak e Ronald Wayne . Quasi per gioco e probabilmente senza immaginarne l’impatto rivoluzionario, si entra in una nuova era.
Nel 1977 esce Apple II, su cui per la prima volta si coniò l’espressione «personal computer», perché era una scatola comprensiva di tutto, tastiera e video compresi. Basato su Apple DOS e dotato di un microprocessore MOS 6502 funzionante alla frequenza di 1 MHz, con memoria RAM massima di 64KB utilizzava memorie di massa a cassette oppure uno/due drive per floppy disk da 5″ 1/4 e solo più tardi un disco rigido da 5 MByte. Poi nel 1981 IBM lancia il Personal Computer basato su sistema MS-DOS e con CPU Intel 8080 con frequenza di clock di 4,77 MHz, RAM Massima di 256KByte, Video CRT monocromatico e tastiera. La memoria di massa era basata su floppy disk da 5″ 1/4 e si dovette aspettare la seconda generazione, nel 1983, per vedere dotato il PC di un disco rigido da 10 Mbyte.
Nel 1984 entra in scena il Macintosh della Apple, con la sua interfaccia grafica rivoluzionaria. Nella prima metà degli anni ottanta cominciarono a diffondersi i PC anche in casa e anche per scopi ludici, con il successo dei commodore e degli spectrum che utilizzavano per l’output i televisori di casa. Nel 1989 Intel lancia il processore i486 al cui interno, per la prima volta, si superano il milione di transitor, All’inizio degli anni novanta appaiono i primi computer portatili, nel 1995 nasce lo standard USB, nel 1997 i DVD. Nel 2005 AMD lancia il primo processore dual core, nel 2007 Intel il primo quadricore. Nel 2013 il primato del computer più veloce del mondo, ovvero di 33.86 petaflops (il flops è indica il numero di operazioni per secondo che può effettuare la CPU in un secondo, e quindi parliamo di circa 34 milioni di miliardi di operazioni di questo tipo di operazioni in un secondo), viene detenuto dal cinese Tianhe-2, basato su oltre tre milioni di processori Intel; pensate che la soglia del milione di Flps venne superata nel 1961, con l’allora supercomputer I(BM 7030 stretch. Ciò conferma quella che viene chiamata la «legge di Moore» dove si asserisce che le prestazioni dei computer raddoppiano ogni diciotto mesi. Gordon Moore, cofondatore di Intel con Robert Noyce, scrisse questo nel 1965 quando pubblicò un articolo su una rivista specializzata nel quale illustrava quanto aveva statisticamente rilevato nel periodo 1959-1965.
Nel 2001 Microsoft lancia il primo prototipo del Tablet, tipologia particolare di computer basata su schermo touch, settore in cui Apple si introdusse in modo rivoluzionario nel 2010 con la nascita dell’iPad. A proposito di iPad non si può tralasciare la grande convergenza che l’informatica ha avuto con le telecomunicazioni e quindi al fatto che anche i telefoni cellulari, dedicati inizialmente alle sole comunicazioni vocali, sono via via diventati dei veri e propri computer da tasca, gli smartphone dei nostri giorni. Il primo Smartphone che si ricordi è il Simon progettato dalla IBM nel 1992, con varie funzioni quali ad esempio calendario, rubrica, email, giochi. Poi ne vennero altri da Nokia e soprattutto dalla RIM con il blackberry. Poi nel 2007 ancora una volta Apple sparigliò lanciando l’iPhone basato sul software proprietario ios il cui grande rivale invece open source è stato, ed è, quello sviluppato da Google, ovvero Android, cavallo di battaglia di Samsung.
Nel 1958 negli Stati Uniti erano attivi 2500 calcolatori, in Italia 40. Un recente studio di Gartner Group ci dice che a fine 2014 – considerando Pc, tablet, smartphone e telefoni cellulari – arriveremo ad avere nel mondo circa 2,5 miliardi di unità, in crescita del 7,6% rispetto al 2013.
E poi cosa avremo?
Nello scorso CES 2014 Brian Krzanich, CEO di Intel, ha annunciato un “PC completo di classe Pentium” chiamato Edison, grande quanto una scheda SD (ovvero delle dimensioni della scheda che si inserisce in una fotocamera, per intenderci) con processore dual-core Quark, basato su Linux e con connettività sia Wi-Fi e Bluetooth. Lo stesso Krzanich ci dice che in questo modo il computer viene totalmente ripensato, ovvero da «macchina personale» a elemento ubiquo e onnipresente, anche indossabile. Anzi non è assolutamente fantascientifico pensare a computer sempre e ancor più piccoli, fino ad arrivare a dimensioni minime, tipo granello di polvere con le nanotecnologie. Infatti nuovi materiali sono alle porte per sostituire il silicio, finora materiale base dei componenti elettronici. Ad esempio il grafene, derivato dalla grafite, e ancor più la mobildenite, formata da zolfo e molibdeno, che permetterà di aumentare di molto la concentrazione dei transitor a parità di spazio, con inoltre enormi miglioramenti in termini di consumo energetico. Non dobbiamo infatti dimenticarci del problema dell’alimentazione, anche in ragione dei vincoli che pongono le classiche batterie, anche se sempre più sofisticate. Per questo grande attenzione si pone anche in tema di «energy harvesting», ovvero sulla capacità di assorbire,con particolari metodi e tecnologie, energia dall’esterno, ovvero da quel che c’è: vibrazioni, luce, campi elettromagnetici aprendo in modo incredibile le porte all’utilizzo veramente pervasivo delle micro e ultra tecnologie.
In ogni caso anche Edison e future miniaturizzazioni rientrano nelle logiche attuali del calcolo digitale, basato sui bit, e che rispetta la famosa «legge di moore» precedentemente accennata.
Ma siamo ora alle porte di un’altra, enorme, rivoluzione?
La fisica classica che così bene ci descrive la realtà che ci circonda non ha più alcun valore nel mondo subatomico, dove i fenomeni sono totalmente diversi e, a volte, così sorprendenti da essere difficili da credere. E’ il mondo della meccanica quantistica, dove,ad esempio, non è possibile sapere, lanciando una particella, dove essa finirà, oppure dove una particella può essere contemporaneamente in due posti. E’ un mondo indeterminato, dove sono possibili solo teorie basate sulla probabilità. Nel 1981, il premio Nobel Richard Feynman, del famoso MIT di Boston, durante un convegno sul rapporto tra fisica e computazione, introdusse in teoria la possibilità di immaginare un computer quantistico, cambiando radicalmente le logiche classiche, ovvero applicando al trattamento ed elaborazione delle informazioni i fenomeni tipici della meccanica quantistica, quali sovrapposizione degli effetti e entanglement, e in un modo tale che la potenza computazionale arriverebbe allora a valori incredibilmente più alti di quelli odierni.
In estrema sintesi i bit, che nei computer tradizionali sono in uno stato di 0 oppure 1, nei computer quantistici diventano dei Qubit, capaci di essere 0, 1 o anche la sovrapposizione di entrambi. Questo significa un aumento imponente della capacità d’informazione.
Passare, però, dalla teoria alla pratica non è affatto facile e la tecnologia non è stata ancora in grado di costruire un vero e proprio computer totalmente quantistico, anche se recentemente molto scalpore ha fatto la notizia che Google ha acquistato un computer D-Wave che pare almeno avvicinarsi a queste ipotesi. D-Wave, fondata da Geordie Rose, già nel 2007 affermò di aver inventato il primo computer quantistico nella storia, ma ciò venne raccolto con grande scetticismo. Ora, da studi approfonditi dell’Università della California del Sud che hanno analizzato a fondo il super-computer di D-Wave pubblicati poi in sintesi nell’autorevole Nature Communications, si può dire affermare che pur non potendosi definire un computer quantistico in senso stretto, il D-Wave si basa comunque su alcuni principi teorici della fisica quantistica e in particolare sul modello di «ricottura quantistica» (quantum annealing).
Ovvero… siamo sulla buona strada.
Il primato del computer più veloce del mondo, ovvero dei 33.86 petaflops detenuto dal cinese Tianhe-2 prima citato e che potrebbe arrivare potenzialmente anche fino alla straordinaria cifra di 54,9 petaflops, sarà a breve ampiamente superato? Può darsi di sì, anche se fare previsioni sul progresso può essere sempre azzardato, basti pensare, sempre in tema, a ciò che disse nel 1943 l’allora presidente della Ibm, Thomas Watson, quando proclamò che in futuro ci sarebbero state al massimo solo cinque persone interessate a comprare un computer, oppure quando Philip von Jolly, che nel 1874 pontificò al suo giovane allievo Max Planck – che aprì poi le porte alla rivoluzionaria teoria quantistica – che nella fisica tutto era ormai stato tutto scoperto.
Meditiamo, Gente…meditiamo…