Historia memoriae

La terza puntata della nostra rubrica “Pillole di tecnologia” si occupa della storia delle memorie, elementi fondamentali dei computer, ma anche dei moderni tablet e smartphone

Memorie, elementi fondamentali dei computer, ma anche dei moderni tablet e smartphone. Dove contenere i bit, materia prima digitale, è fondamentale. Si dividono in due grandi categorie, quelle centrali o primarie – utilizzate direttamente dai processori per le attività di elaborazione, i cui dati sono per la maggior parte “volatili”, ovvero rimangono attivi solo fino a quando il dispositivo è alimentato – e le secondarie o di massa, dove invece i dati vengono mantenuti in modo permanente, indipendentemente dallo stato in essere dell’apparato.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Qual è la loro storia e quale il futuro? Proviamo a vederlo in modo molto sintetico

All’inizio dei tempi, anni trenta e quaranta del secolo scorso, quelle primarie erano costituite da due cristalli piezoelettrici di quarzo all’estremità di cilindri di acqua o mercurio. In pratica un impulso, giunto ad uno dei cristalli, si trasformava in energia meccanica che veniva trasmessa al secondo cristallo, che la riconvertiva in elettrico. Si creava così un “ritardo” dove si immagazzinava l’informazione elementare. Dopo, e siamo nel 1950 e subito dopo, furono utilizzate tecnologie diverse: dalle valvole elettroniche, ai tamburi magnetici, alle memorie a nucleo magnetico. Ad esempio in quest’ultimo caso, usatissime nei computer degli anni sessanta, degli anelli di ferrite erano percorsi da quattro fili (più tardi tre) che permettevano la memorizzazione di un singolo stato digitale, uno o zero, accessibile ad un ciclo di clock. Impilando più anelli si potevano creare griglie di memoria.

Il primo computer che si può definire “di largo consumo”, perché prodotto in ben cinquanta mila esemplari al costo non proprio alla porta di tutti di 18 mila dollari e costruito a partire da fine anni cinquanta, poteva vantare una memoria centrale di 4KB (pensate che solo questo articolo in formato rtf ne pretende venti volte di più!). Un prima rivoluzione nelle memorie di massa nacque con la creazione dei nastri magnetici, utilizzati inizialmente per le applicazioni audio. Poi ricordiamo i floppy disk, ovvero dischetti magnetici flessibili usatissimi nei primi anni di avvio dei personal computer, che arrivarono a capacità di 1,44 di MB. Rammentiamo i CD ROM e i DVD, ovvero dischi cosiddetti ottici, dove la memorizzazione dei dati avviene attraverso un laser che “incide” il disco. Focalizziamoci poi sugli Hard Disk, ovvero i dischi rigidi, ancor oggi dispositivi principi di questo tipo di memoria, in grado di contenere centinaia, se non migliaia, miliardi di bytes. Tale dispositivo è formato da parecchi dischi che girano vorticosamente ad alta velocità e la lettura e la scrittura dei dati viene effettuata attraverso una testina magnetica. La nuova tecnologia dell’Hard Disk nacque quasi sessant’anni fa, nel 1955, quando si progettò una testina di lettura elettromagnetica sospesa su un piatto di alluminio rotante ad alta velocità, in grado di leggere le informazioni che scorrevano rapidamente sotto di essa. Il primo hard disk prodotto fu lanciato da IBM il 13 settembre 1956 e si chiamava 305 RAMAC. La sua capacità di immagazzinamento era di 5 MB (più o meno oggi la grandezza di un file mp3!), grazie alla sua conformazione in 50 dischi, ognuno di 24 pollici di diametro. Pochi anni dopo, e siamo nel 1962, sempre IBM annunciò un ulteriore step tecnologico, con il 1301 Advanced Disk File, dove si migliorarono notevolmente densità di registrazione, capacità di memorizzazione e tempi di accesso alle singole unità di registrazione.

Leggi anche:  Cancro: Cure51, la techbio company che studia i “pazienti eccezionali”, raccoglie 15 milioni di euro

Dieci anni dopo circa, e siamo nel 1973, sempre IBM lanciò il modello 3340, considerato il vero progenitore dei dischi moderni che utilizziamo oggi e costituito da due dischi separati di 30MBytes ciascuno , uno permanente e uno rimovibile. Per questo motivo veniva anche soprannominato 30-30, che combinazione era anche il nome di un famoso fucile, il Winchester 30-30, e quindi curiosamente da allora quel tipo di hard disk venne anche chiamato Winchester. Ogni tanto, le testine. per vari motivi, ad esempio bastavano piccole impurità quali un capello, “atterravano” sul disco rovinando le tracce magnetiche. In gergo si diceva che in questi casi le testine “aravano” il disco. Per questi motivi i dischi venivano posti in luoghi chiusi e aerati in modo da limitare le impurità. Mi rammento, all’inizio degli anni ottanta, uno di questi luoghi in un Data Center di una grande fabbrica e soprattutto mi ricordo di un abile tecnico di manutenzione a cui bastava aprire la porta di quella stanza dedicata alle memorie di massa perché, con il semplice udito, capisse quale fosse l’unità, della vasta serie di dischi, le cui testine erano “arate”.

A partire dagli anni novanta è iniziato un percorso che ha visto gli Hard Disk sempre più piccoli, sempre più capaci e meno cari; parliamo di vari ordini di grandezza che permettono all’Hard Disk superare, come rapporto costo/prestazioni, quanto è successo nel campo dei processori o degli apparati di telecomunicazioni. L’elettronica di controllo, poi, ha avuto un ruolo fondamentale in tale evoluzione, garantendo allo stesso tempo aumento di prestazioni e di affidabilità. Miglioramenti in questi campi furono ancor più possibili quando venne realizzata una tecnologia che consentiva di effettuare operazioni parallele tra diversi dischi: il RAID, acronimo di Redundant Array of Independent Disks.

Leggi anche:  Oltre la produttività: le aziende del futuro saranno sempre più integrate con l'ambiente e le comunità

E il futuro dove ci porta?

Più generiamo dati, più abbiamo bisogno di crearne di altri e soprattutto di elaborarli. Si parla molto di “big data” e basti pensare che oggi produciamo una mole di dati in un giorno tanti quanti in un intero anno degli anni ottanta del secolo scorso per comprendere quanto potrebbe essere, nei prossimi decenni, l’ulteriore ritmo di crescita in merito. Le attuali tecnologie non sembrano poter reggere a questa impressionante cadenza, in particolare in termini di aumento di densità e di ulteriore riduzione di costo per bit a causa delle limitazione fisiche che contengono la miniaturizzazione della registrazione magnetica. Per questo motivo si stanno immaginando scenari futuristici quali le “memorie olografiche”. Si tratta di memorie in cui le informazioni possono essere memorizzate simultaneamente grazie a meccanismi di interferenza ottica, che si ottengono attraverso l’incrocio di due raggi laser coerenti all’interno di materiale fotosensibilii. In pratica possiamo dire che dalla memoria a due dimensioni, di tipo superficiale, potremmo passare a una memoria 3D, volumetrica, abbattendo un’altra barriera sulla potenzialità in termini di capacità.

E’ opportuno che, concludendo questo rapido excursus sulle memorie di massa, citi anche un fenomeno importante e diffuso di questi ultimi anni, ovvero le chiavette USB, anch’esse dispositivi di archiviazione. Le loro prestazioni odierne sono molto più elevate rispetto a una decina di anni fa, sia in termini di velocità di lettura e di scrittura, che di maggiori spazi di archiviazione, con costi per bit sempre decrescenti. Pensate che fino ad alcuni anni fa una chiavetta da un GB, considerata per quei tempi all’apice come capienza, costava intorno ai centocinquanta dollari, mentre oggi la tecnologia può offrire pen drive da un TB con incredibili velocità di lettura allo stesso prezzo di allora, mentre quelle da un GB sono praticamente scomparse e quelle da otto GB costano pochi euro.

Con l’avvento dei pc portatili, e ancor più con i tablet e gli smarthone, oltre alla potenza e capacità un altro fattore è risultato sempre più importante: i tempi di autonomia delle batterie. Quindi ridurre il consumo di energia degli elementi del nostro dispositivo, quindi anche delle memorie, risulterà sempre più importante. Mi piace allora citare un recente esperimento condotto in Italia, precisamente nel centro di ricerca Elettra Sincrotrone Trieste di Area Science Park; dove si è verificata la possibilità di utilizzare in un prossimo futuro memorie digitali con consumi di energia fino a mille volte inferiori a quelli attuali. L’esperimento, i cui risultati sono stati pubblicati sulla prestigiosa rivista “Natura Communications”, è stato condotto attraverso la reazione di due strati sovrapposti di materiali differenti (ferro e ossido di bario/titanio) in cui la novità consiste nell’utilizzo di un campo elettrico per l’operazione di magnetizzazione e quindi di memorizzazione.

Leggi anche:  SB Italia: l’ESG al centro dell’innovazione

Leon Chua, professore dell’Università di Berkeley in California, predisse teoricamente nel lontano 1971 la comparsa di un ulteriore elemento che completasse la triade fondamentale nei circuiti elettrici composta da induttore, resistore e condensatore. Chiamò questo elemento, allora esoterico perché frutto di calcoli matematici, “memristore” quale unione delle parole memoria e resistore. Parrebbe oggi che questa idea geniale possa avere conforto pratico, e ciò ci arriva dai laboratori HP a seguito di un articolo pubblicato su “Nature” dove affermano di avere indirizzato una tecnica per costruire dispositivi in grado di riprodurre il comportamento reale di un memristore.. Questa scoperta, se potrà essere sfruttata industrialmente, dovrebbe portare ad una nuova rivoluzione nel campo dell’elettronica e nell’informatica. In particolare il memristore avrebbe la capacità di mantenere l’informazione anche se disattivato, e quindi anche senza alcun tipo di alimentazione. Per la sua creazione serviranno gli sviluppi che si stanno facendo nel campo delle nanotecnologie. Combinando questa tecnologia futuristica con altre recenti, i tecnici di HP dicono che si potrebbe stravolgere in modo rivoluzionario tutto il mercato delle memorie: dalla DRAM a quelle magnetiche a stato solido permettendo di aumentare fino a sei volte le attuali capacità di immagazzinamento dei bit per pollice quadrato, senza alcuna penalizzazione in termini prestazionali.

Memorie utilizzabili direttamente dai processori che mantengono le loro informazioni dinamiche anche senza alimentazione, ovvero niente più perdite di dati e necessità di lunghi bootstrap. Memorie ad altissima capacità in pochi millimetri quadri. Quasi nessun consumo energetico. Secondo le voci il primo prototipo di sistema con questa tecnologia, che è stato soprannominato “The Machine”, dovrebbe essere sviluppato dagli ingegneri HP per il 2018. Sarà vera gloria? Ai posteri l’ardua sentenza, come disse un grande Poeta. Per quanto mi concerne, anche dopo più di trent’anni di mestiere in campo ICT, continuo a sorprendermi ed entusiasmarmi per questo cammino umano, incredibile per forma e sostanza. Stupore e passione che rimangono inalterate anche se penso che questo articolo lo avrei potuto scrivere senza problemi con il mio ZX Spectrum del 1983 a 48KB, esattamente come ho fatto oggi con un Quadcore da 4GB. Così come sono consapevole di avere in cantina una quantità incredibile di floppy disk e di cassette magnetiche che giammai scaricherò più.

Meditiamo, Gente…meditiamo… 

 Vedi le altre puntate di “Pillole di tecnologia”