di ANNA MARIA STEFANINI-
Nei secoli 15° e 16° Leonardo Da Vinci aveva già concepito le macchine del futuro, come l’ala artificiale, l’elicottero e lo scafandro subacqueo e i loro principi di funzionamento ma a quell’epoca non esistevano ancora le tecnologie e i materiali necessari per realizzarle e farle funzionare.
In modo sorprendentemente analogo, negli anni ’30 del Novecento, il geniale logico-matematico britannico Alan Turing (1912-1954) – lo stesso che più tardi riuscirà a decrittare “Enigma”, l’impenetrabile sistema di comunicazione militare segreta nazista – aveva sviluppato i principi teorici di funzionamento di una macchina calcolatrice automatica, passata alla storia come “macchina di Turing”, in grado di effettuare in modo automatico calcoli altamente complessi.
Ma al tempo di Turing, come già per Leonardo, non esistevano ancora le tecnologie e i materiali necessari a realizzare siffatto prodigioso dispositivo.
Geni che anticipano il futuro.
Ma le cose stavano cambiando rapidamente e già negli anni ’50 cominciano a comparire le prime tecnologie in grado di far funzionare una macchina elettromeccanica del tipo di quella immaginata da Turing e, soprattutto negli USA, iniziano ad essere prodotti sistemi in grado di effettuare calcoli complessi. Ma si trattava di apparati enormi, costosissimi e sperimentali, prodotti in esemplari unici che per funzionare richiedevano intere squadre di specialisti; come succede ancora oggi quando si tratta di mandare un razzo nello spazio.
Tuttavia la storica battaglia per la miniaturizzazione era stata ingaggiata; è da notare che si trattava di questione che andava ben oltre la mera praticità: la miniaturizzazione era il parametro dirimente tra impossibilità e fattibilità.
All’inizio dei ’70 le principali istituzioni accademiche e di ricerca disponevano di almeno una grande macchina mono-utente e interattiva in grado di fare calcoli complessi ma si trattava di sistemi ancora molto ingombranti e costosi, impossibili da gestire se non da parte di specialisti.
Verso la metà del decennio la Hewlett Packard sviluppa il primo computer che poteva stare su una scrivania; il gioiello HP aveva una tastiera e un minuscolo display a una linea di scrittura; il modello successivo, detto Wang 2200, era dotato di un monitor a tubo catodico (CRT) ed era in grado di memorizzare dati su un nastro magnetico, come le musicassette di allora.
Nel 1975 la statunitense International Business Machines corporation, meglio nota come IBM (detta talvolta “Big Blue”) sviluppa un sistema analogo, l’IBM 5100 ma si tratta ancora di prodotti molto costosi, concepiti per un impiego su scala aziendale.
Il percorso verso la miniaturizzazione subisce una brusca accelerazione con l’invenzione del microprocessore, in sostanza un circuito complesso che in precedenza richiedeva un gran numero di fili, cablaggi e componenti ridotto alle dimensioni di un piccolo supporto a base di silicio (chip). La denominazione tecnica più diffusa per questo genere di componenti è “circuito integrato” per il fatto che il circuito e tutti i suoi elementi sono prodotti contestualmente nell’ambito del medesimo procedimento di micro-ingegneria.
Una delle maggiori aziende produttrici di microprocessori è la celebre “Intel Corporation”, una multinazionale statunitense con sede a Santa Clara, in California.
Lo sviluppo e la produzione del microprocessore favorirà la messa in produzione e la diffusione di computer sempre più piccoli e sempre più efficienti, sino al celebre “personal computer”, in sostanza una macchina di Turing governabile da un singolo utente.
Il 12 agosto 1981 l’IBM presenta l’IBM 5150, il primo vero Personal Computer equipaggiato con un microprocessore Intel. Il nuovo modello è un gioiello molto versatile che, anche nell’aspetto, assomiglia ai desktop contemporanei. La commercializzazione inizia il 1° settembre di 42 anni fa; il prezzo è ancora elevato, circa 3 mila dollari, inoltre è richiesto l’impiego di costosi supporti esterni qualora sia necessario memorizzare grandi quantità di dati.
Malgrado questi inconvenienti il 5150 avrà un enorme successo commerciale al punto da diventare lo standard di riferimento per l’intera industria informatica.
La via per la digitalizzazione di massa è inaugurata.