EVOLUZIONE DEI CALCOLATORI
L'EVOLUZIONE DEI CALCOLATORI

Da quel momento in poi ci fu la rivoluzione delle unità meccanografiche guidata da una , allora piccola, azienda la International Business Machine con alla guida Sr. Thomas Watson, quella che ora noi tutti conosciamo con il nome di IBM.
Agli inizi del XX secolo, più precisamente nel 1918 a cavallo della prima guerra mondiale, venne progettata e costruita una delle prime macchine utilizzate per la crittazione di informazioni, la Macchina cifrante Enigma. Usata fino alla II guerra mondiale, permetteva di cifrare informazioni sensibili inviati dagli U-Bot tedeschi alle basi naziste. Il codice fu violato all’incirca nel 1933 da ricercatori polacchi.
I tedeschi crearono così un nuovo tipo di Enigma, utilizzato durante tutto l’arco della seconda grande guerra. Anche questo fu violato da ricercatori americani, utilizzando le cosiddette “bombe crittologiche”; al capo della ricerca ci fu un matematico che era destinato a rivoluzionare per sempre il concetto di macchina: Alan Turing.
Questi gettò le basi per l’informatica che noi oggi conosciamo, creando il Test di Turing, un test che da somministrare all’elaboratore, che se superato voleva significare che quella macchina era in grado di pensare con mente propria. Anche se la sua previsione di riuscita del test era fissata per l’anno 1999-2000, nessun elaboratore che sia mai stato concepito lo ha tuttora superato con successo.
Dopo la guerra Turing si recò negli Stati Uniti dove partecipò al primo progetto, americano, di computer, L’ENIAC o Eletronic Numerical Integrator and Computer.
L’elaboratore era dotato di 18000 valvole (se ne brucia una ogni due minuti, quindi si può immaginare quanta manutenzione fosse richiesta …) e occupava uno spazio di 180 metri quadrati.
L’ENIAC divenne così il primo calcolatore elettronico della storia.
Nel 1947 cominciò ufficialmente la corsa al silicio, grazie alla sostituzione delle valvole con transistor che impiegavano quest’ultimo nel processo produttivo.
Con il passare degli anni si andò cercare la miniaturizzazione dei componenti, fino ad arrivare all’integrazione di un solo chip in un circuito integrato.

Fu così che nel 1952 von Neumann costruì un calcolatore denominato IAS, che impiegava il sistema binario e microprocessori, ottenendo così una potenza superiore a qualsiasi macchina precedentemente creata, la quale eliminò i problemi di calcolo più imponenti ai tecnici dell’epoca.
Impossibile a questo punto della storia non menzionare i due Steve che rivoluzionarono il concetto di elaboratore, Jobs e Wozniac .
Grazie a loro e al Apple II realizzato nel 1977 crearono una nuova fascia di elaboratori elettronici, gli odierni Personal Computer o PC.
Fondarono la Apple Corporation, l’azienda dove venne per la prima volta progettato e impiegato il BASIC, un linguaggio estremamente più semplice e intuitivo. Dal lato Hardware impiegarono la prima tecnologia di memoria di massa composta da Floppy Disk con un form-factor di 5,25 pollici.
Propio in quell’anno, il 1982, veniva rilasciato il Commodore C64 e il Sinclair ZX-80 e lo Spectrum. Tutto questo portò al ribassamento dei prezzi in modo vertiginoso, ora non si trattava più di dover affidarsi a un solo organo per poter acquistare un PC ma ad diverse aziende con ognun i loro prodotti. La storia ci ha poi insegnato che fu l’Apple II e successivamente il Lisa a conquistare i clienti, al fama e la miglior tecnologia in commercio di allora.

Con il tempo IBM divenne sinonimo di standard nel mercato PC e con esso arrivarono i primi cloni da paesi emergenti quali Taiwan, Singapore, ecc…
Nel 1984 l’azienda di Cupertino decise di rivoluzionare il mondo dei pc, introducendo il Macintosh.
Dotato di una GUI altamente user-friendly basata su WIMP riuscì a creare un prodotto che rappresentava la semplicità quanto la perfezione, introducendo il Mac OS.
In seguito la Microsoft, azienda nata da Bill Gates, copiò questa interfaccia e la ri-adattò chiamando questo SO, Windows.
Il nel luglio del 1985 venne presentato l’AMIGA acronimo di Advance Multitasking Integrated Graphics Architecture, una macchina molto potente che permetteva un vero e proprio multitasking.
Nel 2004 la IBM decise di stoppare la produzione e la creazione di qualsiasi tipo di device e vendette il marchio alla Lenovo.
Fu proprio in questi anni che la Intel divenne ufficialmente il nuovo standard di azienda per fornitura di processori, con l’Intel Pentium e tutti i suoi derivati; si passò poi alla famiglia Intel Core 2 Duo caratterizzata dall’architettura dual core, per poi passare ai pentium di I, II e III generazione. Vennero poi introdotti gli Xeon particolari processori dotati di supporto a RAM ECC e quindi adatti quasi esclusivamente all’utilizzo su Server. Nel 2007 nacquero poi gli Intel Core che si differenziano tuttora in i3, i5 e i7 e con alle spalle 9 generazioni differenti: Bloomfield, Lynnfield, Clarksfield, Arrandale, Sandy Bridge, Sandy Bridge-E, Ivi Bridge, Haswell, Haswell-E.
La grandezza dei processori viene tuttora regolata con la legge di Gordon Moore, co-fondatore di Intel, la quale ha previsto in modo dettagliato che l’avanzamento del processo produttivo avrebbe comportato il raddoppio dei transistor presenti all’interno della CPU ogni 18 mesi.
Sempre nel 2007 fu presentata la rivoluzione in fatto di device mobili: l’Iphone.
Grazie all’implementazione di una CPU a basso TDP, un display TouchScreen, e un modulo 2g fu creato il primo smartphone al mondo. Come è andata a finire lo sappiamo tutti, Steve Jobs morì nel 2011, gli IPhone sono sempre di più superati da altri smartphone che adottano, nel momento in cui scrivo, fino a 2,6 GHz di CPU.
Se consideriamo che gli attuali PC dispongono di una potenza (non OC) pari a 3,9-4,5 GHz, possiamo intuire la velocità esponenziale con cui i cellulari si sono evoluti e si evolveranno nel corso del tempo.
Purtroppo un fattore limitante di qualsiasi processore ora in commercio è il materiale impiegato, ovvero il classico silicio, il quale si prevede che entro il 2022 non basterà più per la potenza e la crescita si fermerà di colpo a meno che non si trovi un materiale capace di sostituirlo appieno.
Probabilmente questo materiale sarà o un super-conduttore oppure il grafene, materiale di recente scoperta che permette di infrangere moltissimi limiti attualmente imposti dalla fisica del silicio.
Con il passare degli anni i computer si sono sempre di più rimpiccioliti quindi si può largamente immaginare quale sia la potenza attuale di un computer che occupa lo spazio come uno dei primi.
È per questo che negli ultimi anni è “nata” una nuova fascia nominata Super-Computer, questi sono caratterizzati da potenze di calcolo fuori dal comune permesse grazie ai chip quasi totalmente fuori commercio creati ad hoc per questi veri e propri divoratori di calcoli.
Nel momento in cui scrivo l’elaboratore più potente mai costruito si chiama Tianhe-2 costruito in China presso il National Supercomputer Center di Guangzho.
Possiede una potenza pari a 33,86 petaflop al secondo, e se si considera che suo “padre” nato nel 2010 aveva ottenuto una posizione da primato con “appena” 2,5 petaflop/s si può notare come lo sviluppo di questi sistemi sia in piena crescita.
Il Milky Way 2, secondo nome del Tianhe-2, possiede 16.000 nodi, ovvero “postazioni virtuali” ognuna dei quali basata su un doppio processore Intel Xeon Phi e 3 co-processori, per eseguire i calcoli più esigui di risorse, Xeon E5-2600 V2. In totale possiede 3.12 milioni di core, naturalmente non poteva mancare un petabyte di memoria fisica e sistema operativo Linux-based.
Con tutto questo aumentare di prestazioni si è arrivati ad una scoperta sensazionale, nel 2001 all’IBM viene costruito il primo computer quantistico.
L’anno scorso invece Google e Nasa si fusero assieme per dar vita al progetto D-Wave Two, il più avanzato e veloce elaboratore quantistico.
Questi utilizzano una CPU che sfrutta le leggi dei Quanti per elaborare qubit (Quantum Binary Digit) il che permette di infrangere una delle barriere più grandi degli attuali elaboratori, ovvero i bit. Infatti mentre nella computazione classica esistono solamente due stadi, acceso spento, 1 o 0, nei qubit questi valori diventano decimali e pressoché infiniti. Il lavoro che dovrà fare il D-Wave Two si può immaginare come la ricerca del punto più basso su una superficie coperta da valli e colline. Il calcolo classico potrebbe usare il gradient descent: partire da un punto casuale sulla superficie, guardarsi intorno per cercare un punto più basso, e ripetere fino a che non si può scendere oltre. Ma troppo spesso ci si blocca in un minimo locale, una valle che non è il punto più basso sulla superficie. Ecco, computer quantistici "single purpose" come il D-Wave Two hanno la capacità di trovare il punto più basso. Ti permettono di imbrogliare un pochino, con la possibilità di scavare un tunnel in una montagna per vedere se c'è una valle dall'altra parte.
Attualmente questo tipo di elaboratore è utilizzato per effettuare calcoli di tipo predittivo in quanto, come per esempio le previsioni del meteo, sono quelli in cui ci sono il maggior numero di variabili in gioco.
Non bisogna tuttavia immaginare il mondo dei computer e dell’informatica in generale come qualcosa di chiuso, dove solo le grandi aziende che hanno fondi da investire “spaccano” nel mercato, troviamo infatti tantissimi esempi di start-up anche italiane che con un po’ di impegno e fatica sono riuscite ad aggiudicarsi una grande fetta del mercato elettronico. Il più grande esempio totalmente “Made-In-Italy” è Arduino, una azienda di Ivrea, che lanciando sul mercato dapprima italiano la prima versione della sua “schedina tuttofare” ha riscosso un successo che non ha nulla da invidiare all’origine di Apple. Massimo Banzi, il creatore di tute le schede Arduino quando fondò la sua azienda mise come prima prerogativa la facilità d’utilizzo, l’open source, il basso costo e l’altissima qualità che solo i prodotti fatti in Italia conoscono, per creare qualcosa di perfetto per gli Hobbisti. Il successo fu tale che addirittura si venne a creare una corrente di persone chiamate Maker, che sfruttano principalmente questa scheda per i loro progetti, infatti grazie ad esse si può comandare un led, oppure guidare un drone o una macchina, piuttosto che creare una celeberrima 3D-printer. Ad ora sono usciti diversi modelli di microcontrollori, ma i più famosi sono sicuramente l’Arduino Duemilanove, Uno, Mega 2560 e il LilyPad, quest’ultimo utilizzato per i famosi wearable-gadgets, per esempio delle magliette con riproduttore mp3 o vari giochi di luci. La cosa che ha caratterizzato questo marchio è stata la possibilità di consultare tutti i codici sorgente di ogni software utilizzabile e tutti gli schemi della circuiteria delle varie schede così che ognuno possa costruire il proprio microcontrollore adattandolo alle esigenze.
Commenti
Posta un commento