Concetti Chiave
- L'ENIAC, progettato presso l'Università di Pennsylvania, fu il primo calcolatore elettronico, impiegando 18.000 valvole e segnando la fine dei calcolatori meccanici.
- L'introduzione dei transistor al silicio negli anni '40 aumentò l'efficienza dei computer, mentre i circuiti integrati degli anni '60 portarono alla miniaturizzazione e alla creazione del microprocessore.
- John von Neumann influenzò lo sviluppo dei computer suggerendo l'uso di programmi interni e della numerazione binaria, portando alla costruzione della Macchina di von Neumann nel 1952.
- L'Apple II, creato da Steve Wozniac e Steve Jobs nel 1977, fu il primo personal computer con unità a dischetti, contribuendo alla diffusione su larga scala dei computer.
- La piattaforma Amiga, introdotta nel 1985, offrì avanzate capacità grafiche e sonore, ma errori strategici portarono alla bancarotta di Commodore nel 1994.
Dopo la guerra, Turing si recò negli Stati Uniti, dove partecipò al primo progetto americano di computer, l’ENIAC (Electronic Numerical Integrator And Computer), il primo calcolatore elettronico messo in funzione per usi concreti nella storia (aveva, comunque, una base di calcolo decimale e non binaria).
L’apparecchio, progettato presso l’Università di Pennsylvania, impiegava 18000 valvole (ne saltava una ogni due minuti, a causa dell’eccessivo calore generato dalla macchina) e occupava uno spazio di 180 metri quadrati. L’ENIAC pose fine all’era dei calcolatori meccanici, perché, come abbiamo già detto, fu il primo calcolatore elettronico della storia.
Nel 1947 furono utilizzati i transistor al silicio che, rispetto alle valvole, permisero di ottenere velocità di calcolo impressionanti, maggiore accuratezza e bassa generazione di calore. Al pari delle valvole, i transistor vennero impiegati come interruttori elettronici.
A metà degli anni Sessanta, gli scienziati riuscirono a produrre circuiti miniaturizzati e, grazie anche alle ingenti somme di denaro investite nella ricerca spaziale, vennero prodotti i primi circuiti integrati su singoli chip di silicio. Questi componenti hanno consentito di compiere un ulteriore balzo in avanti nella costruzione dei computer. È proprio grazie a questa
scoperta che inizia la corsa alla miniaturizzazione dei componenti elettronici, coronata dall’integrazione in un solo chip di più circuiti. Nacque, così, il microprocessore: il primo fu l’Intel 4004 ,costruito negli Stati Uniti da un team di cui faceva parte l’italiano Federico Faggin. Sebbene il microchip sia poco simile alla gigantesca Macchina Analitica di Babbage e Lovelace o al Colossus di Turing, l’architettura dei moderni computer si basa ancora sui principi impostati da Babbage e la teoria enunciata da Turing rimane ancora oggi importante.
Tra gli uomini che hanno fatto la storia dell’elaborazione automatica occorre ricordare anche l’“architetto” dei moderni computer, John von Neumann, il quale prese parte al progetto ENIAC come consulente per la parte logica del sistema. Il suo lavoro ha influenzato enormemente i successivi sviluppi dell’informatica. Egli suggerì, tra l’altro, di dotare i futuri computer di programmi interni allo stesso apparecchio e di impiegare la numerazione binaria per rappresentare programmi e dati nella memoria del computer, recuperando le intuizioni del tedesco Zuse e di Atanasoff che, per primi, avevano costruito calcolatori funzionanti a relè e, quindi, basati sul sistema binario.
Con l’introduzione di tali concetti, gli elaboratori elettronici superarono, pertanto, la prima struttura elementare e assunsero le caratteristiche conservate e sviluppate fino ai nostri giorni. Mettendo in pratica le sue idee, von Neumann, che lavorò in costante collaborazione con un gruppo di esperti militari e di professori universitari di Princeton, costruì intorno al 1952 un calcolatore denominato IAS o Princeton o Macchina di von Neumann.
La flessibilità operativa di questa macchina fece sì che congegni nati allo scopo di alleviare i problemi di calcolo per tecnici e scienziati potessero essere impiegati nel futuro per la soluzione di problemi di natura completamente diversa, di tipo amministrativo, gestionale e produttivo. La diffusione nell’uso degli elaboratori elettronici che si è verificata ha contribuito quindi alla nascita di una nuova area scientifica e tecnologica, che va ormai comunemente sotto il nome di informatica.
Infine, sono da menzionare Steve Wozniac e Steve Jobs, che fin da giovanissimi progettavano computer. Pochi altri come loro hanno contribuito alla miniaturizzazione e alla diffusione su larga scala del computer. Tra le loro invenzioni ricordiamo l’Apple II ,che oggi è un computer da collezionisti, realizzato con l’aiuto finanziario di Mike Markkula nel 1977: esso fu il primo personal computer della storia a impiegare unità a dischetti e rimane ancora oggi uno dei più grandi successi commerciali della storia dell’informatica.
Wozniac ha lavorato sino a pochi anni fa a nuovi progetti per la Apple Corporation, di cui Jobs è il presidente.
La novità introdotta dall’Apple II non riguardava solo l’hardware, ma anche un componente del suo software: il BASIC, un linguaggio che garantiva una programmazione molto più agevole rispetto ai codici esadecimali e ottali dei primi computer. Dal punto di vista hardware, l’Apple II disponeva di una memoria di massa costituita da un floppy disk da 5,25 pollici.
Nello stesso periodo altri costruttori diedero l’avvio a una grande corsa al ribasso dei prezzi.
Realizzarono macchine potenti quanto i primi personal, ma decisamente più economiche.
Fu l’era della Sinclair, con lo ZX-80 e lo Spectrum, e della Commodore, con il C64 ,i primi home computer della storia.
Agli inizi degli anni Ottanta, al già gremito mercato di case costruttrici di personal computer, si aggiunse l’IBM, che introdusse sul mercato il PC IBM o IBM 5150, una macchina basata su un potente microprocessore, l’Intel 8088 ,e mise gli schemi tecnici a disposizione di tutti i produttori di accessori per computer che, in tal modo, realizzarono ogni genere di schede aggiuntive. Nacque così la seconda generazione dei personal: i business o professional computer, che avevano un prezzo quasi analogo ai loro predecessori, ma erano molto più potenti.
Il PC IBM divenne lo standard e con lui anche il suo sistema operativo, il CP/M, che, per le esagerate condizioni di licenza d’uso imposte dalla Digital Research, venne sostituito con l’MS-DOS (Disk Operating System) progettato dalla Seattle Computer Company e acquistato per poche decine di migliaia di dollari da Bill Gates ,che nel 1977 insieme con Paul Allen e Steve Ballmer fondò la Microsoft, una delle più potenti software house del mondo.
Il successo di IBM non passò inosservato, le industrie informatiche delle “tigri orientali” (Taiwan, Singapore ecc.) si misero subito al lavoro per clonare il PC IBM. La clonazione, cioè la duplicazione, fu possibile poiché IBM forniva assieme al PC anche gli schemi elettrici, e il listato del sistema operativo era facilmente ottenibile. Il passo per la produzione industriale dei cloni fu brevissimo. In pochi anni il mondo fu invaso da enormi quantità di PC clonati, dalle prestazioni sempre più brucianti e dai costi sempre più bassi.
Nel 1984 la Apple produce il secondo passaggio evolutivo che porta agli attuali personal computer. Dopo l’insuccesso dell’Apple Lisa, che, nel 1983, fu il primo computer (commerciale e su larga scala) dotato di serie di interfaccia grafica e di mouse, troppo costoso, e con un design poco appariscente, l’azienda di Cupertino (California) decide di ritentare l’impresa con il Macintosh, decisamente più elegante nel design e nell’approccio all’interfaccia grafica .Nasceva così il concetto WIMP (Windows Icons Mouse and Pointer o secondo altri Pull-down menu).
Il primo modello di Mac fu messo in vendita al prezzo di 2495 dollari e ottenne un successo di mercato senza precedenti, grazie al suo approccio amichevole (user-friendly) e alla facilità d’uso del suo sistema operativo, il Mac OS. La sua interfaccia grafica (GUI) usava per la prima volta metafore facili da comprendere, quali il cestino, la scrivania, le finestre, gli
appunti ecc. aprendo finalmente l’uso del computer anche a persone con limitate conoscenze informatiche.
In seguito al successo mondiale del Macintosh, molte di queste caratteristiche innovative furono mutuate dalla Microsoft nella creazione del proprio sistema operativo Windows, scatenando una battaglia anche legale durata oltre un decennio.
Nel 1987 nasce Amiga2000. Amiga è una piattaforma informatica originariamente ideata da una piccola compagnia americana chiamata Hi-Toro. Questo gruppo d’informatici e ingegneri inizialmente voleva creare una macchina da gioco dalle grandi capacità grafiche e sonore. In seguito, man mano che il progetto avanzava, Hi-Toro incorporò alla proto-console caratteristiche proprie di un personal computer multimediale coordinate da un elegante sistema operativo, AmigaOS che già allora offriva un reale preemptive multitasking. Era il 23 luglio 1985 quando venne mostrato al mondo l’Amiga 1000 da Andy Warhol. Nacque così la piattaforma che fu soprannominata Advanced Multitasking Integrated Graphics Architecture, in breve AMIGA.
La Hi-Toro fu poi acquisita, insieme al progetto Amiga, da una famosa casa produttrice di personal computer, la Commodore, la quale commercializzò il prodotto dall’ottobre del 1985. Date le eccezionali caratteristiche di Amiga per l’epoca, la piattaforma raccolse un notevole seguito tra gli esperti e gli appassionati di informatica che si distinsero per un notevole spirito di comunità.
Tuttavia una serie di errori strategici e lo scarso interesse degli amministratori di Commodore verso Amiga portarono alla bancarotta dell’azienda che andò in liquidazione volontaria nell’aprile del 1994, con conseguente vendita della tecnologia Amiga a una serie di aziende specializzate in personal computer che non seppero rivalutarla adeguatamente:
di fatto la piattaforma finì per essere sostenuta prevalentemente da una schiera di affezionati utenti e programmatori.
Dopo oltre 25 anni di primato nell’industria dell’hardware, nel dicembre 2004, la IBM, pur essendo tra i leader del mercato, decide di abbandonare la fabbricazione dei personal computer di ogni tipo, dai desktop ai notebook, cedendo marchio e quote di mercato alla cinese Lenovo, azienda che detiene il primo posto per vendite in Asia, escludendo il Giappone.
L’accordo prevede la fornitura dei servizi da parte di IBM a Lenovo, che diviene così il terzo produttore mondiale.
Attualmente si assiste a una specializzazione nella produzione dell’hardware per cui le grandi case produttrici tendono a sviluppare i singoli componenti (schede madri, CPU, schede grafiche, ...) piuttosto che prodotti completi.
Delle grandi case che producevano sia hardware sia software sono attualmente attivi solo pochi marchi, tra cui, ad esempio, Sun Microsystems, che continua a detenere un primato per i grandi server.
Domande da interrogazione
- Qual è stato il contributo di Alan Turing al progetto ENIAC?
- Quali innovazioni hanno portato i transistor al silicio rispetto alle valvole?
- Chi è stato John von Neumann e quale fu il suo contributo ai moderni computer?
- Qual è stato il ruolo di Steve Wozniac e Steve Jobs nella storia dei personal computer?
- Come ha influenzato il Macintosh il mercato dei computer?
Alan Turing partecipò al progetto ENIAC negli Stati Uniti, contribuendo al primo calcolatore elettronico per usi concreti nella storia.
I transistor al silicio hanno permesso velocità di calcolo impressionanti, maggiore accuratezza e bassa generazione di calore rispetto alle valvole.
John von Neumann è stato l'“architetto” dei moderni computer, suggerendo l'uso di programmi interni e la numerazione binaria, influenzando enormemente lo sviluppo dell'informatica.
Steve Wozniac e Steve Jobs hanno contribuito alla miniaturizzazione e diffusione su larga scala dei computer, con invenzioni come l'Apple II, il primo personal computer a impiegare unità a dischetti.
Il Macintosh ha introdotto un'interfaccia grafica user-friendly, aprendo l'uso del computer a persone con limitate conoscenze informatiche e influenzando la creazione di Windows da parte di Microsoft.