Anteprima
Vedrai una selezione di 5 pagine su 16
Cosa aspettarsi dal progresso tecnologico Pag. 1 Cosa aspettarsi dal progresso tecnologico Pag. 2
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Cosa aspettarsi dal progresso tecnologico Pag. 6
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Cosa aspettarsi dal progresso tecnologico Pag. 11
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Cosa aspettarsi dal progresso tecnologico Pag. 16
1 su 16
Disdici quando vuoi 162x117
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Liceo Scientifico

PNI

Italo Calvino, Rozzano

“2. Un pensiero che non può esser detto in poche parole non merita

d’esser detto” Crinò Giuseppe

Classe VB

Anno scolastico 2010/2011

“La scienza diverte soprattutto quando è allo stato iniziale, quando non

si è ancora così ‘professionalizzata’ da diventare un qualsiasi lavoro

d’ufficio e gli scienziati sono guidati dalla curiosità.”

Vilayanur S. Ramachandran, “Che cosa sappiamo della mente”

Questa primavera ha fatto della tecnologia e delle implicazioni che il

progresso comporta l’argomento rispetto al quale ho lasciato che tutti gli

altri cadessero in secondo piano. La crescente preoccupazione –forse a

volte infondata, ma mai inutile– ha lasciato che argomenti che, come

l’interesse per la politica italiana, credevo avessero segnato il mio

passaggio all’età adulta, s’incenerissero e collassassero dimenticati in

punti remoti del mio pensiero.

Le persone che mi sono state a fianco hanno sopportato più volte la mia

ossessione per pericoli che nessuna realtà concreta sembrava

supportare e dei quali io stesso percepivo più il solo profumo che gli

spigoli. I miei amici hanno sopportato le urla quanto più mi sentivo

schiacciato dai passi incuranti del sistema industriale e di una tecnologia

rispetto alla quale mi trovavo improvvisamente legato a prescindere

dalla mia volontà. Osservavo e mi chiedevo come le mie tensioni non

potessero essere le stesse del mondo intero. E devo ringraziare di molto

le più forti personalità della mia generazione che hanno addolcito il mio

pessimismo, alzando le iridi color di nuvola con tale forza ed un’ironia

adatta al primo ventennio della nostra vita: una marcia in più che spero

di non dimenticare.

La tesina cresce intorno alla questione di inquadrare esattamente

l’intelligenza dentro un profilo limpido: il tentativo è stato fallimentare.

Il professor Vilayanur Ramachandrar, dell’Università della California di

San Diego, neurologo indiano, dice che il cervello è la struttura più

complessa dell’universo.

“Per rendersene conto, basta considerare alcune cifre: è

composto da cento miliardi di neuroni, le cellule nervose che

sono le fondamentali unità strutturali e funzionali del sistema

nervoso, e ciascun neurone ha con gli altri dai mille ai

diecimila punti di contatto o sinapsi. E’ nelle sinapsi che

avviene lo scambio di informazioni. In base a questi dati, si è

calcolato che il numero di possibili permutazioni e

combinazioni dell’attività cerebrale, cioè il numero di stati

mentali, superi il numero di particelle elementari dell’universo

conosciuto. Benché sia un fatto noto a tutti, non cessa mai di

stupirmi che l’incredibile ricchezza della nostra vita psichica,

tutte le sensazioni, le emozioni, i pensieri, le ambizioni, i

sentimenti amorosi e religiosi e perfino il sé privato e intimo

siano solo e unicamente frutto dell’attività di quelle cellule

cranio.”

gelatinose all’interno del

La mia tesina non è un lavoro perfettamente sferico. Ogni argomento ne

richiama un altro e dopo fiumi di parole sono costretto spesso a tornare

sù per non sbilanciare troppo gli assi della narazione. Alcuni avrebbero

avuto bisogno di approfondimenti che non ho avuto la determinazione né

le competenze per affrontare.

Sono convinto ad ogni modo di aver riservato l’attenzione necessaria alla

questione più interessante. E cioè, se il pensiero con le sue molteplici

forme, estremamente irregolari, possa avere un legame fortissimo con

una configurazione di partenza determinata. Accettare questo significa

accettare la compattazione del concetto della mente in un concetto

concreto e più visibile dell’Anima della Religione.

“La fine dell’800 è un periodo che corona un secolo di prodigiosi sforzi

scientifici ed economici. Una nuova era di cui i sapienti e i filosofi

profetizzano la grandezza , nella quale la realtà supererà i nostri sogni e

fantasie.”

Atti preparatori dell’Esposizione universale del 1900; Seconda Rivoluzione Industriale

La storia del progresso è il risultato del variare costante di più e più

paradigmi. Un paradigma è un’invenzione che rivoluziona la vita

dell’uomo e distorce l’ordine della società nella quale è abituato a vivere.

Il paradigma, fin dal momento della sua prima introduzione, prepara gli

strumenti per il paradigma successivo. E dal momento che è necessario

che, perché il progresso proceda, il grado di efficienza dello strumento

debba aumentare, la velocità del processo è in continua accelerazione.

Se osservati i progressi della tecnica e messi su un grafico, in relazione

al tempo, osserviamo che l’andamento –a differenza di come ci

aspetteremmo– non è assolutamente lineare, ma esponenziale

(Encyclopaedia Britannica, dati su ‘eventi importanti nella storia

dell’uomo’).

Osserviamo soprattutto che, superato il “gomito” della curva, la velocità

con cui il progresso conquista nuovi paradigmi è sempre più alta.

Prendendo in prestito il termine dalla Matematica –usato per denotare un

valore che trascende qualsiasi limite finito, l’esplosione di una grandezza

quando si divide una costante per un numero che si avvicina sempre più

a zero– il professore Vernon Vinge, del dipartimento di scienze

matematiche e dei calcolatori dell’Università di S.Diego, usa il termine

‘singolarità’ pensando che la ricerca nello sviluppo dei computer

conduca naturalmente ad un’esplosione di progresso tanto veloce da

superare il valore finito della potenza computazionale del cervello –

dunque, tanto da superare l’intelligenza così come la conosciamo.

E’ assunto comune che i nostri calcolatori siano delle versioni avanzate

degli automi ad ingranaggi del diciassettesimo secolo. E poiché qualsiasi

funzione svolta da una macchina non è altro che il prodotto di una serie

di istruzioni compilate è raramente messa in discussione l’indipendenza

della macchina dalla mente umana.

Le macchine rispetto al nostro cervello hanno il vantaggio di sfruttare la

natura digitale –l’elaborazione discreta dei dati– dei microprocessori.

Per quanto sia massiccia la porzione di logica nella nostra mente, una

macchina sarà ad ogni modo più capace nelle attività di calcolo. Ma

questo può essere intuitivamente un limite poiché il calcolo è

macchinoso e perciò molto lontano dalla concezione fluida del pensiero.

Ma in realtà è vero anche che si può approssimare un flusso continuo ad

una sequenza digitale con un grado di precisione a nostro piacere,

ovviamente con un rispettivo incremento delle prestazioni quanto più si

voglia rendere fine il quanto di informazione.

Si parla della ‘legge’ –che non ha nulla a che vedere con il rigore

scientifico– di Moore, come semplice osservazione dell’esperienza che il

mercato conduce, per la prima volta nel 1965. Gordon Moore era allora

uno dei fondatori di Intel quando notò in un articolo di quell’anno che il

numero dei componenti elettronici che formavano un chip raddoppiava

ogni anno.

La posizione di Moore prendeva solo cinque generazioni di chip ed

applicava quella velocità di progresso su un periodo indefinito; per

questo fu rivista e riproposta nella forma che ancora oggi si mantiene

valida: “le prestazioni dei processori, e il numero di transistor ad esso

relativo, raddoppiano ogni 18 mesi”.

La ‘legge’ di Moore viene spesso criticata perché non è un

comportamento che la natura segue indipendentemente; ma

sono le stesse aziende che la rispettano, in modo da garantirsi

la fedeltà degli azionisti. Sostanzialmente sono le stesse case

produttrici che guidano la ricerca affinché ogni diciotto mesi

raddoppi il numero di transistor su chip.

Un esempio di ciò che desumeva Moore è il seguente: nel

maggio del 1997 il processore Pentium II aveva 7.5 milioni di

transistor e una frequenza di 300 Mhz. Sul processore messo

in commercio nel Novembre del 2000, il Pentium 4, dopo 42

mesi, si potevano contare 42 milioni di transistor, per una

frequenza complessiva di 1,5 Ghz. La legge di Moore è stata

sostanzialmente rispettata, tanto che la potenza risultava

quintuplicata.

Si può affermare che al di sotto di una certa scala di

dimensioni, la produzione di transistor sempre più piccoli porti

a confrontarsi con effetti indesiderati della fisica quantistica.

Questi limiti però sono già stati raggiunti e superati in seguito

all’abbandono della generazione dei processori Pentium,

quando si cominciò a fare lavorare in parallelo più processori

insieme e ad aumentare notevolmente la capacità

computazionale lungo questa direzione. A questo, Martin

Reese, noto cosmologo inglese, contrappone che, assunto il

limite della velocità della luce come insuperabile, aumentare

le prestazioni con strutture che lavorano in parallelo è una

decisione poco stabile e poco funzionale a lungo termine

poiché le informazioni potrebbero arrivare ad impiegare

troppo tempo attraversando tutti i circuiti per eseguire le

istruzioni e costruire processi logicamente utili.

Ad oggi non ci sono poi così tante ragioni per temere che il processo

tecnologico non riesca a soddisfare gli obiettivi imposti dalla Legge di

Moore almeno fino al primo ventennio del XXI secolo (David

Tennenhouse, direttore Intel per la Ricerca, 2003). Ma è interessante

considerare che semmai la legge dovesse smettere di essere rispettata

ci sono interessanti alternative ai processori tradizionali, che molto

probabilmente costituiranno parti del paradigma successivo

dell’informatica in ogni caso e rispetteranno tassi di evoluzione

completamente nuovi.

“Un elaboratore quantistico contiene una serie di qubit che

sono sostanzialmente zero e uno allo stesso tempo. Il qubit si

basa sulla ambiguità intrinseca della meccanica quantistica.

In un computer quantistico, i qubit sono rappresentati da una

proprietà quantistica delle particelle, per esempio lo stato di

spin di singoli elettroni.

Quando i qubit sono nello stato sovrapposto, ciascuno è

simultaneamente in entrambi gli stati. In un processo che si

definisce ‘decoerenza quantistica’, l’ambiguità di ciascun

qubit si rivolve, lasciando una successione univoca di uni e di

zeri. Se il computer quantistico è impostato nel modo giusto,

questa successione disambiguata rappresenterà la soluzione

a un problema. In sostanza, solo la successione corretta

sopravvive al processo di decoerenza. Una chiave per

l’elaborazione quantistica è una formulazione attenta del

problema, compreso un modo preciso per valutare le possibili

risposte. Il computer quantistico testa ogni possibile

Perciò un computer

combinazione di valori per i qubit.

quantistico con mille qubit dovrebbe testare simultaneamente

2 potenziali soluzioni. L’esempio classico di uso pratico

1000

della computazione quantistica è la fattorizzazione di numero

molto grandi (cioè la ricerca dei numeri che, moltiplicati fra

loro, diano il numero dato). La fattorizzazione di numeri con

più di 512 bit al momento non è possibile su un calcolatore

digitale, anche a parallelismo massiccio.

Fra i problemi interessanti trattabili con la computazione

quantistica vi è poi la decrittazione di codici di cifratura (che si

basano sulla fattorizzazione di numero grandi).

La potenza di un calcolatore quantistico però dipende dal

numero dei qubit allo stato sovrapposto, e allo stato dell’arte

siamo limitati a circa 10 bit.

[..] Ci sono proposte per aumentare significativamente il

numero dei qubit, anche se non sono stati ancora dimostrati

in pratica. All’Università di Innsbruck (Ovest dell’Austria)

hanno costruito un calcolatore quantistico con un solo atomo

di calcio, che ha la potenzialità di codificare simultaneamente

decine di qubit (forse fino a cento) mediante propietà

quantistiche diverse entro l’atomo.”

I limiti della computazione quantistica sembravano insormontabili fino a

qualche anno fa. ll calcolatore quantistico non può essere controllato

durante l’elaborazione: se per un computer classico è possibile tenere

più copie dell’informazione e poi verificare il risultato rispetto alle copie

Dettagli
Publisher
16 pagine
314 download