vuoi
o PayPal
tutte le volte che vuoi
Liceo Scientifico
PNI
Italo Calvino, Rozzano
“2. Un pensiero che non può esser detto in poche parole non merita
d’esser detto” Crinò Giuseppe
Classe VB
Anno scolastico 2010/2011
“La scienza diverte soprattutto quando è allo stato iniziale, quando non
si è ancora così ‘professionalizzata’ da diventare un qualsiasi lavoro
d’ufficio e gli scienziati sono guidati dalla curiosità.”
Vilayanur S. Ramachandran, “Che cosa sappiamo della mente”
Questa primavera ha fatto della tecnologia e delle implicazioni che il
progresso comporta l’argomento rispetto al quale ho lasciato che tutti gli
altri cadessero in secondo piano. La crescente preoccupazione –forse a
volte infondata, ma mai inutile– ha lasciato che argomenti che, come
l’interesse per la politica italiana, credevo avessero segnato il mio
passaggio all’età adulta, s’incenerissero e collassassero dimenticati in
punti remoti del mio pensiero.
Le persone che mi sono state a fianco hanno sopportato più volte la mia
ossessione per pericoli che nessuna realtà concreta sembrava
supportare e dei quali io stesso percepivo più il solo profumo che gli
spigoli. I miei amici hanno sopportato le urla quanto più mi sentivo
schiacciato dai passi incuranti del sistema industriale e di una tecnologia
rispetto alla quale mi trovavo improvvisamente legato a prescindere
dalla mia volontà. Osservavo e mi chiedevo come le mie tensioni non
potessero essere le stesse del mondo intero. E devo ringraziare di molto
le più forti personalità della mia generazione che hanno addolcito il mio
pessimismo, alzando le iridi color di nuvola con tale forza ed un’ironia
adatta al primo ventennio della nostra vita: una marcia in più che spero
di non dimenticare.
La tesina cresce intorno alla questione di inquadrare esattamente
l’intelligenza dentro un profilo limpido: il tentativo è stato fallimentare.
Il professor Vilayanur Ramachandrar, dell’Università della California di
San Diego, neurologo indiano, dice che il cervello è la struttura più
complessa dell’universo.
“Per rendersene conto, basta considerare alcune cifre: è
composto da cento miliardi di neuroni, le cellule nervose che
sono le fondamentali unità strutturali e funzionali del sistema
nervoso, e ciascun neurone ha con gli altri dai mille ai
diecimila punti di contatto o sinapsi. E’ nelle sinapsi che
avviene lo scambio di informazioni. In base a questi dati, si è
calcolato che il numero di possibili permutazioni e
combinazioni dell’attività cerebrale, cioè il numero di stati
mentali, superi il numero di particelle elementari dell’universo
conosciuto. Benché sia un fatto noto a tutti, non cessa mai di
stupirmi che l’incredibile ricchezza della nostra vita psichica,
tutte le sensazioni, le emozioni, i pensieri, le ambizioni, i
sentimenti amorosi e religiosi e perfino il sé privato e intimo
siano solo e unicamente frutto dell’attività di quelle cellule
cranio.”
gelatinose all’interno del
La mia tesina non è un lavoro perfettamente sferico. Ogni argomento ne
richiama un altro e dopo fiumi di parole sono costretto spesso a tornare
sù per non sbilanciare troppo gli assi della narazione. Alcuni avrebbero
avuto bisogno di approfondimenti che non ho avuto la determinazione né
le competenze per affrontare.
Sono convinto ad ogni modo di aver riservato l’attenzione necessaria alla
questione più interessante. E cioè, se il pensiero con le sue molteplici
forme, estremamente irregolari, possa avere un legame fortissimo con
una configurazione di partenza determinata. Accettare questo significa
accettare la compattazione del concetto della mente in un concetto
concreto e più visibile dell’Anima della Religione.
“La fine dell’800 è un periodo che corona un secolo di prodigiosi sforzi
scientifici ed economici. Una nuova era di cui i sapienti e i filosofi
profetizzano la grandezza , nella quale la realtà supererà i nostri sogni e
fantasie.”
Atti preparatori dell’Esposizione universale del 1900; Seconda Rivoluzione Industriale
La storia del progresso è il risultato del variare costante di più e più
paradigmi. Un paradigma è un’invenzione che rivoluziona la vita
dell’uomo e distorce l’ordine della società nella quale è abituato a vivere.
Il paradigma, fin dal momento della sua prima introduzione, prepara gli
strumenti per il paradigma successivo. E dal momento che è necessario
che, perché il progresso proceda, il grado di efficienza dello strumento
debba aumentare, la velocità del processo è in continua accelerazione.
Se osservati i progressi della tecnica e messi su un grafico, in relazione
al tempo, osserviamo che l’andamento –a differenza di come ci
aspetteremmo– non è assolutamente lineare, ma esponenziale
(Encyclopaedia Britannica, dati su ‘eventi importanti nella storia
dell’uomo’).
Osserviamo soprattutto che, superato il “gomito” della curva, la velocità
con cui il progresso conquista nuovi paradigmi è sempre più alta.
Prendendo in prestito il termine dalla Matematica –usato per denotare un
valore che trascende qualsiasi limite finito, l’esplosione di una grandezza
quando si divide una costante per un numero che si avvicina sempre più
a zero– il professore Vernon Vinge, del dipartimento di scienze
matematiche e dei calcolatori dell’Università di S.Diego, usa il termine
‘singolarità’ pensando che la ricerca nello sviluppo dei computer
conduca naturalmente ad un’esplosione di progresso tanto veloce da
superare il valore finito della potenza computazionale del cervello –
dunque, tanto da superare l’intelligenza così come la conosciamo.
E’ assunto comune che i nostri calcolatori siano delle versioni avanzate
degli automi ad ingranaggi del diciassettesimo secolo. E poiché qualsiasi
funzione svolta da una macchina non è altro che il prodotto di una serie
di istruzioni compilate è raramente messa in discussione l’indipendenza
della macchina dalla mente umana.
Le macchine rispetto al nostro cervello hanno il vantaggio di sfruttare la
natura digitale –l’elaborazione discreta dei dati– dei microprocessori.
Per quanto sia massiccia la porzione di logica nella nostra mente, una
macchina sarà ad ogni modo più capace nelle attività di calcolo. Ma
questo può essere intuitivamente un limite poiché il calcolo è
macchinoso e perciò molto lontano dalla concezione fluida del pensiero.
Ma in realtà è vero anche che si può approssimare un flusso continuo ad
una sequenza digitale con un grado di precisione a nostro piacere,
ovviamente con un rispettivo incremento delle prestazioni quanto più si
voglia rendere fine il quanto di informazione.
Si parla della ‘legge’ –che non ha nulla a che vedere con il rigore
scientifico– di Moore, come semplice osservazione dell’esperienza che il
mercato conduce, per la prima volta nel 1965. Gordon Moore era allora
uno dei fondatori di Intel quando notò in un articolo di quell’anno che il
numero dei componenti elettronici che formavano un chip raddoppiava
ogni anno.
La posizione di Moore prendeva solo cinque generazioni di chip ed
applicava quella velocità di progresso su un periodo indefinito; per
questo fu rivista e riproposta nella forma che ancora oggi si mantiene
valida: “le prestazioni dei processori, e il numero di transistor ad esso
relativo, raddoppiano ogni 18 mesi”.
La ‘legge’ di Moore viene spesso criticata perché non è un
comportamento che la natura segue indipendentemente; ma
sono le stesse aziende che la rispettano, in modo da garantirsi
la fedeltà degli azionisti. Sostanzialmente sono le stesse case
produttrici che guidano la ricerca affinché ogni diciotto mesi
raddoppi il numero di transistor su chip.
Un esempio di ciò che desumeva Moore è il seguente: nel
maggio del 1997 il processore Pentium II aveva 7.5 milioni di
transistor e una frequenza di 300 Mhz. Sul processore messo
in commercio nel Novembre del 2000, il Pentium 4, dopo 42
mesi, si potevano contare 42 milioni di transistor, per una
frequenza complessiva di 1,5 Ghz. La legge di Moore è stata
sostanzialmente rispettata, tanto che la potenza risultava
quintuplicata.
Si può affermare che al di sotto di una certa scala di
dimensioni, la produzione di transistor sempre più piccoli porti
a confrontarsi con effetti indesiderati della fisica quantistica.
Questi limiti però sono già stati raggiunti e superati in seguito
all’abbandono della generazione dei processori Pentium,
quando si cominciò a fare lavorare in parallelo più processori
insieme e ad aumentare notevolmente la capacità
computazionale lungo questa direzione. A questo, Martin
Reese, noto cosmologo inglese, contrappone che, assunto il
limite della velocità della luce come insuperabile, aumentare
le prestazioni con strutture che lavorano in parallelo è una
decisione poco stabile e poco funzionale a lungo termine
poiché le informazioni potrebbero arrivare ad impiegare
troppo tempo attraversando tutti i circuiti per eseguire le
istruzioni e costruire processi logicamente utili.
Ad oggi non ci sono poi così tante ragioni per temere che il processo
tecnologico non riesca a soddisfare gli obiettivi imposti dalla Legge di
Moore almeno fino al primo ventennio del XXI secolo (David
Tennenhouse, direttore Intel per la Ricerca, 2003). Ma è interessante
considerare che semmai la legge dovesse smettere di essere rispettata
ci sono interessanti alternative ai processori tradizionali, che molto
probabilmente costituiranno parti del paradigma successivo
dell’informatica in ogni caso e rispetteranno tassi di evoluzione
completamente nuovi.
“Un elaboratore quantistico contiene una serie di qubit che
sono sostanzialmente zero e uno allo stesso tempo. Il qubit si
basa sulla ambiguità intrinseca della meccanica quantistica.
In un computer quantistico, i qubit sono rappresentati da una
proprietà quantistica delle particelle, per esempio lo stato di
spin di singoli elettroni.
Quando i qubit sono nello stato sovrapposto, ciascuno è
simultaneamente in entrambi gli stati. In un processo che si
definisce ‘decoerenza quantistica’, l’ambiguità di ciascun
qubit si rivolve, lasciando una successione univoca di uni e di
zeri. Se il computer quantistico è impostato nel modo giusto,
questa successione disambiguata rappresenterà la soluzione
a un problema. In sostanza, solo la successione corretta
sopravvive al processo di decoerenza. Una chiave per
l’elaborazione quantistica è una formulazione attenta del
problema, compreso un modo preciso per valutare le possibili
risposte. Il computer quantistico testa ogni possibile
Perciò un computer
combinazione di valori per i qubit.
quantistico con mille qubit dovrebbe testare simultaneamente
2 potenziali soluzioni. L’esempio classico di uso pratico
1000
della computazione quantistica è la fattorizzazione di numero
molto grandi (cioè la ricerca dei numeri che, moltiplicati fra
loro, diano il numero dato). La fattorizzazione di numeri con
più di 512 bit al momento non è possibile su un calcolatore
digitale, anche a parallelismo massiccio.
Fra i problemi interessanti trattabili con la computazione
quantistica vi è poi la decrittazione di codici di cifratura (che si
basano sulla fattorizzazione di numero grandi).
La potenza di un calcolatore quantistico però dipende dal
numero dei qubit allo stato sovrapposto, e allo stato dell’arte
siamo limitati a circa 10 bit.
[..] Ci sono proposte per aumentare significativamente il
numero dei qubit, anche se non sono stati ancora dimostrati
in pratica. All’Università di Innsbruck (Ovest dell’Austria)
hanno costruito un calcolatore quantistico con un solo atomo
di calcio, che ha la potenzialità di codificare simultaneamente
decine di qubit (forse fino a cento) mediante propietà
quantistiche diverse entro l’atomo.”
I limiti della computazione quantistica sembravano insormontabili fino a
qualche anno fa. ll calcolatore quantistico non può essere controllato
durante l’elaborazione: se per un computer classico è possibile tenere
più copie dell’informazione e poi verificare il risultato rispetto alle copie