Anteprima
Vedrai una selezione di 7 pagine su 27
Nanoscienze e nanotecnologie Pag. 1 Nanoscienze e nanotecnologie Pag. 2
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Nanoscienze e nanotecnologie Pag. 6
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Nanoscienze e nanotecnologie Pag. 11
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Nanoscienze e nanotecnologie Pag. 16
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Nanoscienze e nanotecnologie Pag. 21
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Nanoscienze e nanotecnologie Pag. 26
1 su 27
Disdici quando vuoi 162x117
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Sintesi
Fisica: campi elettrici e magnetici variabili; sostanze diamagnetiche, paramagnetiche e ferromagnetiche

Scienze della terra e chimica: gli allotropi del carbonio

Biologia: la medicina

Filosofia: Friedrich Nietszche (la volontà di potenza)
Estratto del documento

Francesca Rizzetto

V Es

il premio Nobel per la fisica nel 1965, vanta un titolo chiaramente provocatorio, che

mira a spingere gli scienziati ad esplorare il mondo dell’infinitamente piccolo.

La lezione, che possiamo leggere ancora oggi in quanto è stata trascritta, può essere

considerata il manifesto di un nuovo campo di pertinenza scientifica: le

nanotecnologie. Il fisico americano infatti ipotizza per la prima volta di poter

manipolare la materia in forma di particelle nanoscopiche (e dunque dalla taglia

atomico molecolare). Questo in realtà non è sufficiente per considerare Feynman il

padre delle nano scienze, in quanto idee simili avevano già affascinato le menti di

numerosi scrittori di fantascienza, ma gli va senza alcun dubbio reso il merito di aver

elaborato queste idee (all’epoca da considerarsi quantomeno bizzarre) a partire da

dati scientifici. Feynman avanza alcune ipotesi estremamente innovative, quali la

possibilità di realizzare computer dotati di circuiti di dimensioni ridotte (attorno al

centinaio di atomi). Il capostipite del nanomondo però, viene anche ricordato per la

sua idea di scrivere i 24 volumi completi dell’Enciclopedia Britannica sulla capocchia di

uno spillo (ovvero riducendola, in scala, di 25000 volte), obiettivo che secondo l’autore

stesso poteva già essere realizzato con le tecniche sino ad allora conosciute ma che

sarebbe stato ancora più semplice con il futuro progresso della miniaturizzazione.

Tuttavia ciò che più gli preme è la necessità di migliorare la risoluzione dei già esistenti

microscopi elettronici al fine di poter vedere i singoli atomi (cosa che non molto tempo

dopo sarà resa possibile grazie alla scoperta di STM e AFM). Inoltre lo studioso propone

anche la vaga ipotesi di poter “ingoiare un dottore”, cosa che (anche se non in questi

termini) sarà ben presto realtà grazie agli studi sui nanorobot da impiantare nel corpo

umano per monitorare costantemente i parametri del sangue e somministrare la

terapia qualora necessario.

Feynman è perfettamente conscio di quanto alcune di queste congetture (o in alcuni

casi previsioni) possano apparire iperboliche, ma è anche consapevole del fatto che le

“nanotecnologie” sono il futuro, perché al diminuire delle dimensioni l’influenza della

gravità decresce e quella delle forze di Van der Waals aumenta. Per questo il fisico

statunitense, confidando nell’applicabilità delle proprie idee lancia due sfide, mettendo

in palio un premio da 1000 $ per ciascuna: costruire un motore di dimensioni ridotte e

scrivere una pagina di libro riducendone le dimensioni di 25000 volte. Il primo viene

assegnato nel 1960 allo studente William McLellan, per la realizzazione di un motore

elettrico del peso di ¼ di gr (questo motore tuttavia, pur rispettando la scala richiesta

da Feynman, risulta irrilevante per il progresso scientifico). Per il secondo invece si

dovrà attendere il 1985, quando il dottorando di Stanford Tom Newman, scrive il primo

paragrafo del romanzo storico di C. Dickens “Racconto di due città” servendosi di un

−¿

fascio di .

¿

e

Feynman si può dunque considerare l’autore di quella che potrebbe diventare la III

Rivoluzione Industriale, figlia delle leggi della meccanica quantistica.

Il fatto curioso però, è che Richard Feynman nel corso della conferenza non utilizza

mai il termine “nanotecnologie”, che verrà coniato nel 1986 dall’ingegnere

statunitense Eric Drexler nella sua opera “Engines of creation: the coming era of

nanotechnology” (= “Motori di creazione: l’era prossima della nanotecnologia”).

Drexler riprende le idee di Feynman ma introduce dei nuovi concetti. Per esempio

suggerisce la possibilità di replicare l’intera Biblioteca del Congresso in un chip delle

dimensioni di una zolletta di zucchero, ma soprattutto parla di meccanismi in grado di

auto-replicarsi. Oggi questa è l’ultima frontiera della ricerca sulle nanotecnologie e

5

Francesca Rizzetto

V Es

anche la più controversa per i problemi bioetici che ne conseguono: in realtà non ci

sono delle ragionevoli motivazioni per temere l’auto-replicazione. Infatti pensare che i

nano materiali possano costituire una vera e propria forma di vita in gado di riprodursi

è quantomeno assurdo, in quanto si tratterebbe in ogni caso di un processo guidato

dall’uomo (e per questo dotato anche di un margine di errore molto ampio) e non di un

processo biologico e genetico.

Strumenti di analisi: dal microscopio ottico alla sonda a scansione

Come abbiamo visto la nascita delle nanotecnologie va fatta risalire al 1959, con il

discorso “There’s plenty of room at the bottom” di R. Feynman e l’origine del termine

soltanto al 1986, grazie all’intuizione di E. Drexler. Tuttavia per risalire alle basi

dell’interesse per la miniaturizzazione dobbiamo arretrare un po’ lungo la linea del

tempo.

A partire da circa 2400 anni fa l’uomo comincia ad interessarsi al mondo

dell’infinitamente piccolo e alla composizione della materia. In quegli anni Democrito

afferma che il mondo materiale in cui viviamo è costituito da atomi. Dovremo

attendere molto tempo prima che questa ipotesi venga verificata sperimentalmente.

Tuttavia già nel primo secolo a.C. tale idea viene ripresa dal poeta latino Lucrezio, il

quale afferma che l’universo è costituito da un infinito numero di particelle

indivisibili,indeformabili e impenetrabili, che chiama atomi.

Altrettanto interessanti e degne di nota sono le informazioni che possediamo grazie al

teatro greco di Aristofane ed in particolare a “Le nuvole” (423 a.C). Grazie a tale fonte

sappiamo che la forma e la proprietà di una lente erano ben note già a quel tempo ed

erano persino vendute in una comune spezieria.

Nelle Naturales Quaestiones di Seneca (64 d.C.) leggiamo le seguenti parole:

“Si fanno degli specchi che ingrandiscono ogni corpo che riflettono. Aggiungerò che

tutto appare più grande a chi guarda attraverso l’acqua: le lettere, per quanto piccole

e indistinte, attraverso una sfera di vetro piena d’acqua si vedono molto più

nitidamente”.

E’ trascorso molto tempo da allora prima che, nel 1590, si potesse realizzare una

prima forma di rudimentale microscopio ottico.

Tuttavia il microscopio ottico non consente di analizzare la materia a livello

nanoscopico. Tale limite è dovuto al fatto che il microscopio ottico sfrutta la luce, le cui

proprietà determinano il limite di diffrazione di Abbey. Questa problematica si presenta

quando si vuole guardare la superficie di un oggetto di dimensioni comparabili (se non

inferiori) a quelle della lunghezza d’onda (λ). Ciò accade perché il diametro del disco

di Airy viene descritto dalla seguente equazione:

λ

D=1,22 ∙ NA

(dove NA indica l’Apertura Numerica, un valore che dipende dalle caratteristiche del

microscopio ma che è sempre <1)

Ricordiamo che il disco di Airy è il segnale luminoso in cui, in un microscopio ottico,

viene convertito un oggetto puntiforme. Tale disco assume intensità massima al centro

e decresce allontanandosi da esso sino ad annullarsi ai bordi. Esso inoltre è circondato

da anelli concentrici di intensità decrescente. 6

Francesca Rizzetto

V Es

Se la distanza tra due oggetti puntiformi è <D le due immagini risulteranno

D

<

d

parzialmente sovrapposte, mentre se saranno visibili come un unico oggetto.

2

Dall’evidenza sperimentale risulta che il limite di diffrazione di Abbe, che varia in base

al valore di λ, per la luce visibile può essere posto in media a circa 200 nm.

Per questo si cerca di ovviare al problema ricercando una nuova soluzione: è in questo

modo che nel 1931 nasce il microscopio elettronico a trasmissione (TEM, dall’inglese

“Transmission Electron Microscope”). Sono trascorsi solo 40 anni ed E. Ruska

(dottorando in Ingegneria Elettronica presso l’Università di Berlino) trova un modo per

studiare i componenti della materia senza utilizzare la luce. Il microscopio elettronico a

trasmissione infatti utilizza un fascio di elettroni ad alta energia focalizzati sul

campione sfruttando un campo elettrico : sono gli anni della meccanica

E

quantistica e del dualismo onda-particella. Il fascio di elettroni attraversa il campione

da analizzare e ne proietta l’immagine su uno schermo fluorescente.

L’evoluzione del TEM viene elaborata nel 1940 circa da V. Zworking nei laboratori RCA

(USA) e prende il nome di microscopio elettronico a scansione (SEM, Scanning

Electron Microscope). Il vantaggio del microscopio a scansione rispetto a quello a

trasmissione consiste nella possibilità di ottenere un’immagine tridimensionale,

mentre la differenza nel funzionamento è data dall’utilizzo di un campo elettrico E

variabile anziché uniforme (= costante in modulo, direzione e verso).

Tuttavia nemmeno la microscopia elettronica mostra di avere delle caratteristiche che

si confacciano all’analisi e allo studio della materia a livello nanometrico. Infatti i limiti

della microscopia elettronica sono dovuti al fatto che richiede due particolari

condizioni: innanzitutto il fascio di elettroni deve essere generato in condizioni di vuoto

−1 −5

elevato (quindi ad una pressione compresa tra e Pascal). Inoltre il

10 10

campione in analisi deve presentare uno specifico livello di conduttività, in quanto in

caso contrario le sue particelle si potrebbero caricare elettricamente durante la

scansione, deviando il fascio di elettroni. Questo rende i campioni biologici inadatti ad

essere studiati mediante l’utilizzo di un dispositivo SEM o TEM. Va inoltre aggiunto che

l’immagine ottenibile è un’immagine che va dal bianco al nero, passando per diverse

gradazioni di grigio, in quanto l’immagine non contiene informazioni sul colore.

Per questo gli studi continuano ma negli anni ’80 la novità: nasce un nuovo tipo di

microscopia che consente di vedere gli atomi sulle superfici utilizzando dei materiali

semplici e relativamente economici. Si tratta della microscopia a sonda di scansione.

Per comprendere il funzionamento della sonda a scansione dobbiamo fare prima una

piccola introduzione sui materiali piezoelettrici ( materiali che trasformano energia

elettrica in energia meccanica e viceversa). Infatti applicando un campo elettrico alle

estremità di un materiale piezoelettrico questo si deforma: in particolare si accorcia se

il verso del campo elettrico è opposto rispetto a quello di polarizzazione del materiale

e si allunga nel caso contrario. Questo effetto prende il nome di effetto piezoelettrico e

controllando l’intensità del campo si può controllare la deformazione.

La microscopia a sonda di scansione funziona ponendo una sonda appuntita in

prossimità della superficie del campione con attuatori piezoelettrici (= “motori” in

grado di spostare oggetti con un posizionamento molto preciso grazie all’effetto

piezoelettrico).

Punta e campione interagisco e generano un segnale il cui valore dipende dalla

distanza punta campione. Dalla variazione del segnale si possono determinare le

proprietà elettriche/chimiche/magnetiche del campione. 7

Francesca Rizzetto

V Es

La prima applicazione pratica è stata realizzata dall’elaborazione di G. Binnig e H.

Roher, nel 1981, presso i laboratori IBM di Zurigo e viene chiamato microscopio a

effetto tunnel (STM, Scanning Tunneling Microscope). Il microscopio a effetto tunnel è

il primo strumento in grado di fornire immagini tridimensionali di superfici solide con

risoluzione atomica. Il limite di questo strumento risiede nel fatto che esso consente

soltanto di analizzare superfici di corpi conduttori.

Se si applica una ddp tra una punta metallica ed un campione, si genererà una

corrente (detta corrente di tunnel) per la capacità degli elettroni di superare una

barriera di potenziale. Infatti nella fisica classica una particella con energia totale (=

potenziale + cinetica) E in prossimità di una barriera di potenziale U, se U>E allora

non può superarla, mentre nella fisica quantistica la probabilità che la attraversi non è

nulla (ed in particolare cresce al diminuire dello spessore della barriera). Tale

Dettagli
Publisher
27 pagine
265 download