Anteprima
Vedrai una selezione di 5 pagine su 16
Incertezza: dalla crisi di identità a Facebook Pag. 1 Incertezza: dalla crisi di identità a Facebook Pag. 2
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Incertezza: dalla crisi di identità a Facebook Pag. 6
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Incertezza: dalla crisi di identità a Facebook Pag. 11
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Incertezza: dalla crisi di identità a Facebook Pag. 16
1 su 16
Disdici quando vuoi 162x117
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

3

indeterminazione (o dell’indeterminatezza) che è considerato, a ragione, uno dei

pilastri teorici dell’impianto quantistico e rappresenta forse il suo aspetto più

interessante per lo meno per quanto riguarda le sue implicazioni epistemologiche e

ontologiche. Heisenberg considerò la relazione λ=h/p (teorizzata da Einstein per i

fotoni e applicata da De Broglie ai corpi materiali) e notò che nel caso in cui la quantità

di moto di un corpo avesse avuto valore 0 (il caso di un corpo fermo), la lunghezza

dell’onda materiale che il corpo trasporta con sé, sarebbe stata infinita. Questo è

chiaramente un assurdo dal punto di vista fisico e Heisenberg lo risolse con

l’introduzione delle ben note relazioni di indeterminazione: non è possibile affermare

con sicurezza che p=0, si può dire al massimo che p=0 ± Δp dove con Δp si indica

l’incertezza della misurazione della grandezza “quantità di moto”. Questo margine

d’errore è indissolubilmente legato all’incertezza relativa alla posizione dalla particella

considerata, infatti il prodotto fra le incertezze non può essere reso arbitrariamente

piccolo e quindi non è neppure concettualmente eliminabile, ma deve avere ћ come

-34

valore minimo (ћ = costante di Dirac = h/2π = 1,054 X 10 J s): utilizzando strumenti

più accurati non si migliora INDEFINITAMENTE il valore della misurazione fino ad

arrivare a un risultato che sia assolutamente certo per entrambe le grandezze, perché

deve sempre valere la relazione Δp Δx ≈ ћ. L’incertezza relativa alla quantità di moto

e quella relativa alla posizione della particella, sono legate da una relazione di

proporzionalità inversa: facendo dimezzare l’una (quindi aumentando la precisione di

misurazione di una delle due), l’altra raddoppia e viceversa. In sostanza Heisenberg

postulò che a un certo livello microscopico, quantità di moto/posizione ed

energia/tempo (le altre due grandezze analogamente legate dalle relazioni di

indeterminazione) sarebbero dovute rimanere sempre indefinite.

Una prima spiegazione di questo principio è intuitivamente connessa alla difficoltà

misurativa che l’uomo deve affrontare per determinare queste due grandezze: infatti

per poter calcolare la posizione di un oggetto microscopico come un elettrone occorre

investirlo con un raggio di luce (ossia un fascio di fotoni) e questo fa si che l’elettrone

risulti perturbato dall’interazione con il fotone, che ne modifica inesorabilmente la

velocità (perché possiede una quantità di energia E=hν cede all’elettrone facendogli

mutare quantità di moto). Ma l’impossibilità di effettuare una misura esatta, non

deriva solo dall’invasiva interazione del mondo macroscopico sul microscopico nel

momento della misurazione: è una proprietà intrinseca (ontologica) della materia. In

nessun senso si può ritenere che una microparticella possieda, in un dato istante, una

posizione e una velocità univocamente definite. Il limite stabilito da Heisenberg quindi

non è un confine puramente cognitivo come poteva sembrare inizialmente, ma un

limite ontologico della materia: si postula in questo modo non solo l’inconoscibilità di

tali valori, ma la loro inesistenza reale. L’applicazione del principio di indeterminazione

di Heisenberg avrà particolare fortuna nelle scienze chimiche, in particolare in quella

branca della chimica che si interessa (più che alle reazioni), alla descrizione dei sistemi

atomici e molecolari. Nel corso degli anni 20 e 30, l’interazione tra queste due scienze

fu talmente forte che alcuni dei massimi pensatori della teoria chimica moderna,

furono fisici di fama internazionale e spesso premi Nobel (come Niels Bohr, Wolfang

Pauli ecc): in effetti sia la fisica moderna che la chimica hanno come oggetto lo stesso

argomento, ossia “l’infinitamente piccolo”, e questo favorisce un’intima connessione

tra gli studi chimici e fisici, che talvolta proprio per questo si sovrappongono.

Una delle conseguenze più immediate del principio di indeterminazione, è che in

alcuni composti organici (come per esempio i composti aromatici), risulta difficoltoso

stabilire quali sono gli orbitali che si sovrappongono tra loro. Il concetto di orbitale

stesso nasce in seno alla fisica quantistica, come diretta conseguenza del principio di

Heisenberg: la nozione di orbita deve essere sostituita con quella di orbitale, che,

coerentemente con l’interpretazione di Copenhagen, rappresenta la regione dello

1 4

spazio in cui la probabilità di trovare l’elettrone è massima. Consideriamo per esempio

il benzene, il capostipite degli aromatici, la cui formula bruta è C H .

6 6

Sperimentalmente sappiamo che la molecola del benzene è planare e che i sei atomi

di carbonio si dispongono ai vertici di un esagono perfettamente regolare. Questa

struttura ha rappresentato un grosso enigma per i chimici a partire dalla seconda metà

del XIX secolo: infatti, considerando la tetraedricità dell’atomo di carbonio,

ipotizzarono che fosse un banalissimo 1,3,5-cicloesatriene, ossia un composto

altamente insaturo con 3 doppi legami tra i carboni 1-2, 3-4 e 5-6. Se fosse stata vera

questa interpretazione però, l’esagono formato dagli atomi di carbonio non sarebbe

stato regolare, perché il doppio legame C=C ha una lunghezza di 1.33Å e il legame

semplice C-C ha una lunghezza di 1.54Å; attraverso l’osservazione della molecola del

benzene invece, si poteva osservare che i 6 legami tra i carboni sono perfettamente

uguali e pari a 1.39Å. A questa aporia per la chimica ottocentesca, si aggiungeva

anche un altro fenomeno apparentemente inspiegabile, la scarsissima reattività degli

aromatici. Un composto insaturo (come si pensava fosse il benzene) dà origine a

reazioni di addizione (elettrofila o radicalica); il benzene invece consentiva

esclusivamente reazioni di sostituzione, reagiva con il Br (bromo) ma non si osservava

2

il tipico scolorimento, reagiva con il KMnO (permanganato di potassio) ma non si

4

osservava il cambiamento di colore dovuto all’ossidazione. Come spesso accade,

quando un’ipotesi si trova imbrigliata in un dilemma per il quale non sembra esserci

soluzione, si introducono elementi di novità che tentano di ricomporre le fratture

interne e di conciliare la teoria con le osservazioni sperimentali (e questa è una

caratteristica strutturale della scienza moderna che è continuamente perfettibile).

Anche in questo caso per superare le difficoltà teoriche, nel 1865 il chimico tedesco

Friedrich August Kekulè (1829-1896) ipotizzò che la molecola si trovasse in uno stato

di equilibrio tra due forme (ossia l’ipotetico 1,3,5-cicloesatriene e il 2,4,6-

cicloesatriene) tra le quali oscillava talmente rapidamente che non era possibile

affermare in quale configurazione si trovasse in un preciso istante; secondo Kekulè era

questa rapidissima e continua oscillazione a determinare l’impossibilità di reagire con

gli altri composti. L’ipotesi di Kekulè anticipava, seppur in modo imperfetto, quella che

poi, nel 1900, sarà chiamata “teoria della risonanza”: in realtà a definire la struttura

del benzene concorrono due forme limite ( corrispondenti alle strutture di Kekulè) che

coesistono allo stesso tempo; la differenza con l’ipotesi del 1865 è che non è vero che

la molecola oscilla periodicamente tra queste due conformazioni, ma si pone a metà

strada fra esse e prende il nome perciò di “ibrido di risonanza”.

Il concetto-chiave che sta alla base della risonanza, è quello di delocalizzazione

2

elettronica: ogni carbonio ha ibridazione sp e i rimanenti orbitali p non ibridati, uno

per atomo, sono disposti perpendicolarmente al piano della molecola, parallelamente

tra loro; in questo modo i 6 elettroni rimanenti possono delocalizzarsi in un unico

orbitale π esteso a tutto l’anello. Questa struttura, com’è ovvio, influenza fortemente

le proprietà chimiche degli aromatici, infatti a causa della grande stabilità che l’anello

benzenico offre loro, non sono disposti a perdere questa configurazione e le reazioni a

cui danno luogo sono di sostituzione e non di addizione (come accade invece negli

2

alcheni, che presentano anch’essi un’ibridazione sp ). In sostanza sono disposti a

perdere un idrogeno, ma a patto che venga sostituito con un altro gruppo funzionale

(come lo ione nitronio nella nitrazione o lo ione cloruro nell’alogenazione). Per questo

tipo di composti insomma, chiedersi tra quali carboni è localizzato il doppio legame,

non ha senso né dal punto di vista fisico né dal punto di vista strettamente chimico: il

concetto stesso di legame, è una semplificazione che l’uomo attua per formalizzare i

problemi di reazione tra composti che, interagendo, modificano le loro caratteristiche.

Il tratto di penna che si disegna per indicare il legame tra due atomi non corrisponde,

in verità, a una REALE condivisione degli elettroni. Essi, solo per una forma di

1 5

semplificazione sono definiti come “particelle materiali” che girano attorno al nucleo.

In realtà il loro comportamento è spesso del tutto sfuggevole alle leggi dei corpi

materiali e proprio per questo la loro natura è allo stesso tempo, corpuscolare e

ondulatoria, esattamente come i fotoni (questa proprietà sarà verificata dagli studi di

George Thomson - Nobel nel 1937 - figlio di Joseph Thomson che, ironia della sorte, 31

anni prima aveva vinto il Nobel per la scoperta dell’elettrone come particella). In

definitiva se una particella si comporta anche come un’onda, non può avere una

posizione definita ma deve essere delocalizzata nello spazio. Proprio questa doppia

natura delle particelle subatomiche (che sono allo stesso tempo particelle e onde) è

alla base del secondo postulato fondamentale della meccanica quantistica (dopo

quello di Heisenberg) ossia il principio di complementarietà, formulato dal fisico

danese Niels Bohr (1885-1962, premio Nobel per la Fisica nel 1922): vi sono aspetti di

determinati oggetti fisici che sono complementari (secondo la dualità onda/corpuscolo)

ma allo stesso tempo incompatibili, poiché ogni esperimento atto a mostrare un

aspetto preclude ogni possibilità di osservare l’altro.

Bohr sistematizzò magistralmente le intuizioni che la fisica moderna aveva prodotto

fino ad allora e nella celebre interpretazione di Copenhagen del 1927 (della cui scuola

egli fu il leader) interpretò l’onda materiale di De Broglie come un’onda di probabilità

(la celebre interpretazione probabilistica di Copenhagen): ogni stato quantistico è

governato da una legge che assume la forma matematica dell’equazione di

Schrödinger, la cui soluzione, detta funzione d’onda, ha in sé tutte le informazioni

necessarie per descrivere l’elettrone e coincide con la probabilità di trovarlo in un

piccolo frammento ΔV di universo che si sceglie di osservare. Lo stato di una qualsiasi

particella pertanto non è più descrivibile dal punto di vista classico (ossia attraverso le

informazioni sulla posizione nello spazio, sul tempo e sulla quantità di moto), ma è

costituito dalla sovrapposizione di tutti i suoi possibili futuri, ciascuno “pesato” con la

diversa probabilità che accada. In sostanza secondo Bohr l’onda materiale di De

Broglie risulta essere un puro ente matematico, un’astrazione probabilistica, che

contiene in sé gli infiniti futuri della particella, affidati alla legge del caso: il quadrato

stesso della funzione d’onda rappresenta una densità di probabilità, che moltiplicata

per un piccolo volumetto ΔV, indica la probabilità che in quella regione di spazio si

trovi l’elettrone. Bisogna evidenziare però che l’equazione di Schrödinger in ogni

istante descrive un insieme di possibilità e non di attualità: soltanto misurando il

sistema possiamo leggere un valore specifico della grandezza che stiamo

considerando. Prima della misurazione non c’è alcun modo di prevedere il risultato.

John Von Neumann (1903-1957, matematico ungherese naturalizzato statunitense)

stabilì che è la misurazione stessa che determina il collasso della funzione d’onda e

Dettagli
Publisher
16 pagine
892 download