vuoi
o PayPal
tutte le volte che vuoi
3
indeterminazione (o dell’indeterminatezza) che è considerato, a ragione, uno dei
pilastri teorici dell’impianto quantistico e rappresenta forse il suo aspetto più
interessante per lo meno per quanto riguarda le sue implicazioni epistemologiche e
ontologiche. Heisenberg considerò la relazione λ=h/p (teorizzata da Einstein per i
fotoni e applicata da De Broglie ai corpi materiali) e notò che nel caso in cui la quantità
di moto di un corpo avesse avuto valore 0 (il caso di un corpo fermo), la lunghezza
dell’onda materiale che il corpo trasporta con sé, sarebbe stata infinita. Questo è
chiaramente un assurdo dal punto di vista fisico e Heisenberg lo risolse con
l’introduzione delle ben note relazioni di indeterminazione: non è possibile affermare
con sicurezza che p=0, si può dire al massimo che p=0 ± Δp dove con Δp si indica
l’incertezza della misurazione della grandezza “quantità di moto”. Questo margine
d’errore è indissolubilmente legato all’incertezza relativa alla posizione dalla particella
considerata, infatti il prodotto fra le incertezze non può essere reso arbitrariamente
piccolo e quindi non è neppure concettualmente eliminabile, ma deve avere ћ come
-34
valore minimo (ћ = costante di Dirac = h/2π = 1,054 X 10 J s): utilizzando strumenti
più accurati non si migliora INDEFINITAMENTE il valore della misurazione fino ad
arrivare a un risultato che sia assolutamente certo per entrambe le grandezze, perché
deve sempre valere la relazione Δp Δx ≈ ћ. L’incertezza relativa alla quantità di moto
e quella relativa alla posizione della particella, sono legate da una relazione di
proporzionalità inversa: facendo dimezzare l’una (quindi aumentando la precisione di
misurazione di una delle due), l’altra raddoppia e viceversa. In sostanza Heisenberg
postulò che a un certo livello microscopico, quantità di moto/posizione ed
energia/tempo (le altre due grandezze analogamente legate dalle relazioni di
indeterminazione) sarebbero dovute rimanere sempre indefinite.
Una prima spiegazione di questo principio è intuitivamente connessa alla difficoltà
misurativa che l’uomo deve affrontare per determinare queste due grandezze: infatti
per poter calcolare la posizione di un oggetto microscopico come un elettrone occorre
investirlo con un raggio di luce (ossia un fascio di fotoni) e questo fa si che l’elettrone
risulti perturbato dall’interazione con il fotone, che ne modifica inesorabilmente la
velocità (perché possiede una quantità di energia E=hν cede all’elettrone facendogli
mutare quantità di moto). Ma l’impossibilità di effettuare una misura esatta, non
deriva solo dall’invasiva interazione del mondo macroscopico sul microscopico nel
momento della misurazione: è una proprietà intrinseca (ontologica) della materia. In
nessun senso si può ritenere che una microparticella possieda, in un dato istante, una
posizione e una velocità univocamente definite. Il limite stabilito da Heisenberg quindi
non è un confine puramente cognitivo come poteva sembrare inizialmente, ma un
limite ontologico della materia: si postula in questo modo non solo l’inconoscibilità di
tali valori, ma la loro inesistenza reale. L’applicazione del principio di indeterminazione
di Heisenberg avrà particolare fortuna nelle scienze chimiche, in particolare in quella
branca della chimica che si interessa (più che alle reazioni), alla descrizione dei sistemi
atomici e molecolari. Nel corso degli anni 20 e 30, l’interazione tra queste due scienze
fu talmente forte che alcuni dei massimi pensatori della teoria chimica moderna,
furono fisici di fama internazionale e spesso premi Nobel (come Niels Bohr, Wolfang
Pauli ecc): in effetti sia la fisica moderna che la chimica hanno come oggetto lo stesso
argomento, ossia “l’infinitamente piccolo”, e questo favorisce un’intima connessione
tra gli studi chimici e fisici, che talvolta proprio per questo si sovrappongono.
Una delle conseguenze più immediate del principio di indeterminazione, è che in
alcuni composti organici (come per esempio i composti aromatici), risulta difficoltoso
stabilire quali sono gli orbitali che si sovrappongono tra loro. Il concetto di orbitale
stesso nasce in seno alla fisica quantistica, come diretta conseguenza del principio di
Heisenberg: la nozione di orbita deve essere sostituita con quella di orbitale, che,
coerentemente con l’interpretazione di Copenhagen, rappresenta la regione dello
1 4
spazio in cui la probabilità di trovare l’elettrone è massima. Consideriamo per esempio
il benzene, il capostipite degli aromatici, la cui formula bruta è C H .
6 6
Sperimentalmente sappiamo che la molecola del benzene è planare e che i sei atomi
di carbonio si dispongono ai vertici di un esagono perfettamente regolare. Questa
struttura ha rappresentato un grosso enigma per i chimici a partire dalla seconda metà
del XIX secolo: infatti, considerando la tetraedricità dell’atomo di carbonio,
ipotizzarono che fosse un banalissimo 1,3,5-cicloesatriene, ossia un composto
altamente insaturo con 3 doppi legami tra i carboni 1-2, 3-4 e 5-6. Se fosse stata vera
questa interpretazione però, l’esagono formato dagli atomi di carbonio non sarebbe
stato regolare, perché il doppio legame C=C ha una lunghezza di 1.33Å e il legame
semplice C-C ha una lunghezza di 1.54Å; attraverso l’osservazione della molecola del
benzene invece, si poteva osservare che i 6 legami tra i carboni sono perfettamente
uguali e pari a 1.39Å. A questa aporia per la chimica ottocentesca, si aggiungeva
anche un altro fenomeno apparentemente inspiegabile, la scarsissima reattività degli
aromatici. Un composto insaturo (come si pensava fosse il benzene) dà origine a
reazioni di addizione (elettrofila o radicalica); il benzene invece consentiva
esclusivamente reazioni di sostituzione, reagiva con il Br (bromo) ma non si osservava
2
il tipico scolorimento, reagiva con il KMnO (permanganato di potassio) ma non si
4
osservava il cambiamento di colore dovuto all’ossidazione. Come spesso accade,
quando un’ipotesi si trova imbrigliata in un dilemma per il quale non sembra esserci
soluzione, si introducono elementi di novità che tentano di ricomporre le fratture
interne e di conciliare la teoria con le osservazioni sperimentali (e questa è una
caratteristica strutturale della scienza moderna che è continuamente perfettibile).
Anche in questo caso per superare le difficoltà teoriche, nel 1865 il chimico tedesco
Friedrich August Kekulè (1829-1896) ipotizzò che la molecola si trovasse in uno stato
di equilibrio tra due forme (ossia l’ipotetico 1,3,5-cicloesatriene e il 2,4,6-
cicloesatriene) tra le quali oscillava talmente rapidamente che non era possibile
affermare in quale configurazione si trovasse in un preciso istante; secondo Kekulè era
questa rapidissima e continua oscillazione a determinare l’impossibilità di reagire con
gli altri composti. L’ipotesi di Kekulè anticipava, seppur in modo imperfetto, quella che
poi, nel 1900, sarà chiamata “teoria della risonanza”: in realtà a definire la struttura
del benzene concorrono due forme limite ( corrispondenti alle strutture di Kekulè) che
coesistono allo stesso tempo; la differenza con l’ipotesi del 1865 è che non è vero che
la molecola oscilla periodicamente tra queste due conformazioni, ma si pone a metà
strada fra esse e prende il nome perciò di “ibrido di risonanza”.
Il concetto-chiave che sta alla base della risonanza, è quello di delocalizzazione
2
elettronica: ogni carbonio ha ibridazione sp e i rimanenti orbitali p non ibridati, uno
per atomo, sono disposti perpendicolarmente al piano della molecola, parallelamente
tra loro; in questo modo i 6 elettroni rimanenti possono delocalizzarsi in un unico
orbitale π esteso a tutto l’anello. Questa struttura, com’è ovvio, influenza fortemente
le proprietà chimiche degli aromatici, infatti a causa della grande stabilità che l’anello
benzenico offre loro, non sono disposti a perdere questa configurazione e le reazioni a
cui danno luogo sono di sostituzione e non di addizione (come accade invece negli
2
alcheni, che presentano anch’essi un’ibridazione sp ). In sostanza sono disposti a
perdere un idrogeno, ma a patto che venga sostituito con un altro gruppo funzionale
(come lo ione nitronio nella nitrazione o lo ione cloruro nell’alogenazione). Per questo
tipo di composti insomma, chiedersi tra quali carboni è localizzato il doppio legame,
non ha senso né dal punto di vista fisico né dal punto di vista strettamente chimico: il
concetto stesso di legame, è una semplificazione che l’uomo attua per formalizzare i
problemi di reazione tra composti che, interagendo, modificano le loro caratteristiche.
Il tratto di penna che si disegna per indicare il legame tra due atomi non corrisponde,
in verità, a una REALE condivisione degli elettroni. Essi, solo per una forma di
1 5
semplificazione sono definiti come “particelle materiali” che girano attorno al nucleo.
In realtà il loro comportamento è spesso del tutto sfuggevole alle leggi dei corpi
materiali e proprio per questo la loro natura è allo stesso tempo, corpuscolare e
ondulatoria, esattamente come i fotoni (questa proprietà sarà verificata dagli studi di
George Thomson - Nobel nel 1937 - figlio di Joseph Thomson che, ironia della sorte, 31
anni prima aveva vinto il Nobel per la scoperta dell’elettrone come particella). In
definitiva se una particella si comporta anche come un’onda, non può avere una
posizione definita ma deve essere delocalizzata nello spazio. Proprio questa doppia
natura delle particelle subatomiche (che sono allo stesso tempo particelle e onde) è
alla base del secondo postulato fondamentale della meccanica quantistica (dopo
quello di Heisenberg) ossia il principio di complementarietà, formulato dal fisico
danese Niels Bohr (1885-1962, premio Nobel per la Fisica nel 1922): vi sono aspetti di
determinati oggetti fisici che sono complementari (secondo la dualità onda/corpuscolo)
ma allo stesso tempo incompatibili, poiché ogni esperimento atto a mostrare un
aspetto preclude ogni possibilità di osservare l’altro.
Bohr sistematizzò magistralmente le intuizioni che la fisica moderna aveva prodotto
fino ad allora e nella celebre interpretazione di Copenhagen del 1927 (della cui scuola
egli fu il leader) interpretò l’onda materiale di De Broglie come un’onda di probabilità
(la celebre interpretazione probabilistica di Copenhagen): ogni stato quantistico è
governato da una legge che assume la forma matematica dell’equazione di
Schrödinger, la cui soluzione, detta funzione d’onda, ha in sé tutte le informazioni
necessarie per descrivere l’elettrone e coincide con la probabilità di trovarlo in un
piccolo frammento ΔV di universo che si sceglie di osservare. Lo stato di una qualsiasi
particella pertanto non è più descrivibile dal punto di vista classico (ossia attraverso le
informazioni sulla posizione nello spazio, sul tempo e sulla quantità di moto), ma è
costituito dalla sovrapposizione di tutti i suoi possibili futuri, ciascuno “pesato” con la
diversa probabilità che accada. In sostanza secondo Bohr l’onda materiale di De
Broglie risulta essere un puro ente matematico, un’astrazione probabilistica, che
contiene in sé gli infiniti futuri della particella, affidati alla legge del caso: il quadrato
stesso della funzione d’onda rappresenta una densità di probabilità, che moltiplicata
per un piccolo volumetto ΔV, indica la probabilità che in quella regione di spazio si
trovi l’elettrone. Bisogna evidenziare però che l’equazione di Schrödinger in ogni
istante descrive un insieme di possibilità e non di attualità: soltanto misurando il
sistema possiamo leggere un valore specifico della grandezza che stiamo
considerando. Prima della misurazione non c’è alcun modo di prevedere il risultato.
John Von Neumann (1903-1957, matematico ungherese naturalizzato statunitense)
stabilì che è la misurazione stessa che determina il collasso della funzione d’onda e