Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

La posizione di Schrödinger rispetto al dualismo determinismo-indeterminismo fu

ambigua. Riguardo il concetto di causalità affermava che la sua utilizzazione era una

questione di opportunità, legata alle circostanze e alle contingenze del momento. Il

problema del determinismo non era solo una scelta di ordine metodologico ma

implicava la struttura oggettiva del reale. La plausibilità dell’indeterminatezza si

basava su affermazione ben precise, tuttavia affermava che non potesse avere

un’azione decisiva su un problema di così gran peso poiché non dimostrava

l’impossibilità che un’immagine determinata del mondo non rendesse anch’essa

conto dei fatti. Inoltre cercò di dimostrare che l’indeterminatezza non caratterizzava

solo la fisica moderna, ma anche la fisica classica, anche se implicitamente, quando

si superava ponendo la velocità iniziale fra le condizioni iniziali escludendola dai

calcoli. Solo che allora il superamento del determinismo era solo pratico, nella fisica

moderna si ammette che sia teorico. Quindi per Schrödinger non occorreva sostituire

inevitabilmente il determinismo con il suo contrario, bensì ammetteva che essa fosse

lecita e possibile. Rispetto al modo e alla possibilità di misurare i fenomeni egli

afferma che ogni osservazione eseguita a questo scopo è per sua natura

discontinua, con un grado di approssimazione reso possibile dallo strumento di

misurazione. Per superare questa discontinuità si ricorre all’interpolazione, cosicché

dai punti intermedi si arriva al concetto di traiettoria percorsa con continuità. Ma

questa non è il risultato di un’osservazione quantitativa immediata, ma è stata

giustificata con la supposizione che si giungerà con il progresso della tecnica ad

effettuare misurazioni sempre più precise. Questo tipo di supposizione non può

essere estesa al movimento dell’elettrone, poiché occorrerebbe uno strumento

costruito di ultramateria più piccola degli atomi per seguire lo spostamento

dell’elettrone nel tempo e nello spazio. Questa non è più una circostanza

accidentale, ma è una condizione inerente la natura stessa delle cose, per principio

impossibile. Detto questo non proponeva una soluzione al dilemma determinismo-

indeterminismo, e non pensava che la meccanica quantistica lo fornisse e ricordava

ai sostenitori delle due ipotesi che esse erano alla stessa maniera asserzioni pure e

semplici delle ipotesi non verificabili.

CAPITOLO 5

PASCUAL JORDAN EPISTEMOLOGO E FILOSOFO

Jordan ha apportato contributi teorici all’elaborazione matematica della fisica

quantistica, ma, come i colleghi sopracitati, ha espresso riflessioni metodologiche ed

epistemologiche a completamento dei modelli di interpretazione fisica. Ormai era

chiaro che la nuova immagine del mondo che la fisica quantistica forniva non

rispecchiava più una Realtà oggettiva, ma un modo contingente di descriverla e

manipolarla in modo più o meno efficace.

Egli fa riferimento al percorso di sviluppo della scienza come un processo di

accrescimento per accumulazione progressiva, che ha avuto inizio con la posa di

una solida base, come per un edificio, e contrappone ad esso un’altra metafora, che

sarebbe divenuta celebre con la versione datene da Popper. Secondo lui la scienza

naturale sarebbe paragonabile ad una costruzione iniziata in paludi infide, nella

quale la costruzione, non poggiando su basi rocciose, deve procedere

contemporaneamente verso l’alto e verso il basso, con un allargamento e un

rafforzamento continuo delle basi di appoggio. Occorre quindi una costante e vigile

attenzione, perché può accadere che una base precedentemente ritenuta affidabile

rispecchi una solidità limitata e per proseguire i lavori si debba trovare appoggi più

profondi e sicuri. Anche se i mutamenti possono essere profondi, il lavoro già

compiuto rimane il punto di partenza. Per cui l’epistemologia, intesa come il

chiarimento dei presupposti e dei problemi metodologici fondamentali della ricerca

scientifica, non deve solo precedere, ma deve sempre accompagnare il lavoro dello

scienziato. In nessun campo vi è infatti una base di conoscenza assolutamente

certa. Ciò vale anche per la matematica e a maggior ragione per le scienze naturali.

In queste ultime i singoli lavori scientifici derivano la loro validità dalla necessarietà

del metodo usato e i principi di questo metodo invece ricevono un rafforzamento a

posteriori dai risultati raggiunti.le considerazioni epistemologiche divengono poi

fondamentali quando occorre rendere esplicito un presupposto tacito che fino a quel

momento apparteneva ai fondamenti, non ancora utilizzati ma già messi alla prova. Il

legame stretto e immediato tra lavoro epistemologico e scientifico è determinante

per la loro fecondità e una forma di rafforzamento dei due momenti.

Con la teoria quantistica viene a cadere l’idea che aveva accompagnato lo sviluppo

della cultura occidentale secondo la quale vi sarebbe perfetta analogia tra

macrocosmo e microcosmo. L’accettazione di questo fatto comporta l’ammissione

che tra i due livelli di indagine fisica ci sia una differenza qualitativa di che mal si

adegua con l’immagine unitaria della realtà che la fisica classica intendeva fornire.

Così nella fisica c’è stato quello spostamento verso l’astratto che si era già visto

nella teoria della relatività. La descrizione della realtà appare sempre meno come un

riflesso di essa ma come una serie di formulazioni matematiche via via sempre più

complicate, tutto ciò deriva dal fatto che l’atomo non è un mondo macroscopico

rimpicciolito e le leggi che ne governano il comportamento sono completamente

diverse da quelle relative agli oggetti macrofisici: l’atomo si sottrae alla

determinazione causale ed è soggetto solamente a leggi statistiche. Ciò non

significa però che la teoria quantistica sia meno certa della fisica classica, perché ha

tutte le caratteristiche della teoria. 1) è descritta secondo un sistema logico-

matematico compatto e chiaro; 2) rientra nei normali processi di cambiamento che

caratterizzano la conoscenza umana; 3) rende ragione di una contraddizione che

nell’ambito della fisica classica appariva insormontabile: rappresenta il limite

insuperabile per ogni ricerca e conoscenza e risolve il problema della descrizione

materiale della realtà ultima e quello della sua divisibilità.

La scoperta di Planck ha introdotto i fisici in un campo della fisica totalmente

inesplorato riconosciuto di fondamentale importanza per la ricerca, che si trovò di

fronte a fenomeni fino ad allora ritenuti impossibili: ciò era da stimolo per lo studio

della loro interpretazione, ma anche ostacolo grave per la comprensione teorica

delle cose scoperte. Si aprì una frattura clamorosa tra i diversi livelli di realtà la

descrizione unitaria di essi si mostrava di difficilissima realizzazione. Il carattere

discontinuo (anche essa fa salti) della natura metteva in evidenza una profonda

differenza tra microfisica e macrofisica. I tentativi di “rinormalizzazione” mostrarono

tutta la loro debolezza. Anche la soluzione opposta, cioè di considerare i due livelli

nettamente separati si rivelarono inuattabili. Il tentativo di conciliare i due ambiti

mantenere stretti vincoli tra le due fisiche fu fornito da Bohr che con il principio di

corrispondenza affermava che, nonostante le profonde differenze tra la microfisica e

la macrofisica, vi sono tra esse delle somiglianze. Si considerava “capita” una legge

riguardante un fenomeno microfisico quando questa era stata riconosciuta come

l’analogo di una legge classica e si tendeva a sviluppare i concetti nuovi e propri

della microfisica in stretta aderenza alla teoria classica. Dunque la teoria classica

doveva essere abbandonata come base di spiegazione della microfisica ma doveva

essere mantenuta come modello per una teoria nuova. In essa le discontinuità

caratteristiche dei fenomeni microfisici dovevano apparire come elementi primari

mantenendo un’affinità formale con la teoria classica. E due vie percorse furono la

meccanica matriciale e quella ondulatoria che hanno condotto ad una sostanziale

convergenza di fondo in conseguenza della quale si è ammesso che sia il carattere

astratto di tutta la teoria, che la sostituzione delle leggi classiche strettamente

causali con leggi soltanto statistiche devono essere considerati come definitivi (vedi

Heisenberg e il principio di indeterminazione).

Il principio di indeterminazione di Heisenberg afferma che non non possiamo in linea

di principio conoscere il presente in ogni elemento determinante, perciò ogni

percepire è una selezione da una quantità di possibilità e una limitazione delle

possibilità future. Questo sconfessa il principio di causalità, che faceva ricorso a

fittizie variabili nascoste dietro il quale celava ancora un mondo reale nel quale essa

era ancora valida. Per i teorici quantici la fisica deve descrivere invece formalmente

solo la connessione delle percezioni: poiché tutti gli esperimenti sono soggetti alle

leggi della meccanica quantistica e mediante la meccanica quantistica viene stabilita

definitivamente la non validità della legge di causalità. Se di accetta l’idea che la

sorprendente a-causalità statistica della fisica quantica esprima una conoscenza più

profonda dei fenomeni naturali piuttosto che un’incompletezza della teoria siamo

portati a pensare che proprio questa a-causalità possa offrire nuove prospettive per

la soluzione dei problemi, per i quali la rappresentazione classico-causale della

natura sembrava troppo limitata. Una derivazione interessante è che l’a-causalità di

effetti elementari microscopici possa portare a una indeterminatezza di determinati

processi biologi. Jordan apre un altro interessantissimo problema , ipotizzando che

l’organismo vivente parlando fisicamente dovrebbe avere la struttura di un forte

amplificatore, così che in certi casi il singolo processo elementare microfisico possa

guidare un grande processo biologico. Jordan ha avuto anche il merito di discutere

esplicitamente un problema di natura pedagogico-didattica: la questione sulla

necessità di riformare l’insegnamento della fisica in conseguenza delle rivoluzioni del

Novecento.

L’ipotesi ventilata in quel periodo era che sarebbe stata opportuna una modifica del

metodo tradizionale di insegnamento, partendo dalla fisica atomica per ritornare poi

alla fisica classica. Jordan la riteneva pedagogicamente sbagliata, occorre invece

seguire lo sviluppo storico della conoscenza, inoltre per la questione del linguaggio

in cui la nuova fisica può essere espressa. Dal punto di vista pedagogico egli

riteneva che la maturità, l’abitudine e la capacità al ragionamento fisico che sono

necessari per la comprensione della fisica atomica devono essere acquisite

dapprima e rafforzate attraverso lo studio di altri problemi. Inoltre l’esposizione della

nuova fisica crea un problema di linguaggio che può essere risolto solo in

connessione strettissima con la fisica classica, che è ancora il “presupposto

linguistico” della fisica atomica. Infatti noi possiamo collegare direttamente con

l’esperienza solo i concetti della macrofisica, quelli della microfisica li possiamo

collegare solo attraverso la macrofisica. Insomma la via intuitiva che sola consente

di cogliere il significato di ciò che avviene nell’immensamente piccolo si esprime

sempre attraverso il linguaggio della fisica macrofisica. Sebbene le leggi della

macrofisica siano matematicamente una conseguenza di quelle della microfisica, la

microfisica può essere formulata solo dopo la macrofisica e a partire dalla

macrofisica. Di fronte ai fenomeni microfisici abbiamo sia il problema della loro

rappresentazione, sia il problema di comunicazione, abbiamo cioè una situazione in

cui degli oggetti non possono essere colti attraverso i sensi ma devono essere

formalizzati attraverso la matematica. Quindi la meccanica quantistica è

comprensibile senza ulteriori riferimenti dal punto di vista matematico, ma il suo

contenuto e il suo significato fisico possono essere compresi solo se si conosca già

la macrofisica poiché i sistemi microfisici acquisiscono un’esistenza oggettiva solo in

riferimento a sistemi macrofisici con la produzione di tracce.

Jordan è riuscito ad affrontare i problemi suscitati dall’elaborazione della fisica

quantistica senza pregiudizi e senza forzature. Non ha voluto far rientrare a tutti i

costi la nuova fisica nell’ambito di quella classica e non ha fatto resistenza alle sue

implicazioni più drammatiche, cercando di far capire ciò che stava accadendo e

avrebbe caratterizzato tutto il Novecento.

CAPITOLO 6

ILYA PRIGOGINE E LA STORICIZZAZIONE DELLA NATURA

Secondo principio della termodinamica= è un principio della termodinamica classica.

Questo principio tiene conto del carattere di irreversibilità di molti eventi

termodinamici, quali ad esempio il passaggio di calore da un corpo caldo ad un

corpo freddo. A differenza di altre leggi fisiche quali la legge di gravitazione

universale o le equazione di Maxwell, il secondo principio è fondamentalmente

legato alla freccia del tempo.

La scienza classica si basa su due principi: è universale, necessaria, definitiva, i suoi

principi non hanno bisogno di ulteriori sviluppi. In essa tutti i fenomeni sono costituiti

da una parte “sostanziale” che rappresenta la vera essenza di essi e quindi perdura

immutabile nelle varie trasformazioni “esteriori” che accade loro di subire e ne

determinano la parte “accidentale” e quindi contingente. Ciò ha determinato la

riduzione dei fenomeni in termini operativi della loro parte essenziale all’aspetto

quantitativo, e in quanto tale misurabile. Ogni evento è stato pensato come regolato

da leggi che restano tali qualunque sia il luogo, il tempo e l’osservatore che le mette

alla prova. Questo ha permesso di applicare ai fatti la formalizzazione matematica.

Questa universalità si rifletteva anche nei concetti fondamentali della struttura logica

del Reale. Lo Spazio e il Tempo erano i parametri entro cui inquadrare i fenomeni, o

dei contenitori assoluti, oppure delle forme della pura sensibilità. In ogni caso

restavano in un rapporto di esteriorità rispetto ai fenomeni, intesi come oggetti

immodificabili regolati da un rapporto deterministico causa-effetto.

Nella logica tradizionale la svolta verso il riconoscimento della sua intrinseca

struttura temporale e complessa fu compiuta da Hegel nel primo decennio

dell’Ottocento. Opponeva il Divenire della storia all’Essere della scienza tradizionale.

Un processo analogo avveniva anche in ambito scientifico, però. Prigogine afferma

di poterne individuare il principio nel 1811, quando Fourier enunciò la sua trattazione

teorica sulla propagazione del calore nei solidi. Muovendo dalla irriducibilità del

manifestarsi del calore al modello meccanicistico, egli afferma che la propagazione

del calore fra due corpi di temperatura differente è un fenomeno che non si può

ricondurre alle interazioni dinamiche fra masse ravvicinate: il flusso di calore fra due

corpi è proporzionale al gradiente della temperatura fra essi. Quindi i fenomeni non

sono caratterizzati soltanto dalla quantità di materia che li costituisce, né dalla sola

quantità di moto che li mette in movimento, ma mostrano un’altra qualità specifica:

ogni corpo è nello stesso tempo capace di ricevere, accumulare e trasmettere il

calore. Ciò rende il corpo “mobile”, lo trasforma non solo rispetto agli altri corpi e allo

spazio circostante ma anche al proprio interno. Il calore e la gravità sono due

universali che coesistono nella fisica: la massa subisce la gravità e il calore

trasforma la materia e determina i cambiamenti di stato e le modificazioni delle

proprietà intrinseche. Acquisisce significato così il concetto di “trasformazione nel

tempo”.

Così ogni evento singolo ha bisogno di un tempo per accadere. Il tempo non è più

un contenitore ma un’essenza specifica di ogni avvenimento. Questa affermazione

ha portato, come rileva Morin, ad un Universo in continua trasformazione nel quale si

passa continuamente dall’organizzazione alla disorganizzazione e viceversa, in

un’alternanza che costituisce la ragione stessa del divenire. Ormai siamo penetrati a

tutti i livelli del Reale, dall’immensamente picco lo agli spazi indefiniti. Questa è la

morte dell’idea dell’immutabilità dell’universo. Perciò occorre riconoscere al tempo

un ruolo onnicomprensivo che si estende a tutti i livelli, fino a rappresentare

contemporaneamente la struttura intrinseca a tutti i fenomeni e il contesto generale

all’interno del quale dinamicamente essi si situano. L’insieme dell’universo ha una

storia e questa scoperta ha avuto risonanze culturali profonde. La negazione di tutto

ciò aveva causato infatti una frattura epistemologica durata più di trecento anni tra

via umanistica e via scientifica verso la conoscenza. La svolta è appunto il

riconoscimento da parte degli scienziati del Novecento del ruolo ineliminabile del

tempo anche per gli “oggetti”. Secondo Prigogine ogni essere ogni fenomeno

complesso è costituito da una pluralità di tempi, ognuno dei quali è legato agli altri

con articolazioni sottili e multiple. Questa scoperta della molteplicità del tempo non è

stata una rivelazione, piuttosto un’ammissione di ciò che tutti sapevano. Inoltre il

tempo ha una direzione che fornisce un “verso” preciso a tutto ciò che esiste

(metafora del tempo come freccia). Quindi anche l’attività di ricerca deve essere

orientata nel tempo . È possibile profilare una nuova nozione di tempo che prescinde

le categorie di divenire e di eternità. Con ciò è possibile parlare di un “tempo

potenziale” presente allo stato latente prima della nascita dell’universo e trasformato

in atto colo in seguito a fenomeni di fluttuazione: il tempo precederebbe così

l’esistenza dell’universo e rispetto ad esso giocherebbe un ruolo creativo.

L’idea dell’evento come fenomeno complesso sia nella strutturazione interna che

nelle sue interazioni con l’ambiente lo vende inteso come un microsistema inserito in

un sistema più ampio. In funzione di ciò devono essere considerate le rispettive

interazioni sia a livello concreto che a livello formale. Lo studio dei processi fisici

legati al calore comporta la definizione di un sistema: in termodinamica la definizione

di un sistema avviene tramite un insieme di parametri macroscopici quali la

temperatura, le pressione, il volume e così via. Va in crisi così il concetto classico di

spazio-contenitore indifferente agli oggetti situati in esso e a sua volta omogeneo

perché non condizionato dagli oggetti stessi, avvicinandoci alla concezione

aristotelica di ambiente. Nella termodinamica invece l’evento contribuisce a mutare

l’ambiente circostante. Prigogine per capire questa differenza invita a riflettere sulla

differenza analoga che intercorre tra spazio biologico (accrescimento dell’embrione)

e spazio geometrico. Anche nei sistemi evento-ambiente l’instabilità è data dalla

variabilità degli enti interagenti, nel caso di sistemi biologici o ecologici, i parametri

che definiscono l’interazione con l’ambiente non possono essere considerati

costanti. La simbiosi di ogni esistente con l’ambiente circostante lo rende dinamico

nella stessa misura in cui esso è in continua evoluzione, trasformazione e

complessificazione.

Questo rapporto articolato e complesso tra enti e ambiente comporta una revisione

del vecchio legame deterministico tra causa ed effetto. Nei processi irreversibili

legati alla diffusione del calore è impossibile operare una netta distinzione tra

l’evento che costituisce la causa e quello che risulta l’effetto, al punto da determinare

la scomparsa della causa. Il concetto di causalità si complessissima a tal punto da

includere anche quello di effetto. Morin afferma che la causalità complessa non è

lineare ma circolare ed interrelazionale, la causa e l’effetto hanno perduto la loro

sostanzialità, la causa ha perduto la sua onnipresenza l’effetto la sua noni-

dipendenza. La causalità complessa non è più deterministica o probabilitaria; essa

riguarda esseri individuali interagenti con il loro ambiente.

L’entropia, cioè la tendenza al raggiungimento di uno stato finale di equilibrio termico

faceva paventare la “morte termica” dell’Universo. In questo senso la termodinamica

è lineare in quanto descrive comportamenti stabili e predicibili dei sistemi. Prigogine

ha invece indagato sistemi che si presentano “lontani dall’equilibrio” termodinamico e

che in quanto tali assumono un ruolo positivo. Essi sono stati definiti strutture

dissipative (un sistema termodinamico in non-equilibrio in grado di scambiare

energia con l'esterno e di far emergere l'ordine dal disordine. Tipico sistema

dissipativo è il vivente, dalle cellule agli organismi superiori.) perché non solo

perdurano strutturate secondo un’articolazione complessa, ma anche perché, prima

di dissiparsi, fanno in tempo a riprodursi. Le strutture dissipative forniscono un

esempio lampante del non-equilibrio come sorgente di ordine. Secondo prigogine le

strutture di equilibrio non hanno valenza universale e quanto teorizzate per esse non

è estensibile alle “sue” strutture dissipative. Esse determinano la comparsa di un

ordine definito mediante fluttuazioni, e l’attenzione degli scienziati deve essere

orientata a questi fenomeni delle fluttuazioni e al loro diverso amplificarsi in funzione

degli stimoli del “senso interno”. Questi sistemi lontani dall’equilibrio spiegano

meglio quei fenomeni che la teoria sedei sistemi non era riuscita a chiarire fino in

fondo, ad esempio i sistemi caotici, consente di comprendere la comparsa delle

novità delle formazioni emergenti a partire dalla disgregazione di quelle vecchie. A

partire da questa prospettiva generale si è giunti alla formalizzazione matematica e

all’elaborazione concettuale della stretta relazione intercorrente tra stabilità e

mutamento, intrinseca ad ogni sistema organizzato: si è chiarito a livello teorico che

non esistono strutturazioni immodificabili, esiste coesistenza d struttura e

cambiamento, di immobilità e movimento. Prigogine pone l’accento sul ruolo creativo

della turbolenza e sulla capacità di autorganizzazione che si esplica a livello

molecolare. Mentre il moto turbolento appare irregolare e caotico su scala

macroscopica su scala microscopica è al contrario altamente organizzato. Prigogine

ci dimostra che lontano dall’equilibrio la materia acquista nuove proprietà in cui le

fluttuazioni, le instabilità svolgono un ruolo essenziale: la materia diventa più attiva.

Quindi la distanza dall’equilibrio diventa un parametro fondamentale per descrivere il

comportamento della materia, come lo è la temperatura nei sistemi in equilibrio.

Secondo lui le strutture dissipative non solo si mantengono in uno stato di stabilità

lontano dall’equilibrio ma possono persino evolversi. Quando cresce il flusso di

materia e di energia ce le attraversa esse possono passare per nuove fasi e

trasformarsi in nuove strutture di maggiore complessità.

Le strutture dissipative, prodotte ed emergenti dal disordine, sono dunque

un’organizzazione estremamente complessa e del tutto lontana dalla semplicità

postulata dalla scienza classica. La differenza tra semplice e complesso non può

essere inquadrata lungo un continuum in termini lineari e in senso gerarchico,

perché è troppo semplificante. Il loro rapporto è molto più articolato. Ovunque si

rivolga lo sguardo c’è un miscuglio in cui semplice e complesso sono vicini senza

opporsi in maniera gerarchica. La complessità impone quindi una visione del mondo

priva della sottomissione all’idea di una differenza gerarchica tra livelli. Il concetto di

scienza si connota di creatività e storicità: essa consente alla creatività umana di

vivere se stessa come l’espressione singolare di un carattere fondamentale che è

comune a tutti i livella della natura. L’universo è storico o in continuo divenire, anzi il

Tutto potrebbe essere definito un Pluriverso che rivela novità in tutte le direzioni

evolvendosi continuamente, un universo di instabilità e fluttuazioni che sono

all’origine dell’incredibile varietà e ricchezza forme e strutture che vediamo intorno a

noi. Occorre indagare quindi la complessità a ogni livello, dalle molecole ai sistemi

biologici, fino alle organizzazioni sociali. Prigogine insiste sulla necessità della

consapevolezza di riconoscere alla Natura una connotazione storico-temporale e

diversificata e di conseguenza avere un nuovo atteggiamento nella sua descrizione.

In poche parole il riconoscimento della complessità non è più limitato alla biologia,

ma sembra radicata nelle leggi della Natura: l’unità dell’universo nella complessità.

Lo scopo della ricerca è la formulazione unificata dei fenomeni di auto-

organizzazione nei sistemi complessi, cioè nei sistemi che coinvolgono un grosso

numero di subunità interagenti. Perché avvenga l’evoluzione di un sistema semplice

in uno complesso occorre una “biforcazione” anche minima nello svolgimento lineare

sei processi fisici, il celeberrimo effetto farfalla può manifestarsi a tutti i livelli e

essere generato da qualsiasi circostanza.

Effetto farfalla= è una locuzione che racchiude in sé la nozione maggiormente

tecnica di dipendenza sensibile alle condizioni iniziali, presente nella teoria del caos.

L'idea è che piccole variazioni nelle condizioni iniziali producano grandi variazioni nel

comportamento a lungo termine di un sistema. La conseguenza pratica dell'effetto

farfalla è che i sistemi complessi, come il clima o il mercato azionario, sono difficili da

prevedere su una scala di tempo utile. Questo perché ogni modello finito che tenti di

simulare un sistema, deve necessariamente eliminare alcune informazioni sulle

condizioni iniziali, ad esempio, quando si simula il tempo atmosferico, non è

possibile includere anche lo spostamento d'aria causato da ogni singola farfalla. In

un sistema caotico, questi errori di approssimazione tendono ad aumentare via via

che la simulazione procede nel tempo e, al limite, l'errore residuo nella simulazione

supera il risultato stesso. In questi casi, in sostanza, le previsioni di una simulazione

non sono più attendibili se spinte oltre una certa soglia di tempo.

Vedi “intervista”.

All’interno di questa visione il contrasto tra Essere e Divenire acquista un nuovo

significato. La classica relazione di reciproca esclusione lascia il posto al

riconoscimento del ruolo attivo del tempo. L’Essere nel senso parmenideo è stato

veramente inghiottito da Cronos. Il tempo storico diventa il punto di vista da cui

interpretare la Natura e si rivela come la struttura intrinseca di essa.

La svolta verso l’indeterminismo rivela il problema metafisico più importante della

scienza: il rapporto tra necessità e libertà. I risultati ottenuti dimostrano che il conflitto

tra Parmenide ed Eraclito può essere estrapolato dal contesto metafisico e formulato

nei termini della moderna teoria dei sistemi dinamici.Secondo Prigogine la nuova

visione che emerge è una descrizione equidistante tra le due rappresentazioni di un

mondo deterministico della scienza classica e quella di un mondo arbitrario soggetto

al caso. Le leggi fisiche corrispondono ad una nuova forma di intelligibilità espressa

da rappresentazioni probabilistiche irriducibili. Esse sono associate all’instabilità e,

tanto al livello macroscopico quanto a livello microscopico, descrivono gli eventi

come possibili, senza ridurli a conseguenze deducibili e prevedibili di leggi

deterministiche. Il messaggio lanciato dal secondo principio della termodinamica è

che non possiamo mai predire il futuro di un sistema complesso.il futuro è aperto e

questa apertura si applica tanto ai piccoli sistemi fisici che al sistema globale,

l’universo nel quale ci troviamo.

Così il secondo principio della termodinamica si è rivelato “costruttivo”. Grazie ad

esse la fisica ha potuto descrivere la natura in termini di divenire, un mondo aperto

alla storia. Prigogine nota come il processo di storicizzazione sia una tendenza dei

tempi poiché emerge da tutte le attività umane: le scienze e la cultura scoprono

ovunque la forza creatrice del tempo. In ambito fisico tutto ciò che accade non può

più essere rappresentato graficamente dalla consueta linea continua, ma da una

linea che mostra biforcazioni a cascata. Essa testimonia il ruolo rilevante delle

singolarità, che condizionano lo svolgimento degli eventi e ne sono in qualche modo

responsabili. Gli eventi vengono associati alle biforcazioni. Il ruolo degli individui è

più importante che mai. Prigogine riconosce una vera e propria metamorfosi della

Natura perché la storicità del tutto è emersa a tutti i livelli. Ancora una volta si

ribadisce come la nuova immagine del mondo sia connotata in maniera definitiva dal

divenire: l’osservare scientifico non si rivolge più alla struttura in sé che caratterizza

ogni oggetto, ma a come questa struttura evolve nel tempo. Tale cambiamento non è

il risultato di una decisione arbitraria, ma è stato imposto, in fisica, dalle nuove

scoperte che nessuno avrebbe mai potuto prevedere. La ricerca dell’uno è fallita.

Emerge da queste considerazioni l’immagine di un mondo vivo, di un pianeta vivente

che non solo partecipa alla vita, ma che consente la vita, anzi è vita esso stesso.

L’invito è di dialogare con la Natura in modo nuovo, un modo nuovo in cui si

dimentica la vecchia pretesa di dominazione su di essa.

Ecco che prende forma un rapporto tra Uomo e Natura che è più stretto, più

intrinseco, dal contatto quasi esterno, in vera e propria simbiosi. La fisica è soggetta

a costrizioni intrinseche che ci identificano come parte del mondo fisico che stiamo

descrivendo. Non è solo il destino che ci impone gli eventi anche noi siamo

corresponsabili di ciò che accade.

CAPITOLO 7

LOVELOCK E LA NATURA COME ORGANISMO VIVENTE

L’idea tradizionale di natura come meccanismo, entità statica, senza storia, fuori dal

divenire temporale e quindi non soggetta a mutamenti, di matrice deterministica,

subì mutamenti in seguito al progressivo affermarsi delle nuove teorie della

meccanica ondulatoria e di quella quantistica, che provocarono una rottura

epistemologica, teoretica e metafisica. Ne è derivata, ad esempio, la concezione

espressa da James Lovelock della natura come essere vivente, come Gaia.

Per Lovelock la Terra è un organismo vivente e come tale merita un nome, è stato

scelto Gaia i quanto era quello dato dai greci alla dea della Terra. Antesignano di

Lovelock fu negli anni venti un russo, Vernadsky, tuttavia le difficoltà linguistiche e i

tempi non ancora maturi non hanno permesso l’affermarsi delle sue idee. Lovelock

elaborò la sua ipotesi mentre lavorava alla NASA alla ricerca della vita su Marte. La

cultura del novecento ha portato al superamento di molte dicotomie: Lovelock ha

riunito con la sua ipotesi la frattura tra Mondo animato e Mondo inanimato. Quando

ha mostrato la sua teoria alla comunità scientifica si è mostrato perfettamente

consapevole che l’idea che la terra sia viva è ai confini della credibilità scientifica.

Essa postula che la condizione fisica e chimica della superficie terrestre,

dell’atmosfera e degli oceani è stata ed è attivamente resa adatta e confortevole per

la vita dalla sua stessa presenza. Ciò contrasta con la scienza convenzionale,

quando afferma l’adattamento della vita all’ambiente. Per Lovelock invece

l’evoluzione delle specie e l’evoluzione del loro ambiente sono strettamente correlate

e costituiscono un unico indivisibile processo. Al concetto darwiniano di adattamento

si sostituisce quello di interazione, condizionamento reciproco, simbiosi,

cooperazione. Lovelock si esprime sul concetto di vita descrivendola come uno stato

comune della materia che si trova sulla superficie della Terrea negli oceani; la

biosfera è per lui un’entità autoregolata, capace di mantenere vitale il nostro pianeta

mediante il controllo dell’ambiente chimico e fisico.

L’esplorazione nello spazio ha fatto sorgere l’ipotesi che la sostanza vivente della

Terra, l’aria, gli oceani e le superfici emerse formino un sistema complesso. A

Lovelock venne in mente di fare un’analisi dell’atmosfera di Marte, essendo convinto

che la vita non si potesse trovare in sacche isolate, cioè che la presenza della vita

comporta un’interazione attiva con tutto ciò che rappresenta il contesto. L’ipotesi

consiste nel presupporre che su un pianeta le condizioni di vita sono possibili solo se

“coprono” ogni angolo del pianeta stesso, senza eccezioni e senza zone franche.

Queste considerazioni si fondano su alcune riflessioni che tengono presenti le

conseguenze emergenti dall’ambito della Termodinamica. La Terra viene considerato

un vero proprio sistema che comprende tutta quanta la vita e tutto quanto il suo

ambiente strettamente accoppiati così da formare un’entità che si autoregola, si

auto-organizza.

Il concetto di auto-organizzazione è un concetto sviluppato inizialmente dai

cibernetica e teorizzato con piena consapevolezza da Heinz von Foerster che coniò

l’espressione “ordine dal rumore”. L’auto-organizzazione è la comparsa spontanea di

nuove strutture e di nuove forme di comportamento in sistemi aperti lontani

dall’equilibrio, caratterizzati da anelli di retroazione e descritti matematicamente da

equazioni non-lineari. Un anello di retroazione o feedback loop è una disposizione

circolare di elementi connessi causalmente in cui una causa iniziale si propaga lungo

le connessioni dell’anello così che ogni elemento agisce sul successivo finché

l’ultimo propaga di nuovo l’effetto al primo elemento del ciclo. L’input subisce l’effetto

dell’output. Esso dà come risultato l’autoregolazione dell’intero sistema, dato che

l’effetto iniziale viene modificato ogni volta che esse compie l’intero ciclo. Metafora

del timoniere. Vediamo qual è l’anello di retroazione che regola l’omeostasi del

pianeta terra.

Insieme a Lynn Margulis, Lovelock individuò una rete complessa di anelli di

retroazione che conducevano all’autoregolazione del pianeta. La caratteristica

notevole di questi anelli è che essi collegano sistemi viventi e non viventi. Quindi non

si può più pensare alle rocce, agi animali e alle piante come se fossero entità

separate. Questo completa lo sforzo di unificazione della Realtà iniziato con il

riconoscimento della storicità della Natura. In particolar modo il ruolo dell’anidride

carbonica segna la specificità della vita sulla Terra, mettendo in evidenza la sua

assenza su Marte. Ecco il suo ciclo nel dettaglio: i vulcani emettono enormi quantità

di CO , poiché questo gas contribuisce ad aumentare enormemente l’effetto serra,

2

Gaia ha necessità di eliminarlo dall’atmosfera, altrimenti la temperatura si

innalzerebbe a livelli insostenibili per la vita. Piante e animali riciclano enormi

quantità di CO attraverso i processi di fotosintesi, respirazione e putrefazione,

2

eppure questi processi si bilanciano sempre e non hanno alcun effetto sul livello di

CO presente nell’atmosfera. Secondo la teoria di Gaia l’eccesso di CO viene

2 2

eliminato attraverso un immenso anello di retroazione, in cui la degradazione

meteorica costituisce un elemento fondamentale. In questo processo le rocce della

crosta terrestre si combinano con l’acqua piovana e l’anidride carbonica per formare

vari composti chimici chiamati carbonati. In questo modo la CO viene sottratta

2

all’atmosfera e trattenuta in composti liquidi. Questi processi sono puramente

chimici. Tuttavia si è scoperta la presenza di alcuni batteri nel suolo che come

catalizzatori di questi processi accrescono enormemente la rapidità del processo di

degradazione meteorica. Quando il riscaldamento solare aumenta viene stimolata

l’azione dei batteri del suolo, aumenta la degradazione, viene eliminata una quantità

maggiore di dall’atmosfera e quindi il pianeta si raffredda. Questo movimento

circolare si autoalimenta e allo stesso tempo autoregola. L’ipotesi di Gaia afferma

che la superficie della Terra che abbiamo sempre considerato come l’ambiente della

vita fa realmente parte della vita. Ecco anche che l’ipotesi di Prigogine di una Nuova

Alleanza acquista tutta la sua plausibilità: la Terra e la vita che la abita sono un solo

sistema in grado di autoregolarsi attraverso un processo attivo, sostenuto

dall’energia fornita dalla luce solare.

Secondo Lovelock Gaia è la più grande manifestazione della vita. Il sistema Gaia

comprende:

Organismi viventi che crescono vigorosamente sfruttando ogni occasione naturale.

Organismi soggetti alle leggi della selezione naturale darwiniana.

Organismi che alterano il loro ambiente fisico-chimico.

Vincoli e confini che stabiliscono i limiti della vita: temperatura stabile, neutralità del

ph, concentrazione ottimale di sostanze chimiche.

La caratteristica dell’organismo gaia è l’equilibrio omeostatico per un verso e la

capacità di strutturarsi dall’altro. Questa nuova immagine del mondo impone un

nuovo atteggiamento nei confronti di quella che Edgar Morin ha chiamato la nostra

Terra-Patria, una nuova etica, definita appunto ecoetica. Inoltre:

La vita è un fenomeno su scala planetaria. Su questa scala è quasi immortale e non

ha bisogno di riprodursi.

Non ci può essere l’occupazione parziale di un pianeta da parte degli organismi

viventi, ciò non sarebbe permanente.

Nuova visione del concetto di adattamento darwiniano inserendo la reciprocità, cioè

gli effetti dell’organismo sull’ambiente.

C’è nuova linfa per l’ecologia teorica.

Il rapporto tra l’uomo e gaia dunque si modifica. Dobbiamo abbandonare gli interessi

particolari ed impegnarci nella ecoetica, altrimenti Gaia si comporterà come sempre

ha fatto eliminando la nostra forma di vita che le reca perturbazioni insostenibili, con

la nostra azione priva di consapevolezza della nostra stretta interdipendenza con

essa. A questo ci spinge la Nuova Alleanza, la coscienza della Terra-Patria.

CAPITOLO 8

MANDELBROT, LA GEOMETRIA FRATTALE E LA SUA ESTENSIONE

La geometria nella sua lunga storia ha attraversato tre tappe fondamentali: la

fondazione ad opera di Euclide, lo sconvolgimento delle geometrie non-euclidee

(Riemann) e la reimpostazione radicale ad opera di Benoît Mandelbrot. Egli ha

dimostrato che la rettificazione della Realtà era inattuabile e che occorreva una

trasformazione radicale della geometria da scienza quantitativa a scienza qualitativa.

Ed ha fatto questo attraverso la naturale osservazione della Forma della Natura che

emerge dalle cose stesse. Essa entra perfettamente all’interno della teoria dei

sistemi dinamici, essendo una matematica delle relazioni e delle configurazioni, in

cui l’attenzione non è più all’oggetto, alla quantità o alla sostanza. Il termine frattale

deriva dal latino fractus che significa spezzato e irregolare, la geometria frattale

consente una descrizione della Natura più aderente appunto alla sua irregolarità.

All’inizio essa fu accolta malamente dalla maggioranza degli scienziati che non

riuscivano a cogliere il suo significato effettivo. Le nuove forme geometriche

elaborate da Mandelbrot furono il nucleo generatore non solo di singoli oggetti

specifici, ma anche di gruppi di essi a vari livelli e a varie dimensioni. E che lo hanno

condotto ad intravedere forme particolari non solo in enti materiali, ma anche nei

grafici di sviluppo di varie attività umane.

PLUS: Un frattale è un oggetto geometrico che si ripete nella sua struttura allo

stesso modo su scale diverse, ovvero che non cambia aspetto anche se visto con

una lente d’ingrandimento. Questa caratteristica è spesso chiamata auto similarità. Il

termine frattale venne coniato nel 1975 da Benoît Mandelbrot, e deriva dal latino

fractus (rotto, spezzato), così come il termine frazione; infatti le immagini frattali sono

considerate dalla matematica oggetti di dimensione frazionaria.

I frattali compaiono spesso nello studio dei sistemi dinamici e nella teoria del caos e

sono spesso descritti in modo ricorsivo da equazioni molto semplici, scritte con

l'ausilio dei numeri complessi. Ad esempio l'equazione che descrive l'insieme di

Mandelbrot è la seguente:

SHAPE \* MERGEFORMAT

dove a e P sono numeri complessi.

n 0

Il termine "frattale" è un neologismo che fu introdotto da Mandelbrot per descrivere

alcuni comportamenti matematici che sembravano avere un comportamento

"caotico". Questo genere di fenomeni nasce dalla definizione di curve od insiemi

tramite funzioni o algoritmi ricorsivi.

La natura produce molti esempi di forme molto simili ai frattali. Ad esempio in un

albero (soprattutto nell'abete) ogni ramo è approssimativamente simile all'intero

albero e ogni rametto è a sua volta simile al proprio ramo, e così via; è anche

possibile notare fenomeni di auto-similarità nella forma di una costa: con immagini

riprese da satellite man mano sempre più grandi si può notare che la struttura

generale di golfi più o meno dentellati mostra molte componenti che, se non

identiche all'originale, gli assomigliano comunque molto. Secondo Mandelbrot, le

relazioni fra frattali e natura sono più profonde di quanto si creda. Scrive Mandelbrot:

« Si ritiene che in qualche modo i frattali

abbiano delle corrispondenze con la

struttura della mente umana, è per

questo che la gente li trova così

familiari. Questa familiarità è ancora un

mistero e più si approfondisce

l'argomento più il mistero aumenta »

A qualunque scala si osservi, l'oggetto presenta sempre gli stessi caratteri globali.

Una sostanziale differenza tra un oggetto geometrico euclideo ed un frattale è il

modo in cui si costruisce. Una curva piana, infatti, si costruisce generalmente sul

piano cartesiano, utilizzando una funzione del tipo:

f(x(t),y(t)) = 0

che descrive la posizione del punto sulla curva al variare del tempo t. La costruzione

dei frattali, invece, non si basa su di un'equazione, ma su un algoritmo. Ciò significa

che si è in presenza di un metodo, non necessariamente numerico, che deve essere

utilizzato per disegnare la curva. Inoltre, l'algoritmo non è mai applicato una volta

sola: la procedura è iterata un numero di volte teoricamente infinito: ad ogni

iterazione, la curva si avvicina sempre più al risultato finale (per approssimazione), e

dopo un certo numero di iterazioni l'occhio umano non è più in grado di distinguere

le modifiche (oppure l'hardware del computer non è più in grado di consentire

ulteriori miglioramenti): pertanto, quando si disegna concretamente un frattale, ci si

può fermare dopo un congruo numero di iterazioni. Alla base dell’auto-similarità sta

una particolare trasformazione geometrica chiamata omotetia (è una particolare

trasformazione geometrica del piano o dello spazio, che dilata o contrae gli oggetti,

mantenendo invariati gli angoli ossia la forma).che permette di ingrandire o ridurre

una figura lasciandone inalterata la forma. Un frattale è un ente geometrico che

mantiene la stessa forma se ingrandito con una omotetia opportuna, detta omotetia

interna.

La dimensione frattale (o dimensione di Hausdorff) è un parametro molto importante

che determina il "grado di irregolarità" dell'oggetto frattale preso in esame.

Mandelbrot nel suo libro intitolato “Gli oggetti frattali” pubblicato nel 1975 afferma

l’esistenza di differenti metodi per misurare la dimensione di un frattale, introdotti,

quando il matematico si cimentò con la determinazione della lunghezza delle coste

della Gran Bretagna. Tra questi, il seguente:

Si fa avanzare, lungo la costa un compasso di apertura prescritta h e ogni passo

comincia dove finisce il precedente. Il valore dell’apertura h moltiplicato per il numero

di passi mi fornirà la lunghezza approssimativa L(h) della costa; tuttavia rendendo

l’apertura del compasso sempre più piccola i numeri di passi aumenteranno e la

lunghezza tenderà all’infinito.Mandelbrot afferma che la costa è stata modellata nel

corso del tempo da molteplici influenze. La situazione si presenta così complicata

perché in geomorfologia non si conoscono le leggi che governano queste influenze.

Possiamo quindi affermare che il caso occupa un ruolo rilevante e tuttora l’unico

strumento capace di fornire una soluzione al problema è la statistica.

Il caso può generare irregolarità ed è capace di generare un’irregolarità talmente

intensa come quella delle coste, anzi in molte situazioni è difficile impedire al caso di

andare al di là delle nostre aspettative.

Il caso non deve essere sottovalutato nello studio degli oggetti frattali in quanto

l’omotetia interna fa sì che il caso abbia precisamente la stessa importanza a

qualsiasi scala. Per tanto gli oggetti frattali sono inseriti nel contesto dei siatemi

dinamici caotici.

Nel corso della storia molti matematici sono arrivati alle loro scoperte

inaspettatamente. Lo stesso Mandelbrot afferma di essere arrivato alle sue scoperte

per puro caso. Un giorno egli si trovò nella biblioteca dell’IBM dove molti libri che

nessuno aveva mai letto stavano per essere spediti al macero. Benoit aprì una

rivista a caso e lesse il nome del meteorologo Richarson. Questo nome era già noto

al matematico polacco per gli studi che stava effettuando sulla teoria della

turbolenza. Richarson era uno studioso bizzarro ed eccentrico che era solito porsi

domande che nessuno altro avrebbe mai formulato. Queste sue stramberie

risultarono nell'anticipare scoperte che alcuni studiosi realizzarono nei decenni

successivi. Nel libro Richarson si preoccupò di misurare la lunghezza delle linee

costiere su scale differenti. Mandelbrot fotocopiò il disegno che descriveva queste

misure e lasciò il libro dove si trovava per riprenderlo il giorno seguente, ma il libro

sparì. Il disegno servì al matematico per formulare la teoria dei frattali perché faceva

riferimento a qualcosa che noi tutti conosciamo, le coste. Mandelbrot si rese così

conto che tutti gli studi effettuati da lui stesso avevano qualcosa in comune seppur

spaziavano in discipline completamente differenti. Il modello di partenza era lo

stesso: Mandelbrot si preoccupò di definire l’apparente caos insito in essi.

Mandelbrot definisce le forme frattali come la nuova geometria della Natura, il modo

cioè di rispecchiare la realtà con modelli da noi elaborati in maniera efficace. La

dimensione frattale è infatti sia struttura che “descrizione”, cioè questa dimensione

ha sia un aspetto soggettivo che uno oggettivo. Questo significa che ciò che

sostiene il principio di indeterminazione che Heisenberg restringeva alla dimensione

subatomica, si estende invece anche a livello della nostra esperienza sensibile. Di

più dall’universo naturale si estende ai sistemi molto complessi progettati dall’uomo.

La capacità della geometria frattale di condensare una grande quantità di dati

complicati e irregolari in poche formule semplici, come nessun altro strumento può

fare, la rende secondo mandelbrot un modello adatto alla imprevedibilità dei mercati

finanziari. Per questa applicazione egli individua il concetto di multifrattale: se e un

frattale è una struttura o un oggetto le cui parti echeggiano il tutto ad una scala

ridotta, in un multifrattale la riduzione avviene secondo fattori di scala diversi, alcune

parti si riducono velocemente altre lentamente. Essi, al contrario dei frattali

rappresentati in bianco e nero, sono caratterizzati da mezzetinte, da gradazioni di

grigio. In ambito economico essi sembrano in grado di comprendere ciò che la

scienza economica classica ha da sempre cercato di esorcizzare: l’imprevedibilità.

Innanzitutto occorre mettere in discussione ciò che classicamente si affermava, cioè

che le contrazioni finanziarie si sviluppano in maniera graduale e progressiva. Invece

l’andamento del mercato è discontinuo.

L’approccio frattale ha incontrato particolare interesse nella ridefinizione della

struttura dell’Universo. L’applicazione fatta al sistema solare ha fatto emergere

un’estensione del concetto stesso di frattale che ha subito una notevole

complessificazione suggerendo il conio di un termine più comprensivo quello di


ACQUISTATO

3 volte

PAGINE

38

PESO

161.81 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in Scienze e tecniche psicologiche
SSD:
Università: Messina - Unime
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher nicoletta.abramo di informazioni apprese con la frequenza delle lezioni di Filosofia della scienza e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Messina - Unime o del prof Gembillo Giuseppe.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in scienze e tecniche psicologiche

Riassunto esame Psicologia dello sviluppo, prof. Larcan, libro consigliato Psicologia dello sviluppo, Gillibrand, Lam, O'Donnell, Tallandini
Appunto
Riassunto esame Psicometria, prof. Costa, libro consigliato Fondamenti di Psicometria, Chiorri
Appunto
Riassunto esame Pedagogia interculturale, prof. Panarello, testo consigliato L'educazione all'interculturalità e alla sostenibilità
Appunto
Riassunto esame Psicologia delle Relazioni Familiari, prof. Larcan, libro consigliato La Relazione Genitore Bambino, Riva Crugnola
Appunto