vuoi
o PayPal
tutte le volte che vuoi
Tesina - Premio maturità 2008
Titolo: La causazione come scienza ingenua
Autore: Serena Carrara
Descrizione: la tesina si propone di mostrare che le scienze contemporanee, tra cui la meccanica quantistica, ci consegnano una conoscenza probabilistica. inoltre si vuole dimostrare che il progresso scientifico potrebbe portare alla distruzione dell'umanità , come
Materie trattate: greco, filosofia, fisica, astronomia, storia, italiano
Area: scientifica
Sommario: Il tema della causalità , o meglio del principio di causa, dominante in tutte le scienze deterministiche classiche, viene definito da John Norton, una scienza ingenua, messa radicalmente in questione dalla scienza contemporanea, con gli sviluppi della meccanica quantistica, ma ancor prima dalla termodinamica e dall'elettromagnetismo. La nozione più comune di causa è la connessione tra due eventi, condizione necessaria e sufficiente affinchè dal primo derivi inevitabilmente il secondo. Nel mondo antico, l'Ellenismo segnò il momento di massimo vigore delle scienze definite "esatte". Tranne la matematica, considerata la scienza esatta per eccellenza, l'astronomia, la fisica e soprattutto la meccanica presentavano all'interno del paradigma una serie di tesi e principi formulati alla luce dei nessi causali esistenti tra i fenomeni. Per quanto riguarda la matematica il più importante fu Euclide, autore dell'opera "Elementi". Quest'opera è una raccolta di assiomi, teoremi, corollari e definizioni che costituivano, nell'accezione khuniana, un paradigma: corpo fondamentale di proposizioni universali riconoscibili e un modello per i requisiti cui ogni ulteriore insieme di proposizioni deve soddisfare. Quindi alla matematica fu affidato un ruolo di giudice della validità della produzione scientifica. In particolare, tale giudizio riguardava la correttezza dei teoremi proposti e ciò era ottenuto o mediante il controllo della loro compatibilità con altri teoremi correttamente dimostrati, o mediante un controllo dell'effettiva deducibilità dei teoremi proposti. Anche Archimede di Siracusa, genio nel campo della fisica, si occupò di matematica: resta fondamentale la sua misura della circonferenza, mediante la determinazione del valore di ï°, che esprime il rapporto tra diametro e circonferenza, e la formulazione del volume della sfera. Dal punto di vista fisico studiò il galleggiamento dei corpi, secondo la nota spinta di Archimede, il piano inclinato, i principi della leva e il moto rettilineo uniforme.(opere: Arenario, sull'equilibrio dei piani, sui galleggianti).Un altro matematico importante fu Erone, divenuto famoso per le formule di misurazione dei poligoni regolari e per la formula trigonometrica dell'area di un triangolo. Per quanto riguarda l'astronomia, essa, secondo la cultura ellenistica non era una vera disciplina scientifica: i cieli e i loro fenomeni furono, per gli ellenisti, la sede del divino e il piano di manifestazione dell'ordine del mondo. Sta qui la principale ragione della varietà tipologica dei testi antichi sui cieli: ogni astronomo, secondo la sua conoscenza scientifica, dava un'interpretazione diversa al fenomeno.
La causazione come scienza ingenua
tema della causalità,
Il o meglio del principio di causa, dominante in tutte le scienze
deterministiche classiche, viene definito da John Norton, una scienza ingenua, messa radicalmente
in questione dalla scienza contemporanea, con gli sviluppi della meccanica quantistica, ma ancor
prima dalla termodinamica e dall’elettromagnetismo. La nozione più comune di causa è la
connessione tra due eventi, condizione necessaria e sufficiente affinchè dal primo derivi
inevitabilmente il secondo.
Nel mondo antico, l’Ellenismo segnò il momento di massimo vigore delle scienze definite “esatte”.
Tranne la matematica, considerata la scienza esatta per eccellenza, l’astronomia, la fisica e
soprattutto la meccanica presentavano all’interno del paradigma una serie di tesi e principi formulati
alla luce dei nessi causali esistenti tra i fenomeni. Per quanto riguarda la matematica il più
importante fu Euclide, autore dell’opera “Elementi”. Quest’opera è una raccolta di assiomi, teoremi,
corollari e definizioni che costituivano, nell’accezione khuniana, un paradigma: corpo fondamentale
di proposizioni universali riconoscibili e un modello per i requisiti cui ogni ulteriore insieme di
proposizioni deve soddisfare. Quindi alla matematica fu affidato un ruolo di giudice della validità
della produzione scientifica. In particolare, tale giudizio riguardava la correttezza dei teoremi
proposti e ciò era ottenuto o mediante il controllo della loro compatibilità con altri teoremi
correttamente dimostrati, o mediante un controllo dell’effettiva deducibilità dei teoremi proposti.
Anche Archimede di Siracusa, genio nel campo della fisica, si occupò di matematica: resta
fondamentale la sua misura della circonferenza, mediante la determinazione del valore di che
π,
esprime il rapporto tra diametro e circonferenza, e la formulazione del volume della sfera. Dal
punto di vista fisico studiò il galleggiamento dei corpi, secondo la nota spinta di Archimede, il
piano inclinato, i principi della leva e il moto rettilineo uniforme.(opere: Arenario, sull’equilibrio
dei piani, sui galleggianti).Un altro matematico importante fu Erone, divenuto famoso per le
formule di misurazione dei poligoni regolari e per la formula trigonometrica dell’area di un
triangolo. Per quanto riguarda l’astronomia, essa, secondo la cultura ellenistica non era una vera
disciplina scientifica: i cieli e i loro fenomeni furono, per gli ellenisti, la sede del divino e il piano di
manifestazione dell’ordine del mondo. Sta qui la principale ragione della varietà tipologica dei testi
antichi sui cieli: ogni astronomo, secondo la sua conoscenza scientifica, dava un’interpretazione
diversa al fenomeno. I più importanti da ricordare sono Ipparco di Nicea, produttore del catalogo di
stelle, classificate secondo la loro magnitudine apparente, ad Aristarco di Samo si deve la prima
teoria eliocentrica dell'antichità. Come riferito da Archimede, egli suppose che le stelle fisse stiano
immutabili e che la terra giri intorno al Sole descrivendo un cerchio. Importante fu anche Eratostene,
che utilizzò le sue conoscenze di matematica non solo per disegnare la prima carta del mondo con il
criterio dei meridiani e dei paralleli, ma riuscì a calcolare le dimensioni della terra con
un'approssimazione di poche decine di chilometri inferiore al calcolo moderno. Un ultimo nome
importante è Conone, famoso per la scoperta della costellazione da lui detta Chioma di Berenice.
Alla fine del’700, dopo le rivoluzioni scientifiche e la formulazione del paradigma Newtoniano, in
prima crisi
cui gli eventi erano spigati mediante un nesso causa-effetto, si ebbe la del concetto di
Hume,
causa con nell’opera “Trattato sulla natura umana”. Secondo quest’ultimo, l’idea che esista
un rapporto di causa-effetto fra gli eventi deriva solo dall’abitudine. Ciò che figura come la
causazione in realtà non è altro che una congiunzione costante all’interno delle nostre esperienze
Mach,
effettive. Laddove Hume vedeva una congiunzione costante, membro del circolo di Vienna,
esponente dell’empirio-criticismo e autore dell’opera “Analisi delle sensazioni e distinzione tra
dipendenza funzionale.
fisico e psichico”, scorgeva una Il concetto di causa viene sostituito da
quello di funzione. La funzione, per Mach, è l’insieme dei fatti fisici e psichici, elementi chiamati
sensazioni. Questa funzione ha l’ufficio di richiamare l’insieme di tutte le reazioni relative
all’oggetto designato e di attirare questi ricordi nella coscienza. La funzione scientifica realizza in
pieno queste caratteristiche e le funzioni di cui la scienza si avvale sono semplici segni riassuntivi,
da cui possono scaturire reazioni possibili. Inoltre Mach conserva il concetto di scienza come
descrizione di fatti e precisamente di ciò che nei fatti c’è di uniforme e costante, ovvero le leggi
intese come strumenti di previsione. Questi due punti fondamentali costituiscono i due punti cardini
della fase critica della fisica che la teoria della relatività e la meccanica quantistica porteranno a
compimento. meccanica quantistica,
A mettere in crisi la fisica classica Newtoniana è stata sicuramente la
poiché essa descrive il comportamento della materia a livello microscopico e permette di
interpretare e quantificare fenomeni che non possono essere giustificati dalla meccanica classica. A
differenza di quest’ultima, che ci consegna una conoscenza certa, la meccanica quantistica ci
consegna invece una conoscenza probabilistica, sostanzialmente incerta e incompleta, che ci parla
di una natura indeterministica i cui eventi sono regolati non da un nesso causale, ma dal caso. Uno
principio di indeterminazione,
dei principi più esplicativi di quanto detto è il formulato da Werner
Heisemberg, secondo cui è impossibile determinare contemporaneamente con precisione arbitraria
la posizione e la quantità di moto di un elettrone. L’elettrone (o il fotone, se parliamo di radiazioni
luminose, o il gravitone, se parliamo di forza di gravità) è definito quanto, ovvero la quantità
minima e invisibile di una certa grandezza.
Una volta che si sia affermato il carattere sostanzialmente probabilistico della conoscenza, ci si
probabilità
scontra con il problema di definire la nozione stessa di probabilità. Con il termine si
intendono tre cose: logica
Probabilità classica o (Laplace, Wittgenstein, Carnap): si applica ad esperimenti
• casuali i cui eventi elementari sono ritenuti equiprobabili. La probabilità di un evento è il
rapporto tra il numero dei casi favorevoli e il numero dei casi possibili, purché questi ultimi
siano ugualmente possibili.
frequentistica
Probabilità (von Mises, Keynes): si assume che esista una probabilità e se ne
• fa una stima mediante una frequenza relativa osservata empiricamente. Essa è il valore del
limite per k tendente a infinito del rapporto fra il numero di volte in cui un evento si è
verificato e il numero delle prove effettuate.
soggettivistica
Probabilità (Ramsey, De Finetti, Bayes): si applica ad esperimenti casuali i
• cui eventi elementari non sono ritenibili ugualmente possibili e l'esperimento non è ripetibile
più volte sotto le stesse condizioni. La probabilità di un evento è fornita dal grado di
credenza soggettivo. Carnap
In questa sua accezione, lo stesso sostiene l’importanza di utilizzare la probabilità logica
per indicare il grado di conferma di una teoria scientifica. Egli ritiene che ogni ragionamento
induttivo, su cui si fonda la formulazione delle leggi scientifiche, è un ragionamento in termini di
probabilità. Infatti, attraverso una serie di osservazioni che possono confermare o disconfermare
un’ipotesi, si fa un calcolo probabile degli eventi che la possono confermare.
teoria della conferma,
Per cui, secondo la una teoria scientifica è sempre più valida ogni qual volta
essa viene confermata da eventi dell’esperienza ed essa si avvale del metodo induttivo, considerato
come un calcolo della probabilità logica. Per Carnap, la confermabilità è il criterio di demarcazione
tra scienze empiriche e dottrine non empiriche,quali la metafisica, l’etica e l’estetica.
Popper,
Questa visione è però rifiutata da Karl filosofo epistemologo e autore della “Logica della
falsificabilità
scoperta scientifica”, che invece è convinto che sia la il criterio di demarcazione tra
scienza e metafisica. Con la falsificabilità è la direzione stessa dell’indagine che si inverte: non si
muove dai fatti alla costruzione delle teorie, ma dalle teorie al loro controllo mediante i fatti. E
poiché questo controllo avviene traendo deduttivamente dalle teorie le loro conseguenze osservabili,
Popper designa il metodo da lui proposto come <<ipotetico deduttivo>>: si parte da ipotesi e
congetture per poi procedere alle osservazioni e alle formulazioni delle teorie. Quindi Popper rifiuta
anche il processo induttivo,sostenuto da Carnap, in quanto un numero finito di osservazioni non può
creare una legge universale, mentre un solo esempio contrario consente di dimostrare la falsità
dell’ipotesi iniziale. Per quanto riguarda la probabilità, Popper pensa che più informazioni
recepiamo da un dato sistema, più alcune ipotesi diventano altamente improbabili. Al contrario,
l’alta probabilità di un evento è data dalla scarsità di informazioni sul sistema fisico.
Il principio di falsificabilità è stato applicato alla fine dell’800 per dimostrare che gli enunciati di
secondo principio della termodinamica
Lord Kelvin e Clausius riguardo al sono equivalenti.
Falsificando un enunciato si arriva ad una conclusione per cui anche l’altro enunciato viene
falsificato. Se il falso Kelvin implica il falso Clausius o viceversa, allora gli enunciati di Kelvin e
Clausius sono equivalenti, secondo le tabelle di verità logica.
nella formulazione di Clausius, si afferma che è impossibile realizzare un ciclo
• termodinamico il cui unico risultato sia quello di trasferire calore da un corpo più freddo a
uno più caldo.
Nella formulazione di Kelvin, si afferma che è impossibile realizzare un ciclo
• termodinamico il cui unico risultato preveda che tutto il calore assorbito da una sola
sorgente sia interamente trasformato in lavoro.
Supponiamo che l'enunciato di Clausius sia falso, ovvero che esista una macchina frigorifera ciclica
in grado di trasferire calore da una sorgente fredda ad una calda, senza apporto di lavoro esterno.La
sorgente a temperatura più bassa in un primo momento ha ceduto calore all’altra sorgente ma poi
l’ha riacquistato:quindi l’effetto è nullo. La sorgente a temperatura più alta ha assorbito una quantità
di calore Q dalla sorgente a temperatura più bassa e poi ha ceduto alla macchina termica una
2
quantità di calore Q -Q , che è stata trasformata interamente in lavoro. Questo è stato l’unico
1 2
risultato:la macchina termica ha assorbito tutto il calore da una sola sorgente e lo ha trasformato in
lavoro. Ma ciò contraddice l’enunciato di Kelvin.
Supponiamo ora di poter convertire integralmente il calore in lavoro, estratto per mezzo di una
macchina ciclica da una sola sorgente T a temperatura costante. Il lavoro viene utilizzato per far
1
funzionare una macchina di joule, che contiene un gas a temperatura T >T . Quindi vengono alzati i
3 1
pesetti della macchina che poi vengono fatti cadere per mettere in moto le pale del mulinello interno
alla macchina.Tutto ciò viene fatto a velocità costante poiché se la velocità aumentasse, si farebbe
lavoro. Per cui l’unico risultato è stato far passare calore da una sorgente a temperatura più bassa a
una a temperatura più alta. Ma ciò contraddice l’enunciato di Clausius.
Un altro enunciato del secondo principio della termodinamica dice che in un sistema isolato,
quando si raggiunge un nuovo stato di equilibrio, esso coincide con il massimo aumento di entropia.
In altre parole, senza un continuo apporto di energia dall’esterno, qualsiasi struttura ordinata tenderà