Anteprima
Vedrai una selezione di 3 pagine su 8
La causazione come scienza ingenua Pag. 1 La causazione come scienza ingenua Pag. 2
Anteprima di 3 pagg. su 8.
Scarica il documento per vederlo tutto.
La causazione come scienza ingenua Pag. 6
1 su 8
Disdici quando vuoi 162x117
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Sintesi

Tesina - Premio maturità  2008

Titolo: La causazione come scienza ingenua

Autore: Serena Carrara

Descrizione: la tesina si propone di mostrare che le scienze contemporanee, tra cui la meccanica quantistica, ci consegnano una conoscenza probabilistica. inoltre si vuole dimostrare che il progresso scientifico potrebbe portare alla distruzione dell'umanità , come

Materie trattate: greco, filosofia, fisica, astronomia, storia, italiano

Area: scientifica

Sommario: Il tema della causalità , o meglio del principio di causa, dominante in tutte le scienze deterministiche classiche, viene definito da John Norton, una scienza ingenua, messa radicalmente in questione dalla scienza contemporanea, con gli sviluppi della meccanica quantistica, ma ancor prima dalla termodinamica e dall'elettromagnetismo. La nozione più comune di causa è la connessione tra due eventi, condizione necessaria e sufficiente affinchè dal primo derivi inevitabilmente il secondo. Nel mondo antico, l'Ellenismo segnò il momento di massimo vigore delle scienze definite "esatte". Tranne la matematica, considerata la scienza esatta per eccellenza, l'astronomia, la fisica e soprattutto la meccanica presentavano all'interno del paradigma una serie di tesi e principi formulati alla luce dei nessi causali esistenti tra i fenomeni. Per quanto riguarda la matematica il più importante fu Euclide, autore dell'opera "Elementi". Quest'opera è una raccolta di assiomi, teoremi, corollari e definizioni che costituivano, nell'accezione khuniana, un paradigma: corpo fondamentale di proposizioni universali riconoscibili e un modello per i requisiti cui ogni ulteriore insieme di proposizioni deve soddisfare. Quindi alla matematica fu affidato un ruolo di giudice della validità  della produzione scientifica. In particolare, tale giudizio riguardava la correttezza dei teoremi proposti e ciò era ottenuto o mediante il controllo della loro compatibilità  con altri teoremi correttamente dimostrati, o mediante un controllo dell'effettiva deducibilità  dei teoremi proposti. Anche Archimede di Siracusa, genio nel campo della fisica, si occupò di matematica: resta fondamentale la sua misura della circonferenza, mediante la determinazione del valore di , che esprime il rapporto tra diametro e circonferenza, e la formulazione del volume della sfera. Dal punto di vista fisico studiò il galleggiamento dei corpi, secondo la nota spinta di Archimede, il piano inclinato, i principi della leva e il moto rettilineo uniforme.(opere: Arenario, sull'equilibrio dei piani, sui galleggianti).Un altro matematico importante fu Erone, divenuto famoso per le formule di misurazione dei poligoni regolari e per la formula trigonometrica dell'area di un triangolo. Per quanto riguarda l'astronomia, essa, secondo la cultura ellenistica non era una vera disciplina scientifica: i cieli e i loro fenomeni furono, per gli ellenisti, la sede del divino e il piano di manifestazione dell'ordine del mondo. Sta qui la principale ragione della varietà  tipologica dei testi antichi sui cieli: ogni astronomo, secondo la sua conoscenza scientifica, dava un'interpretazione diversa al fenomeno.

Estratto del documento

La causazione come scienza ingenua

tema della causalità,

Il o meglio del principio di causa, dominante in tutte le scienze

deterministiche classiche, viene definito da John Norton, una scienza ingenua, messa radicalmente

in questione dalla scienza contemporanea, con gli sviluppi della meccanica quantistica, ma ancor

prima dalla termodinamica e dall’elettromagnetismo. La nozione più comune di causa è la

connessione tra due eventi, condizione necessaria e sufficiente affinchè dal primo derivi

inevitabilmente il secondo.

Nel mondo antico, l’Ellenismo segnò il momento di massimo vigore delle scienze definite “esatte”.

Tranne la matematica, considerata la scienza esatta per eccellenza, l’astronomia, la fisica e

soprattutto la meccanica presentavano all’interno del paradigma una serie di tesi e principi formulati

alla luce dei nessi causali esistenti tra i fenomeni. Per quanto riguarda la matematica il più

importante fu Euclide, autore dell’opera “Elementi”. Quest’opera è una raccolta di assiomi, teoremi,

corollari e definizioni che costituivano, nell’accezione khuniana, un paradigma: corpo fondamentale

di proposizioni universali riconoscibili e un modello per i requisiti cui ogni ulteriore insieme di

proposizioni deve soddisfare. Quindi alla matematica fu affidato un ruolo di giudice della validità

della produzione scientifica. In particolare, tale giudizio riguardava la correttezza dei teoremi

proposti e ciò era ottenuto o mediante il controllo della loro compatibilità con altri teoremi

correttamente dimostrati, o mediante un controllo dell’effettiva deducibilità dei teoremi proposti.

Anche Archimede di Siracusa, genio nel campo della fisica, si occupò di matematica: resta

fondamentale la sua misura della circonferenza, mediante la determinazione del valore di che

π,

esprime il rapporto tra diametro e circonferenza, e la formulazione del volume della sfera. Dal

punto di vista fisico studiò il galleggiamento dei corpi, secondo la nota spinta di Archimede, il

piano inclinato, i principi della leva e il moto rettilineo uniforme.(opere: Arenario, sull’equilibrio

dei piani, sui galleggianti).Un altro matematico importante fu Erone, divenuto famoso per le

formule di misurazione dei poligoni regolari e per la formula trigonometrica dell’area di un

triangolo. Per quanto riguarda l’astronomia, essa, secondo la cultura ellenistica non era una vera

disciplina scientifica: i cieli e i loro fenomeni furono, per gli ellenisti, la sede del divino e il piano di

manifestazione dell’ordine del mondo. Sta qui la principale ragione della varietà tipologica dei testi

antichi sui cieli: ogni astronomo, secondo la sua conoscenza scientifica, dava un’interpretazione

diversa al fenomeno. I più importanti da ricordare sono Ipparco di Nicea, produttore del catalogo di

stelle, classificate secondo la loro magnitudine apparente, ad Aristarco di Samo si deve la prima

teoria eliocentrica dell'antichità. Come riferito da Archimede, egli suppose che le stelle fisse stiano

immutabili e che la terra giri intorno al Sole descrivendo un cerchio. Importante fu anche Eratostene,

che utilizzò le sue conoscenze di matematica non solo per disegnare la prima carta del mondo con il

criterio dei meridiani e dei paralleli, ma riuscì a calcolare le dimensioni della terra con

un'approssimazione di poche decine di chilometri inferiore al calcolo moderno. Un ultimo nome

importante è Conone, famoso per la scoperta della costellazione da lui detta Chioma di Berenice.

Alla fine del’700, dopo le rivoluzioni scientifiche e la formulazione del paradigma Newtoniano, in

prima crisi

cui gli eventi erano spigati mediante un nesso causa-effetto, si ebbe la del concetto di

Hume,

causa con nell’opera “Trattato sulla natura umana”. Secondo quest’ultimo, l’idea che esista

un rapporto di causa-effetto fra gli eventi deriva solo dall’abitudine. Ciò che figura come la

causazione in realtà non è altro che una congiunzione costante all’interno delle nostre esperienze

Mach,

effettive. Laddove Hume vedeva una congiunzione costante, membro del circolo di Vienna,

esponente dell’empirio-criticismo e autore dell’opera “Analisi delle sensazioni e distinzione tra

dipendenza funzionale.

fisico e psichico”, scorgeva una Il concetto di causa viene sostituito da

quello di funzione. La funzione, per Mach, è l’insieme dei fatti fisici e psichici, elementi chiamati

sensazioni. Questa funzione ha l’ufficio di richiamare l’insieme di tutte le reazioni relative

all’oggetto designato e di attirare questi ricordi nella coscienza. La funzione scientifica realizza in

pieno queste caratteristiche e le funzioni di cui la scienza si avvale sono semplici segni riassuntivi,

da cui possono scaturire reazioni possibili. Inoltre Mach conserva il concetto di scienza come

descrizione di fatti e precisamente di ciò che nei fatti c’è di uniforme e costante, ovvero le leggi

intese come strumenti di previsione. Questi due punti fondamentali costituiscono i due punti cardini

della fase critica della fisica che la teoria della relatività e la meccanica quantistica porteranno a

compimento. meccanica quantistica,

A mettere in crisi la fisica classica Newtoniana è stata sicuramente la

poiché essa descrive il comportamento della materia a livello microscopico e permette di

interpretare e quantificare fenomeni che non possono essere giustificati dalla meccanica classica. A

differenza di quest’ultima, che ci consegna una conoscenza certa, la meccanica quantistica ci

consegna invece una conoscenza probabilistica, sostanzialmente incerta e incompleta, che ci parla

di una natura indeterministica i cui eventi sono regolati non da un nesso causale, ma dal caso. Uno

principio di indeterminazione,

dei principi più esplicativi di quanto detto è il formulato da Werner

Heisemberg, secondo cui è impossibile determinare contemporaneamente con precisione arbitraria

la posizione e la quantità di moto di un elettrone. L’elettrone (o il fotone, se parliamo di radiazioni

luminose, o il gravitone, se parliamo di forza di gravità) è definito quanto, ovvero la quantità

minima e invisibile di una certa grandezza.

Una volta che si sia affermato il carattere sostanzialmente probabilistico della conoscenza, ci si

probabilità

scontra con il problema di definire la nozione stessa di probabilità. Con il termine si

intendono tre cose: logica

Probabilità classica o (Laplace, Wittgenstein, Carnap): si applica ad esperimenti

• casuali i cui eventi elementari sono ritenuti equiprobabili. La probabilità di un evento è il

rapporto tra il numero dei casi favorevoli e il numero dei casi possibili, purché questi ultimi

siano ugualmente possibili.

frequentistica

Probabilità (von Mises, Keynes): si assume che esista una probabilità e se ne

• fa una stima mediante una frequenza relativa osservata empiricamente. Essa è il valore del

limite per k tendente a infinito del rapporto fra il numero di volte in cui un evento si è

verificato e il numero delle prove effettuate.

soggettivistica

Probabilità (Ramsey, De Finetti, Bayes): si applica ad esperimenti casuali i

• cui eventi elementari non sono ritenibili ugualmente possibili e l'esperimento non è ripetibile

più volte sotto le stesse condizioni. La probabilità di un evento è fornita dal grado di

credenza soggettivo. Carnap

In questa sua accezione, lo stesso sostiene l’importanza di utilizzare la probabilità logica

per indicare il grado di conferma di una teoria scientifica. Egli ritiene che ogni ragionamento

induttivo, su cui si fonda la formulazione delle leggi scientifiche, è un ragionamento in termini di

probabilità. Infatti, attraverso una serie di osservazioni che possono confermare o disconfermare

un’ipotesi, si fa un calcolo probabile degli eventi che la possono confermare.

teoria della conferma,

Per cui, secondo la una teoria scientifica è sempre più valida ogni qual volta

essa viene confermata da eventi dell’esperienza ed essa si avvale del metodo induttivo, considerato

come un calcolo della probabilità logica. Per Carnap, la confermabilità è il criterio di demarcazione

tra scienze empiriche e dottrine non empiriche,quali la metafisica, l’etica e l’estetica.

Popper,

Questa visione è però rifiutata da Karl filosofo epistemologo e autore della “Logica della

falsificabilità

scoperta scientifica”, che invece è convinto che sia la il criterio di demarcazione tra

scienza e metafisica. Con la falsificabilità è la direzione stessa dell’indagine che si inverte: non si

muove dai fatti alla costruzione delle teorie, ma dalle teorie al loro controllo mediante i fatti. E

poiché questo controllo avviene traendo deduttivamente dalle teorie le loro conseguenze osservabili,

Popper designa il metodo da lui proposto come <<ipotetico deduttivo>>: si parte da ipotesi e

congetture per poi procedere alle osservazioni e alle formulazioni delle teorie. Quindi Popper rifiuta

anche il processo induttivo,sostenuto da Carnap, in quanto un numero finito di osservazioni non può

creare una legge universale, mentre un solo esempio contrario consente di dimostrare la falsità

dell’ipotesi iniziale. Per quanto riguarda la probabilità, Popper pensa che più informazioni

recepiamo da un dato sistema, più alcune ipotesi diventano altamente improbabili. Al contrario,

l’alta probabilità di un evento è data dalla scarsità di informazioni sul sistema fisico.

Il principio di falsificabilità è stato applicato alla fine dell’800 per dimostrare che gli enunciati di

secondo principio della termodinamica

Lord Kelvin e Clausius riguardo al sono equivalenti.

Falsificando un enunciato si arriva ad una conclusione per cui anche l’altro enunciato viene

falsificato. Se il falso Kelvin implica il falso Clausius o viceversa, allora gli enunciati di Kelvin e

Clausius sono equivalenti, secondo le tabelle di verità logica.

nella formulazione di Clausius, si afferma che è impossibile realizzare un ciclo

• termodinamico il cui unico risultato sia quello di trasferire calore da un corpo più freddo a

uno più caldo.

Nella formulazione di Kelvin, si afferma che è impossibile realizzare un ciclo

• termodinamico il cui unico risultato preveda che tutto il calore assorbito da una sola

sorgente sia interamente trasformato in lavoro.

Supponiamo che l'enunciato di Clausius sia falso, ovvero che esista una macchina frigorifera ciclica

in grado di trasferire calore da una sorgente fredda ad una calda, senza apporto di lavoro esterno.La

sorgente a temperatura più bassa in un primo momento ha ceduto calore all’altra sorgente ma poi

l’ha riacquistato:quindi l’effetto è nullo. La sorgente a temperatura più alta ha assorbito una quantità

di calore Q dalla sorgente a temperatura più bassa e poi ha ceduto alla macchina termica una

2

quantità di calore Q -Q , che è stata trasformata interamente in lavoro. Questo è stato l’unico

1 2

risultato:la macchina termica ha assorbito tutto il calore da una sola sorgente e lo ha trasformato in

lavoro. Ma ciò contraddice l’enunciato di Kelvin.

Supponiamo ora di poter convertire integralmente il calore in lavoro, estratto per mezzo di una

macchina ciclica da una sola sorgente T a temperatura costante. Il lavoro viene utilizzato per far

1

funzionare una macchina di joule, che contiene un gas a temperatura T >T . Quindi vengono alzati i

3 1

pesetti della macchina che poi vengono fatti cadere per mettere in moto le pale del mulinello interno

alla macchina.Tutto ciò viene fatto a velocità costante poiché se la velocità aumentasse, si farebbe

lavoro. Per cui l’unico risultato è stato far passare calore da una sorgente a temperatura più bassa a

una a temperatura più alta. Ma ciò contraddice l’enunciato di Clausius.

Un altro enunciato del secondo principio della termodinamica dice che in un sistema isolato,

quando si raggiunge un nuovo stato di equilibrio, esso coincide con il massimo aumento di entropia.

In altre parole, senza un continuo apporto di energia dall’esterno, qualsiasi struttura ordinata tenderà

Dettagli
Publisher
8 pagine