Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Terzo canone: se 2 o più casi in cui il fenomeno si La doppia rifrazione della luce bel caso dello spato d’Islanda (un

verifica hanno soltanto una circostanza in comune, particolare cristallo minerale). Se vogliamo determinare quale delle

mentre 2 o più casi in cui non si verifica non hanno sue proprietà sia la casua del fenomeno non possiamo usare il

nulla in comune, salvo l’assenza di quella metodo della differenza, in quanto non esiste una sostanza che gli

circostanza, la circostanza in cui soltanto somigli se non per quest’unica proprietà. Utilizziamo quindi il

differiscono i due gruppi di casi è l’effetto a la metodo della concordanza, confrontando tutte le sostanze che

causa, o una parte indispensabile della causa del generano la doppia rifrazione: sono tutte cristalline. La struttura

fenomeno. cristallina è una delle condizioni della doppia rifrazione.

Quarto canone: se si sottrae da un fenomeno la La cometa di Encke. Il generale accordo che esiste sul posto in cui

parte che precedenti induzioni ci hanno fatto essa si trova quando è visibile farebbe credere che la legge

conoscere come effetto di certi antecedenti, il gravitazionale sia la sola causa del suo moto orbitale. Però un

residuo del fenomeno è l’effetto degli antecedenti attento calcolo mostra che permane un fenomeno residuo, non

rimanenti. spiegabile con la gravitazione.

Si è allora pensato che tale anticipazione fosse creata dalla

resistenza d’un mezzo disseminato nelle regioni celesti e siccome vi

sono altre ragioni per credere che questa sia una buona causa, allora

la si è attribuita a tale resistenza.

Quinto canone: ogni fenomeno che vari in Un contadino rileva una connessione causale tra l’applicazione di

qualche modo ogniqualvolta vari in qualche modo un certo fertilizzante al terreno e l’abbondanza del raccolto

particolare un altro fenomeno, è una causa o un utilizzando in misura differente il fertilizzante nelle diverse parti del

effetto di quel fenomeno, o gli è connesso per terreno e osservando che le parti che hanno ricevuto una maggiore

qualche fatto di causalità. quantità di fertilizzante producono un raccolto più abbondante .

Due diverse accezioni dell’inferenza induttiva

È possibile operare una distinzione tra i diversi tipi di inferenze induttive, possiamo avere:

Inferenze che partono da un certo numero di osservazioni per estendere le conclusioni ottenute a tutta la

popolazione, in questo caso l’induzione viene concepita come metodologia della scoperta, quindi parliamo di

concezione induttiva ristretta

induttivismo in senso genetico ò dì .

Se siamo già in possesso di una generalizzazione e vogliamo valutare se un insieme di osservazioni la confermino

senso metodologico

o ne aumentino la probabilità, in questo caso l’induttivismo è inteso nel .

Questo concetto di induzione pone l’accento sul fatto che le teorie scientifiche sono inventate con un esercizio di

immaginazione creativa.

L’induzione come logica della scoperta

L’induzione ha 2 forme diverse:

- quella genetica

- quella metodologica

Per quanto riguarda la prima, sorge il problema della sua giustificazione. Possiamo chiederci: cosa ci autorizza a passare

dall’esame di alcuni casi alla generalizzazione sulla intera popolazione. causalità

Mill cerca di risolvere il problema della giustificazione dei suoi metodi induttivi ricorrendo alla legge di : la

validità di tutti i metodi induttivi dipende dall’assunzione che ogni evento, o l’inizio di un fenomeno, devono avere

qualche causa, qualche antecedente, alla cui esistenza invariabilmente ed incondizionatamente conseguono.

È dunque l’ammissione dell’universalità delle leggi di causalità a costituire il fondamento del processo induttivo, a

principio di uniformità della natura

giustificarlo. Ciò significa ammettere il ,che si basa sull’esistenza di un universale

nesso causale. Mill può affermare che la proposizione che il corso della natura è uniforme è il principio fondamentale, o

assioma, dell’induzione. La credenza nell’universalità, per tutta la natura, della legge della causa e dell’effetto, è essa stessa

un caso di induzione.

Mill però non può evitare l’accusa di circolo vizioso che già a suo tempo Hume aveva mosso a che cercava di giustificare il

nesso causale col fare appello all’uniformità della natura: quest’ultima non è giustificabile empiricamente, in quanto

presupporrebbe la validità dell’inferenza induttiva (dal passato al futuro) e questa a sua volta presupporrebbe l’uniformità e

così via all’infinito. Dovremmo considerare l’uniformità della natura un principio a priori?

L’argomentazione di Hume ruota sulla semplice circolarità che impedisce sia la fondazione delle inferenze induttive che

quella delle relazioni causali: tutte le inferenze induttive possono essere razionali solo a patto che si basano su inferenze

induttive. Quindi ogni tentativo di giustificare con un’argomentazione razionale le une o le altre contiene inevitabilmente o

una petitio principi o un regresso all’infinito.

La filosofia empirista vorrebbe fondare ogni conoscenza sull’esperienza e per far ciò deve rivolgersi all’induzione; al tempo

stesso vuole bandire ogni conoscenza non riducibile all’esperienza, e allora dovrebbe escludere proprio quell’induzione che

invece avrebbe dovuto garantire la fondazione della conoscenza. 24

La soluzione di Hume: la credenza nell’uniformità della natura è frutto dell’abitudine; essa ha quindi origine e fondamento

psicologico, non logico o razionale. In quanto credenza essa ha carattere istintivo, affonda nella natura umana, la quale ci

aiuta quando il ragionamento si mostra insufficiente. Le operazione della mente con cui inferiamo effetti simili da cause

simili, e viceversa, sonio così essenziali alla sopravvivenza che non è possibile che questa potesse essere affidata alle

deduzioni della ragione, che è lenta nelle sue operazioni e soggetta all’errore e all’inganno, oltre ad essere tardiva

nell’individuo.

E’ più conforme all’ordinaria saggezza della natura garantire un atto così necessario alla mente per mezzo di qualche

istinto o tendenza meccanica, che può essere infallibile nelle sue operazioni, può manifestarsi al primo apparire della vita, e

del pensiero e può essere indipendente dalle faticose deduzioni dell’intelletto.

Come la natura ci ha insegnato l’uso delle membra senza darci la conoscenza dei muscoli e dei nervi, da cui sono mosse,

così essa ha posto in noi un istinto che spinge avanti il pensiero in un corso che corrisponde a quello che essa ha stabilito

fra gli oggetti esterni.

Questo istinto presiede alla formazione delle abitudini, tra le quali l’induzione ha un posto centrale per la sopravvivenza

della specie umana.

E’ la natura per Hume a salvarci dallo scetticismo cui ci condurrebbe la ragione umana e a permetterci di sopravvivere nel

mondo, pur in assenza della possibilità di credere razionalmente nella uniformità della natura e nel fatto che il futuro sarà

simile al passato.

Dopo Hume, Kant sostiene che se la natura fosse caotica non sarebbe possibile la scienza, ossia la possibilità di spiegare

razionalmente il mondo.

La soluzione proposta da Kant, non ebbe fortuna all’interno del positivismo e dell’empirismo concettuale, e conobbe

successivamente una critica radicale per l’inaccettabilità del “sintetico a priori”, ritenuto falsificato dalle geometrie non

euclidee e dai progressi della fisica contemporanea, con la relatività e la teoria quantistica.

Russel e il principio di induzione ”

Per spiegare la problematicità dell’induzione Russel fa ricorso alla metafora del “pollo induttivista , con la quale

sia

sottolinea ancora una volta quanto difficile fidarci della nostra esperienza: il pollo che sin dalla sua nascita ha

costantemente osservato che il suo padrone ogni mattina gli porta da mangiare, non si aspetterebbe mai che un bel giorno

quello verrà a tirargli il collo.

Quindi come possiamo fidarci dell’esperienza sino ad ora avuta? E’ ovvio che non abbiamo nessuna garanzia.

Anche Russel ricorre al principio di uniformità della natura, sostenendo però che possiamo raggiungere solo una più o

meno elevata probabilità che il futuro sarà come il passato. E su questa base enuncia il suo principio di induzione che non

può mai essere infirmato da un ricorso all’esperienza , esso deve essere accettato sulla base dell’evidenza intrinseca.

La natura di questa evidenza viene assimilata alla conoscenza dei principi generali, che hanno lo stesso grado di

certezza dei dati sensibili e sono fondamentali in quanto costituiscono il mezzo per trarre inferenze da ciò che è dato nella

sensazione, dimostrando che possiamo avere una conoscenza scevra di dubbi che non deriva in nessun modo da oggetti

sensibili. Tra di essi sono compresi i principi logici (deduzione) che sono applicati in ogni dimostrazione anche spesso in

modo inconsapevole; anche il principio induttivo è un principio generale, che ci permette di provare con un alto grado di

probabilità, non con certezza.

Il fatto che non possa essere né confutato né verificato dall’esperienza, gli dà dunque un carattere a priori. Accettare il

ricorso ad un principio a priori toglie il terreno sotto i piedi a un qualunque approccio che voglia considerarsi

autenticamente empirista, che riconosce nell’esperienza l’unica fonte di validazione della conoscenza.

Principio di induzione e neopositivismo

Nel Circolo di Vienna fu presente una consistente corrente di sostenitori dell’opportunità di servirsi dell’induzione come

metodologia della scoperta, anche se in tutti era presente la consapevolezza della sua impossibile giustificazione o

fondazione, insistendo nel sottolineare il carattere probalistico delle generalizzazione a cui esso fa pervenire.

Ad es. Schlick descrive i processo di induzione: dalle osservazioni di ogni giorno nascono le proposizioni protocollari,

dalle quli derivo le altre proposizioni della scienza mediante appunto l’induzione: stimolato o motivato da queste

proposizioni protocollari pongo, a titolo di prova, delle proposizioni generali (“ipotesi” dalle quali discendono non solo

quelle prime proposizioni protocollari ma anche altre in numero illimitato.

Se le proposizioni d’osservazione sono coerenti con quanto viene affermato da quelle derivate dalle ipotesi ottenute

induttivamente, allora queste sono ritenute confermate; altrimenti sono rigettate.

L’induzione è allora un indovinare metodicamente condotto, un processo psicologico, biologico, la cui trattazione non ha

nulla a che vedere con la logica.

Anche altri rappresentanti del Circolo di Vienna, come Carnap, accettano l’induzione come processo di generalizzazione a

partire dall’esperienza, allo scopo di scoprire le leggi naturali..

La posizione di Reichenbach: il principio di induzione è indispensabile per trovare le leggi di natura. 25

Tra i seguaci del Circolo di Vienna, Reichenbach (principale esponente del Circolo di Berlino) considera per la scienza

imprescindibile il principio d’induzione poiché rappresenterebbe l’autentico mezzo di cui dispone la scienza per stabilire la

verità. Solo il principio di induzione permetterebbe di concludere dai fatti a una legge.

Se non facesse uso del principio di induzione, non sarebbe possibile ricavare dalle osservazioni delle leggi generali.

Ammessa l’indespensabilità e l’imprenscibilità del principio, Reichenbach si pone il problema di motivarlo razionalmente

piuttosto che affidarlo alla natura o all’istinto. A tale proposito elabora il cosiddetto approccio pragmatico

all’induzione.

Approccio pragmatico all’induzione di Reichenbach

Partendo dalla concezione dell’induzione come frutto dell’abitudine di Hume, Reichenbach cerco di verificare se

questa fosse una “buona abitudine” ossia utile x le azioni dirette ad eventi futuri. Per illustrare il suo punto di vista

“metafora del pescatore’.

Reichenbach fa ricorso alla

Chi opera inferenze induttive è simile al pescatore che getta la rete in una parte sconosciuta dell’ oceano: non sa se

prenderà pesci, ma sa che se vuol pescarne deve gettare la rete. Ogni previsione induttiva è come il lancio della rete

nell’oceano degli eventi della natura: non si sa se ne seguirà una buona pesca, ma almeno si tenta e utilizzando il miglior

mezzo a disposizione. In effetti tentiamo perché vogliamo agire, e chi vuole agire non può aspettare che il futuro sia

diventato empiricamente noto.

La scienza è la rete che noi gettiamo sulla corrente degli eventi; non dipende soltanto dal nostro lavoro se con questa rete

riusciamo a prendere pesci, se i fatti corrisponderanno alla scienza. Noi lavoriamo e aspettiamo: se non otteniamo risultati,

avremo lavorato invano.

Se il nostro scopo è quello di prevedere il futuro allora si può dimostrare che l’inferenza induttiva è il miglior mezzo per

raggiungere il dato scopo.

La giustificazione pragmatica secondo Feigl distinzione tra “validazione” e “legittimazione”

L’argomentazione di Feigl si basa sulla distinzione tra due modi diversi di intendere la giustificazione:

1) validazione nel caso in cui una certa conoscenza venga giustificata derivandola da altre conoscenze o principi

fondamentali che riteniamo maggiormente fondati; (es. riteniamo valido un teorema per il fatto che lo deduciamo da

principi già dimostrati)

2) legittimazione quando una certa regola o un certo valore vengono giustificati con l’appello a certi fini che si vogliono

raggiungere.

Mentre la validazione richiede l’appello a certi principi fondamentali, la legittimazione fa appello a scopi e a fini che

riteniamo siano desiderabili perseguire.

Dell’induzione possiamo avere non una validazione, bensì una legittimazione: non ci sono principi + fondamentali che ci

permettono di giustificare l’induzione. La giustificazione pragmatica è una legittimazione dell’induzione, in quando si

basa sul fatto che la regola che ci permette di proiettare l’esperienza passata su quella futura ci permette di conseguire

meglio di qualunque altro lo scopo che ci proponiamo: scoprire la regolarità della natura.

Si può dimostrare a priori, cioè deduttivamente, che se c’è un ordine della natura l’induzione è il metodo adatto a scoprirlo.

In sostanza, l’applicazione del metodo induttivo è legittimata in quanto risulta il miglior modo per scoprire le regolarità

della natura, indipendentemente dal fatto di sapere se esse esistano o meno (e quindi senza la necessità di presupporre il

principio di uniformità della natura).

Una critica alla giustificazione pragmatica: il problema del limite pratico

Ma anche questa giustificazione pragmatica è stata criticata in quanto ci si chiede per quanto tempo dobbiamo aspettare

prima che i verifichi il successo delle nostre previsioni induttive. Fiegl sostiene che ciò non deve scoraggiarci perché è

preferibile tentare anche nell’incertezza piuttosto che non tentare del tutto ed essere certi di non ottenere nulla.

L’induzione metodologica e probabilistica

Le difficoltà legate all’induzione privilegiano il programma alternativo, consistente nel tentativo di valutare il grado di

supporto che una certa ipotesi o legge possiede in base ad una certa quantità di dati osservati disponibili.

Popper ritiene inaccettabile l’induzione in ogni sua forma, proponendo invece una teoria deduttiva dei controlli.

Un presupposto teorico: la dottrina dei due contesti

Tra i filosofi del primo Novecento trovò larga accoglienza la distinzione tra contesto della scoperta e contesto della

giustificazione.

Effettuata a suo tempo da Kant, poi riferita da Cassier ed in seguito fatta propria da Popper e da Reichenbach, tale

dottrina costituisce uno dei punti di partenza della filosofia neopositivista e sottolinea il fatto che nella scienza non sono

26

tanto importanti le questioni d’origine quanto quelle di validità aventi a che fare con il problema dell’accertamento della

sua accettabilità tramite controllo empirico.

Popper afferma che come accada che a un uomo venga in mente un’idea nuova può rivestire un grande interesse per la

psicologia empirica ma è irrilevante per l’analisi logica della conoscenza scientifica. Quest’ultima prende in considerazione

non questioni di fatto, ma soltanto questioni di giustificazione o validità.

Dunque è necessario operare una netta distinzione tra il concepire una nuova idea e i metodi e i risultati

dell’esaminarla logicamente.

Per Popper il compito della logica della conoscenza è quello di investigare i metodi impiegati in quei controlli sistematici ai

quali deve essere sottoposta ogni nuova ideaa che si debba prendere seriamente in considerazione.

Ogni scoperta contiene un elemento irrazionale o un’intuizione creativa. Per rispondere alle domande su come

assegnare il grado di conferma o di probabilità ad una generalizzazione o ad una legge teorica sulla base dell’evidenza

empirica disponibile si è esaminato il concetto di probabilità.

Le principali interpretazioni che si contendono il campo sono cinque: la teoria classica, la teoria frequentista, la teoria

soggettivista, la teoria logica e la teoria della propensità.

La teoria classica della probabi1ità

La definizione classica di probabilità elaborata da Laplace, è questa: “la misura della probabilità di un evento è il

rapporto tra il numero dei casi favorevoli e quello dei casi possibili.”.

Prob(E)= m/n

E= probabilità evento m= numero casi favorevoli n= numero casi possibili

Ad esempio, la probabilità che dal lancio di due dadi esca un 7 è 1/6, e questa risposta si può interpretare dicendo che se si

lancia una coppia di dadi un gran numero di volte, circa un sesto dei lanci darà l’esito 7. Considerato che nel lancio del

dado il numero dei casi possibili e quello dei casi favorevoli è noto senza dover far ricorso a controlli empirici, si dice che

la probabilità così calcolata è a priori.

La probabilità di un dato evento viene indicata con valori compresi tra O e 1. Se il numero dei risultati possibili è finito, la

probabilità O indica che l’evento non potrà mai verificarsi, mentre la probabilità 1 dà la certezza che l’evento si verifichi.

Tale definizione è fruibile solo quanto conosciamo m ed n, cioè il numero dei casi favorevoli e possibili, che sono già

predeterminati in partenza.

La teoria frequentista della probalilità

Questa teoria fiorì all’interno del movimento orientato verso le scienze empiriche, i suoi fautori la considerano una scienza

avente oggetti che appartengono ad un ambito fenomenico particolare.

In particolare tratta problemi in cui lo stesso evento si ripete numerose volte oppure in cui sono coinvolti un gran numero

di elementi dello stesso tipo che devono essere studiati in modo oggettivo, indipendentemente dalle credenze del

soggetto.(fenomeni di massa: probabilità di colpire un bersaglio in una lunga sequenza di colpi).

m E n

La probabilità è data come il rapporto tra il numero dei casi in cui si è verificato il dato evento e il numero totale di

prove identiche nel corso delle quali l’evento si sarebbe potuto verificare;

Prob (E)= m/n

La probabilità frequentista è calcolata a posteriori, sulla base di quanto effettivamente constatato nel corso di uno o più

esperimenti

La teoria soggettivistica della probabilità

Un limite della concezione frequentistica sta nel fatto che essa è applicabile solo ad eventi ripetibili, x i quali è possibile

fare un gran numero di osservazioni in situazioni controllate. Vi sono casi in cui non è possibile una sua applicazione,

come nel caso di eventi unici, cioè non verificatisi in passato e non verificatisi in futuro, come quando si scommette ad una

gara di cavalli o sul risultato di una partita di calcio.

Seondo Ramsey la probabilità esprime il grado di credenza soggettiva che ciascuno possiede circa il verificarsi di un certo

evento. Egli sostiene che x misurare la credenza di un individuo bisogna proporgli una scommessa e vedere qual è la

vincita proporzionale più bassa che questo accetterà.

De Finetti intende la probabilità come lo stato d’animo di un soggetto di fronte a eventi aleatori, una nozione del tutto

soggettiva. Così accanto alla logica del certo, di cui si occupa la logica formale. Esiste la logica dell’incerto, costituita dal

calcolo delle probabilità.

Egli afferma che in base al principio di coerenza chi scommette eviterà la possibilità di perdere qualunque evento accada,

cioè di fare scommesse che portino a una perdita certa.

La teoria logicista della probabilità

La teoria logicista e la teoria soggetivistica della probabilità si differenziano dalla teoria frequentista perché entrambe si

propongono di fornire un’osservazione dì probabilità alla credenza del soggetto. Ma mentre il soggettivismo prende in

considerazione la credenza di un particolare individuo, il logicismo valuta il grado di credenza razionale di un essere

27

umano idealizzato, nella convinzione che ogni individuo dotato di razionalità avrà lo tesso grado di credenza in una ipotesi

o previsione qualora sia posto di fronte alla medesima evidenza. Padre del logicismo è Carnap che influenzò tutta la

filosofia della scienza del ‘900. Egli tenta di elaborare una teoria del grado di conferma: per lui la scienza coincide con tutti

gli asserti altamente confermati e accettati dagli scienziati.

Per Carnap è possibile sviluppare una logica induttiva formale analogamente a come fatto per quella deduttiva.

Però nella logia deduttiva se il primo asserto è vero anche il secondo deve essere vero; nella logica induttiva, un’evidenza e

costituisce solo un supporto parziale di un’ipotesi h, quindi si parla di implicazione parziale.

Per i logicisti c’è una completa identificazione tra la logica induttiva e il calcolo delle probabilità.

C(h,e) = p

Cioè, che la conferma dell’ipotesi h sulla base dell’evidenza empirica e è uguale alla probabilità p, che è un valore tra 0 e 1.

In sostanza per Carnap la conferma di un’ipotesi si riduce al confronto tra esse e una serie di risultati sperimentali

particolari che la verificano: tanto più elevato il numero dei casi che la verificano, tanto più alto il grado di conferma che

essa possiede.

(CONTINUA) pag 240-1

La teoria della propensità

In questa teoria la probabilità viene intesa come la propensità inerente a un insieme di condizioni ripetibili, per cui

affermare che un particolare evento E ha la probabilità p significa sostenere che certe condizioni hanno la propensità (o

tendenza, disposizione), qualora fossero ripetute un gran numero di volte, a produrre E con la frequenza p.

Concezione introdotta da Popper alla fine del ‘900 in cui egli afferma che la propensità è un’interpretazione fisica delle

possibilità concepite come tendenze fisiche a realizzare un determinato stato di cose e non come mere astrazioni. Questa

interpretazione, come quella frequentistica, è di tipo oggettivista, in contrasto con le interpretazioni soggettiviste.

Le interpretazioni oggettiviste assumono che la probabilità di ottenere testa con il lancio di una moneta dipenda

unicamente dalle condizioni fisiche o simili, e non dallo stato delle nostre conoscenze. Le interpretazioni soggettiviste

sono quelle secondo le quali la probabilità di ottenere testa dipende dallo stato della nostra conoscenza (soggettiva) o forse

dallo stato delle nostre conoscenze.

Se la propensità si manifesta come la tendenza a produrre frequenze relative quando vengano ripetute le medesime

condizioni ed esprime la situazione completa dell’universo in un certo momento, allora diventa difficile capire come

l’attribuzione di una certa propensità possa essere controllata, se non attraverso la constatazione delle frequenze relative

con cui un certo evento si produce.

Ciò significa che dobbiamo essere in grado di ripetere l’evento al fine di misurare la frequenza relativa, cosa assai difficile

quando è coinvolta la situazione complessiva dell’universo, e che l’unico modo per scoprire uan prospettiva è la frequenza

con cui un evento accade.

La teoria della propensità non ci fornisce alcun tipo di guida per la stima delle probabilità, non possiede implicazioni di

tipo numerico peculiari, non fa alcuna raccomandazione per la stima dei valori attuali e non fornisce nemmeno una

giustificazione razionale del calcolo.

Il programma Bayesiano

Secondo Bayes, la fiducia nutrita da un soggetto x una credenza in un dato segmento può aumentare in segutio ad una

valutazione razionale di nuovi dati che egli acquisisce successivamente. Lo scopo del suo teorema è stabilire in che misura

una certa evidenza osservativa E possa far crescere la probabilità a priori o iniziale che un certo ricercatore assegna a una

certa ipotesi scientifica p(H), otenendo così la probabilità H in base all’esperienza E, cioè p(H/E), detta anche probabilità

a posteriori.

Per fare ciò bisogna ricorrere ad una valutazione soggettiva, alle cosiddette probabilità personali. Il teorema di Bayes non

dice nulla sul modo in cui il soggetto è arrivato ad accordare determinate probabilità iniziali ad una ipotesi; assicura solo

che, a partire da queste, possiamo matematicamente calcolare la probabilità di qualunque fenomeno ad esse connesso.

I problemi della conferma qualitativa e i suoi paradossi

Una problematica ancora aperta è quella che riguarda la plausibilità logica del concetto stesso di “conferma”.

dei corvi,

Negli anni ‘40 Hempel affronta il problema della conferma in modo qualitativo ricorrendo al paradosso frutto di

blerdi,

una semplice illusione psicologica. Un altro paradosso, proposto da Goodman, è quello dei che si incentra sulla

scoperta dell’ipotesi di permettere predizioni concernenti il futuro.

Il paradosso dei corvi (Hempel)

Consideriamo l’ipotesi: tutti i corvi sono neri. Tale ipotesi verrebbe confermata da ogni oggetto che sia allo stesso tempo

un corvo e nero, ma l’ipotesi sarebbe invalidata nel caso in cui osserviamo un corvo che non è nero.

Tale ipotesi è tuttavia equivalente ad un’altra che afferma che: tutte le cose non nere non sono corvi. 28

Quest’ultima generalizzazione è confermata dagli esempi di tutti gli oggetti che non sono neri e non sono corvi,

confermando l’ipotesi che tutti i corvi sono neri.

Pertanto se osservo una palla rossa o una rosa gialla avrò confermato che tutti i corvi sono neri e ciò è assai lontano

da quello che noi vorremmo fosse la conferma scientifica.

Il paradosso dei blerdi (Goodman)

Supponiamo che tutti gli smeraldi esaminati prima di un tempo t siano verdi. Ciò significa che da tutte le esperienze fatte

fino al tempo t ci hanno permesso di stabilire che tutti gli smeraldi sono verdi.

Goodman ora introduce il predicato “blerde” definito come: esaminato prima del momento t e verde non esaminato

prima di t e blu. Cioè si riferisce a tutte le cose esaminate prima del tempo t che sono verdi, ed altri oggetti non esaminati

prima di t che sono blu.

Per cui si ha un albo enunciato: tutti gli smeraldi sono “blerdi”. In tal modo abbiamo due enunciati : tutti gli smeraldi sono

verdi e tutti gli smeraldi sono blerdi. Entrambi gli enunciati confermano l’ipotesi che tutti gli smeraldi sono blerdi.

Questo paradosso coinvolge anche il processo di induzione poiché dimostra come sia possibile, x ogni ipotesi basata su

osservazioni empiriche avvenute in passato, costruire altre ipotesi infinite basate esattamente sulla stesa evidenza empirica

e tuttavia incompatibile con essa dato che conducono a previsioni del futuro diverse. Partendo dalla pratica degli scienziati,

egli si chiede come mai essi ritengono plausibile proiezioni effettuate per il predicato “verde” e non credibili quelle

riguardanti il predicato “blerde”. La spiegazione sta nel fatto che il predicato “verde” è meglio trincerato del predicato

“blerde”.

Tentativo di soluzione proposto da Hempel

Hempel sostiene che il paradosso dei corvi nasce da una semplice illusione psicologica, per cui esso è tale solo perché urta

con le nostre inveterate abitudini ed intuizioni, con le nostre conoscenze pregresse, ma invece è del tutto giustificato da un

punto di vista logico. Hempel preferisce dare la prevalenza a considerazioni logiche piuttosto che rifarsi alla pratica

effettiva degli scienziati, che non sarebbero soddisfatti da una spiegazione dei paradossi che li riduce solo a una sorta di

abbaglio psicologico.

Se nell’ottica di Hempel la trama razionale è garantita, viene del tutto mancato lo scopo di fornire un resoconto razionale

del metodo impiegato effettivamente dalla scienza nel suo procedere.

Tentativo di soluzione proposto da Goodman

Goodman propone una soluzione che vorrebbe anche essere una risposta all’enigma dell’induzione. Si parte dalla pratica

effettiva degli scienziati e ci si domanda come mai essi ritengono del tutto plausibili proiezioni effettuate per il predicato

verde e non credibili quelle che concernono il predicato blerde.

La risposta è che il predicato verde ha una biografia più consistente, esso è trincerato assai meglio del predicato blerde.

Così quando gli scienziati effettuano la proiezione di un predicato o di una proprietà, essi guardano alla sua storia passata,

alla pratica effettuata, e sulla base dei successi conseguiti decidono nuove proiezioni. Viceversa un predicato come blerde è

poco trincerato, per il semplice fatto che è fittizio. Gli scienziati seguono i principio per cui una proiezione viene esclusa se

entra in conflitto con la proiezione di un predicato che è trincerato molto meglio.

Goodman suggerisce un approccio pragmatico e storico sia al problema della conferma, sia a quello dell’induzione, in

quanto esso non si limita a prendere in considerazione esclusivamente le caratteristiche sintattiche delle generalizzazioni

ma produce anche di utilizzare l’evidenza storica che concerne le previsioni passate, la biografia dei predicati sotto esame.

Tale esperienza passata è evidentemente mediata dal linguaggi, nel senso che i predicati consolidati sono quelli che ormai

sono entrati nell’uso linguistico dei ricercatori, sicché l’induzione trova la sua giustificazione in una certa pratica linguistica,

essa è una funzione delle nostre pratiche linguistiche.

Il rifiuto dell’induzione: Popper

Karl Popper ha proposto una soluzione ancora + radicale al problema dell’induzione.

L’induzione per Popper è un procedimento che va da asserzioni singolari, quali resoconti dei risultati a di osservazione o

di esperimenti, ad asserzioni universali, quali ipotesi e teorie, in altre parole quale logica della scoperta.

L’inaccettabilità del procedimento induttivo, già a suo tempo criticato da Hume, porta Popper a negare la possibilità di

ricostruire in termini puramente razionali, logici, tutti i momenti che danno luogo alla elaborazione, o escogitazione di una

nuova teoria. Riproponendo la distinzione tra contesto della scoperta e contesto della giustificazione.

Popper afferma che la formulazione di una nuova legge o teoria scientifica è il frutto di un atto creativo, di una genialità

produttiva, e perciò rappresenta una congettura la cui genesi non ha alcun peso sul giudizio che della validità di essa sarà

dato.

Poper rifiuta anche la possibilità di fornire un supporto induttivo delle ipotesi, mediante una logica della conferma. Non è

possibile adoperare tale strumento per determinare il valore

P(h, e) = r

Cioè il valore r della probabilità che l’ipotesi h possiede in base all’evidenza e. 29

Tale idea per Popper è completamente errata: il richiamo alla probabilità non tocca minimamente il richiamo all’induzione.

L’inadeguatezza della verifica è inoltre evidente dal fatto che essa non costituisce un criterio atto a distinguere il significato

dal non significato.

Alla base della critica di Popper c’è la stessa obiezione che era stata mossa sin dalle origini al criterio neopositivista: la sua

completa assurdità sta tutta nel fatto che è necessario prima capire una teoria scientifica per potere giudicare se sia o no

verificabile.

Al positivista non va a genio che debbano esistere problemi significanti fuori cal campo della scienza empirica positiva.

Non gli va a genio l’idea che debba esistere una vera e propria teoria della conoscenza, un’epistemologia o una

metodologia.

Sulla base di tali critiche emerge la proposta di Popper: la falsificabilità come criterio di demarcazione e non di significato.

Accertata l’impossibilità di fondare su basi induttive, mediante il concetto di verifica o di conferma, il controllo e la

giustificazione delle teorie scientifiche, la proposta di Popper consiste nella applicazione della logica deduttiva alla

metodologia del controllo empirico, grazie alla nota legge logica del modus tollens.

Col modus tollens data una teoria T, se da essa si deduce una proposizione o conseguenza osservabile e, che si dimostra

non accadere (cioè si constata essere falsa) allora ne consegue logicamente anche la falsità di T.

Popper sostiene la tesi per la quale la falsificazione di una conclusione implica la falsificazione del sistema da cui è derivata.

Cioè dai dati empirici non è possibile inferire la verità di una teoria, ma solo la sua falsità, attraverso un’implicazione

puramente deduttiva: la teoria sotto controllo sarà ritenuta falsificata quando le conclusioni esistenziali deduttivamente

tratte da essa cozzano con una base empirica preesistente alla teoria. Una teoria si dice empirica o falsificabile quando

divide in modo non ambiguo la classe di tutte le possibili asserzioni-base in due sottoclassi non vuote. Primo, la classe di

tutte quelle asserzioni con la quale è contraddittoria: che chiameremo la classe dei falsificatori potenziali della teoria;

secondo, la classe delle asserzioni-base che essa non contraddice (o che permette). Quindi una teoria è falsificabile se la

classe dei suoi falsificatori potenziali non è vuota.

E’ importante sottolineare che la falsificabilità viene sostituita con alla verificabilità neopositivistica non come criterio di

significato, ma solo di demarcazione, in grado di farci distinguere la scienza dalla metafisica: è pertanto un puro e semplice

mito che egli abbia proposto la falsificabilità come criterio di significato. La lasificabilità separa due tipi di asserzioni: le

falsificabili e le non falsificabili. Traccia una linea all’interno del linguaggio significante.

Che nelle intenzioni di Popper significa mettere in luce, in polemica col neopositivismo, da una parte il carattere sempre

provvisorio delle teorie scientifiche e quindi il loro divenire storico; dall’altra, sostenere che la differenza tra la scienza e la

pseudoscienza o metafisica non consiste nel fatto che la prima è dotata di significato e la seconda ne è priva, quanto nella

possibilità di una smentita empirica ammessa per principio dalla prima, cioè nell’essere dotata di falsificatori potenziali.

Affinché una teoria sia ritenuta scientifica si richiede che essa sia falsificabile, ma una volta che essa sia astata sottoposta a

seri tentativi di falsificazione e li abbia tutti superati, possiamo dire che è confermata, come avrebbe sostenuto Carnai?

No, afferma Popper, possiamo solo dire che è stata corroborata. Quello di corroborazione è uno dei concetti più criticati

della metodologia popperiana. La falsificazione di una teoria dipende dall’accettazione di asserti-base con essa

contraddittori: cioè quando risulti proposta, e venga corroborata, un’ipotesi empirica di basso livello detta ipotesi

falsificante.

Tale ipotesi è empirica in quanto a sua volta fasificabile; corroborata in quanto ha superato dei controlli in cui è stata

confrontata con asserzioni-base già accettate. Una teoria falsificabile che abbai superato dei severi controlli è detta da

Popper corroborata.

Questo processo ha, però, solo carattere negativo in quanto indica che una teoria ha retto ai controlli, ma non da una misura

della sua validità in base al calcolo delle probabilità.

I criteri per valutare una teoria sono di due tipi:

- In primo luogo viene presa in considerazione l’audacia della teoria, preferendo non quella più probabile, ma quella che ha

il più alto grado di falsificabilità, perché ammette un maggior numero di falsificatori potenziali. Infatti la probabilità logica

di un’asserzione è complementare al suo grado di falsificabilità: cresce col decrescere del grado di falsificabilità; una teoria

tanto più dice quando più proibisce, in quanto il suo contenuto è direttamente proporzionale alla sua improbabilità e

determina la sua controllabilità.

- In secondo luogo guarderemo alla sua corroborazione, cioè preferiremo la teoria che, oltre a spiegare il successo della

teoria concorrente chiarendo inoltre tutti i problemi da questa lasciati irrisolti, sia anche meglio corroborata. In questo

caso il problema diventa quello di misurare il grado di corroborazione delle teorie rivali, misura questa che non può essere

stabilita facendo solo riferimento al numero dei casi corroboranti, in quanto a determinare il grado di corroborazione è

piuttosto la severità dei vari controlli ai quali l’ipotesi può essere sottoposta. Ma a sua volta la severità dei controlli dipende

dal grado di controllabilità e dunque dalla sem0plicità dell’ipotesi: l’ipotesi più semplice, che è falsificabile in grado più alto,

è anche l’ipotesi che è corroborabile ad un grado più alto.

Emerge che: 30

- in Popper si passa dalla tematica della confutazione a quella della crescita della conoscenza: non è più

tanto importante valutare l’empiricità o scientificità di una teoria, quanto scegliere tra teorie non falsificate

quella che presenta un incremento di conoscenza.

- Acquista un ruolo centrale il concetto di corroborazione come criterio valido per farci discriminare tra

diverse teorie quella migliore. Popper considera il grado di corroborazione come una relazione critica

sulla qualità delle prestazioni del passato: non la si poteva usare per predire future prestazioni; si poteva

parlare del grado di corroborazione di una teoria in una determinata fase della sua discussione critica.

Insomma si possono accertare i meriti di due o più teorie in concorrenza alla luce delle precedenti discussioni ed in base

alla severità delle prove cui sono state sottoposte. E’ proprio tale severità a segnare il possibile distacco della

corroborazione popperiana dalla conferma a base induttivistica di Carnap: ma Popper non riesce a dare un sicuro criterio

per valutare tale severità, ammettendo che non si può formalizzare completamente l’idea di tentativo sincero ed ingegnoso.

Risulta chiaro come il neopositivismo utilizza il criterio di verificazione per discriminare tra il campo del significante e

quello della metafisica; la scienza è a sua volta un sottoinsieme del campo del significante; cioè la totalità delle asserzioni

vere o altamente confermate, giacché sono significative anche le asserzioni false. Per Popper invece sia la scienza, sia la

metafisica sono all’interno del campo del significato, anche se sono discriminate dal criterio di falsificabilità. Il campo della

scienza non include tutte le asserzioni altamente confermate, ma tutte quelle che siano in grado di esibire dei falsificatori

potenziali. Ma la falsificabilità è solo un criterio di scientificità, mentre la scienza è quell’insieme di conoscenze falsificabili

che hanno superato seri tentativi di corroborazione e quindi sono corroborate.

Per il neopositivismo la scienza è l’insieme degli asserti significativi altamente confermati.

Per Popper la scienza è l’insieme degli asserti falsificabili che siano stati corroborati.

La metafisica viene da Popper riabilitata non nel suo valore conoscitivo, ma per la mera sua fecondità euristica.

Scriveva Popper che una posizione metafisica, pur non controllabile, poteva essere razionalmente criticabile.

Egli afferma che tutte le teorie scientifiche derivano dai miti, e che un mito può contenere importanti anticipazioni delle

teorie scientifiche.

La scienza deve prendere avvio dai miti e dalla loro critica; non dalla collezione di osservazioni, né dall’invenzione di

esperimenti.

Dobbiamo riconoscere che molti sistemi metafisici hanno portato a importanti risultati scientifici.

La metafisica è accettabile solo nella misura in cui porta alla scienza.

Resta ben accertato che la scienza non si fonda sulla metafisica e che la filosofia continua a mantenere in Popper il ruolo di

chiarificazione dei concetti scientifici; che fin quando la metafisica resta tale, essa non scienza e che solo attraverso una sua

mutazione sostanziale può scaturirne qualcosa di positivo.

La falsificabilità ha anche un importante aspetto metodologico, di evidente natura normativa: esso prescrive che nell’esame

critico di una teoria non si devono utilizzare strategie di immunizzazione che la sottraggono alla eventuale falsificazione.

Può infatti accadere che una teoria logicamente falsificabile, come il marxismo, venga mantenuta in vita.

Per Popper la ricerca scientifica deve mirare alla ricerca della verità, cioè alla descrizione e spiegazione vera del mondo ,

ciò è possibile solo in una prospettiva filosofica realista che rifiuti il convenzionalismo tipico di molti degli epistemologi di

tradizione neopositivistica. 31

CAP 5 LA SPIEGAZIONE SCIENTIFICA: LEGGI E TEORIE

”Lo scopo della scienza è quello di trovare spiegazioni soddisfacenti di tutto ciò che ci colpisce come bisognoso di

spiegazione” (Popper). La spiegazione scientifica si caratterizza per il fatto di rispondere ad un “perchè”. Come tentativo

di rendere comprensibile o intellegibile qualche evento particolare o qualche fatto generale col fare appello ad altri fatti

particolari e/o generali ricavati da una o più branche della scienza empirica.

Carnap afferma che i suoi scritti rimanenti agli anni dl Circolo di Vienna erano pieni di divieti, queste opere furono infatti

scritte in relazione al clima filosofico dell’idealismo tedesco. Egli ritiene che lui e i suoi colleghi non hanno bisogno di sire

“non chiedere perché”, poiché quando qualcuno gli chiede perché essi ritengono che egli lo intende in senso scientifico e

non metafisico: chiede semplicemente di spiegare qualcosa collocandola in un contesto di leggi empiriche.

Il modo di intendere la spiegazione scientifica cambia con Popper e con il “modello Popper_Hempel” o “concezione

nomologico-deduttiva” o leggi di copertura della spiegazione scientifica”.

Popper sostiene che dare una spiegazione casuale di un evento significa dedurre un’asserzione che lo descrive, usando

come premesse della deduzione una o più leggi universali, insieme con alcune asserzioni singolari dette “condizioni iniziali”.

Possiamo dire di aver dato una spiegazione causale della rottura di un certo pezzo di filo se abbiamo trovato che il filo da

una resistenza alla trazione di ½ kg, ed è stato caricato con un peso di 1 Kg. In questa spiegazione casuale troveremo che

consta di:

ipotesi ---- un filo si rompe tutte le volte che viene caricato con un peso che supera il peso che definisce la resistenza

o alla trazione del filo. Questa è un asserzione che ha carattere universale di natura - che costituiscono la causa

dell’evento

Abbiamo certe asserzioni singolari per l’evento specifico in questione (il carico di rottura e il peso con cui è stato

o caricato)

Dalla congiunzione degli asserti universali e singolari viene dedotto l’asserto che descrive l’evento che si vuole

o spiegare o che costituisce la predizione o effetto (questo filo si romperà).

Il modello Nomologico-Deduttivo

La problematica della spiegazione scientifica raggiunge la sua maturità con il saggio pubblicato da Hempel e Oppenheim.

Alla base dell’approccio da essi proposto v’è l’idea che fosse possibile dare una caratterizzazione della spiegazione

scientifica libera sia dalla necessità di far ricorso a fatti sovrannaturali, sia di implicazioni di tipo psicologico.

Se lo scopo della scienza è quello di capire il mondo è importante intendere questa comprensione in modo da non farla

dipendere dalle disposizioni soggettive del singolo individuo, dal suo particolare stato di coscienza o dalle conoscenze da

lui possedute in un dato momento. E’ necessario fornire un modello di spiegazione la cui forza risieda nel modo in cui

sono connessi eventi da spiegare e fatti esplicativi: la modalità di connessione veniva ritrovata nella sussunzione logica e i

fatti esplicativi venivano individuati nelle leggi scientifiche.

Hempel Introduce quelli che a suo avviso sono i requisisti sistematici della spiegazione scientifica:

- il requisito della rilevanza esplicativa --- l’informazione addotta fornisce buone ragioni per credere che

il fenomeno da spiegare si sia verificato o si verificherà. Es. l’arcobaleno è causato dalla riflessione e

rifrazione della luce del sole nelle goccioline sferiche di acqua presenti nelle nuvole, in base alle leggi

dell’ottica, per cui tale informazione esplicativa è una buona ragione per aspettarci l’apparizione di un

arcobaleno al verificarsi delle circostanze specificate. In questo caso la spiegazione fisica soddisfa il

requisito della rilevanza esplicativa.

- il requisito della controllabilità --- le asserzioni che costituiscono una spiegazione scientifica siano

suscettibili di controllo empirico. Es la spiegazione dell’arcobaleno contiene asserzioni che possono

essere controllabili indipendentemente in fenomeni analoghi creati sperimentalmente (con pioggia

artificiale, spruzzi, ecc).

La formulazione del modello D-N: la sussunzione deduttiva dell’Explanandum mediante un Explanans

Spiegare un evento significa poterlo sussumere deduttivamente sotto una o più leggi generali e in presenza di condizioni

iniziali ben specificate. Tale concetto può essere formalizzato mediante

D-N

L1, L2,… , Lr explanans

C1, C2,… , Cr

E explanandum 32

In esso L1, L2, …, Lr costituiscono le leggi generali;

C1, C2, …, Cr sono le condizioni iniziali che descrivono certi eventi particolari.

Il tipo di spiegazione la cui struttura logica è suggerita dalla schema D-N sarà chiamata spiegazione deduttivo-nomologica

o spiegazione D-N, essa effettuaa una sussunzione deduttiva dello explanandum sotto principi che hanno il carattere di

leggi generali. Essa risponde alla questione “perché il fenomeno-explanandum occorre?”

- L’explanandum è una conseguenza logica dello explanans, in ciò sta il suo carattere deduttivo e questo fa si che sia

soddisfatto il requisito della rilevanza esplicativa nel senso più forte. Viene soddisfatto anche il requisito della

controllabilità, in quanto sia le leggi generali, sia le circostanze particolari sono empiricamente controllabili, essendo

le prime leggi della scienza e le seconde situazioni concretamente riproducibili.

Hempel condizioni di adeguatezza

ed Oppenheim sostengono che tale modello di spiegazione debba avere 4 :

3 di natura logica:

1)l’explanandum (fenomeno da spiegare) deve essere una conseguenza logica dell’explanans (premesse);

2) L’explanans deve contenere delle leggi generali che devono essere realmente richieste x la derivazione

dell’explanandum;

3)l’explanandum deve avere contenuto empirico;

1 di natura empira

4)le preposizioni che costituiscono explanans devono essere vere.

La simmetria tra spiegazione (dall’evento alle premesse) e predizione (dalle leggi universali alle conclusioni)

Una spiegazione soddisfacente deve avere anche potere predittivo, essa cioè deve essere in grado di prevedere altri eventi

simili attualmente sconosciuti; deve riuscire a collegare eventi e regolarità precedentemente non collegati e reciprocamente

indipendenti. Ciò solleva il controverso problema della simmetria esistente tra spiegazione e predizione.

- Nella spiegazione si conosce l’evento (conclusione) e si devono trovare le premesse (formate dalle

condizioni iniziali e dalle leggi universali) che lo implicano;

- Nella previsione si conoscono le leggi universali e si cerca di trarne, in presenza di opportune condizioni

iniziali, le conclusioni, ovvero un evento futuro.

Hempel sostiene che “ogni adeguata spiegazione è potenzialmente una predizione e viceversa ogni adeguata predizione è

potenzialmente una spiegazione”.

La difficoltà dei modelli e i controesempi

Vennero proposti alcuni controesempi: ;

1) IL CONTROESEMPIO DELL’ASTA DELLA BANDIERA

consiste nel supporre che sia piantata in una giornata di sole un’asta di bandiera su un terreno pianeggiante.

L’asta proietta un’ombra, la cui lunghezza può essere spiegata facendo ricorso:

- all’elevazione in gradi del sole

- all’altezza della bandiera

- alle leggi dell’ottica geometrica

Così abbiamo una spiegazione D-N che riterremo corretta in quando soddisfa le condizioni imposte da Hempel

un’ asta di una certa lunghezza, in determinate circostanze causa un’ombra di una certa lunghezza

se qualcuno ci domanda perché la bandiera è alta ad es. un metro, possiamo dedurre un argomento simile, nel quale

invece di dedurre la lunghezza dell’ombra dall’altezza della bandiera, dedurremo l’altezza della bandiera:

- dalla lunghezza della sua ombra

- dalla elevazione del sole

Anche i questo caso la spiegazione sarebbe formalmente valida.

Intuitivamente non diremo che la bandiera è alta un certa misura in virtù della lunghezza della sua ombra, se

proponessimo un simile argomento, sia pure corretto, per il senso comune i termini della spiegazione apparirebbero

rovesciati.

La morale: le condizioni poste da Hempel perché una spiegazione D-N sia valida non sono sufficienti a discriminare due

casi molto diversi che posseggono la medesima struttura nomologico - deduttiva e che quindi soddisfano i criteri che sono

stati fissati, ma dei quali uno sarebbe ritenuto una spiegazione autentica, l’altro no.

La differenza tra le due spiegazioni è data dal fatto che:

- in un caso possiamo dire che un’asta di una certa altezza, causa un’ombra di una certa lunghezza;

- nell’altro, non è possibile affermare che un’ombra di una certa lunghezza è causa della data altezza dell’asta. 33

Per discriminare le 2 spiegazioni dobbiamo fare ricorso al concetto di casualità, il modello D-N è insufficiente a

spiegare un evento.

2) IL CONTROESEMPIO DELLA MACCHIA DI INCHIOSTRO

Consiste nel supporre che sul tappeto vicino alla scrivania del prof. Jones vi sia una macchia di inchiostro.

Come possiamo spiegarla?

Vi era un calamaio aperto sull’angolo della scrivania e il prof l’ha urtato facendolo cadere. Questa sembra essere la

spiegazione adeguata, ma che non comprende alcuna legge universale dalla quale sia dedotto l’explanandum è pertanto

possibile una spiegazione che non soddisfa il 2 requisito fissato da Hempel per il modello D-N, si devono quindi

ammettere delle spiegazioni adeguate che non obbediscono al modello nomologico-deduttivo che appare così non più

come il modello di spiegazione universalmente applicabile.

Questo controesempio mette in luce come il modello non è necessario per spiegare un evento.

Il problema della spiegazione dei casi singoli e degli eventi concreti

Un’altra difficoltà del modello D-N concerne la sua applicabilità a settori di indagine diversi dalla fisica . Si sostiene che

non è in grado di spiegare un fatto storico a causa della sua concretezza, individualità e unicità. L’explanandum della

spiegazione D-N non sarà mai un evento singolo, ma un caso rappresentativo di una classe.

Ad es. il medico cui si domanda perché il paziente è morto, non risponderà che tutti gli uomini sono mortali ed il suo

paziente è un uomo, ovviamente tale risposta pur essendo conforme al modello D-N sarà ritenuta irrilevante. Esso invece

spiegherà quale malattia avesse il paziente ecc.

Per affrontare tale questione Hempel distingue:

1) Le proposizioni (sentences) (o eventi e fatti preposizionali) che contraddistinguono completamente il fenomeno da

spiegare e che permettono ad un fatto particolare di essere spiegato scientificamente secondo il modello da lui

proposto;

2) Gli eventi concreti in cui l’evento particolare sia specificato grazie ad una fase nominale, un nome individuale o una

determinata descrizione.

Infatti, un evento lo spiegheremo solo per certi suoi aspetti, esattamente quelli menzionati nella proposizione che lo

descrive.

I modelli di spiegazione di tipo statistico

Oltre alla spiegazione D-N, Hempel e Oppenheim ammisero anche l’esistenza di spiegazioni probabilistiche o statistiche. Per

quest’ultime si intende quella che fa uso essenziale di almeno una legge o principio teorico di forma statistica.

Le 2 spiegazioni aventi carattere statistico e probabilistico sono:

1) le spiegazioni statistico - deduttivo (D-S)

2) Le spiegazioni statistico-induttive (I-S)

Le spiegazioni statistico - deduttivo (D-S) consistono nel dedurre, secondo il modello D-N, una legge statistica da

altre di più ampio raggio; comportano infatti la deduzione di asserto nella forma di una legge statistica da un explanans

che contiene almeno una legge o principio teorico in forma statistica. La deduzione è effettuata per mezzo della teoria

matematica della probabilità statistica che rende possibile calcolare certe probabilità derivate (quelle cui si fa riferimento

nell’explanandum) sulla base delle altre probabilità (specificate nell’explanans), che sono state empiricamente accertate o

ipoteticamente assunte.

Le spiegazioni statistico-induttive (I-S) che spiegano un evento individuale x mezzo di una o + leggi statistiche.

- la sua caratteristica fondamentale è il fatto che l’explanans include nelle proprie premesse almeno una legge statistica la

quale assegna solo un certo grado di probabilità al verificarsi di un certo fenomeno (explanandum) che non può essere

dedotta dall’explanans ma è solo prevedibile con un’altra probabilità induttiva.

Mentre nel modello D-N gli eventi da spiegare sono sussunti deduttivamente, nel modello I-S sono sussulti

induttivamente.

Le difficoltà del modello I-S hanno portato Hempel ad operare ulteriori correzioni fino a ritirare il requisito x cui le

spiegazioni I-S devono avere un alto grado di probabilità e anche la tesi della relativizzazione al contesto epistemico delle

spiegazioni I -S.

Per affrontare tali difficoltà, gli studiosi hanno adottato 3 strategie diverse:

1) Proseguire la strada iniziata da Hempel;

2) Costruire una diversa teoria con la speranza di evitare i problemi già incontrati;

3) Negare l’esistenza di spiegazioni statistiche o probabilistiche x i fatti particolari propugnando la causa di un

rigoroso induttivismo x la spiegazione scientifica. 34

Altri modelli e tipi di spiegazione

Nel modello di spiegazione basato sulla rilevanza statistica si prende atto che un ruolo importante non è quello costituito

dall’alta probabilità, ma quello della rilevanza statistica che comporta una relazione tra due differenti gradi di probabilità.

Gli oppositori della spiegazione D-N ne avevano criticato il modello, in particolare Salmon. L’idea di fondo consiste nel

sostenere che una spiegazione consiste non in un argomento ma nella connessione di fattori statisticamente rilevanti.

Salmon parla di due grandi tradizioni nel modo di intendere la spiegazione scientifica:

1) la spiegazione come sussunzione sotto leggi sempre + generali e comprensibili;

2) la spiegazione come capacità di cogliere le connessioni causali, quel meccanismo nascosto della natura che

tiene insieme i fatti che vogliamo capire.

Dal momento che Popper parlando di spiegazione D-N aveva usato il termine “spiegazione causale”, ci si chiede se l’una e

l’altra non siano in realtà la stessa cosa.

Ma l’analisi della struttura logica del modello D-N dimostra che tra premesse e conclusioni esiste solo un legame deduttivo

che non è un legame causale.

Van Fraassen sostiene che una spiegazione è una risposta ad una “domanda-perchè?”. Egli introduce il concetto di

“rilevanza’ e quello di “classe antitesi” che indica il contenuto significativo entro il quale ha senso trovare una risposta.

Sono cruciali nella sua teoria le nozioni di antitesi e di relazione di rilevanza. La prima fornisce il contesto significativo

entro il quale ha senso trovare una risposta. Insomma nella concezione di Van Fraassen si sottolinea la centralità del

contesto, in quanto quello che esattamente si chiede attraverso la domanda “Perché si dà il caso che P?”, differisce da

contesto a contesto. Quindi la teoria di sfondo più i dati relativamente ai quali viene valutata la domanda dipendono dal

contesto. La relazione di rilevanza, invece, concerne il nesso che esiste tra la risposta e l’evento. Lo stesso Fraassen

ammette che la sua teoria non è ancora completa perché non ci dice in che modo le risposte vengano giudicate

soddisfacenti., buone o migliori.

Le leggi scientifiche

La legge scientifica è lo strumento indispensabile che permette di pervenire alla spiegazione scientifica: senza di essa non

sarebbe possibile spiegare nulla della realtà naturale ed è il compito fondamentale delle scienze ricorrere alle leggi che

governano la natura.

Popper afferma che se vogliamo conoscere, dobbiamo andare alla ricerca di leggi di natura, di regolarità.

In generale le leggi di natura possono essere caratterizzate come una relazione o connessione costante tra proprietà o

fenomeni empirici differenti. Es: “tutte le volte che la temperatura di un gas aumenta mentre la sua pressione resta

costante, il volume aumenta” pur avendo carattere qualitativo, la legge portata ad esempio viene formulata in modo

quantitativo, mediante una relazione di tipo funzionale tra grandezze definite, che caratterizzano corpi o sistemi fisici.

La locuzione ‘legge di natura” si riferisce ad un comportamento oggettivo che esiste in natura ed ha quindi carattere

ontologico.

Con “legge della scienza” si indica un enunciato avente certe caratteristiche formali e che si suppone possa descrivere

un comportamento oggettivo: esso appartiene quindi al piano linguistico.

In generale gli scienziati presuppongono che le leggi scientifiche da loro scoperte in qualche modo riflettono o

riproducono delle leggi esistenti in natura.

Essi sono profondamente convinti che attraverso le loro ricerche possano scoprire qualche cosa che effettivamente esiste,

che sta al di fuori delle loro menti e che esisterebbe anche se nessun uomo esistesse o fosse mai esistito.

La formulazione delle leggi scientifiche è quindi consolidata come una ricostruzione concettuale di leggi

obiettivamente esistenti.

E’ ovvio che nessuno scienziato sarà così ingenuo da credere che esista un perfetta corrispondenza tra legge scientifica e

legge di natura. Tra di esse ci sarà sempre una distanza che diminuisce con l’avanzare della ricerca scientifica.

Le leggi diventano sempre più esatte quindi approssimano sempre più la realtà.

Vi è però una tesi opposta e cioè quella che ritiene le leggi scientifiche una costruzione puramente umana a cui non

corrisponde alcuna legge di natura, è l’uomo a fornire un ordine della realtà che altrimenti sarebbe un flusso caotico di

sensazioni ed esperienze.

Quindi non si pone qui il problema della corrispondenza tra conoscenza scientifica e realtà oggettiva, ma piuttosto si mette

l’accento sulla coerenza o congruenza dell’edificio scientifico, inteso come una pura costruzione concettuale della mente

umana. La legge scientifica, come anche le teorie sono in questa prospettiva, solo degli strumenti utili di orientamento nel

reale, strumenti linguistici per organizzare i fenomeni osservabili dell’esperienza in qualche tipo di struttura che funzionerà

in modo efficiente per prevedere nuovi fenomeni osservabili. 35

Una genuina legge scientifica si ritiene debba avere qualche cosa di più di una mera connessione accidentale tra eventi:

starebbe ad indicare una “universalità nomica”, cioè un nesso necessario che lega la premessa alla conseguenza.

La proposta della Standard View (o concezione standard)

E’ la posizione elaborata all’interno del neopositivismo e si basa sull’accettazione del punto di vista regolarista ed empirista

di Hume secondo cui non è possibile parlare di una struttura causale del mondo, x cui le leggi scientifiche descrivono solo

delle regolarità osservate; l’unico problema è capire come sia possibile distinguere le regolarità nomologiche da quelle

accidentali secondo 2 criteri:

1) la struttura sintattica dell’enunciato che esprime la legge;

2) il riferimento all’esperienza che ogni legge deve possedere per poter parlare della realtà ed essere conoscitivamente

feconda.

Però è arduo cercare di caratterizzare le leggi di natura per via puramente sintattica, perché la logica classica non è in grado

di esprimere adeguatamente la differenza tra l’accidentalità di una generalizzazione e la sua nomologicità.

Per quanto riguarda il riferimento empirico, affinché un enunciato generale possa essere considerato un’autentica legge di

natura, esso deve possedere due requisiti essenziali: permettere di effettuare previsioni di eventi futuri (e quindi non essere

un mero riassunto di casi già esaminati) ed essere altamente confermato per via induttiva.

Schlick ritiene che affinché si abbia una legge di natura le equazioni in essa presente devono essere valide per nuovi dati.

Anche Nagel sostiene che un enunciato universale può essere ritenuto una legge di natura solo se i casi esaminati non

costituiscono tutta la classe di esempi a disposizione dell’asserzione, sicché il suo campo predicativo non sia chiuso

rispetto a un ulteriore ampliamento.

Aggiunge Pap, a distinguere la nomologicità di una legge scientifica è la sua conferma empirica: un enunciato universale ha

carattere di legge nella misura precisa in cui esso è indirettamente confermato da esempi che confermano direttamente

ipotesi più generali da cui esso deriva o confermano enunciati meno generali che derivano da esso.

Un enunciato universale è considerato una legge quando è deducibile da una generalizzazione di carattere più ampio che

sia stata direttamente confermata, esso è induttivamente sostenuto da tutti gli esempi che hanno confermato l’enunciato

più generale. L’enunciato universale è considerato una legge quando è possibile dedurre da esso dei casi che lo

confermano.

Controfattualità e leggi di natura

Per capire come caratterizziamo la normatività di un enunciato generale facendo ricorso al concetto di controfattualità

consideriamo le due asserzioni:

a) tutte le persone sedute in questa stanza sono studenti

b) tutti i corpi metallici riscaldati si dilatano

la a) è una generalizzazione accidentale (non sempre accade che le persone sedute in una stanza sono studenti) la b) è

invece una genuina legge di natura.

Questo perché mentre nella prima non si evince che se una persona si sedesse in questa stanza sarebbe uno studente (né

potremmo spiegare che una persona è uno studente perché si siede in questa stanza), nella caso b) sappiamo che se un

corpo metallico fosse riscaldato allora esso si dilaterebbe (e dal fatto che un corpo riscaldato si dilata deduciamo che esso è

un metallo).

Una legge di natura autentica deve, a differenza di una generalizzazione accidentale, esser in grado di sostenere dei

condizionali controfattuali, cioè asserzioni della forma “se si verificasse (si fosse verificato) F allora si verificherebbe (si

sarebbe verificato) G”. standard view di prigine neopositivista e di impostazione

L’esistenza dei controfattuali non è stata ignorata dalla

humiana.

Chisholm afferma che non si può dire, come ora è propensa a fare la maggioranza dei logici e dei filosofi, che una legge di

natura è semplicemente ciò che viene espresso da un condizionale universale sintetico. Dobbiamo trovare la differenza che

ci consente di escludere i condizionali accidentali. Le alternative sono:

1) fornire la qualificazione di cui manca la nostra formula e quindi ridurre il congiuntivo all’indicativo; (è

questo il progetto riduzionista, che lascia la questione nel punto in cui la trova perché resta irrisolto il

problema di universalità nomica e generalizzazione accidentale);

2) accettare il congiuntivo come tale da descrivere qualche tipo di connessione irriducibile e così respingere

la logica estensionale che la maggior parte dei logici contemporanei ha cercato di applicare ai problemi

logici della scienza (questa alternativa prende atto della difficoltà fondamentale della logica tradizionale

quando tratta i controfattuali).

Il problema non è facile in quanto costituisce il problema fondamentale della logica della scienza.

I controfattuali e il paradosso dell’implicazione

Questa difficoltà sta nel fatto che i controfattuali non possono essere trattati adeguatamente con gli strumenti della logica

classica estensionale e verofunzionale. 36

L’applicazione ad essi del “condizionale materiale” porta a risultati controintuitivi: avendo evidentemente ogni

condizionale controfattuale l’antecedente falso avremmo un asserto sempre vero, qualunque sia il valore di verità del

conseguente.

Ad esempio i due asserti:

a) se un corpo fosse metallico, allora si dilaterebbe se riscaldato

b) se un corpo fosse metallico, allora non si dilaterebbe se riscaldato

sarebbero entrambi controfattualmente veri: questo è il cosiddetto paradosso dell’implicaziome.

Chisholm e Goodman cercano di risolvere il problema in realtà le loro soluzioni cadono in un circolo vizioso: per stabilire

qualsivoglia controfattuale sembra che dobbiamo prima aver determinato la verità di un altro. E così non siamo mai in

grado di spiegare un controfattuale se non facendo ricorso ad altri, in modo che il problema dei controfattuali non può

che rimanere irrisolto.

Il problema dei controfattuali è che, dal punto di vista semantico, non esistono soluzioni chiare e universalmente condivise

della questione di come valutare la loro verità.

Il problema della proiettabilità della legge di natura

Goodman indica una via di uscita quando sostiene che una legge di natura si caratterizza, oltre che per la sua

controfattualità, per il fatto di essere accettata come vera, anche se non sono stati determinati tutti i suoi esempi ma si

prevede che quelli esaminati in futuro saranno conformi ad essa; invece una generalizzazione accidentale avrebbe la

caratteristica di essere versa solo per i casi esaminati (gli studenti di questa sala) e quindi verrebbe ad essere accertata solo

dopo che tutti i suoi casi siano stati determinati, senza costituire una base adeguata per la previsione di nuovi casi.

Nel caso della nostra generalizzazione degli studenti essa è valida solo per i casi esaminati, mentre nulla ci dice che ssa sarà

vera anche per gli studenti che verranno domani nella sala.

standard view

Ritornano quindi i criteri che erano stati avanzati dalla (era stato per superare l’insufficienza di questi che si

era fatto ricorso alla controfattualità).

Il paradosso dell’implicazione segna uno dei problemi a cui ha portato l’analisi delle leggi scientifiche effettuata dal

neopositivismo logico: la logica verofunzionale che ne sta alla base non è sufficiente per catturare il significato delle leggi

scientifiche nella scienza contemporanea e vanifica il tentativo di impiegare i controfattuali per distinguere le autentiche

leggi scientifiche dalle generalizzazione accidentali.

7. Le leggi scientifiche: la concezione idealizzazionale

Un approccio nuovo alle leggi scientifiche viene da questa impostazione che concepisce la legge scientifica in modo non

standard, come un asserto che non verte sul reale, ma su modelli idealizzati.

Un nuovo approccio alla scienza nasce in Polonia alla fine degli anni ’60 frutto di due fattori: l’influenza della scuola

analitica polacca e l’importanza della riflessione sul pensiero di Marx, che si faceva portatore di una concezione della

scienza decisamente antiempirista.

Tale approccio si è incarnato nella cosiddetta scuola metodologica di Poznan, che ha fatto del concetto di idealizzazione il

centro della propria riflessione.

Anche in Occidente, la crisi della concezione standard delle teorie scientifiche e la dissoluzione del programma popperiano

aveva portato molti filosofi della scienza a cercare vie diverse, mettendo in discussione i cardini teorici su cui era stata

edificata l’immagine tradizionale di scienza e che erano stati accettati sia all’interno de popperismo sia anche dai suoi

contestatori più radicali.

Le nuove prospettive che ne sono emerse, con l’adeguata attenzione all’importanza dell’idealizzazione e della

modellizzazione nella scienza, hanno comportato una vera e propria rivoluzione epistemologica.

Grazie alla scuola di Poznan la questione del carattere idealizzazionale della scienza e stata posta all’attenzione del pensiero

epistemologico contemporaneo, per cui molti studiosi occidentali grazie a questo impulso (oltre che in seguito alla crisi

della concezione standard) le hanno riservato attenzione.

E’ nel capitale di Marx che viene ritrovato un modo nuovo di intendere l’astrazione che è propria del suo metodo

“modellizzante” che viene chiamata idealizzazione. Il termine astrazione presenta una certa ambiguità. Da una parte

intendiamo che il contenuto di un dato termine è stato costruito astraendo da certe proprietà di specifici oggetti e

prendendo in considerazione altre caratteristiche. In questo senso una teoria astratta è semplicemente una teoria su insiemi

di oggetti, insiemi caratterizzati dal fatto di prescindere da certe caratteristiche degli oggetti e di prenderne in

considerazione altre.

Nell’altro significato, la teoria astratta si identifica con una teoria idealizzazionale che tratta di determinati tipi ideali.

Il che significa che i costrutti che utilizza Marx nel Capitale e che sono propri della scienza matura, non sono

empiricamente dati, né sono generalizzazioni induttive dall’esperienza, ma sono costrutti che nella reltà non

corrispondono a nulla. 37

Pertanto la scienza nello sforzo di conoscere la realtà che ci circonda, da essa apparentemente si allontana e la teoria

scientifica non è la semplice descrizione dei fenomeni che ci circondano, ma è formulata mediante delle assunzioni

idealizzanti, cioè assunzioni che mettono da parte certe caratteristiche dei fenomeni indagati per sottolinearne altre, quelle

più essenziali.

Nowak paragona il concetto di idealizzazione alla caricatura: cosa fa un disegnatore? Prende alcuni dettagli da una data

persona e sottolinea quelli che gli sembrano importanti. Cioè impiega il metodo della esagerazione: trascurando alcune

caratteristiche che ritiene di minore importanza.

La scienza fa lo stesso. Applica lo stesso metodo che troviamo nella caricatura.

Un costrutto concettuale che sia più astratto di un altro avrà una denotazione più ampia ed una connotazione più ristretta,

mentre un costrutto concettuale maggiormente idealizzato rispetto ad un altro avrà la medesima denotazione o classe di

referenza fattuale di quest’ultimo ma la sua connotazione sarà più ampia.

Importante è evidenziare alcuni punti:

1) il modo dominante in cui è stata intesa l’astrazione nella storia del pensiero e dell’epistemologia, sino ad arrivare ai

nostri giorni, è segnato dall’originaria impostazione aristotelica;

2) che con la nascita della scienza moderna si afferma un nuovo modo di concepire l’astrazione, che può meglio

caratterizzarsi col nome di idealizzazione, adottato di fatto dagli scienziati nella loro pratica di ricerca;

3) che tuttavia a causa dell’influenza della filosofia empirista ed induttivista, assai spesso gli scienziati non hanno

un’adeguata consapevolezza metodologica di questo nuovo modo di intendere l’astrazione;

4) che assai spesso tale nuovo concetto di astrazione si è espresso in filosofie ai margini del grande trend

dell’epistemologia contemporanea o addirittura con accentuati intenti antiscientifici;

5) che la ripresa della tematica dell’idealizzazione è un evento che può essere collocato negli ultimi decenni e che un

grande contributo in questa direzione è stato fornito dalla cosiddetta scuola metodologica di Poznan.

La legge scientifica come asserto idealizzazionale

Già Hempel in passato aveva ritenuto impossibile la spiegazione completa di eventi concreti e aveva sostenuto che ad

essere spiegata è solo la occorrenza di un particolare caso di un dato genere di eventi.

Ci si era domandato che cosa si intendesse con “un dato genere di eventi” e si era constatato che in Hempel e negli autori

classici del neopositivismo la domanda era senza risposta. La possibilità stessa di applicare il modello nomologico-

deduttivo alla realtà concreta si gioca sulla possibilità o meno di selezionare questo genere di eventi. Le ricorrenze sulle cui

sole basi è possibile formulare una legge scientifica, non sono eventi naturali, ma costruzioni teoriche.

No ha infatti lo stesso Hempel sostenuto che gli aspetti destinati ad essere scelti dipendono dal contesto dell’indagine?

Dobbiamo quindi pensare che la premessa di una legge scientifica ha come oggetto una ricorrenza che è solo il frutto di

una nostra costruzione teorica ottenuta per astrazione, ovvero qualcosa che non esiste in natura esattamente così come la

descriviamo.

Vi è anche un altro genere di premessa che può essere falsa: quando in essa si fa riferimento ad oggetti che si sa bene non

possano esistere, perché le proprietà che li caratterizzano sono in opposizione con quelle possedute dall’oggetto reale che

per altro verso è ben identificabile.

Così avviene ad esempio quando si assume che un corpo materiale sia perfettamente rigido, la conoscenza a nostra

disposizione ci dice che i corpi non sono mai perfettamente rigidi.

In questo caso si costruiscono oggetti fittizi, ideali, che descrivono una realtà non esistente, e tuttavia indispensabili per

pervenire alla formulazione di una legge scientifica che descriva il fenomeno in una forma pura. Se nel primo caso il

dominio degli oggetti cui faceva riferimento la legge era reale, in questo secondo caso abbiamo invece a che fare con

oggetti ideali, e la legge che verte su di essi si chiama legge idealizzazionale. Quando il supposto dominio di una legge è un

insieme di oggetti reali, empiricamente esistenti, chiameremo questa una legge fattuale (Lf). Quando vediamo che una

legge non ha dominio reale, chiameremo questa legge idealizzazionale (Li). La legge idealizzazionale ha anche un dominio.

Esso è comunque non un insieme della realtà ma un insieme di oggetti ideali. Nel primo caso il dominio è reale, nel

secondo solo ideale.

Sarebbe opportuno distinguere tra condizionale congiuntivo, che designa semplicemente i condizionali con la caratteristica

grammaticale di avere il verbo dell’antecedente (protasi) al modo congiuntivo e quello del conseguente (apodosi) al modo

condizionale, dove nulla cambia se invece di usare il congiuntivo si usano formule del tipo “ammesso che”, “supposto

che” ecc.: e condizionale controfattuale vero e proprio, che non è invece una nozione grammaticale in quanto fa

riferimento a qualcosa che il parlante e il ricettore presuppongono all’asserzione del condizionale congiuntivo. Il

controfattuale è infatti un condizionale congiuntivo enunciato in una situazione in cui il fatto ipotizzato nella protasi è

contrario a un fatto conosciuto come vero dal parlante e dal ricettore. Di norma nessun condizionale congiuntivo di per sé

è tale da implicare logicamente che la protasi è controfattuale, anche se tale controfattualità è spesso suggerita dall’uso del

congiuntivo.

Come precisa Nowak una legge idealizzazionale deve contenere una assunzione realistica, la quale sta solo ad indicare

l’appartenenza dell’elemento idealizzato di cui tratta le legge ad un dato universo di discorso.

Le condizioni idealizzanti hanno una natura non realistica, esse no sono soddisfatte da nessun oggetto reale. 38

Un asserto idealizzazionale determina in che modo una data grandezza dipende da un’altra in condizioni idealizzate, cioè

condizioni soddisfacenti assunzioni idealizzate. Condizioni idealizzate sono definite per mezzo di assunzioni idealizzanti.

Come afferma Cartwright le leggi fondamentali non governano gli oggetti della realtà; esse governano gli oggetti nei

modelli.

Per far si che la legge descriva quanto avviene effettivamente nel mondo fenomenico, è necessario concretizzarla, cioè

renderla più vicina ai fatti (per cui si parla anche di sua “fattualizzazione”). A tale scopo è necessario eliminare qualcuna

delle assunzioni idealizzanti introducendo dei valori che siano empiricamente descrittivi. Per cui abbiamo una serie di

modelli sempre più concreti e vicini alla realtà di superficie, fino ad arrivare al limite di una legge fattuale, priva di

assunzioni idealizzanti.

In genere questo è possibile assai raramente, sicchè si procede in concreto sempre ad applicare delle procedure di

approssimazione che permettono di calcolare in modo soddisfacente lo scarto tra le previsioni della legge idealizzazionale

di livello più basso e quanto osservato in realtà, facendolo rimanere all’interno di un certo margine ritenuto dalla comunità

scientifica accettabile per gli scopi che ci si propone.

8. Le teorie scientifiche

La legge rinvia necessariamente al concetto di teoria scientifica. Cosa si intende con tale espressione? Le teorie scientifiche

costituiscono il centro nevralgico della scienza moderna.

La precisazione di tale concetto cruciale nella scienza è tanto più importante quanto più si rifletta sul fatto che l’operazione

idealizzante non avviene nel vuoto, ma solo all’interno di certi presupposti teorici di fondo che determinano e specificano

l’ambito e i fattori rilevanti la cui accentuazione e/o eliminazione può dare luogo ad un ente ideale.

La concezione standard delle teorie scientifiche ritiene che si possano comprendere gli aspetti essenziali di una teoria

scientifica mettendone in luce la struttura logica, la sintassi del suo linguaggio e quindi specifìcandone il riferimento

empirico mediante opportune regole che permettono di collegate i termini del suo linguaggio con la base osservativa.

Tale posizione sostenuta da epistemologi come Carnap, Salmon, Nagel, ecc., è stata argomentata e sistematizzata da

Hempel che condivide la concezione secondo la quale l’essenziale delle teorie consiste nella loro strutture logica, che

permette loro di organizzare un vasto materiale empirico.

Per Hempel una teoria scientifica viene concepita come un insieme di proposizioni espresse in termini di un vocabolario

specifico. Il vocabolario o Vt di una teoria (t) consiste in termini extralogici di t, cioè non appartenenti al vocabolario della

pura logica. In genere alcuni termini di Vt sono definiti per mezzo di altri ma, pena il delinearsi di un circolo vizioso o di

un ripiego all’infinito, non è possibile definire tutti i termini di Vt ricorrendo a tale procedura. Stesso discorso vale per le

proposizioni, il cui insieme definito dalle asserzioni di t si divide in 2 sottoinsiemi:

1) proposizioni primitive o postulati o assiomi;

2) proposizioni derivate o teoremi

Hempel sostiene che anche nella scienza empirica alcune teorie sono state presentate in forma assiomatica.

La teoria scientifica come calcolo astratto più interpretazione empirica

Una teoria scientifica è vista come una struttura deduttiva astratta della quale fanno parte:

a) un calcolo astratto, che è il suo scheletro logico, non interpretato, i cui elementi avranno solo il significato

implicitamente loro attribuito;

b) un insieme di enunciati che forniscono portata empirica al calcolo, cioè ne danno un’interpretazione; la teoria

assume così una funzione esplicativa e predittiva.

Una teoria scientifica ha una struttura simile a quella astratta delle scienze formali: sono queste i modelli cui si sono ispirati

gli epistemologi afferenti alla standard view. Unica differenza è il fatto che le teorie scientifiche si riferiscono alla realtà

empirica, cui va in ultima istanza demandato il giudizio di accettabilità o meno. Esse sono come reti sospese nello spazio. I

loro termini sono rappresentati dai nodi, mentre i fili colleganti questi corrispondono alle definizioni e alle ipotesi

fondamentali e derivative della teoria.

L’intero sistema fluttua sul piano dell’osservazione, cui è ancorato mediante regole interpretative.

Queste possono venire concepite come fili non appartenenti alla rete, ma tali che ne connettono alcuni punti con

determinate zone del piano di osservazione.

Grazie a siffatte connessioni interpretative, la rete risulta utilizzabile come teoria scientifica.

La metafora della rete e la sistematizzazione di Nagel

Per esplicare la metafora hempeliana, potremmo dire che i fili di connessione rappresentano le regole di corrispondenza,

che agganciano al terreno del direttamente osservabile i termini osservativi.

Tutti i nodi connessi per mezzo dei fili al terreno costituiscono il vocabolario osservativi. Gli altri nodi non connessi

direttamente costituiscono il vocabolario teorico.

I fili che collegano i nodi tra loro costituiscono quello scheletro logico che abbiamo detto costituisce il calcolo della teoria.

39

Tutta la rete rappresenta il linguaggio della teoria, formato da quello osservativi e quello teorico: ecco perché si dice che le

teorie sono delle entità linguistiche.

La standard view concepisce una teoria come un sistema assiomatico chiuso cui dovrebbe essere fornita una

interpretazione (parziale) per mezzo delle regole di corrispondenza che dovrebbero connettere tale sistema ai fenomeni

osservabili.

Nagel con la sua opera può considerarsi il più lucido teorizzatore della standard view, egli infatti afferma che a scopo di

analisi conviene distinguere tre componenti in una teoria:

1. un calcolo astratto che è lo scheletro logico del sistema esplicativo e che definisce implicitamente le nozioni

fondamentali del sistema;

2. un insieme di regole che assegna effettivamente un contenuto empirico al calcolo astratto mettendolo in relazione

a materie concrete di osservazione e di esperimento;

3. un’interpretazione o modello del calcolo astratto, che fornisce per così dire la carne alla struttura scheletrica.

I due punti critici della standard view

Affinché questa caratterizzazione di teoria scientifica possa stare in piedi , sono indispensabili almeno due condizioni:

1. poter distinguere i termini teorici da quelli osservativi;

2. poter specificare in modo abbastanza chiaro in cosa consistano le regole di corrispondenza e come riescano a

connettere il calcolo all’esperienza.

Le due condizioni sono strettamente legate tra loro: le stesse regole di corrispondenza hanno significato solo se collegano

entità diverse per natura, ed in particolare se è possibile effettuare la distinzione tra vocabolario teorico e vocabolario

osservativo.

Il problema della riduzione dei termini teorici

È stato presente fin dalle origini nei pensatori neopositivisti.

Carnap cerca di affrontarlo affermando che i concetti debbono essere gradualmente derivati, costituiti, da certi concetti

fondamentali, onde risulti un albero genealogico dei concetti, in cui ognuno di essi trovi il suo posto determinato.

Ciò dimostra che i termini teorici non sono mai definiti completamente: essi sono dei concetti aperti. Insomma le regole di

Corrispondenza (o C-regole) non solo non sono in grado di definire direttamente i termini teorici, ma neanche

permettono una loro completa riduzione all’osservativo.

Nagel fa un esempio chiedendosi some fu messa in relazione la teoria di Bohr con quanto può venire osservato in

laboratorio. Evidentemente gli elettroni, il loro moto circolare, sono concetti non applicabili ad alcunché di

manifestamente osservabile. È quindi necessario introdurre dei collegamenti tra tali nozioni teoriche e quanto può venir

identificato attraverso procedure di laboratorio.

Secondo la standard view le regole di corrispondenza svolgono tre funzioni nell Received view:

1. definiscono i termini teorici;

2. garantiscono il significato cognitivo dei termini teorici;

3. specificano le procedure sperimentali ammissibili per applicare una teoria ai fenomeni.

Queste tre funzioni delle regole di corrispondenza sono intimamente correlate in quanto legate alla forma delle regole di

corrispondenza.

Inizialmente le regole di corrispondenza dovevano avere la forma di definizioni esplicite che forniscono le condizioni

osservative necessarie e sufficienti per l’applicabilità dei termini teorici; questi ultimi erano cognitivamente significanti solo

se erano esplicitamente definiti grazie ai termini del vocabolario osservativo, e gli enunciati erano cognitivamente

significanti solo se tutti i loro termini non-logici erano cognitivamente significanti.

Il problema dei termini disposizionali

Tale richiesta di definizione esplicita mediante le regole di corrispondenza, per cui i termini teorici sono considerati come

cognitivamente significanti solo se esplicitamente definiti mediante il vocabolario osservativi incappa nelle prime difficoltà

con i cosiddetti termini disposizionali, quei termini teorici che descrivono la “disposizione” di un oggetto a comportarsi in

un certo modo. Ad esempio il termine disposizionale “fragile”, se lo volessimo definire mediante termini osservativi

dovremmo costruire una definizione del tipo: “un oggetto x è fragile se e solo se soddisfa la seguente condizione: per ogni

istante t, se x è colpito con forza al tempo t, allora x si rompe al tempo t”.

Ma dato che, per le regole che governano in logica il condizionale, la proposizione è sempre vera se l’antecedente è falso,

ne deriva che si può definire fragile un oggetto che non sia mai stato colpito con forza; si incappa in un paradosso analogo

a quello incontrato con i corvi. Ciò significa che non è possibile fornire una definizione esplicita per i termini

disposizionali.

La definizione parziale dei termini teorici

Questo tipo di difficoltà ha portato ad abbandonare il requisito della completa definibilità dei termini teorici mediante il

linguaggio osservativi in favore di una loro definizione parziale: l’incompleta definibilità del vocabolario teorico è

determinata dal fatto che esso è collegato solo in modo parziale ed indiretto con quello osservativo. 40

I costrutti usati in una teoria vengono piuttosto introdotti congiuntamente, cioè mediante l’elaborazione di un sistema

teorico formulato nei loro stessi termini interpretato empiricamente; il che assicura un significato empirico anche a tali

costrutti.

Tale affermazione hempeliana introduce l’idea che la teoria ha delle conseguenze osservabili, le quali manifestano

empiricamente le entità teoriche secondo i modi specificati dagli assiomi e dalle leggi della teoria. In tal modo il requisito

della significanza conoscitiva, che avrebbe dovuto essere garantito dalle proposizioni di riduzione, si trova gravemente

minacciato dal modo solistico di concepire la teoria: la sua inevitabile sottodeterminazione empirica rende problematico

capire in cosa consista la sua significatività conoscitiva.

L’esatta definizione di un termine, e pertanto il suo significato, non è più possibile in modo univoco e definitivo.

Si è insomma affermata l’idea che i termini teorici della scienza abbiano uno spessore teorico irriducibile ad un insieme

finito di dati osservativi. Tale caratteristica dei termini teorici della scienza garantirebbe un’aperture di significato che li fa

suscettibili di evoluzione e quindi renderebbe possibile lo sviluppo della scienza.

La distinzione tra linguaggio teorico e linguaggio osservativo

Nella filosofia della scienza di derivazione neopositivista non si riteneva che la distinzione tra i due tipi di linguaggio fosse

qualcosa di problematico. Certo si ammetteva che tale distinzione non è mai netta e che rimangono dei margini di

ambiguità; tuttavia ciò non inficia la possibilità di poterla in ogni caso operare.

Anche se ammette Carnap non vi è una distinzione netta fra i predicati osservabili e i predicati non osservabili, tuttavia in

ogni caso il predicato ad esempio rosso è osservabile per una persona N in possesso di un normale senso del colore. Per

un opportuno argomento N è capace in circostanze favorevoli (se vi è abbastanza luce) di giungere a una decisione circa

l’enunciato completo la macchia c è rossa dopo poche osservazioni, ossia dopo aver guardato un po’ la tavola.

Egli scriveva che è vero che i concetti osservabile e non osservabile non possono essere rigorosamente definiti perché

costituiscono un continuo. Nella pratica effettiva tuttavia la differenza è abbastanza grande da non far sorgere quasi

nessuna controversia.

Nella pratica effettiva appunto. Cioè nel concreto lavoro degli scienziati: strano destino per chi come Carnai, ha sempre

privilegiato della scienza il suo aspetto logico-formale trascurando il lavoro concreto dello scienziato, appellarsi, per tarsi

d’impaccio, alla pratica effettiva.

Popper e la rivalutazione dell’elemento teorico nelle teorie scientifiche

Popper accentua sempre di più l’importanza dell’elemento teorico nella formulazione delle teorie scientifiche e nella stessa

procedura di loro controllo.

Già nella sua opera “Logica” egli afferma che la teoria domina il lavoro sperimentale, dalla sua pianificazione iniziale ai

tocchi finali che esso riceve in laboratorio.

Per Popper anche gli asserti base sono impregnati di teoria, per cui non esiste una base scientifica che non sia interpretata.

È sempre possibile per Popper distinguere il linguaggio osservativo da quello teorico.

L’impostazione neopositivistica viene capovolta: se per quest’ultima era la teoria a dover essere definita mediante regole di

corrispondenza sulla base del direttamente osservabile, per Popper non è possibile una base empirica se non all’interno di

una teoria per cui al limite è quest’ultima a definire i criteri e gli ambiti dei propri asserti-base.

Anche senza che Popper l’abbia esplicitamente rilevato, il distacco dalla tradizione neopositivista è netto.

In quest’ultima rivalutazione del momento teorico si è veduto l’inizio di quell’itinerario teoretico che porterà alla totale

svalutazione dell’elemento empirico in nome di un iperteoreticismo che a volte assume sfumature tipicamente idealistiche.

Popper è un filosofo di frontiera, che da una parte pone fine alla grande stagione neopositivista, dall’altra annuncia la

nuova filosofia della scienza: la sopravvivenza teorica del razionalismo critico rimane legata all’esistenza di un linguaggio

osservativo che consenta di essere utilizzato come linguaggio di controllo indipendente. Popper giunge alla tesi

dell’incommensurabilità.

E accade così che ne razionalismo critico vi siano i germi di quelle concezioni irrazionalistiche che sono state in seguito

affermate come conclusioni inevitabili della tesi dell’incommensurabilità.

Le teorie si controllano con i fatti, ma ciò che vale come fatto dipende dalla teoria.

L’approccio idealizzante alle teorie scientifiche

Anche nel caso delle teorie scientifiche è possibile abbandonare i presupposti regolaristici e fattualistici tipici della received

view per valorizzare il carattere modellizzante, cioè descrivente non sistemi empirici reali, ma modelli ideali che solo in

modo mediato ed indiretto possono essere confrontati con la realtà fenomenica del mondo che ci circonda.

In questa direzione si sono mossi sia diversi studiosi occidentali sia la scuola di Poznan.

Suppe ha affermato che la teoria è introdotta come una idealizzazione, astrazione, semplificazione, modello o anche una

finzione. Le teorie scientifiche hanno come loro oggetto una classe di fenomeni identificata come l’ambito designato della

teoria. Il compito della teoria è presentare una descrizione generalizzata dei fenomeni all’interno di quest’ambito designato

che ci metta in grado di rispondere a una varietà di domande sui fenomeni e i loro meccanismi sottostanti; queste

domande in genere includono richieste di predizioni, spiegazioni e descrizioni dei fenomeni.

La teoria astrae certi parametri dai fenomeni e cerca di descriverli nei termini di questi parametri astratti. La teoria assume

solamente i parametri che esercitano un’influenza sui fenomeni. 41

La teoria assume che i fenomeni sono sistemi isolati, influenzati solo dai parametri selezionati. Nei fatti però i fenomeni

appartenenti all’ambito designato della teoria raramente sono fatti isolati.

Una teoria scientifica è costituita da una serie di modelli di progressiva concretezza

Mk, Mk-l, …, Mi, Ami

Dove Mk è il modello più astratto, caratterizzato dal maggior numero di condizioni idealizzanti, e Ami è l’approssimazione

del modello meno astratto.

In questa prospettiva la dicotomia rigida stabilita nella standard view tra calcolo formale e interpretazione empirica viene a

cadere: una struttura composta di successivi modelli contenenti leggi idealizzazionali, che via via vengono concretizzati

sino ad arrivare ad un modello che, per quanto concreto, non sarà mai descrittivo di un sistema fisico empiricamente e

sperimentalmente riproducibile. La teoria scientifica è così una sequenza di modelli, in quanto è sempre una costruzione

teorica contenente delle idealizzazioni.

332 Controfattualità e legge di natura

Per chiarire come si intende caratterizzare la normatività di un enunciato generale facendo ricorso alla controfattualità

consideriamo le 2 asserzioni:

1) Tutte le persone sedute in questa stanza sono studenti;

2) Tutti i corpi metallici riscaldatisi si dilatono.

La prima è una generalizzazione accidentale, mentre la seconda è una genuina legge di natura che, x essere autentica, a differenza

della generalizzazione accidentale, deve essere in grado di sostenere dei condizionali controfattuali. Questi non possono essere

trattati adeguatamente con gli strumenti della logica classica, in particolare l’applicazione del condizionale materiale porta a

risultati contro intuitivi. Così ad esempio i due asserti:

1) se un corpo fosse un metallo allora si dilaterebbe se riscaldato;

2) se un corpo fosse un metallo allora non si dilaterebbe se riscaldato;

sarebbero entrambi controfattualmente veri, in quanto subentrerebbe il paradosso dell’implicazione.

333 Il problema della proiettabilità della legge di natura

Goodman sostiene che una legge di natura si caratterizza, oltre che x la controfattualità, x il fatto di essere accettata come

vera anche se non sono stati determinati tutti i suoi esempi ma si prevede che quelli esaminati in futuro saranno conformi

ad essi.

Una generalizzazione accidentale, invece, ha la caratteristica di essere vera solo x i casi esaminati e quindi viene accettata

solo dopo che tutti i suoi casi siano stati determinati senza costituire una base adeguata x la previsione di nuovi casi. Ciò

porta a concludere: come facciamo a sapere quando una legge è veramente tale perché proiettabile.

Goodamn rìcorre al concetto di trincerazione. Il paradosso dell’implicazione vanifica il tentativo di impiegare

controfattuali x distinguere le autentiche leggi scientifiche dalle generalizzazioni accidentali.

375 La teoria scientifica come calcolo astratto più interpretazione empirica

In questo modo una teoria scientifica vista come una struttura deduttiva astratta di cui fanno parte:

1)Un calcolo astratto che ne costituisce lo scheletro logico, non interpretato, i cui elementi avranno solo il significato

implicitamente loro attribuito dalla struttura relazionale astratta nella quale sono inseriti;

2)Un insieme di enunciati che forniscono portata empirica al calcolo, cioè un’interpretazione. Con ciò la teoria viene

collegata agli oggetti osservabili e assume funzione esplicativa e predittiva.

Secondo Hempel le teorie scientifiche sono come reti sospese nello spazio

La metafora della rete e la sistematizzazione di Nagel

Facendo ferimento alla metafora della rete di Hempel, possiamo dire che i fili dì connessione rappresentano le regole di

corrispondenza che agganciano al terreno del direttamente osservabile i termini osservativi.

Tutti i nodi connessi al terreno, x mezzo dei fili, costituiscono il vocabolario osservativi, gli altri costituiscono il vcabolario

teorico.

I termini disposizionali

Sono quei termini teorici che descrivono la disposizione di un oggetto a comportarsi in un certo modo. 42


ACQUISTATO

2 volte

PAGINE

43

PESO

513.11 KB

AUTORE

Moses

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in filosofia
SSD:
Università: Bologna - Unibo
A.A.: 2007-2008

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Moses di informazioni apprese con la frequenza delle lezioni di Filosofia della scienza e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Bologna - Unibo o del prof Galavotti Maria Carla.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Filosofia della scienza

Riassunto esame Filosofia della Scienza, prof. Lupacchini, libro consigliato Sulla Teoria della Relatività di Einstein, Cassirer
Appunto
Riassunto esame di Filosofia della Scienza, prof. Lupacchini
Appunto
Numero e realtà
Appunto
Riassunto esame Storia della filosofia medievale, prof. Fedriga, libro consigliato Luoghi e voci del pensiero medievale, F B Broccieri
Appunto