Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

2. Il problema dell'induzione e altri problemi dell'induttivismo

È ora il caso di problematizzare più decisamente la questione dell'induttivismo per comprendere se questo possa configurarsi come

una metodologia di ricerca in grado di estendere positivamente la conoscenza dell'essere umano, un argomento, peraltro,

tipicamente filosofico. Il punto cruciale attorno a cui il filosofo indaga in merito a questa problematica è rappresentato dalla già

citata capacità di un tale metodo di giustificare le credenze che produce.

2.1. Il problema dell'induzione

Il primo a problematizzare le dinamiche del metodo induttivo è sicuramente David Hume, nella sua Ricerca sull'intelletto umano,

nella quale accosta l'induzione al concetto di causalità, creando un binomio destinato a influenzare profondamente gli sviluppi della

scienza occidentale. Hume distingue innanzitutto due tipi di proposizioni: quelle che riguardano relazioni tra idee (es. il cavallo è un

animale) e quelle che riguardano questioni di fatto (es. la neve è bianca), che possono essere sia vere che false. La prima tipologia di

proporzione, secondo Hume, può essere provata deduttivamente se vera, tramite la reductio ad absurdum, cioè mostrando che, posta

idealmente la negazione della proposizione stessa, si ottiene una contraddizione. Le questioni di fatto possono invece essere solo

oggetto dell'esperienza sensibile e non possono essere dimostrare secondo deduzione, poiché non contraddistinte da acclarati legami

di tipo logico, pertanto non è possibile stabilire col solo ragionamento se la proposizione sia vera. Tanto Hume quanto Locke o

Berkeley (tutti appartenenti al filone filosofico dell'Empirismo inglese) sostengono che non esistano concetti innati nella nostra

conoscenza e che tutto sia prodotto, astratto, dalle nostre percezioni sensoriali; per questo Hume rifiuta qualsiasi nozione che non

7

appartenga al dominio del misurabile, dell'osservabile, del praticamente adoperabile: la metafisica è una di queste . Kant si è molto

ispirato a Hume per quanto riguarda la strutturazione della propria filosofia critica, i concetti di verità sintetica ed analitica

richiamano rispettivamente quelli di proposizione concernente questioni di fatto e relazione tra idee. Nella prima parte del XX

secolo molti hanno riportato in auge questa concezione, tra questi gli empiristi logici, che distinguono la forma dal contenuto

all'interno delle significazioni dei linguaggi formali, idea che riscuote successo anche tra i positivisti, i quali affermano che qualsiasi

enunciato debba avere un legame con osservazioni fattuali per risultare positivamente significante.

Secondo Hume ogni ragionamento che si configuri come una previsione – che quindi non emetta giudizi su fattualità presenti o

8

passate – è fondato sulla nozione di causalità: poiché abbiamo inferito che il Sole scalda gli oggetti pensiamo che ciò si ripeterà

sempre, ma nulla ci può permettere di pensare che sia effettivamente così, non trattandosi infatti di una proposizione che instaura un

legame analitico tra idee e concetti non ci è possibile provarla deduttivamente. La base dell'induzione, dunque, è in ultima analisi il

concetto di legame causale, strumento che tiene uniti dei dati di fatto che non presentano interazioni logiche certe; questo

meccanismo si fonda sull'esperienza, unica in grado di garantirci tramite verifica diretta (o anche la testimonianza altrui) il grado di

verità di un certo assunto, per la costruzione di una conoscenza giustificata della natura (intesa come costante stabilita

induttivamente e non intrinsecamente tale). Hume crede infatti che la nozione di causalità rappresenti l'astrazione del legame di ciò

che è costantemente congiunto e che la credenza che questo legame continui a sussistere nel futuro poggi nient'altro che sul

convincimento che questo avvenga. Altra caratteristica, più specifica, del principio di causalità è la contiguità spazio-temporale,

esperita dal soggetto ogniqualvolta prenda in considerazione una relazione tra oggetti ravvicinati nello spazio-tempo secondo

rapporti di carattere diretto o concatenato (ad esempio il fatto che si utilizzi una penna per scrivere e che la pagina bianca si tinga

con l'inchiostro rende conto di una contiguità spazio-temporale, di certo è più difficile – ma non impossibile – elaborare

intellettivamente tale tipologia di legame nel caso di un'esplosione e della successiva percezione del suono). In addizione a ciò è

possibile notare che gli eventi posti in relazione causale – almeno nella concezione classica di questa – hanno un ordine temporale

per cui la causa precede sempre l'effetto.

L'analisi humeana della causalità evidenzia però alcune problematicità in merito alla potenza di questo principio: difatti siamo

portati spesso a pensare che il fatto che un evento X causi un evento Y sia tale in virtù di una connessione necessaria; Hume

sostiene invece che possiamo evidenziare unicamente la costante congiunzione dei due eventi ma non il loro legame necessario

(trattandosi di questioni di fatto), nulla in natura nei fatti è necessariamente interconnesso. La costanza che riconosciamo nella

natura è dovuta all'abitudine di percepire eventi in congiunzione e al convincimento che tale stato rimanga perennemente tale; ogni

teoria che assuma un atteggiamento necessitarista nei confronti della causalità non fa altro che interporre questioni di carattere

metafisico, postulando l'esistenza, surrettizia e ridondante, di un legame che una teoria di stampo humeano non suppone, pertanto,

secondo Hume, è giusto applicare una sorta di rasoio di Ockham e metter fuori questione la teoria più complicata.

Ogni conoscenza che si fondi sull'induzione non fa altro che affidarsi a correlazioni – presenti o passate – e presumere regolarità

che non hanno alcun fondamento necessario: come sostiene Bertrand Russell ne I problemi della filosofia, con il celebre esempio

del tacchino, l'induzione ha lo stesso grado di sofisticazione del ragionamento che presenta la convinzione del volatile, maturata

sulla base dell'esperienza pregressa, di continuare ad essere nutrito ogni giorno, fino a che ad un certo punto – di certo inatteso –

piuttosto che nutrito, viene mangiato; di tale tipo può essere anche la credenza che il sole sorgerà domani. Secondo Hume non è

possibile obiettare, in difesa dell'induzione, a questa caratterizzazione: né assumendo che il futuro del passato (cioè qualcosa di più

recente ma in ogni caso passata, di cui possiamo quindi rendere conto) sia stato come il passato (poiché il futuro del presente

potrebbe essere comunque diverso), né assumendo induttivamente che l'induzione stessa, avendo funzionato in molti casi, sia

necessariamente valida: in questo caso difatti ci si farebbe carico di un vizio di circolarità illegittimo, poiché non si può giustificare

l'induzione induttivamente, sarebbe come dire che sto dicendo cose veritiere perché dico sempre la verità: un cortocircuito. Ogni

7 Hume invita a metter via tutto ciò che non contenga né «ragionamento astratto circa la quantità e il numero» né «ragionamento

sperimentale circa questioni di fatto ed esistenza», bollandolo come «sofisticheria ed illusione»: argomento conosciuto con

l'emblematica denominazione di forchetta di Hume.

8 Possiamo pensare che i raggi del sole siano caldi o che una settimana fa fossero caldi, ma non possiamo emettere un giudizio

altrettanto certo sul calore futuro dei raggi della stella: non è contraddittorio, secondo Hume, affermare che questi saranno freddi. 7

obiezione alle critiche portate all'induzione è dunque di carattere circolare, inutile indugiare, piuttosto bisogna avere la

consapevolezza che l'induzione sia un principio basilare per la nostra quotidianità – e per la nostra sopravvivenza – ma che allo

stesso tempo, secondo ragione, non può assumere carattere di necessità: la ragione limita l'uniformità della natura e la incasella

come mera congettura, soltanto l'istinto, la passione, il desiderio e l'abitudine che ne deriva possono superare costitutivamente

questo limite.

2.2. Soluzioni e dissoluzioni del problema dell'induzione

Il radicale scetticismo razionalistico che permea l'approccio humeano al problema dell'induzione è risolto, o almeno si è tentato di

farlo, secondo varie strategie; tanto più perché lo stesso Hume, nel rifiutare il principio di induzione per quanto riguarda la scienza

rigorosa, accetta che questo continui ad essere impiegato nella vita comune per necessità di semplice, e quasi banale, sopravvivenza.

Egli è infatti portato a risolvere i problemi filosofici circa la costituzione fisiologica e psicologica dell'essere umano sulla base di

fatti naturali (ed è perciò inseribile nella categoria dei naturalisti). Tuttavia, oltre lo scetticismo scientifico di Hume si sono attestati

alcuni tentativi di soluzione al problema dell'induzione, tra i tanti:

1. L'induzione è razionale per definizione

Ci sono due versioni di questa argomentazione: una sofisticata e una sofisticata. Per la prima nella vita di tutti i giorni si giustificano

razionalmente sia conclusioni di carattere deduttivo che induttivo, nel caso di quelle induttive si è portati ad intendere il termine

razionale in modo decisamente diverso rispetto a quello filosoficamente ortodosso, cioè si tende a pensare che inferenze di tipo

induttivo che prevedano omogeneità e coerenza (ad esempio, circa i fenomeni naturali, le previsioni meteorologiche) siano

pienamente razionali, poiché abbiamo certamente uno standard di riferimento della razionalità a cui appellarci.

La seconda prevede invece un rovesciamento delle obiezioni di Hume, ovvero: è possibile intendere l'argomento di Hume come

paradossale e non sempre valido, cioè ridurre all'assurdo la tesi humeana mostrando che infine è contraddittoria poiché almeno in un

caso non risulta veritiera (un rovesciamento attento e speculare della lezione di Hume, sofisticato), cioè determinare che qualcuna

delle premesse dell'obiezione sia falsa. Il punto è che Hume, a detta di quanti sostengono questa tesi, non afferma che l'induzione sia

necessariamente irrazionale, al contrario ammette che non si può giustificarla razionalmente (cioè no nega che in essa vi sia una

certa razionalità di sfondo, ma afferma che non possiamo coglierla e darne conto).

2. L'induzione per Hume è irrazionale perché non deduttivamente valida

Di certo Hume è convinto del fatto che le proposizioni concernenti questioni di fatto non siano commensurabili a quelle riguardanti

relazioni tra idee e che le prime siano in qualche modo esposte, contrariamente alle seconde, al fuoco della confutazione. Alcuni

sostengono che Hume comprenda l'irrazionalità del procedimento induttivo soltanto mettendolo in relazione alla pratica deduttiva,

cioè pensando che, poiché non è deduttivamente valido (cioè che premesse vere possano portare anche a conclusioni false), il

ragionamento induttivo si ingiustificato. In realtà Hume fonda la sua critica all'induzione non su questo principio, ma sulla

consapevolezza della sostanza convenzionale ed abitudinaria delle nostre conoscenze induttive, fatto che produce l'idea di non avere

di fatto nessuna ragione, indipendente dalle stesse, di accettarne la veridicità.

3. L'induzione è giustificata dalla teoria della probabilità

Alcuni filosofi, tra cui Rudolf Carnap e Hans Reichenbach, hanno tentato di elaborare una teoria aprioristica della logica induttiva,

fondata sulla teoria matematica della probabilità. A loro avviso in questo modo sarebbe possibile calcolare, abbattendo l'incertezza,

il grado di conferma di ogni ipotesi avanzata induttivamente; naturalmente per far ciò si deve usufruire di un sistema assiomatico

che garantisca il corretto funzionamento della teoria, in poche parole il problema si è soltanto spostato. La questione, posta in questi

termini non risolve affatto il problema di Hume, poiché per quanto possa essere elevato il numero di osservazioni sulle quali

calcoliamo la probabilità di una certa proposizione questo non sarà mai infinito, cioè, in senso induttivistico ingenuo, capace di

formulare generalizzazioni certamente valide. Ritirarsi sul probabilismo sembra essere una strategia altrettanto insufficiente.

4. L'induzione è valida per un principio uniformità

Si può rendere deduttivamente valido un argomento induttivo postulando un principio, di carattere pur sempre induttivo, che funga

da premessa, potrebbe essere formulato in questi termini:

“Se si sono osservati in condizioni molto diverse un certo numero di fenomeni X e sono risultati sempre Y e mai non-X...”

Avremmo così un principio di riferimento di carattere generale da utilizzare come criterio dirimente, continueremmo quindi la

nostra proposizione avendo la possibilità di affermare che “tutti gli X siano, almeno allo stato attuale, Y”. In altre parole avremmo la

capacità di conferire veridicità ad una proposizione induttiva in un dato momento grazie alla veridicità riconosciuta alle premesse.

Ma questo è un ulteriore modello arbitrario, tanto più perché il numero di fenomeni da tenere in considerazione non viene

specificato e si affida la capacità di produrre verità ad una quantità non definita, e non definibile, di osservazioni. Come

osserverebbe Hume questa argomentazione procede secondo un vizio di circolarità. Ad ogni modo potrebbe darsi che alcune

proposizioni sintetiche siano comprensibili, direbbe Kant, a priori, poiché si tratterebbe di principi fondamentali, quasi fisiologici,

secondo i quali impostiamo qualsiasi nostro percorso di conoscenza; di questa specie sono per l'appunto, secondo Kant, il concetto

di causalità e, forse, le leggi stesse della meccanica newtoniana: Il filosofo tedesco si mostrerebbe, agli occhi di un contemporaneo,

oltremodo ottimista circa la possibilità di sintetismi a priori: difatti i riscontri sperimentali, relativi per l'appunto a diverse

condizioni di osservazione – circostanza necessaria per la premessa di cui sopra – come quella in cui si sperimentano velocità

molto alte (relatività ristretta einsteniana), falsificano la meccanica newtoniana mostrando che non è più utilizzabile, in quanto

8

produce previsioni scorrette; la dinamica della premessa si può dire sconvolta e l'induzione ripiombata nel baratro dell'incertezza.

5. L'argomento humeano è troppo generico

A quanto pare Hume non descrive accuratamente il processo induttivo, limitandosi ad osservare in primo luogo che non è un iter di

tipo deduttivo-certo e in secondo luogo che è fondata su convenzioni ed aspettative. Per esempio: si può pensare che ad ogni respiro

ne segua un altro e che in futuro sia sempre così, pur avendo la consapevolezza che un giorno cesseranno di susseguirsi con la

morte; la prima parte dell'inferenza è di certo induttiva, ma nel complesso la conoscenza sull'andamento del respiro e della vita è di

fatto più complicata. In sintesi si potrebbe dire che la conoscenza, anche quella scientifica, spesso non passa per l'induzione

enumerativa (ingenua), cioè si fonda su osservazioni abbastanza ristrette circa una data fenomenologia senza pretendere di

osservare tutti gli n casi che prevede la formulazione schiettamente teorica: il bambino non deve bruciarsi ogni volta per capire che

in fondo le mani sulla piastra rovente non deve poggiarle, bastano poche esperienze spiacevoli, così anche l'osservazione scientifica

crede di poter giustificare un asserto in base a pochi ed accurati controlli. Pertanto, su questa linea d'onda si procederà alla

definizione più specifica delle dinamiche induttive, dando ragione del fatto che l'argomento humeano sia in fondo squisitamente

“speculativo”.

6. Induzione come abduzione

Spesso le teorie scientifiche, come anche le più semplici inferenze, risultano vincenti per il loro potere esplicativo, tanto da apparire

le migliori spiegazioni possibili per un dato fenomeno: la teoria della tettonica delle placche è ad esempio il miglior modo si render

9

conto, ad esempio, di similitudini tra rocce presenti a grande distanza tra loro . Questa strategia risulta essere un modo molto diffuso

di risolvere il problema humeano, inoltre è strettamente connessa all'idea che nella natura vigano delle leggi costanti e coerenti (o

poteri causali), che garantiscono la regolarità dei flussi fenomenici tra passato, presente e futuro. Tuttavia, per ovviare alle

potenziali obiezioni humeane, è opportuno stabilire che le connessioni o leggi – che si sostiene siano necessarie e coerenti – non

debbano essere osservate direttamente ma “semplicemente” abdotte.

7. Difesa circolare

Ad ogni modo è anche vero che, tanto quanto l'induzione, anche la deduzione presenta una giustificazione di tipo autoreferenziale,

in entrambi i casi non si può fare a meno dell'inferenza stessa per giustificare il legame tra premesse e conclusioni: nel caso

dell'induzione non si può certamente sfuggire da una petitio principii, sottolinea Ladyman, cioè un richiamo ad un punto di

riferimento – di certo arbitrario – che possa permettere lo sviluppo dell'inferenza; nel caso della deduzione, allo stesso modo, come

10

è illustrato da un racconto di Lewis Carroll del 1985 il processo di giustificazione si trasforma ben presto in senso circolare ed

irrisolvibile: perché allora la deduzione dovrebbe avere uno statuto epistemologico migliore di quello concesso all'induzione? É

chiaro che la propensione ad accettare un certo tipo di inferenza risieda primariamente nella disposizione, nella consuetudine stessa

al ragionamento in questione, deduttivo o induttivo che sia, di conseguenza risulta tremendamente inutile convincere e legittimare

agli occhi di qualcuno qualcosa che questi non vuol vedere o accettare (sarebbe forse meglio lasciare “a Cesare quel che è di

Cesare”).

2.3. L'induttivismo: la storia della scienza e la pratica osservativa

Nel complesso tutte le formulazioni evocate nel precedente paragrafo risultano delle valide argomentazioni circa la sostanzialità del

processo induttivo, che, tuttavia, resta decisamente problematico: non a caso C.D. Broad l'ha definito la «gloria della scienza e lo

scandalo della filosofia». Ad ogni modo, seguendo le orme della conoscenza scientifica lungo la sua storia, dovremo chiederci se il

metodo scientifico di carattere induttivistico sia l'effettiva ed adeguata modalità di ricerca adoperata nel corso dei secoli che ci

precedono e se, d'altra parte, alla luce di ciò, la conoscenza scientifica che possediamo sia giustificata o meno.

Chiaramente possiamo pensare, per un approccio critico-decostruttivo, che vi siano (e vi siano stati) casi di non linearità nella storia

9 Nel caso della Dorsale oceanica Medio Atlantica, ad esempio, la tettonica delle placche ci giustifica con precisione il fatto che ai lati

della faglia le rocce del fondale, analizzate rispettivamente alla stessa distanza dal centro, mostrino il medesimo orientamento

magnetico (in alternanza a bande con polarità inversa): in altre parole l'espansione continua su entrambi i lati della dorsale – dovuta

alla fuoriuscita continua di magma – come è ipotizzato dalla tettonica, ci permette di spiegare perché man mano che ci allontaniamo

dal centro troviamo alle medesime distanze le stesse condizioni, prodotte al momento della fuoriuscita (in un momento passato, con

una data polarità) e portate alla medesima distanza, nel corso dei millenni, dall'espansione bilaterale a cui sono sottoposte le placche,

ogni nuova colata allontana la colata precedente nelle due direzioni opposte, portando alla stessa distanza il materiale lavico orientato

secondo una certa polarità.

10 Quello che disse la tartaruga ad Achille. Il testo si promette di mettere in risalto “l'eccentricità” – termine mio – del Modus Ponens,

cioè del metodo deduttivo: questo è appunto ec-centrico poiché il fulcro della sua struttura è spostato al di fuori di esso, come nel

caso dell'inferenza induttiva infatti si ripropone la necessità di una petitio principii. Anche l'inferenza deduttiva, a ben vedere, ha una

carattere decisamente condizionale, difatti se pretendo di affermare che due enunciati in premessa, che diano una conclusione vera,

siano veri, ho bisogno di un ulteriore Modus Ponens che giustifichi questo mio atto, in simboli: [(p→q) p] ├ q, ovvero se a e b (p)

implicano c (q) e ( ) a e b sono vere allora c sarà vera (I Modus), quel se non è altro che una richiesta di giustificazione che

chiameremo C, si formulerà un II Modus: [(C→D) C]

├ D, che a sua volta necessiterà di ulteriori supporti, fino all'infinito, proprio

come l'Achille di Zenone che per quanto si sforzi non potrà mai raggiungere la tartaruga, soltanto un deambulando solvitur alquanto

elementare potrà cavare d'impaccio chi si approccia al problema. Difatti secondo una prospettiva puramente logica il problema si

ripresenterà all'infinito, sebbene il Modus Ponens sia uno degli “indimostrabili” per antonomasia, ma indimostrabile non vuol dire

ingiustificabile, soprattutto in una prospettiva filosofica, tant'è che, come già accennato, per chiudere la questione non ci resta che,

come per Achille, “risolverlo camminando”. 9

della scienza, nei quali ovvero il metodo scientifico non sia stato messo in pratica, ne sono un esempio le teorie razziste; col senno

di poi comunque questi si sono rivelati dei pessimi esempi di scienza, o hanno rivelato persino delle totali mancanze di spirito

scientifico, così che, per contrasto, possiamo stabilire che il metodo scientifico abbia una sorta di maggiore validità e coerenza, per

la sua imparziale lucidità. È anche vero che quest'ultima considerazione è esposta ad una sorta di viziosa circolarità, per cui molti

ritengono che il metodo scientifico sia giustificato alla luce della sue intrinseca razionalità (argomento precedentemente affrontato),

tuttavia: i migliori esempi di scienza ci garantiscono oggigiorno di vivere in un determinato modo, sarebbe da folli rinnegare le

innumerevoli applicazioni pratiche dei principi man mano sviscerati dagli uomini di scienza (l'elettromagnetismo di Maxwell, la

meccanica di Newton, ecc. sono teorie con cui ci “confrontiamo” comunemente); ad ogni modo non ci è concesso, filosoficamente,

di fossilizzarci su una determinata visione del mondo, non possiamo esimerci alla luce di ciò dal sottoporre le teorie di cui

disponiamo a verifiche e miglioramenti continui, del resto il principale nodo attorno a cui si sviluppa la scienza è quello del

progresso della conoscenza, che non passa naturalmente per l'assolutismo prospettico. L'obiettivo che ci prefiggiamo, da filosofi, è

quello di raggiungere una sorta di equilibrio riflessivo tra quanto attribuiamo di teoricamente e paradigmaticamente accettabile al

metodo scientifico e l'effettiva pratica di ricerca: di certo non potremmo cestinare in blocco i principi di Maxwell se determinassimo

retroattivamente, dopo una revisione solo teorica del metodo, che questi aveva proceduto erroneamente; in questo eventuale caso

non avrà agli occhi dello scienziato moderno un'immagine perfetta, ma non ci è permesso bollare come “cattiva scienza” quanto di

migliore sia riuscito a formulare la nostra intelligenza di uomini. La filosofia della scienza deve allora correre parallelamente alla

storia della scienza, cioè contestualizzare determinati approcci scientifici senza cedere allo scarno accademismo. Newton ad

esempio sosteneva una radicale differenza tra la sua legge sulla gravitazione universale e un'eventuale teoria della causa che possa

dar conto della giustificazione dell'attrazione gravitazionale che la propria formula si propone di matematizzare; questo perché nella

filosofia sperimentale non v'è posto per ipotesi di carattere induttivo circa la causalità, al contrario si possono formulare leggi di

analisi del fenomeno a partire dai dati sperimentali. Pierre Duhem sostiene però che Newton non abbia potuto essere in grado di

formulare la sua legge soltanto con inferenze fenomeniche, ad esempio: di certo Newton non ha potuto osservare le forze in gioco

nel sistema solare per stabilire che la teoria kepleriana delle orbite ellittiche perfette fosse imprecisa e che al contrario le orbite

fossero irregolari, ma ha chiaramente formulato la sua riflessione a partire dal calco kepleriano e secondo le dinamiche della sua

teoria. Nei suoi Principia Newton propone infatti nuovi concetti teorici come quelli di massa e forza, non presenti affatto nei

principi di Keplero, proprio gli stessi utilizzati per formulare l'ipotesi delle orbite irregolari (dato che le interazioni di forze,

generate dalle masse, fanno in modo che il sistema solare si organizzi in un dato modo: in pratica Newton, per costruire la sua

ipotesi, si muove già nella sua stessa teoria e non in una semplice fenomenologia interpretata) come può aver formulato allora tali

nozioni a partire da dati che non sono stati raccolti secondo le stesse? Certamente Newton non ha inferito la legge della gravitazione

in base al fatto che la deviazione delle orbite fosse frutto di un errore di osservazione (da correggere con la sua teoria), ma

contrariamente ha pensato, entrando già nel suo modello, che questa deviazione fosse normalità in un sistema, il suo, compreso

secondo la forza di gravità. La scienza non è sempre in grado di creare concetti ex nihilo, al contrario lo scienziato tende a far

riferimento ad ipotesi, teorie, idee che rielabora ed articola man mano in modo migliore, secondo nuove ipotesi teoriche.

Consideriamo ora nello specifico le dinamiche dell'osservazione sperimentale.

L'osservazione, in vista di un'inferenza di tipo induttivo, deve necessariamente darsi in condizioni molteplici e variate, tuttavia

spesso di tende a tenere in considerazione variabili che si ritengono sostanzialmente rilevanti, tra le quali non figurano ad esempio

lo sperimentatore, il luogo e la data della sperimentazione ecc., ci aspettiamo ovvero che il fenomeno, o la sua misurazione, non

mutino in relazione a queste differenze marginali. Al contrario riteniamo che vi siano delle variabili fondamentali, ad esempio, nello

studio della dilatazione dei metalli, presumiamo che faccia la differenza il diverso tipo di metallo, o il grado di purezza dello stesso

o l'intensità del riscaldamento a cui lo si sottopone piuttosto che il sesso di colui che effettua la misurazione. Allo stesso modo si

ritiene che l'accuratezza di una misurazione sia proporzionale alla capacità di escludere interferenze esterne: nella meccanica

classica ad esempio l'esclusione o l'abbattimento dell'attrito è una delle pratiche sperimentali con maggior credito, questo perché

tale procedimento permette di idealizzare l'esperimento ed ottenere leggi risultanti con un alto grado di precisione, da applicare poi

in condizioni più ostiche, dove si presentano proprio le interferenze che si sono escluse (che vengono reintrodotte in forma

matematica): il fine ultimo insomma è quello di acquisire formule asettiche ed oggettive. Lo stesso Bacon premeva per lo sgombro

di interferenze e pregiudizi, gli idoli nelle sue parole, ma è veramente possibile e positivo un tale atteggiamento? Chiaramente per il

livello di ricerca scientifica a cui si trovava Bacon era una conquista non da poco, evitare di essere condizionati dalla fisica

aristotelica era l'imperativo più arduo, ma la trama in cui sono intessute le scienze moderne non permette di eliminare qualsiasi

giudizio preimpostato, altrimenti decadrebbero istantaneamente tutte le sicurezze sui cui esse si fondano (del resto, osserverebbe

Kuhn, siamo nella fase – almeno apparentemente – normale di un paradigma scientifico, ma non ci sporgiamo troppo avanti, per

adesso, nella nostra trattazione). Non ci è concesso di riformulare tutto, ogni volta, a partire dai dati a disposizione: anche gli stessi

dati, per essere raccolti, necessitano di strumentazioni da calibrare su conoscenze specialistiche che indichino la strada da

percorrere, altrimenti si brancolerebbe costantemente nel buio.

Un ulteriore problema che affligge l'inferenza induttiva è quello evidenziato da Nelson Goodman, noto come «il nuovo enigma

dell'induzione»: se, in un regime di induzione enumerativa (ingenua), stabilissimo che un dato oggetto è, è stato e sarà osservato

come verde (es. uno smeraldo) e considerassimo poi la proprietà “blerde” (cioè verde se osservato prima di oggi e blu se osservato

dopo), ne seguirebbe che tutti gli oggetti siano tanto verdi quanto “blerdi”, poiché per definizione le due proprietà cromatiche hanno

11

avuto gli stessi riscontri empirici. Il problema, oltre l'artificiosità dell'assurdo proposto , è distinguere quali predicati siano

giustificabili (o proiettabili) da quelli che non lo sono, poiché il linguaggio, con la sua essenziale apertura possibile alla falsità, può

essere foriero di significati artificiosi e fasi (“blerde”, per l'appunto) che inficiano la corretta articolazione degli asserti scientifici.

11 Tanto più perché si dovrebbe tener conto, nel definire un oggetto “blerde”, tanto delle osservazioni che intercorrono fino al momento

presente quanto di quelle che lo seguono e che ancora non sono disponibili, di conseguenza nessun oggetto si potrebbe mai dire

“blerde” in un dato istante. Piuttosto si consideri il paradosso che risiede nella potenzialità espressa dall'«enigma».

10

3. Il falsificazionismo

È importante disporre di una teoria del metodo scientifico per stabilire quanto di ciò che la scienza produce si possa dire giustificato

o giustificabile, poiché, per quanto possano essere affidabili certe teorie (come quella atomica), resta pur sempre il dubbio circa

l'accuratezza che queste dimostrano di possedere nell'analizzare le corrispondenze tra l'apparenza e le realtà inosservabili che si

dicono causa di questa. Definire cosa si può dire scientifico e cosa no è una questione di prim'ordine nel nostro universo socio-

culturale, del resto si farebbe fatica ad accettare qualsiasi dottrina che si autodefinisca scientifica, anche la pratica esegetica di un

testo sacro ad esempio può autodefinirsi tale, poiché in possesso di una sua, seppur particolare e presunta, epistemologia. «Il

sospetto», afferma Ladyman, «che alcune particolari teorie e pratiche siano pseudo-scientifiche pervade gran parte del dibattito

scientifico e politico contemporaneo», questo ci deve far riflettere sulla cogenza dell'esigenza di un insieme di criteri dirimenti in

materia, tanto più perché diverse e crescenti sono le discipline che reclamano scientificità.

Abbiamo constatato nelle precedenti analisi che in fondo l'induttivismo ingenuo presenta diversi punti problematici e che questi

siano in grado di inficiare la possibilità di innalzarlo a criterio di demarcazione tra le diverse teorie circa la loro scientificità,

dopotutto – lo si è mostrato – diverse teorie scientifiche abbastanza riconosciute non hanno preso le mosse da una base empirico-

osservativa ma da impianti concettuali pregressi, riformulandoli e rafforzando i punti deboli. Consideriamo ora un criterio

alternativo a quello induttivistico, analizziamo quindi la teoria del falsificazionismo.

3.1. Popper critico: marxismo e psicanalisi

Karl Popper è da considerarsi tra i filosofi della scienza più influenti del XX secolo, notevoli i suoi contributi sia riguardo al campo

scientifico che a quello socio-politico (ci riferiamo alla critica del marxismo in pubblicazioni come La povertà dello storicismo e La

società aperta e i suoi nemici). La sua riflessione prende le mosse dall'esigenza di instaurare un principio di demarcazione tra teorie

scientifiche (nelle quali colloca al primo posto la fisica) e non (psicologia, antropologia ecc.), poiché a suo avviso queste ultime

sono state considerate scientifiche a torto a causa di una distorta comprensione di ciò che si può dire tale. Alla fine del XVIII secolo

il crescente successo riportato dalle teorie scientifiche classiche aveva spinto gli uomini di cultura ad applicare le stesse

metodologie di ricerca allo studio del comportamento umano in società: il marxismo e la psicanalisi sono entrambe proprio il

prodotto di quel fervente clima di ottimismo che aspirava alla formulazione di una scienza della società sempre più dettagliata, nella

convinzione che quella societaria fosse la migliore organizzazione mai realizzata dall'uomo. Il marxismo, difatti, come sottolineava

Engels, aveva ravvisato (o almeno presumeva di averlo fatto) i principi scientifici che regolano lo sviluppo della società; la

psicanalisi sembrava in grado di possedere la chiave dell'intelletto umano, con le sue elucubrazioni sull'io, il super-io, l'es e

quant'altro. Popper ne è rimasto sin da subito deluso, disilluso circa la loro presunta scientificità, poiché fondata, a suo avviso,

sull'accumulazione di istanze positive – fenomeni economici per i marxisti e fenomeni psichici per gli psicanalisti –, ma è fin troppo

facile esprimere giudizi ed ipotesi che coprano genericamente tutta l'ampiezza della fenomenologia in questione; come nel caso

dell'astrologia, infatti, queste teorie propongono spiegazioni tanto astratte che è abbastanza semplice trovare istanze che vi si

confacciano quanto difficile riconoscerne la puntualità e la coerenza diacronica. Troppo candidamente si possono riscontrare

conferme nella realtà: ad ogni sciopero è in atto la lotta di classe, ad ogni nevrosi è sotteso un problema di natura sessuale, ma di

preciso non si riscontra nulla di rilevante, non vi sono previsioni affidabili. In poche parole, secondo Popper è troppo semplicistico

formulare teorie generiche poiché quando si lavora entro una teoria è eccessivamente semplice evocare istanze di conferma.

Egli rimase folgorato invece dalla conferma sperimentale della teoria della relatività: questa consistette nel verificare che i raggi di

una stella in prossimità del campo gravitazionale del sole venissero deviati (il che effettivamente accadde), un'ipotesi tanto ristretta

e precisa da potersi rivelare facilmente falsa, esponendo in tal modo alla falsificazione l'intera teoria. Per Popper dunque la capacità

di rischiare e compromettere l'intera teoria con una previsione su fenomeni ed entità nuovi è un dato comune a diverse teorie

scientifiche ed è da considerarsi dunque un buon criterio di demarcazione tra queste ed il resto delle altre. Un esperimento si può

dire dunque corretto soltanto se si dimostra essere un "falsificatore” potenziale della teoria entro e per la quale è formulato.Una

delle altre principali obiezioni mosse da Popper al marxismo e alla psicanalisi consiste nell'evidenziare la loro autoreferenzialità,

ovvero la capacità di offrire spiegazioni del motivo per cui qualcuno si opponga ad essi: chi accusa il marxismo può essere tacciato

di capitalismo, chi accusa o rifiuta la psicanalisi può essere accusato a sua volta di essere un complessato. Alla luce di tutto ciò ci

pare chiaro che per Popper il fondamento del metodo scientifico risieda non nella conferma ma nella falsificazione.

3.2. La soluzione al problema dell'induzione

Per Popper il problema dell'induzione è del tutto insignificante, ciò perché seguendo l'impostazione da lui conferita al metodo

scientifico questo sembra non tenere in alcuna considerazione la modalità enumerativa dell'induttivismo ingenuo, in quanto procede

per falsificazione, come si è detto, e non per accumulazione positiva, per cui ogni nuova istanza non è una potenziale conferma ma

una potenziale falsificazione, in definitiva la scienza non procede per induzione poiché un'eventuale inferenza falsificatrice avrebbe

12

un carattere del tutto deduttivo . Una teoria non falsificabile dall'esperienza non è quindi scientifica, ad esempio l'affermazione “è

logicamente possibile che lo spazio sia infinito” non è scientifica poiché non è aperta alla verifica, al contrario “tutti i metalli si

espandono se riscaldati” lo è, poiché qualora osservassimo un certo metallo e scoprissimo che non si dilata potremmo inferire che il

quantificatore tutti sia scorretto e l'universalizzazione decadrebbe. Il modo corretto di controllare una teoria non è cercare conferme

ma tentare di renderla falsa: ciò che chiamiamo conferma non è che mancata falsificazione.

Il metodo popperiano è dunque basato su “congetture e confutazioni”, congetture tanto audaci da esporsi al rischio di una

12 Se si prende come esempio la proposizione “tutti i cigni sono bianchi”, ogni potenziale cigno, indipendentemente dal colore,

metterebbe potenzialmente alla prova la teoria stessa e non dovrebbe essere visto come una possibile conferma: nel caso in cui si

trovasse un cigno nero la teoria risulterebbe semplicemente falsificata per deduzione (in senso forte), se al contrario si continuassero

a trovare cigni bianchi la teoria rimarrebbe debolmente valida. 11

falsificazione, di modo che lo scienziato possa imparare dal suo eventuale errore o procedere nella ricerca più rigorosa di esso. Una

teoria che si possa dire scientifica deve poter premonire e produrre essa stessa gli scenari al verificarsi dei quali è disposta a

dismettersi in favore di una nuova congettura, in quest'ottica lo scienziato non deve soltanto aderire alla propria teoria ma è costretto

presentare sin dalla sua formulazione le condizioni sotto le quali abbandonarla: deve, in un certo senso, formulare esperimenti che

mettano in crisi la teoria per effettuare controlli su di essa; dopotutto, anche incoscientemente, almeno a grandi linee la scienza si è

mossa in questo modo fino ai giorni nostri, rifiutando progressivamente modelli teorici che non rispondevano mano a mano ai

controlli effettuati e sostituendoli con congetture più avanzate. Tutto sommato Popper abbraccia dunque la filosofia del fallibilismo,

secondo la quale la conoscenza umana non sarà mai completa e coerente, ma sempre esposta a correzione. La scienza per Popper

deve esimersi dall'elevare a verità assoluta un principio, come fanno ad esempio sistemi ideologici totalitari come quello platonico o

marxista, deve insomma eliminare la sacralità della verità per esporla alla continua verifica.

É certamente interessante notare però che Popper non rifiuta necessariamente tutto ciò che non è scientifico, ovvero tutto ciò che

non ha riscontro empirico, al contrario egli crede che credenze di tipo metafisico, religioso e culturale siano (e siano state)

estremamente importanti nella formulazione di tante congetture funzionali al corretto avanzamento scientifico e che pertanto non

vadano rifiutate in blocco. Dopotutto egli non si occupa dell'eliminazione di ciò che non è scienza, ma della definizione positiva e

dirimente di ciò che lo è: marxismo e psicanalisi sono importanti intuizioni per quanto riguarda l'analisi comportamentale dell'uomo

ma il problema è che non sono scientifici e che, cosa più grave a suo avviso, molti li ritengano tali. Un ulteriore punto nodale del

pensiero di Popper è la questione del grado di falsificabilità delle teorie: a suo avviso le diverse congetture possono essere messe a

confronto e ordinate in relazione al loro grado di falsificabilità, più è alto più la teoria è migliore. Per essere più falsificabile delle

altre una teoria deve essere maggiormente accurata ed avere un ampio contenuto, in modo che si possa applicare ad una larga scala

di fenomeni ma allo stesso tempo risultare instabile – ovvero aperta alla falsificazione – per la stessa precisione con cui formula le

sue previsioni quantitative. In genere, in barba a quanto auspicato da Bacon, la produzione di teorie scientifiche non è mai stata

un'attività meccanica, quanto piuttosto un movimento creativo; la meccanicità interviene solamente al livello del controllo – dando

ragione in questo a Popper – nel momento in cui i dati riportano notizie circa la veridicità o la falsità della teoria stessa, che decade

istantaneamente nel secondo caso . La poiesi delle teorie non è quindi minimamente circoscrivibile nei limiti puramente razionali

della logicità, Popper crede allora – si perdoni la ripetizione – che il compito della scienza sia quello di sottoporre le congetture al

controllo empirico e che invece il compito della filosofia della scienza sia quello di formulare una logica, un modello, per questo

stesso controllo (e non, com'era per Bacon, per la formulazione). A questo punto il problema sollevato da Bacon sembra ridurre la

propria portata: fare del metodo scientifico un'unica carta da giocare in tutte le occasioni aveva fatto sì che questa carta risultasse

13

depotenziata , al contrario distinguendo chiaramente il contesto della scoperta da quello del controllo possiamo avere a

disposizione un chiaro prospetto, nel quale troviamo rispettivamente un gioco di idee e sentimenti da un lato e un rigoroso e

neutrale impianto di verifica dall'altro. L'idolatria di un'osservazione del tutto scevra da presupposti, rigorosa manifestazione del più

puro metodo baconiano, viene quindi abbandonata in favore di un approccio di tipo ipotetico-deduttivo, per il quale la teoria stessa

produce (e deve produrre) i propri limiti, essendo costretta a formulare tests in grado di infrangere, o quantomeno mettere alla

prova, le sue stesse premesse, dopotutto anche Bacone riconosceva la necessità di esperimenti “cruciali” (concepiti proprio a partire

dalla potenziali conseguenze delle ipotesi) in grado di dirimere le controversie tra opposte ed equivalenti congetture.

3.3. Il problema di Duhem ed altre problematiche del falsificazionismo

∧¬e]├

[T├ e ¬T

Se diciamo T l'ipotesi “tutti i metalli si dilatano quando sono riscaldati” e chiamiamo e, implicata da T, la proposizione “il rame si

dilata quando è riscaldato”, una volta osservato che e risulta falsa (¬e) possiamo inferire deduttivamente che T sia falsa (¬T). Ad

ogni modo un esperimento con questi esiti «non può mai condannare un'ipotesi isolata», come sostiene Duhem, «ma soltanto tutto

un sistema teorico», ciò perché la falsificazione di una teoria non può seguire uno schema tanto semplice e lineare: nel controllo

entrano in gioco molteplici fattori di sfondo (affidabilità ed errore di misura, condizioni del sistema ecc.) che possono naturalmente

inficiare il corretto svolgimento del test, infatti potrebbe risultare falso l'insieme dell'ipotesi e delle assunzioni di sfondo funzionali

all'espletamento dell'esperimento, ma non la teoria in toto. Lo schema dovrebbe essere quindi riformulato in questo modo (dove A

indica l'insieme delle assunzioni ausiliarie):

∧¬e]├ ∧

[(T∧

A)├ e ¬(T A)

Logicamente ¬(T A) risulta equivalente a ¬T o ¬A, ovvero: o è falsa T o è falsa A o lo sono entrambe, il che sta a significare che

non c'è certezza su cosa sia effettivamente invalido, se la teoria o lo sfondo che l'affianca. Duhem prevede allora, come si è già

mostrato, che ad entrare in gioco sia tutto il sistema teorico, e non solo l'ipotesi che risulta falsificata. Altri, come W. Quine,

pongono invece il problema in altri termini: potrebbero essere scorrette a ragione, piuttosto che le ipotesi (o le intere teorie), le

stesse leggi logiche o le nostre convinzioni in merito, per cui invece di abbandonare la teoria potremmo, in caso di falsificazione,

abbandonare la logica che la sostiene. Ad esempio, nel caso dell'atomo, i fisici hanno scelto di mantenere la denominazione,

ridefinendo naturalmente il concetto stesso, sebbene abbiano scoperto che questo in ultima analisi non sia “indivisibile”, come vuol

contrariamente la sua etimologia. Popper “dovrà” concedere che le teorie non possano essere sempre falsificate definitivamente da

una singola unità sperimentale, e in parte lo fa: a suo avviso infatti la falsificazione, per essere conclusiva, deve essere di carattere

intersoggettivo, ossia riconosciuta da un rilevante gruppo di scienziati in relazione all'oggetto posto sotto controllo. Al posto della

teoria definitivamente falsificata deve esserne introdotta una nuova, che non sia una rielaborazione della vecchia in cui vengano

inseriti surrettiziamente accorgimenti arbitrari in grado di sottrarla alla falsificazione, ma un'effettiva congettura in grado di spiegare

con altrettanto successo il fenomeno ma con l'aggiunta del contenuto empirico-sperimentale.

13 Ovvero imponendo l'utilizzo del metodo sia in contesti di poiesi teorica che il contesti di controllo pratico.

12

Tra i problemi di carattere per lo più generale che attanagliano il falsificazionismo troviamo:

Che alcune assunzioni scientifiche non sembrano falsificabili. Gli asserti probabilistici sono di questo tipo. Ad esempio il tempo di

decadimento di un atomo radioattivo di uranio è circa 710 milioni di anni, il che significa che v'è il 50% di probabilità che tale

atomo decada in quel lasso di tempo: un assunzione non falsificabile poiché l'esperimento che la metterebbe alla prova potrebbe

dare un risultato improbabile o comunque non tale da inficiare il concetto stesso di probabilità. Diverso sarebbe il caso di

“popolazioni” di raccolta dati molto numerose, per cui se risultasse, a discapito di una probabilità stabilita del 50 %, un riscontro

effettivo del 90% l'assunzione risulterebbe tendenzialmente falsificata, ma chi stabilisce il limite della numerosità?

Anche gli asserti esistenziali sono difficilmente falsificabili, poiché non si può inferire la non esistenza di un'entità ipotizzata per il

solo fatto di non averla mai riscontrata, Popper tuttavia crede che non sia possibile disporre di istanze positive nel caso delle entità

reali invisibili, ovvero soltanto teoriche. Vi sono inoltre principi scientifici che, pur non essendo falsificabili, sono cruciali per la

14

ricerca (ad es. il principio di conservazione dell'energia, principio della negazione della “causa a distanza” ecc.), tra questi vi sono

dei principi metodologici fondamentali, come quello che prevede la preferenza per teorie semplici ed unificanti piuttosto che per

teorie complesse ma “disordinate”, consapevolezza elaborata nel corso del compiersi stesso del progresso scientifico poiché facente

riferimento ad un metodo relativamente affidabile (cfr. rasoio di Ockham, parsimonia ontologica) nella formulazione di teorie ad

elevato riscontro empirico. Persino la teoria dell'evoluzione darwiniana, per quanto possa essere considerata uno dei migliori esempi

di scienza, risulta non falsificabile – e quindi non scientifica – agli occhi di Popper, poiché fondata su un asserto tautologico che è

quello della sopravvivenza; a ben vedere però la teoria non si fonda sul concetto “diretto” di sopravvivenza, bensì sulla credenza

che gli organismi tendano a trasmettere caratteri genetici mutati che si dimostrano più efficaci in vista della sopravvivenza, di

conseguenza la teoria sarebbe almeno indirettamente falsificabile.

Un'ulteriore obiezione consisterebbe nell'osservare che il falsificazionismo non sia a sua volta falsificabile, asserto riconosciuto da

Popper, che tuttavia replica affermando che la propria teoria non deve esserlo necessariamente, dato che è una sintesi logico-

filosofica e non scientifica. V'è anche la possibilità di obiettare circa la nozione di grado di falsificabilità, poiché questa non

presenta punti di riferimento assoluti ma si inserisce all'interno di vasti sistemi più o meno teorici, più o meno culturali, per cui

gradualità in questione diviene emblematicamente la cifra, l'espressione, delle concezioni di sfondo del modello normale di un certo

tipo di scienza (le osservazioni su Kuhn chiariranno questo punto). Oltre a ciò, sebbene sia comunque vero che non disponiamo del

diritto di credere positivamente in una teoria, dopotutto ci potremmo buttare nel vuoto dalla cima di un edificio senza pensare alle

conseguenze (nulla ci vieta, popperianamente, di non credere alla possibilità di danni gravi), la nostra prassi reca però esempi

mirabili della teoresi scientifica e questo non può che contrapporsi all'assunzione popperiana fondamentale: se non utilizzassimo

infatti i meccanismi induttivi non potremmo vivere (consapevolezza del tutto humeana). Si tratta di un'obiezione forte al pensiero di

Popper, questi risponde introducendo la nozione di corroborazione, per cui: una teoria è corroborata se, nel suo essere audace ad

avanzare predizioni, non viene falsificata; di certo non possiamo ritenerla vera, ma ci è concesso di ritenerla “la meno falsa”, quindi

conferirle razionalità. Ma anche in questo caso Popper non fa altro che mettere in relazione le possibili teorie al loro passato,

prossimo e remoto, ovvero parte dal presupposto che, fatte salve le categorie “trascendentali” di audacia e novità delle potenziali

teorie, si possa stabilire in base a queste cosa sia degno e cosa no di essere considerato razionale: de facto sta utilizzando un

induzione che poggia sull'esperienza passata, poiché sia audace che nuovo si possono significare soltanto in relazione a quanto

presente, cioè a nozioni, idee e congetture elaborate nel passato.

Inoltre, come si è visto, Popper richiede allo scienziato di specificare in anticipo le condizioni entro le quali sia disposto ad

abbandonare la propria teoria, spesso però, storicamente, la comunità scientifica – o gli stessi singoli scienziati – ha tentato di

ridimensionare e correggere le loro ipotesi con modifiche e nuove asserzioni, e con ciò salvarle. Ora Popper ammette ciò soltanto se

allo stesso modo è realizzato con le dovute cautele, cioè se non risulta una costruzione ad hoc ma, continuando a spigare ciò che già

era in grado di comprendere, prospetta nuovi scenari di fallibilità empirica. Tuttavia i casi in cui una teoria non viene abbandonata

una volta falsificata son molteplici, in essi la permanenza della congettura si diluisce anche su diversi decenni: ad esempio la teoria

della gravitazione di Newton descrive abbastanza fedelmente l'orbita di Nettuno ma, nonostante l'effettiva orbita corretta sia stata

prevista solo dalla teoria einsteniana, pur falsificata, la teoria newtoniana è rimasta a lungo un solido riferimento. Approfittiamo di

quest'ultima annotazione per collegarci al prossimo capitolo, nel quale analizzeremo le macroaree dell'incedere storico della

scienza.

14 É il principio secondo il quale ci è permesso pensare un'interrelazione tra elementi posti a distanza soltanto tramite intermediari, ad

esempio: tra il piano che emette il suono e l'orecchio che ne avverte le caratteristiche si pone l'aria quale mezzo meccanico di

trasmissione delle vibrazioni sonore. Il concetto di relazione a distanza è stato rielaborato secondo la nozione, relativamente recente,

di campo, per la quale esistono interazioni a distanza (con distanze anche abbastanza elevate, es. campo elettromagnetico,

gravitazionale), fatto sta che le motivazioni dell'interazione non sono del tutto note. 13

4. Kuhn: rivoluzioni e razionalità

Dopo aver superato l'induttivismo ingenuo di Bacon, passando tanto per le obiezioni humeane quanto per quelle popperiane, ci

siamo imbattuti in un nuova forma di induttivismo: l'induttivismo sofisticato. Questo approccio alla razionalità ci sembra

decisamente completo, esso infatti si differenzia dall'induttivismo ingenuo (e supera il falsificazionismo per certi versi,

sviluppandone le obiezioni), sottolinea Ladyman, «poiché attribuisce a valori non razionali un ruolo importante nello sviluppo della

scienza», ovvero ascrive tendenzialmente la razionalità al solo momento del controllo – in questo si deve riconoscere il mirabile

intervento filosofico di Popper – lasciando al contesto della scoperta un margine decisamente più ampio, per il quale molte altre

istanze (religiose, culturali, emozionali ecc.) entrano in gioco. A Popper si sono contrapposti dopo la Seconda guerra mondiale,

soprattutto in ambiente anglosassone, gli empiristi logici (che seguono l'induttivismo sofisticato, come molti altri avversatori di

Popper), tra questi troviamo ad esempio Carnap. Ad ogni modo negli ani '60 cominciano a manifestarsi i primi sentori di crisi

riguardo al realismo e alla nozione di razionalità, questo movimento prende indubbiamente le mosse dagli scritti del filosofo della

scienza Thomas Kuhn: a suo avviso la scienza non si può dire né induttiva né razionale.

4.1. Concezione standard della scienza, nuova visione kuhniana, paradigmi

Carnap e Reichenbach, contrariamente a Popper, credono che si possa risolvere il problema dell'induzione formulando una precisa

logica formale della conferma. I positivisti logici, pur sempre in opposizione a Popper, pensano che distinguere tra scienza e non

scienza sia una questione di significanza, ovvero una questione di metodi di conferma (per cui certificare una teoria è un'operazione

che non può prescindere da un determinato contesto probante, un contesto dotato di un certo significato). Ad ogni modo sia Popper

che i positivisti, quanto gli empiristi convengono sul fatto: 1) che la conoscenza progredisca migliorandosi di continuo 2) che

risponda a regole di ricerca unificate ( o unificabili), per cui ambiti diversi – chimica e fisica ad esempio – dovrebbero essere

derivabili e connessi gli uni agli altri 3) che vi sia una differenza epistemologica tra il contesto della scoperta e quello del controllo

4) che sia necessaria una logica della conferma o della falsificazione 5) che vi sia differenza tra scienza e credenza 6) che vi sia

distinzione tra asserti osservativi e asserti teorici. 7) che i termini scientifici hanno hanno un significato definito e preciso.

Kuhn dà inizio alla sua carriera in qualità di fisico, si interessa poi nel corso del proprio lavoro dei punti cruciali della storia della

scienza, in particolare prende le mosse dall'analisi della rivoluzione copernicana e galileana: egli si rende conto che qualsiasi

rivoluzione scientifica non poggi semplicemente sulla scollatura tra credenze e riscontri sperimentali, tra dogmi e dati di fatto, ma

che entrino in gioco dinamiche più complesse; questo è lo sfondo su cui si staglia il suo libro La struttura delle rivoluzioni

scientifiche (1978), nel quale emerge con grande vigore l'emblematico termine paradigma. La proposta di Kuhn non è certamente

banale, nel testo sopracitato afferma infatti, in relazione alla rivoluzione copernicana, che «se queste credenze fuori moda» – ovvero

l'aristotelismo e il dogmatismo religioso – «si devono chiamare miti, allora i miti possono essere prodotti dello stesso genere di

metodi e sostenuti per lo stesso genere di ragioni che oggi guidano la ricerca scientifica», per questo la scienza non procede per

accumulazione di conoscenze, ma avanza grazie all'abbandono netto – e non sempre giustificabile soltanto razionalmente – di un un

modello specifico della realtà: una certa arbitrarietà, personale o storica che sia, è naturalmente presente nello sviluppo di teorie e

modelli scientifici, viziate, per così dire, dall'intero sistema logico-valoriale che caratterizza tanto il momento della scoperta quanto

quello del controllo, che di questo sono mera e, spesso inconsapevole, espressione. Vi sono due sensi principali entro cui collocare il

termine paradigma: 1) inteso come matrice disciplinare o 2) inteso come matrice esemplare. Per dar ragione del primo “senso”

bisogna sottolineare che per Kuhn un dato momento della storia della scienza è caratterizzato sempre da alcune questioni

fondamentali circa la ricerca scientifica, le sue modalità, le sue possibilità, i suoi limiti di teoresi ed osservazione ecc., l'insieme di

queste è ciò che compone la matrice disciplinare e fornisce un quadro operativo di riferimento. Nella matrice è contenuto, più nello

specifico, tutto il sistema di pratiche necessarie allo sviluppo dell'esperienza scientifica probante (come ad esempio la capacità di

mettere a fuoco un microscopio), queste sono spesso dette conoscenze tacite. La matrice esemplare è invece caratterizzata

dall'insieme degli esempi di successo della scienza da considerarsi materia di studio e formazione per il novello scienziato, ciò che

in altri termini caratterizzerà il suo futuro speculativo e pratico, garantendo una solida base su cui cercare soluzioni a nuove

problematiche. Ad esempio, nella fisica classica: gli studenti devono possedere dei valori di sfondo di tipo causalistico e prediligere

inferenze quantitative (piuttosto che qualitative); devono comprendere il mondo secondo una concezione metafisica, per cui il

sistema universo è composto da microparticelle in continua collisione, che si attraggono e si respingono; devono operare attraverso

le leggi di gravitazione di Newton ed utilizzare la matematica formale (algebrica) come strumento di calcolo e verifica.

Kuhn definisce la maggior parte della scienza (anche in senso cronologico) «scienza normale», ossia scienza secondo norma; in

essa infatti si contribuisce all'estensione e all'elaborazione più sofisticata di un dato paradigma, attività caratterizzata da una sorta di

continua «risoluzione di rompicapi», di smussamento delle spigolosità teoriche e di inglobamento di errori ed anomalie tramite

l'estensione e la rifinitura delle leggi scientifiche, al fine di mantenere in-confutate (ed inconfutabili) le determinazioni normali; in

questo senso l'attività normale della scienza è strettamente conservatrice, il venire a conoscenza di istanze falsificanti molto spesso

non spinge né il singolo né la comunità scientifica a rifiutare una determinata teoria; come Kuhn stesso afferma: «lo scienziato che

si sofferma ad analizzare ogni anomalia incontrata raramente riesce a concludere una qualche ricerca significativa», si tende quindi

a concentrarsi nella risoluzione dei rompicapi piuttosto che a rifiutare in blocco il lavori di anni, o secoli. Tuttavia capita che alcune

anomalie siano destinate a non essere risolvibili e, all'accumularsi di queste, qualche scienziato inizierà a speculare su possibili

alternative teoriche mettendo contemporaneamente in discussione gli assunti fondamentali della paradigma corrente. È così che si

dà inizio alla crisi del paradigma, le anomalie allora diventano insostenibili anche per l'intera comunità scientifica, le aspettative

pratiche tendono ad essere disattese mentre un generale clima di sfiducia si propaga, ad un certo momento si giunge alla presa di

coscienza: il paradigma viene rimpiazzato integralmente da uno nuovo. Una delle caratteristiche distintive di una crisi è quella della

proliferazione delle varianti di una teoria di fronte alle palesi anomalie, fu così anche per la teoria del flogisto (analizziamo così

anche un caso di rivoluzione locale e sotto-disciplinare), la sostanza che si credeva fosse rilasciata durante una combustione per la

perdita di massa del combustibile, l'anomalia che generò la crisi di questa teoria era rappresentata il fatto che alcune sostanze, come

14

i metalli, bruciando aumentano il proprio peso (portando alcuni persino a speculare su un eventuale “peso negativo” dello stesso

flogisto, per salvare la teoria); dacché, una volta stabilito che la massa fosse in realtà una quantità di materia (in senso generico) e

non solo una caratteristica di una specifica sostanza, man mano la teoria fu abbandonata in ragione del fatto che durante la

15

combustione la massa potesse aumentare per l'intervento del comburente, ossia l'ossigeno . Il nuovo paradigma – in questo caso –

fu poi istituito da Antoine Lavoisier, con la formulazione della legge di conservazione della massa (in “prosa”: «Nulla si crea, nulla

si distrugge, tutto si trasforma.»). Diversamente da Popper, Kuhn non crede che la scienza sia in continua rivoluzione, cioè

connotata permanentemente dall'atto del controllo, della falsificazione; allo stesso modo non conviene sul fatto che la scienza sia

espressione della continua lotta tra congetture, al contrario egli pensa che la scienza normale non tenga in considerazione dicotomie

di tal genere ma proceda in senso olistico, tanto nella normalità quanto nel cambiamento: l'entrata in vigore del nuovo paradigma fa

sì che le vecchie anomalie, ora solvibili, siano dimenticate o non tenute in considerazione, “nuovi” problemi attendono i “nuovi”

scienziati. Se Popper, come sottolinea Ladyman, «vede come anatema per l'impresa scientifica l'attaccamento ad una teoria», Kuhn

crede che questo sia quanto di più “sacro” possa esserci nell'incedere della ricerca, gli scienziati sono tremendamente attaccati al

proprio paradigma e quando decidono di abbandonarlo di solito non stanno affatto facendo scienza. L'intimo legame stabilito da

Kuhn tra i valori (più o meno) personali dello scienziato e la sua legittimazione concessa ad un paradigma è ampiamente verificato

dai seguenti esempi: Einstein credeva che la scienza avesse il compito di spiegare l'andamento del mondo in senso forte, era un

realista, al contrario i fisici quantistici pensavano che fondamentalmente la scienza non avesse quest'onere e che fosse sufficiente

predire soltanto i fenomeni che interessano l'uomo in senso pratico, erano strumentalisti. «I paradigmi», osserva Ladyman, «sono la

proprietà intellettuale di gruppi sociali» e ancor meglio il prodotto di istanze più o meno regionali, più o meno occasionali, fatte di

istituzioni, di strutture, di prese di posizione ideologiche; per questo ha senso parlare, secondo Lakatos, di una psicologia (sociale)

della scoperta.

Rileggiamo ora nello specifico, alla luce delle nuove nozioni kuhniane, la rivoluzione copernicana: si può osservare che tra la

“puntiforme” dichiarazione galileana circa l'infondatezza di una teoria cosmica geocentrica e l'effettivo switch paradigmatico sono

intercorsi circa 150 anni. Molti erano difatti i punti culturalmente favorevoli alla permanenza del paradigma tolemaico: innanzitutto

pensare che la terra fosse al centro del cosmo era una concezione molto più adatta ad una realtà religiosa che si percepiva al centro

dell'attenzione divina; in secondo luogo la cogente percezione geocentrica del moto celeste era del tutto aliena ad una

considerazione che non ponesse la terra al centro di questo movimento, oltretutto le previsioni tolemaiche sul moto dei pianeti si

dimostravano abbastanza adeguate e precise, accettabili, sebbene non scevre di anomalie – queste, però, finiscono sempre col

generare problemi di coerenza teorica. Ad ogni modo il fatto che le orbite dei pianeti risultassero non circolari fu risolto con

l'introduzione di epicicli ed altri espedienti (esempio di scienza normale: gli scienziati ritoccano la teoria piuttosto che

abbandonarla), ma i conti continuavano a non tornare e le numerose varianti teoriche si dimostravano sempre più complesse ed

inconcludenti, infine il lavoro alternativo di Copernico, Keplero, Galileo ed infine Descartes finirono per permettere la sostituzione

del paradigma. A dispetto della nostra fluida ricostruzione c'è da sottolineare che l'accoglimento del paradigma copernicano assunse

più i caratteri della scommessa speculativa che quelli della certezza, molte asserzioni infatti erano instabili e difficilmente

osservabili, persino il modello tolemaico forniva una migliore spiegazione in alcuni casi. Tycho Brahé – sulle cui osservazioni, per

giunta, Keplero formulò la propria teoria – giunse a dichiarare falso il modello copernicano perché non riusci ad osservare il

fenomeno di parallasse stellare da questo previsto: la teoria copernicana risolveva di certo alcuni vecchi problemi, ma ne creava

anche molti di nuovi. Una rivoluzione insomma è anche il prodotto di fattori contingenti e culturali, si dubiti del fatto che tutti

abbiano accettato o rifiutato il cambiamento in base a verifiche oggettive e neutrali, se gli stessi scienziati proponenti hanno avuto

possibilità e motivazioni più o meno personali per formulare le proprie ipotesi non si vede il motivo per il quale gli altri uomini non

abbiano potuto approcciarsi ad esse allo stesso modo.

4.2. Teoria ed osservazione

Per quanto ci si voglia sforzare non sarà mai possibile osservare i fenomeni che ci circondano evitando presupposti – senza idoli,

per dirla con Bacon – difatti si tende a classificare la realtà secondo diverse categorie, a schematizzarla, prima di procedere alla

formulazione di ipotesi che possano darne conto. La scienza moderna si fonda sul proposito di unificare, di porre in relazione i

diversi fenomeni di cui abbiamo esperienza: tanto le maree quanto l'orbita terrestre sono determinate, nell'ipotesi ora accettata, dalla

forza di gravitazione; non è così nel paradigma aristotelico, per il quale le dinamiche dei cieli son diverse da quelle della terra; come

si vede in entrambi i casi il proposito da cui si prendono le mosse non è affatto neutro. La concezione standard del metodo

scientifico è un chiaro esempio di questa essenziale suddivisione tipologica: essa prevede che i riscontri osservativi siano sufficienti

per le determinazioni di controllo di una teoria e che, fondamentalmente, i termini osservativi debbano essere distinti da quelli

teorici (caldo e pesante sono diversi da carica e elettrone), tanto più perché una certa fenomenologia è legata più o meno

necessariamente a determinate condizioni di osservazione, che non interessano – almeno direttamente – l'istanza teorica. Kuhn

sostiene invece che l'osservazione sia carica di teoria, idea efficacemente suggellata da N.R. Hanson: «vedere non consiste solo

nell'avere un'esperienza visiva, bensì anche nel modo in cui si ha quell'esperienza».

Il miglior modo di dare consistenza a queste osservazione è quello di considerare le esperienze dei salti gestaltici.

15 A tal proposito Michail Vasil'evič Lomonosov scriveva nel 1756: «oggi ho compiuto un esperimento in fiale ermetiche di vetro per

stabilire se la massa dei metalli aumenti per l'azione del solo calore. Gli esperimenti – dei quali accludo una relazione in 13 pagine –

hanno dimostrato che il famoso Robert Boyle si ingannò, perché senza accesso di aria dall'esterno la massa del metallo bruciato resta

la stessa», quindi l'apporto di massa è dovuto all'intervento di aria, ovverosia ossigeno. 15

Si può vedere il cubo sia proiettato in alto a destra che rivolto verso l'osservatore in basso a sinistra; allo stesso modo si può

percepire la figura a destra sia come un coniglio che come un'anatra. Innanzitutto bisogna dire che per produrre il salto percettivo

c'è bisogno della capacità di percepire oggetti tridimensionali a partire da figure bidimensionali (nel caso del cubo) e di cambiare

prospettiva (nel caso dell'anatra-coniglio). Nel momento del salto gestaltico è l'intera esperienza visiva a cambiare, questo è ciò che

accade comunemente nell'esperienza scientifica: ad esempio, un medico esperto di fratture estrapolerà una certa quantità di

informazioni da un radiografia, vedrà elementi che un occhio inesperto non percepisce come significativi, lo scienziato, in un certo

senso vede ciò che crede di poter vedere e ciò che sa vedere. Questo rischia di compromettere l'oggettività dell'osservazione che,

come abbiano detto, caratterizza in modo particolare il momento del controllo (facendo peraltro da arbitro neutrale tra teorie

empiricamente equivalenti) per coloro che sostengono la concezione standard del metodo scientifico. Spesso, d'altro canto, certe

evidenze empiriche vengono ignorate proprio perché assente una formulazione teorica circa le medesime, la riprova è il fatto che

una volta comparsa la teoria si rintracciano retroattivamente i segni tangibili di quanto supposto: non si son colti gli effetti dei

positroni fino a che Dirac non ne ha postulato l'esistenza. Tutto ciò è indice di contaminazione forte dell'osservazione da parte della

teoria, un ulteriore argomento a sostegno di questa tesi è il fatto che spesso osservazione ed inferenza sono indissolubilmente legate:

gli scienziati esperiscono il passaggio della corrente in un filo grazie al movimento della lancetta dell'amperometro, ma ciò non vuol

dire forse che la presenza dell'elettricità, più che esperita direttamente, sia inferita grazie allo strumento (e quindi alle

determinazioni teoriche che ne permettono il funzionamento)? Paul Churchland afferma a riguardo che fondamentalmente

«impariamo dagli altri a percepire il mondo come lo percepisce chiunque altro» e che quindi le nozioni che regolano il comune

rapportarsi con la realtà sfuggano in qualche modo alla determinazione personale. Jerry Fodor sostiene invece che l'esperienza di

due organismi con la medesima struttura percettiva debba essere per forza di cose la stessa (due uomini percepiscono

necessariamente la realtà allo stesso modo poiché presentano la stessa articolazione sensoriale), questo significa certamente che

naturalmente gli uomini possono vedere allo stesso modo le stesse cose, ma che poi in fondo per vedere un determinata cosa (come

i satelliti di un pianeta o la sua struttura) bisogna averne cognizione (di certo non si può descrivere la morfologia di un pianeta ad

occhio nudo, soltanto guardando un puntino nel cielo). Acquisita questa consapevolezza non possiamo di certo pensare che ogni

osservazione possa costituire un fondamento certo della teoresi scientifica, allo stesso tempo non possiamo arroccarci in un fanatico

e cieco rifiuto di qualsiasi asserto esperienziale.

4.3. Incommensurabilità e relativismo

Altro termine caratterizzante per la filosofia della scienza di Kuhn è quello di incommensurabilità, ovvero letteralmente la

«mancanza di una misura comune». Kuhn. assieme a Feyerabend, sostiene che le teorie scientifiche che si succedono sono spesso

incommensurabili, tanto quanto lo sono le scelte di «vita sociale» che contraddistinguono il dominio di un paradigma certo piuttosto

che di un altro. La conferma empirica di una teoria, a questo livello di analisi, non è che una finzione retorica di proporzioni

“comunitarie”, epifenomeno della più profonda accettazione di un nuovo modo di concepire il mondo e la vita su di esso, in questo

caso si parla allora di relativismo epistemologico. Non si possono confrontare due o più paradigmi poiché la differenza tra questi è

segnata da mutati metodi di valutazione dell'esperienza, di composizione di congetture, di elaborazione dei dati ecc. Per il moderno,

un “fisico degli stati”, il moto non è un continuum di mutazioni dinamiche, ma una permanenza di stato, per l'aristotelico, “fisico

dell'efficienza”, l'innaturalezza del moto deve essere spiegata al contrario con il costante richiamo ad una causa motrice (espressioni

mie tra virgolette), si confronti a tal proposito l'interessante sviluppo storico-teorico della questione del moto violento. Spesso

l'incomprensibilità in cui versano molte asserzioni di un vecchio paradigma è dovuta al fatto che si pensa che non abbia neanche più

senso porsi certe questioni, per questo Kuhn paragona il cambio di un paradigma al salto gestaltico di cui si parlava

precedentemente: termini e concetti di paradigmi diversi spesso non riescono ad entrare in comunicazione, si parla quindi di

incommensurabilità del significato, alla quale si aggiunge una certa incommensurabilità del riferimento, per cui teorie diverse di

paradigmi diversi si riferiscono, magari allo stesso concetto, in maniera totalmente diversa, tanto da lasciar intendere di parlare di

16

entità totalmente diverse . Spesso le idee di Kuhn sono state recepite come confutazioni dell'oggettività della conoscenza e della

16 É un pericolo serio per le “pretese” di tutti i realisti, dal momento che: se teorie diverse sugli elettroni si riferiscono per

incommensurabilità di riferimenti a entità diverse, la tesi per cui si progredisce verso una comprensione sempre migliore delle entità

sottostanti alla natura delle cose va nettamente in crisi. Se ad esempio due teorie descrivono la struttura dell'atomo diversamente, cioè

risultano incommensurabili, de facto quello che si ricercherà nelle sperimentazioni e nella speculazione sarà un'entità, pur denotata

16

stessa verità scientifica, da questi propositi si sono sviluppati movimenti concettuali articolati su principi completamente

contrapposti a idee come l'assoluta preminenza gnoseologica della scienza, superiore a miti, credenze e superstizioni di chiara

ascendenza irrazionale; questi movimenti sostengono che la scienza non abbia nulla di migliore rispetto agli altri approcci

conoscitivi e che in fondo potrebbe essere esposta alle stesse dinamiche irrazionali che tanto stigmatizza. Non a caso, secondo

Kuhn, molti scienziati hanno fatto ricorso a qualsiasi mezzo, compresa la folle distorsione dei dati sperimentali o l'uso del potere

tradizionale per tacitare il dissenso, al fine di mantenere in vita una teoria a dispetto della confutazione offerta dall'evidenza; spesso

la pratica scientifica risulta così molto più abitudinaria che realmente critica e costruttiva.

La decostruzione operata da Kuhn interessa dunque sia l'approccio standard al metodo scientifico sia il rapporto tra teoria ed

osservazione ed impegna, in questo senso, qualsiasi essere umano, prima che qualsiasi filosofo, ad assumere un atteggiamento di

generale scetticismo nei confronti di verità che autoreferenzialmente si dicono assolute, allo stesso modo tuttavia non è possibile

ascriversi totalmente a questa pratica sospensiva, si correrebbe il rischio di rifiutare qualsiasi interpretazione di carattere scientifico

perché certi di una sua futura crisi, a cui seguirebbe naturalmente la confutazione e l'abbandono. Per questo Kuhn stesso prende le

distanze dagli opposti estremismi, credendo fermamente di poter condividere cinque elementi fondamentali per fare di un

paradigma qualcosa di razionale e spendibile: all'interno del paradigma devono formularsi teorie accurate; queste devono essere

coerenti con le altre accettate; una teoria deve avere ampia portata esplicativa; ogni teoria deve essere il più semplice possibile; in

ultimo ogni teoria deve essere feconda per lo sviluppo della ricerca e il progresso della conoscenza.

dallo stesso riferimento, diversa in ognuno dei casi. 17

5. Il realismo scientifico

Al di là delle dispute sul metodo scientifico e le sue determinazioni è chiaro che la scienza costituisca oggigiorno lo strumento

comunemente riconosciuto come migliore tanto per la previsione dei fenomeni quanto per lo sviluppo di una certa prassi di vita

organizzata. La scienza, tuttavia, sembra voler prendere il posto della metafisica stessa quando tenta di dar ragione dei principi

primi ed ultimi della realtà, cioè promuove lo studio del livello costitutivo e fondamentale della stessa, in altri termini: la ricerca

scientifica si interroga oggi sui fondamenti della realtà e cerca di fornirne un quadro completo ed unificato, evitando particolarismi

ed elementi in contrasto (proposito ben condivisibile da Aristotele!). Il realisti sono fermamente convinti della possibilità di

raggiungere una tale conoscenza e per conseguire il loro obiettivo si impegnano alacremente nel descrivere la realtà sottostante

all'apparenza, “popolata”, a loro avviso, da entità generalmente inosservabili (almeno ad occhio nudo, in alcuni casi): atomi,

molecole, geni, virus e persino buchi neri dalle proporzioni cosmiche. Sull'altro polo si dispongono gli antirealisti che, sebbene

critichino la pretesa razionalistica di comprensione totale della realtà, non di certo rinnegano il progresso tangibile, di estrazione di

certo “razionale”, che ha interessato il percorso scientifico dell'umanità. Per costoro deve risultare davvero difficile continuare a

negare l'esistenza degli inosservabili, in un mondo in cui la tecnologia di cui disponiamo utilizza proprio le conoscenze scientifiche

di tipo realistico (l'elettricità è il prodotto del flusso elettronico attraverso un conduttore: molti strumenti – quasi la totalità di quelli

che utilizziamo – sono costruiti grazie a questa consapevolezza, dalla lampadina allo smartphone, persino le automobili), gli

antirealisti devono fare dunque i conti anche con l'evidenza quotidiana, di conseguenza vi è davvero ancora spazio per dubitare

dell'esistenza di entità come gli atomi? A riguardo spesso si sostiene che molte teorie accettate nel passato postulavano l'esistenza di

entità che si sono rivelate inesistenti, l'antirealista quindi, giocandosi questa carta, obietta alla questione sopra esposta: “perché

dovremmo pensare di avere ragione a nostra volta? In un futuro più o meno prossimo qualcuno potrebbe confutare le nostre

credenze proprio come noi abbiamo fatto con quelle del passato”.

5.1. Apparenza e realtà

«La descrizione scientifica del mondo suggerisce che la realtà del senso comune sia illusoria, o che, quantomeno, certamente da

molti punti di vista non percepiamo il mondo per come esso è», così Ladyman commenta la distinzione tra apparenza e realtà

operata dal fisico Arthur Eddington, il quale sottolinea inoltre la straordinaria familiarità percettiva goduta dall'apparenza rispetto a

17

quella realtà che i fisici dicono essere essenziale . Il mondo descritto dalla scienza appare «in gran parte vuoto», egli dice, e la

nostra comprensione di esso non è spontanea tanto quanto quella di ciò che ci appare immediatamente intorno quando si aprono gli

occhi, la fisica teorica del XX secolo si muove porprio in questa direzione, abbandona ovvero il senso comune matematizzando e

complicando continuamente la propria comprensione dei fenomeni fino ad estraniare il piano dei costituenti ultimi da quello della

percezione normale della nostra esistenza biologica. Per comprendere nello specifico l'approccio della scienza contemporanea è

importante distinguere tra proprietà primarie e secondarie, nozioni sviluppatesi in seno alla rivoluzione scientifica “scoppiata” nel

be mezzo dell'età moderna. La nuova interpretazione del mondo (ci esprimiamo al presente perché è da noi stessi condivisa), che ha

abbandonato gli stereotipi qualitativi della fisica aristotelica, è di tipo meccanicistico: il cosmo non è più proiettato teleologicamente

verso il Motore Immobile, Bene assoluto e supremo, ma, come un grande orologio, presenta parti contigue che incastrandosi l'una

nell'altra generano un movimento equilibrato e sempre ugualmente determinato da leggi precise, senza determinazioni finalistiche.

Così l'uomo – o lo scienziato – moderno inizia a vedere nella realtà non più “forze occulte”, ma meccanismi dotati di rationes, di

rapporti (o, alla greca: logoi), in una parola: razionali, la fisica quindi si matematizza e si fa “statica”, si ripensa in senso

strettamente materialistico – mentre per Aristotele non ha senso parlare di materia al di fuori del sinolo con la forma – non è un caso

che la teoria newtoniana sulla gravitazione non abbia riscontrato sin da subito un gran successo, propone infatti un modello di

“azione a distanza” che per i meccanicisti è impensabile, le evidenze pratiche e la straordinaria precisione matematica hanno però

permesso infine di accettare comunemente quanto teorizzato.

L'orologio meccanico, innalzato da Locke in questo senso a metafora formale della struttura dell'universo, presenta a suo avviso una

parte epifenomenica, macroscopica, rappresentata dalle lancette e dal loro movimento coerente e costante, e una parte interna con

una serie meccanismi di più ridotte dimensioni, che non funzionano se non gli uni rispetto agli altri ma che effettivamente

permettono, in ultima analisi, di misurare costantemente il tempo con le lancette da loro mosse: la parte macroscopica sta per i

fenomeni naturali, quella microscopica sta per le loro leggi, carpire con l'intelletto questi meccanismi reconditi è il compito della

filosofia naturale. L'oggettività della scienza si configura man mano come il prodotto ultimo della messa al bando della soggettività

umana. Possiamo ritornare così, dopo questo rapido excursus storico-epistemologico introduttivo, alla distinzione tra proprietà

primarie e secondarie, compito che ci risulta estremamente semplificato avendo a disposizione la metafora d'orologeria: le primarie

(o reali) sono quelle sembrano possedute dagli oggetti e che lo sono in realtà, le secondarie (o apparenti) sono quelle percepite

soltanto dalla mente di chi osserva l'oggetto, ma non possedute in realtà da esso. Tale distinzione risale agli stessi atomisti greci:

questi sostenevano che le proprietà reali degli oggetti fossero soltanto quelle degli atomi che li costituiscono o il risultato della loro

particolare combinazione, una tesi ripresa da molti filosofi moderni, tra i quali Locke, Newton, Boyle e molti altri.; in questo senso

dunque si può accordare il grado di proprietà primaria soltanto alle specifiche delle particelle che compongono un oggetto, ad

17 Famosa è la sua discussione delle due tavole: La descrizione scientifica del mondo suggerisce che la realtà del senso comune sia

illusoria, o che, quantomeno, certamente da molti punti di vista non percepiamo il mondo per come esso è: «la prima mi è familiare

fin dai primissimi anni. È un oggetto comune di quell'ambiente che io chiamo il mondo. Come lo descriverò? Ha un'estensione; è

relativamente stabile; è colorata; soprattutto è sostanziale. La tavola n. 2 è la mia tavola scientifica. Si tratta di una conoscenza più

recente e non mi riesce ugualmente familiare. Non appartiene al mondo sopra citato […] benché non distingua quanto i esso sia

oggettivo e quanto soggettivo […] la mia tavola scientifica è in gran parte “vuoto”. Sparpagliate radamente in questo vuoto vi sono

numerose cariche elettriche che si muovono in tutte le direzioni con grande velocità; ma il loro volume complessivo rappresenta

meno di un bilionesimo del volume della tavola stessa.»

18

esempio gli atomi di un tavolo, ma non all'apparenza fenomenica che lo contraddistingue, ad esempio il colore. È di Locke la

l'analoga distinzione tra essenza reale e nominale: la prima è costituita dalle proprietà reali ed inamovibili (il piombo non può

tramutarsi in oro), la seconda da quanto di macroscopicamente possiamo stabilire di un dato oggetto di sensazione, determinazione

che può anche mutare a seconda delle condizioni di osservazione. Anche ridotto ai minimi termini – diremmo oggi, considerando

l'atomo singolo del metallo – secondo Locke l'oro manterrebbe le proprie proprietà primarie (massa, estensione, forma), queste di

certo non produrrebbero direttamente la fenomenologia di carattere secondario ma avrebbero il potere, o la disposizione, di causare

in noi un certo tipo di sensazioni: un lingotto d'oro “è giallo” a prescindere dalla sua osservazione da parte nostra, esso ha una

costante disposizione ad apparire così poiché è microstrutturalmente composto in un certo modo. Due oggetti con le stesse proprietà

primarie avranno necessariamente le stesse proprietà secondarie, non è vero però il contrario (il legno può apparire giallo come

l'oro, ma non ha le stesse proprietà), questo perché le proprietà secondarie soprav-vengono, come è esplicitato dalla loro

definizione, a quelle primarie, ovvero ne sono il prodotto unidirezionale, ne derivano. La descrizione quantitativa del mondo

nell'epoca “post rivoluzionaria” pone al centro della propria ricerca le proprietà primarie: velocità, accelerazione, massa, volume

sono quantità misurabili e oggettive, rappresentabili geometricamente e calcolabili algebricamente: Le proprietà primarie come

abbiamo visto sono quindi separate da quelle secondarie, sebbene queste ultime siano riducibili razionalmente alle prime in quanto

prodotti delle medesime, dato che però non tutte le cognizioni che ci formiamo circa le esperienze degli oggetti osservati sono

corrispondenti ad una realtà, cosa ci permette di dire che esista anche solo una realtà sottesa all'esperienza comune? Se, in altri

termini, ci sono delle proprietà secondarie non identificabili semplicemente con le primarie, cosa ci permette di pensare che il resto

lo sia? Cosa ci permette di affermare positivamente che esistano delle entità sottese alla realtà se nella nostra esperienza non

possiamo averne riscontro?

5.2. La metafisica del mondo esterno

Il realismo metafisico è la concezione secondo la quale il nostro linguaggio si riferisce ad una realtà indipendente dalla mente –

indipendente dalla percezione di una mente – popolata ovvero di enti reali. Il problema filosofico, al di là dell'estrema e pur

possibile negazione dell'esistenza di tali entità, sta infatti nel cercare che natura abbiano gli oggetti e come possiamo pensare di

conoscerla, in effetti l'induttivismo di ascendenza empirista, quello che comunemente mettiamo in opera nel rapporto con ciò che ci

circonda, mal si concilia teoricamente con la prospettiva del realismo metafisico.

2.1 Realismo ed ideismo

La concezione più semplice a proposito del mondo e della percezione che ne abbiamo è detta realismo diretto, per cui siamo in

grado di percepire oggetti reali con il solo ausilio dei nostri sensi. La prima obiezione a questa teoria sta nel fatto che, come abbiam

visto, ciò che percepiamo della realtà è frutto della nostra particolare percezione, della rielaborazione sensoriale, condizionato

quindi dalle condizioni ambientali in cui lo esperiamo. È noto a tutti che il bastone immerso in un contenitore d'acqua risulti

spezzato alla vista, in realtà è lo stesso, ma i nostri sensi ce ne danno un'idea diversa: ad un livello più ampio potremmo essere in

una condizione, una delle tante possibili, di costante distorsione percettiva, uno status che però percepiamo come normale.

Oltretutto entra in gioco il ritardo caratteristico di ogni atto percettivo, difatti tra l'emissione di luce da una fonte o la riflessione di

luce di un oggetto e l'effettiva rielaborazione cerebrale passano pochi ma significativi istanti, i quali sono abbastanza per far sì che

18

la percezione si possa dire differita e quindi – almeno teoricamente – “irreale”. Al realismo diretto si oppone dunque l'ideismo,

secondo il quale non si percepiscono direttamente oggetti esterni, ma soltanto idee e rappresentazioni della nostra mente. Locke

19

(1632-1704), Berkeley (1685-1753) e Hume (1711-1776) sostengono, sebbene in modi diversi , proprio questa concezione, a loro

avviso il mondo non è percepito che tramite impressioni o idee; secondo questi empiristi esistono due classi di oggetti mentali:

quella rappresentata dalle emozioni e dalle impressioni sensoriali e quella che altro non contiene che le più deboli copie delle prime,

la prima è decisamente legata al mondo sensoriale e contingente, la seconda raccoglie le idee di carattere maggiormente

trascendentale (per un esempio: nella prima v'è “una tovaglia rossa”, nella seconda “il rosso”). Una simile concezione è chiamata

anche realismo causale o indiretto: vi sono oggetti esterni che esistono indipendentemente dalla nostra mente e che, attraverso i

sensi, causano la percezione indiretta che ne abbiamo. Si presenta di nuovo il quesito sopra riportato: ma se alcune proprietà sono

secondarie, e quindi non identificabili con la struttura stessa dell'oggetto, come facciamo a sapere che ci sia almeno una proprietà

primaria che somiglia alla nostra percezione di essa? Per Locke la pratica scientifica ci offre un alto grado di probabilità e la

distinzione tra le proprietà chiarifica il cammino, ma non tutti la pensano allo stesso modo.

2.2 Idealismo

Berkeley attacca tale discriminazione tra le proprietà, sebbene prenda le mosse dalle stesse teorie condivise da Locke e gli altri

empiristi. Egli nega la possibilità di un realismo causale e l'esistenza stessa della materia, non crede in altri termini che gli oggetti

siano indipendenti dalla mente e composti di corpuscoli, non concedendo quindi a nessuna proprietà lo statuto di primaria. La

18 L'opposizione non riguarda la realtà metafisica postulata, ma la natura della percezione propria dell'essere umano: le entità reali

esistono ma sono percepite secondo dinamiche non del tutto identificabili con esse. Ad ogni modo realismo ed ideismo non sono

incompatibili, in effetti l'ideismo stabilisce che le impressioni siano comunque causate dalle entità di fondo e nello specifico dalla

loro configurazione.

19 Riportiamo tre citazioni. Locke: la mente «non ha altro immediato oggetto che non siano le sue proprie idee» (Saggio

sull'intelligenza umana); Hume: «tutte le percezioni dello spirito si possono dividere in due classi, che io chiamerò impressioni e

idee» (Trattato sulla natura umana); Berkeley, che comunque è più vicino all'idealismo: «è evidente per chiunque esamini gli oggetti

della conoscenza umana, che questi sono: o idee impresse ai sensi nel momento attuale, o idee percepite prestando attenzione alle

emozioni e agli atti della mente» (Trattato sui principi della conoscenza umana). Facilmente si ravviserà la dicotomia evidenziata nel

testo, comunemente riportata dai filosofi citati (almeno Hume e Berkeley in questo caso). 19

materia, definita portatrice di proprietà primarie (estensione, massa, movimento ecc.) non può essere oggetto di intellezione diretta,

20

come lo sono le “idee”, uniche a poter vantare questa caratteristica, pertanto della materia non si può che avere un'idea , proprio

come in un sogno, nel quale si hanno percezioni spazio-temporali relative ad oggetti materiali senza che questi esistano. Tutto ciò è

riassumibile nella formula «Esse est percipi», che vuol dire "l'essere significa essere percepito", ossia: nulla esiste fuori dalla

percezione intellettiva, l'esperienza stessa è mera percezione illusoria, se il genere umano sparisse sparirebbe anche l'idea stessa di

un mondo materiale. Un generale relativismo permea “l'esperienza” filosofica di Berkeley, le proprietà primarie sono, a suo avviso,

relative e variabili tanto quanto le secondarie, la distinzione non può sussistere perché meramente arbitraria: se non riusciamo a

separare dall'oggetto d'analisi una proprietà come il colore – perlomeno dal nostro punto di vista macroscopico – non possiamo allo

stesso modo separare altre proprietà come la massa e l'estensione, nulla ci garantisce che queste siano indipendenti da noi. Berkeley

è allora un idealista, a suo avviso soltanto la mente (o lo spirito) può dirsi un ente “reale”, tutto al di fuori di essa è proiezione o,

21

quantomeno, concrezione di forme “percepibili”, dato il loro statuto intellegibile, soltanto da una mente pensante. Locke e gli

empiristi negano che si possano ridurre tutte le proprietà del mondo allo stato di intelligibilità, cioè allo stato secondario, allo stesso

tempo però negano anche la percezione reale di oggetti, definendola soltanto rielaborazione mentale di impressioni causate dalla

configurazione corpuscolare, Berkeley, opponendosi ad una tale astrusa concezione, ritiene dunque di rimanere molto più aderente

al senso comune (l'idealismo sarebbe tutto sommato più completo dell'ideismo). Questo tipo di scetticismo è però alquanto

estremistico, ne sono un esempio Descartes e il suo demone ingannatore: una prospettiva speculativa che oggi potremmo ricollegare

alla famosa trilogia cinematografica di Matrix, il computer che illude gli uomini, o meglio le loro menti, di vivere in un determinato

mondo sensibile, quando questi non stanno che fluttuando in un liquido di sospensione. Dove Descartes pone l'ego cogitans,

Berkeley pone Dio stesso: a suo avviso è la divinità a reggere il continuum spazio-temporale percepito dagli uomini, anche al di

fuori della loro cognizione attiva di esso, per cui se si lascia un oggetto in una stanza lo si ritroverà lì anche se per un periodo non lo

si è percepito. Una versione più sofisticata di questo tipo di scetticismo si riscontra in Kant, egli crede, in accordo col realista

metafisico, che esista una realtà indipendente (quella noumenica), ma nega che se ne possa avere cognizione; ciò che ci è accordato

è lo studio dei fenomeni, prodotti dei rispettivi ed intangibili noumeni, fenomeni verso i quali possiamo essere orientati soltanto da

alcune nostre conoscenze a priori (ovvero: matematica, geometria, meccanica newtoniana).

5.3. Semantica

Il forte scontro tra ideisti e idealisti, tra una metafisica reale ed una metafisica delle essenze sembra volgere al termine sulle soglie

del positivismo logico, tentativo abbastanza deciso di metter fine alle dispute in questione.

3.1 Positivismo logico

Il termine positivismo fu coniato dal francese August Comte (1798-1857) che nel suo Discours sur l’esprit positif (1844) proponeva

diverse accezioni per ciò che era da lui inteso come positivo: positivo stava per reale, in quanto opposto alla misteriosità

spiritualistica della scienza precedente; stava per utile al progresso sociale e alla nuova organizzazione della popolazione; stava per

certo, in contrapposizione alla vecchia scientificità vaga e carica di dubbi; stava per preciso, in quanto aderente alla natura dei

fenomeni. Egli difatti divideva il progresso sociale in tre fasi: quella teologica, quella metafisica e quella scientifico-positiva, nella

prima ogni spiegazione del mondo presenta un carattere spiritualistico, teologico, magico-mistico; nella seconda si postula

l'esistenza di forme, forze inosservabili, corpuscoli ecc; nella terza infine, culmine della maturazione intellettuale “umana”, si

rinuncia alla pretesa di spiegare le cause o la natura delle cose, l'unico compito della conoscenza è quello della predizione dei

fenomeni. Notevoli inoltre le suggestioni per gli studi storici e le discipline sociali: nacque un nuovo metodo storiografico, attento

soprattutto a fattori ambientali, sociali, razziali, si svilupparono l'antropologia e la sociologia, discipline chiaramente volte alla

riorganizzazione, spesso pretenziosa, della società. Ora, al di là delle (nuove e sostitutive) pretese positivistiche di riformulare la

società occidentale all'insegna del mito scientifico, stiliamo un rapido prospetto storico-teorico del positivismo:

Esso prende le mosse dall'empirismo (specificamente dalle ricerche di Hume) e intende dar risalto all'osservazione, quale unica

fonte di conoscenza, richiede procedure di verifica/falsificazione, non accetta la nozione di causalità, la metafisicità, il realismo, dà

poco valore alla nozione di spiegazione. I positivisti fanno un ulteriore passo avanti rispetto al qualitativismo aristotelico, cioè si

spingono oltre la prima critica moderna alle sue determinazioni; essi non accettano dunque né l'esistenza di indecifrabili virtù (o

cause, o essenze) sottese alla fisicità né, quantomeno, l'esistenza di realtà più o meno corpuscolari sottese al livello fenomenico, ne

consegue che anche la nozione di causalità risulti sensibilmente riformulata. Ad ogni modo la spinta positivistica era destinata ad

essere sommersa dall'idealismo romantico del XIX secolo, per poi riemergere con forza agli inizi del Novecento attraverso il lavoro

degli esponenti del Circolo di Vienna, dispersisi poi, dopo l'avvento del nazismo, generalmente in direzione degli Stati Uniti, dove

le loro prospettive speculative si sarebbero rivelate di nuovo proficue, tra i neopositivisti logici si ricordano Moritz Schlick

(fondatore del Circolo), Carl Hempel (1905-1997), Carnap, Reichenbach e Ayer.

Il loro principale obiettivo consisteva nel riformulare la cultura all'insegna della scientificità, sostenuti inoltre dalle parallele

ricerche logiche di Gottlob Frege (1845-1925) e Bertrand Russell (1872-1970), che promettevano livelli di precisione ed analiticità

mai avuti a disposizione in secoli di oppressione metafisica. Il vecchio impianto conoscitivo non permetteva di aprocciarsi in modo

neutrale alla comprensione del mondo, poneva su oggetti e fenomeni etichette cariche di pregiudizio; al contrario la nuova scienza

20 «Le idee che ci facciamo delle cose sono tutto ciò che possiamo dire della materia. Perciò per "materia" si deve intendere una

sostanza inerte e priva di alcun senso, della quale però si pensa che abbia estensione, forma e movimento. È quindi chiaro che la

nozione stessa di ciò che viene chiamato "materia" o "sostanza corporea" è contraddittoria. Non è quindi il caso di spendere altro

tempo per dimostrarne l'assurdità» (Berkeley, Trattato sui principi della conoscenza umana, § 9)

21 Il termine forma è da intendersi quale traduzione del greco eidos così trasposto e rielaborato dalla speculazione aristotelica a partire

dalla prima teorizzazione metafisica platonica, in cui era utilizzato in riferimento alle vere e proprie idee iperuraniche. Il formalismo

berkeleyano è sostenuto peraltro da una lunga tradizione di estrazione neoplatonica che percorre tutto il Medioevo.

20

analitica era molto più attenta ai modi contingenti del significare che alle essenze eterne ed immutabili: la connessione con

l'esperienza era quantomai salda, i contenuti intellettivi dovevano essere legati ad essa, l'idealismo doveva essere bandito. Stiamo

parlando del cosiddetto criterio empiristico di significanza, portato alle estreme conseguenze nel Tractatus di Ludwig Wittgenstein

(1889-1951). La critica dei positivisti alla metafisica era integerrima, a loro avviso essa non è significante perché, come afferma

Carnap, nei suoi riferimenti «accenna solo ad associazioni di idee e sentimenti, dai quali, però, la parola non ottiene nessun

significato»; termini come Dio, il Bene, l'assoluto, l'essenza, non hanno corrispettivi empirici, sono quindi pseudo-concetti proprio

come le scienze che li utilizzano, che sono chiamate dai positivisti pseudo-scienze. Anche per i positivisti i termini empiricamente

validi, tuttavia, non sono necessariamente visibili: le onde elettromagnetiche, ad esempio, sono invisibili tanto quanto un presunto

“spirito”, ma le prime sono ricevibili da un'antenna il secondo no, la differenza sta nella legittimazione offerta dall'esperienza al

senso dato ad una certa realtà. Gli asserti della scienza sono dunque veri in quanto significanti – cioè empiricamente verificabili –

gli empiristi raccolgono a questo proposito la distinzione kantiana tra giudizi analitici (necessari) e sintetici (contingenti), unici

giudizi possibili all'interno del panorama scientifico ed entrambi, sebbene secondo procedure differenti, portatori di verità: i primi

rispettano le dinamiche della logica, in quanto espressione di relazioni tra concetti (cfr. Hume, al quale, come si è detto. i positivisti

si ispirano in partenza), i secondi quelle dell'empiricità, in quanto principianti da dati fattuali e per questo soggetti a verifica.

Riassumendo, gli empiristi logici fondano la conoscenza scientifica su due concetti:

- il criterio verificazionale del significato, per cui un asserto è letteralmente significante se e solo se è analitico o verificabile

empiricamente.

- il principio di verificazione, per cui il significato di un asserto non tautologico si identifica con il metodo della sua verificazione,

ovvero la procedura empirica attraverso la quale si può stabilire se è vero. Dare senso ad un enunciato è dunque trasformarlo nelle

definizioni dei termini che lo compongono, fino a trovarsi parole non ulteriormente definibili, il cui significato, infine, può essere

22

solo mostrato

Secondo il fondazionalismo, d'altra parte, vi sono due tipi di credenze: quelle autoreferenziali (di base) e quelle inferite –

deduttivamente o induttivamente – dalle prime; molti empiristi ritengono fondazionale proprio la conoscenza che abbiamo dei nostri

stati sensoriali. I neopositivisti propongono allora, a sanare la controversia, il concetto di enunciato protocollare, da loro posto a

fondamento della conoscenza, identificabile con proposizioni basilari corrispondenti a particolari dati di fatto, i quali rispecchiano la

visione in prima persona e coniugata al tempo presente di una data situazione fenomenica, essi sono: sintetici e contingenti,

immediati, immuni dal dubbio e fedeli all'esperienza. La composizione di tali enunciati da luogo ad ipotesi empiriche, come le

teorie scientifiche, che permettono di formulare previsioni sull'andamento del mondo, ad ogni modo non si possono avere certezze,

non siamo in grado di stabilire quanto sia giusto costruire la nostra conoscenza sulla base empirica, pur forte, di cui disponiamo, del

resto le obiezioni di Berkeley al realismo si sono dimostrate tenaci. L'unico modo per ovviare alla necessità di instaurare un legame

che vada oltre l'esperienza diretta è quello di ridurre tutta la conoscenza propria ai suoi elementi “primi”, elementari ed inscindibili,

proprio gli enunciati protocollari: gli oggetti fisici divengono dunque costruzioni logiche a partire dai dati di senso protocollari; se

non è possibile stabilire l'esistenza indipendente della realtà è possibile al contrario speculare sulla serie di sensazioni provate dal

soggetto in osservazione; un oggetto fisico è dunque, in definitiva, nient'altro che la «permanente possibilità di sensazione»,

secondo la celebre espressione di J. S. Mill. Il fenomenismo che qui risulta è dunque l'unica vera alternativa allo scetticismo, a

parere dei positivisti, se si vuole evitare contemporaneamente una metafisica pregiudizievole e assolutistica. Il positivismo ha

dunque l'obiettivo di tenere uniti, sotto l'unico segno della significanza, la permanenza empirica della sensazione e la teoresi

scientifica che si produce da essa, quest'ultima deve essere confermata costantemente dagli asserti osservativi (logica della

conferma) ed esplicata tramite le formalizzazioni analitiche della matematica e della logica.

3.2 Strumentalismo semantico ed empirismo riduttivo

Il problema principale dei positivisti era che la scienza che idolatravano utilizzava proprio quegli elementi teorici (atomo, carica

ecc.) che essi rifiutavano in favore di un empirismo dei sensi. L'empirismo sui concetti viene affrontato allora dai positivisti

secondo due approcci: 1) negare che fossero significanti o 2) mostrare che il loro significato potesse essere reso accettabile dal loro

punto di vista. A loro avviso, asserti non genuinamente riferentisi al mondo non potevano essere dichiarati né veri né falsi, ad

esempio: la proposizione “l'omicidio è ingiusto” non si riferisce a qualcosa di «genuinamente mondano» ma è l'espressione di un

atteggiamento morale rispetto ad un atto, pertanto non è ascrivibile al dominio delle asserzioni verificabili. Gli enunciati che al

contrario possono rientrare in questa categoria sono detti assertivi, poiché fanno riferimento al mondo empirico, possono essere

anche falsi (del tipo, “un autobus è più piccolo di un'utilitaria”), pur restando “assertivamente” accettabili. Su quest'onda si

muovono anche alcuni antirealisti, per i quali anche i concetti teorici non sono assertivi, poiché non si riferiscono realmente ad

entità inosservabili ma rappresentano mere costruzioni logico-semantiche atte a sistematizzare le relazioni tra i fenomeni: possiamo

utilizzare il termine atomo proprio come utilizziamo la locuzione “italiano medio”, non esiste infatti realmente un individuo che

incarna la locuzione italiano medio, ma è un utile concetto spendibile in teorizzazioni di tipo economico, allo stesso modo quello di

atomo è un concetto utilmente spendibile dalla scienza teorica, questa posizione è detta specificamente strumentalismo semantico.

D'altra parte c'è chi sostiene che anche i termini teorici siano assertivi, in quanto riducibili ad asserzioni su entità osservative, una

posizione che si definisce empirismo riduttivo, ad esempio: la pressione è definibile come il rapporto tra forza e superficie, due

concetti realmente esperibili. Ma non sempre nella teorizzazione scientifica abbiamo a disposizione una diversa formulazione di una

proprietà, nel caso della temperatura difatti dobbiamo disporre per forza di una definizione operazionale (si ha bisogno di un un

22 Questo principio tuttavia è qui espresso nella sua forma debole, poiché de facto non impone che la verifica sia effettuata, ma solo che

deve poter essere effettuata, anche solo in linea di principio, lasciando spazio nel dominio delle asserzioni riconoscibili dalla scienza

anche a proposizioni come «l'anima è immortale», dato che queste rimandano ad un'esperienza che potenzialmente potrebbe darsi

dopo la morte. Per questo si è pensato ad una versione forte dello stesso, per la quale un giudizio è dotato di significato solo quando

può essere mostrato definitivamente vero o falso, deve cioè darsi una esperienza che possa mostrarne questo valore di verità. 21


ACQUISTATO

12 volte

PAGINE

34

PESO

659.94 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in filosofia e scienze dell'educazione
SSD:
A.A.: 2016-2017

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Costantino.Romano di informazioni apprese con la frequenza delle lezioni di Filosofia della scienza e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Gabriele D'Annunzio - Unich o del prof Casadio Claudia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in filosofia e scienze dell'educazione

Riassunto esame Storia della filosofia medievale, docente M. Forlivesi, libro consigliato Etienne Gilson - "La filosofia nel Medioevo"
Appunto
Sunto e appunti di filosofia dell'economia, prof. G. Fidelibus, testi consigliati: di N. Berdjaev - Lettere ai miei nemici e di Vaclav Havel - Il potere dei senza potere
Appunto
Appunti per l'esame di Filosofia morale, docente E. Peroli
Appunto
Riassunto per l'esame di Storia della storiografia medievale, prof Del Fuoco, testo consigliato Introduzione alla storia medievale, Delogu
Appunto