Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

i metalli, bruciando aumentano il proprio peso (portando alcuni persino a speculare su un eventuale “peso negativo” dello stesso

flogisto, per salvare la teoria); dacché, una volta stabilito che la massa fosse in realtà una quantità di materia (in senso generico) e

non solo una caratteristica di una specifica sostanza, man mano la teoria fu abbandonata in ragione del fatto che durante la

15

combustione la massa potesse aumentare per l'intervento del comburente, ossia l'ossigeno . Il nuovo paradigma – in questo caso –

fu poi istituito da Antoine Lavoisier, con la formulazione della legge di conservazione della massa (in “prosa”: «Nulla si crea, nulla

si distrugge, tutto si trasforma.»). Diversamente da Popper, Kuhn non crede che la scienza sia in continua rivoluzione, cioè

connotata permanentemente dall'atto del controllo, della falsificazione; allo stesso modo non conviene sul fatto che la scienza sia

espressione della continua lotta tra congetture, al contrario egli pensa che la scienza normale non tenga in considerazione dicotomie

di tal genere ma proceda in senso olistico, tanto nella normalità quanto nel cambiamento: l'entrata in vigore del nuovo paradigma fa

sì che le vecchie anomalie, ora solvibili, siano dimenticate o non tenute in considerazione, “nuovi” problemi attendono i “nuovi”

scienziati. Se Popper, come sottolinea Ladyman, «vede come anatema per l'impresa scientifica l'attaccamento ad una teoria», Kuhn

crede che questo sia quanto di più “sacro” possa esserci nell'incedere della ricerca, gli scienziati sono tremendamente attaccati al

proprio paradigma e quando decidono di abbandonarlo di solito non stanno affatto facendo scienza. L'intimo legame stabilito da

Kuhn tra i valori (più o meno) personali dello scienziato e la sua legittimazione concessa ad un paradigma è ampiamente verificato

dai seguenti esempi: Einstein credeva che la scienza avesse il compito di spiegare l'andamento del mondo in senso forte, era un

realista, al contrario i fisici quantistici pensavano che fondamentalmente la scienza non avesse quest'onere e che fosse sufficiente

predire soltanto i fenomeni che interessano l'uomo in senso pratico, erano strumentalisti. «I paradigmi», osserva Ladyman, «sono la

proprietà intellettuale di gruppi sociali» e ancor meglio il prodotto di istanze più o meno regionali, più o meno occasionali, fatte di

istituzioni, di strutture, di prese di posizione ideologiche; per questo ha senso parlare, secondo Lakatos, di una psicologia (sociale)

della scoperta.

Rileggiamo ora nello specifico, alla luce delle nuove nozioni kuhniane, la rivoluzione copernicana: si può osservare che tra la

“puntiforme” dichiarazione galileana circa l'infondatezza di una teoria cosmica geocentrica e l'effettivo switch paradigmatico sono

intercorsi circa 150 anni. Molti erano difatti i punti culturalmente favorevoli alla permanenza del paradigma tolemaico: innanzitutto

pensare che la terra fosse al centro del cosmo era una concezione molto più adatta ad una realtà religiosa che si percepiva al centro

dell'attenzione divina; in secondo luogo la cogente percezione geocentrica del moto celeste era del tutto aliena ad una

considerazione che non ponesse la terra al centro di questo movimento, oltretutto le previsioni tolemaiche sul moto dei pianeti si

dimostravano abbastanza adeguate e precise, accettabili, sebbene non scevre di anomalie – queste, però, finiscono sempre col

generare problemi di coerenza teorica. Ad ogni modo il fatto che le orbite dei pianeti risultassero non circolari fu risolto con

l'introduzione di epicicli ed altri espedienti (esempio di scienza normale: gli scienziati ritoccano la teoria piuttosto che

abbandonarla), ma i conti continuavano a non tornare e le numerose varianti teoriche si dimostravano sempre più complesse ed

inconcludenti, infine il lavoro alternativo di Copernico, Keplero, Galileo ed infine Descartes finirono per permettere la sostituzione

del paradigma. A dispetto della nostra fluida ricostruzione c'è da sottolineare che l'accoglimento del paradigma copernicano assunse

più i caratteri della scommessa speculativa che quelli della certezza, molte asserzioni infatti erano instabili e difficilmente

osservabili, persino il modello tolemaico forniva una migliore spiegazione in alcuni casi. Tycho Brahé – sulle cui osservazioni, per

giunta, Keplero formulò la propria teoria – giunse a dichiarare falso il modello copernicano perché non riusci ad osservare il

fenomeno di parallasse stellare da questo previsto: la teoria copernicana risolveva di certo alcuni vecchi problemi, ma ne creava

anche molti di nuovi. Una rivoluzione insomma è anche il prodotto di fattori contingenti e culturali, si dubiti del fatto che tutti

abbiano accettato o rifiutato il cambiamento in base a verifiche oggettive e neutrali, se gli stessi scienziati proponenti hanno avuto

possibilità e motivazioni più o meno personali per formulare le proprie ipotesi non si vede il motivo per il quale gli altri uomini non

abbiano potuto approcciarsi ad esse allo stesso modo.

4.2. Teoria ed osservazione

Per quanto ci si voglia sforzare non sarà mai possibile osservare i fenomeni che ci circondano evitando presupposti – senza idoli,

per dirla con Bacon – difatti si tende a classificare la realtà secondo diverse categorie, a schematizzarla, prima di procedere alla

formulazione di ipotesi che possano darne conto. La scienza moderna si fonda sul proposito di unificare, di porre in relazione i

diversi fenomeni di cui abbiamo esperienza: tanto le maree quanto l'orbita terrestre sono determinate, nell'ipotesi ora accettata, dalla

forza di gravitazione; non è così nel paradigma aristotelico, per il quale le dinamiche dei cieli son diverse da quelle della terra; come

si vede in entrambi i casi il proposito da cui si prendono le mosse non è affatto neutro. La concezione standard del metodo

scientifico è un chiaro esempio di questa essenziale suddivisione tipologica: essa prevede che i riscontri osservativi siano sufficienti

per le determinazioni di controllo di una teoria e che, fondamentalmente, i termini osservativi debbano essere distinti da quelli

teorici (caldo e pesante sono diversi da carica e elettrone), tanto più perché una certa fenomenologia è legata più o meno

necessariamente a determinate condizioni di osservazione, che non interessano – almeno direttamente – l'istanza teorica. Kuhn

sostiene invece che l'osservazione sia carica di teoria, idea efficacemente suggellata da N.R. Hanson: «vedere non consiste solo

nell'avere un'esperienza visiva, bensì anche nel modo in cui si ha quell'esperienza».

Il miglior modo di dare consistenza a queste osservazione è quello di considerare le esperienze dei salti gestaltici.

15 A tal proposito Michail Vasil'evič Lomonosov scriveva nel 1756: «oggi ho compiuto un esperimento in fiale ermetiche di vetro per

stabilire se la massa dei metalli aumenti per l'azione del solo calore. Gli esperimenti – dei quali accludo una relazione in 13 pagine –

hanno dimostrato che il famoso Robert Boyle si ingannò, perché senza accesso di aria dall'esterno la massa del metallo bruciato resta

la stessa», quindi l'apporto di massa è dovuto all'intervento di aria, ovverosia ossigeno. 15

Si può vedere il cubo sia proiettato in alto a destra che rivolto verso l'osservatore in basso a sinistra; allo stesso modo si può

percepire la figura a destra sia come un coniglio che come un'anatra. Innanzitutto bisogna dire che per produrre il salto percettivo

c'è bisogno della capacità di percepire oggetti tridimensionali a partire da figure bidimensionali (nel caso del cubo) e di cambiare

prospettiva (nel caso dell'anatra-coniglio). Nel momento del salto gestaltico è l'intera esperienza visiva a cambiare, questo è ciò che

accade comunemente nell'esperienza scientifica: ad esempio, un medico esperto di fratture estrapolerà una certa quantità di

informazioni da un radiografia, vedrà elementi che un occhio inesperto non percepisce come significativi, lo scienziato, in un certo

senso vede ciò che crede di poter vedere e ciò che sa vedere. Questo rischia di compromettere l'oggettività dell'osservazione che,

come abbiano detto, caratterizza in modo particolare il momento del controllo (facendo peraltro da arbitro neutrale tra teorie

empiricamente equivalenti) per coloro che sostengono la concezione standard del metodo scientifico. Spesso, d'altro canto, certe

evidenze empiriche vengono ignorate proprio perché assente una formulazione teorica circa le medesime, la riprova è il fatto che

una volta comparsa la teoria si rintracciano retroattivamente i segni tangibili di quanto supposto: non si son colti gli effetti dei

positroni fino a che Dirac non ne ha postulato l'esistenza. Tutto ciò è indice di contaminazione forte dell'osservazione da parte della

teoria, un ulteriore argomento a sostegno di questa tesi è il fatto che spesso osservazione ed inferenza sono indissolubilmente legate:

gli scienziati esperiscono il passaggio della corrente in un filo grazie al movimento della lancetta dell'amperometro, ma ciò non vuol

dire forse che la presenza dell'elettricità, più che esperita direttamente, sia inferita grazie allo strumento (e quindi alle

determinazioni teoriche che ne permettono il funzionamento)? Paul Churchland afferma a riguardo che fondamentalmente

«impariamo dagli altri a percepire il mondo come lo percepisce chiunque altro» e che quindi le nozioni che regolano il comune

rapportarsi con la realtà sfuggano in qualche modo alla determinazione personale. Jerry Fodor sostiene invece che l'esperienza di

due organismi con la medesima struttura percettiva debba essere per forza di cose la stessa (due uomini percepiscono

necessariamente la realtà allo stesso modo poiché presentano la stessa articolazione sensoriale), questo significa certamente che

naturalmente gli uomini possono vedere allo stesso modo le stesse cose, ma che poi in fondo per vedere un determinata cosa (come

i satelliti di un pianeta o la sua struttura) bisogna averne cognizione (di certo non si può descrivere la morfologia di un pianeta ad

occhio nudo, soltanto guardando un puntino nel cielo). Acquisita questa consapevolezza non possiamo di certo pensare che ogni

osservazione possa costituire un fondamento certo della teoresi scientifica, allo stesso tempo non possiamo arroccarci in un fanatico

e cieco rifiuto di qualsiasi asserto esperienziale.

4.3. Incommensurabilità e relativismo

Altro termine caratterizzante per la filosofia della scienza di Kuhn è quello di incommensurabilità, ovvero letteralmente la

«mancanza di una misura comune». Kuhn. assieme a Feyerabend, sostiene che le teorie scientifiche che si succedono sono spesso

incommensurabili, tanto quanto lo sono le scelte di «vita sociale» che contraddistinguono il dominio di un paradigma certo piuttosto

che di un altro. La conferma empirica di una teoria, a questo livello di analisi, non è che una finzione retorica di proporzioni

“comunitarie”, epifenomeno della più profonda accettazione di un nuovo modo di concepire il mondo e la vita su di esso, in questo

caso si parla allora di relativismo epistemologico. Non si possono confrontare due o più paradigmi poiché la differenza tra questi è

segnata da mutati metodi di valutazione dell'esperienza, di composizione di congetture, di elaborazione dei dati ecc. Per il moderno,

un “fisico degli stati”, il moto non è un continuum di mutazioni dinamiche, ma una permanenza di stato, per l'aristotelico, “fisico

dell'efficienza”, l'innaturalezza del moto deve essere spiegata al contrario con il costante richiamo ad una causa motrice (espressioni

mie tra virgolette), si confronti a tal proposito l'interessante sviluppo storico-teorico della questione del moto violento. Spesso

l'incomprensibilità in cui versano molte asserzioni di un vecchio paradigma è dovuta al fatto che si pensa che non abbia neanche più

senso porsi certe questioni, per questo Kuhn paragona il cambio di un paradigma al salto gestaltico di cui si parlava

precedentemente: termini e concetti di paradigmi diversi spesso non riescono ad entrare in comunicazione, si parla quindi di

incommensurabilità del significato, alla quale si aggiunge una certa incommensurabilità del riferimento, per cui teorie diverse di

paradigmi diversi si riferiscono, magari allo stesso concetto, in maniera totalmente diversa, tanto da lasciar intendere di parlare di

16

entità totalmente diverse . Spesso le idee di Kuhn sono state recepite come confutazioni dell'oggettività della conoscenza e della

16 É un pericolo serio per le “pretese” di tutti i realisti, dal momento che: se teorie diverse sugli elettroni si riferiscono per

incommensurabilità di riferimenti a entità diverse, la tesi per cui si progredisce verso una comprensione sempre migliore delle entità

sottostanti alla natura delle cose va nettamente in crisi. Se ad esempio due teorie descrivono la struttura dell'atomo diversamente, cioè

risultano incommensurabili, de facto quello che si ricercherà nelle sperimentazioni e nella speculazione sarà un'entità, pur denotata

16

stessa verità scientifica, da questi propositi si sono sviluppati movimenti concettuali articolati su principi completamente

contrapposti a idee come l'assoluta preminenza gnoseologica della scienza, superiore a miti, credenze e superstizioni di chiara

ascendenza irrazionale; questi movimenti sostengono che la scienza non abbia nulla di migliore rispetto agli altri approcci

conoscitivi e che in fondo potrebbe essere esposta alle stesse dinamiche irrazionali che tanto stigmatizza. Non a caso, secondo

Kuhn, molti scienziati hanno fatto ricorso a qualsiasi mezzo, compresa la folle distorsione dei dati sperimentali o l'uso del potere

tradizionale per tacitare il dissenso, al fine di mantenere in vita una teoria a dispetto della confutazione offerta dall'evidenza; spesso

la pratica scientifica risulta così molto più abitudinaria che realmente critica e costruttiva.

La decostruzione operata da Kuhn interessa dunque sia l'approccio standard al metodo scientifico sia il rapporto tra teoria ed

osservazione ed impegna, in questo senso, qualsiasi essere umano, prima che qualsiasi filosofo, ad assumere un atteggiamento di

generale scetticismo nei confronti di verità che autoreferenzialmente si dicono assolute, allo stesso modo tuttavia non è possibile

ascriversi totalmente a questa pratica sospensiva, si correrebbe il rischio di rifiutare qualsiasi interpretazione di carattere scientifico

perché certi di una sua futura crisi, a cui seguirebbe naturalmente la confutazione e l'abbandono. Per questo Kuhn stesso prende le

distanze dagli opposti estremismi, credendo fermamente di poter condividere cinque elementi fondamentali per fare di un

paradigma qualcosa di razionale e spendibile: all'interno del paradigma devono formularsi teorie accurate; queste devono essere

coerenti con le altre accettate; una teoria deve avere ampia portata esplicativa; ogni teoria deve essere il più semplice possibile; in

ultimo ogni teoria deve essere feconda per lo sviluppo della ricerca e il progresso della conoscenza.

dallo stesso riferimento, diversa in ognuno dei casi. 17

5. Il realismo scientifico

Al di là delle dispute sul metodo scientifico e le sue determinazioni è chiaro che la scienza costituisca oggigiorno lo strumento

comunemente riconosciuto come migliore tanto per la previsione dei fenomeni quanto per lo sviluppo di una certa prassi di vita

organizzata. La scienza, tuttavia, sembra voler prendere il posto della metafisica stessa quando tenta di dar ragione dei principi

primi ed ultimi della realtà, cioè promuove lo studio del livello costitutivo e fondamentale della stessa, in altri termini: la ricerca

scientifica si interroga oggi sui fondamenti della realtà e cerca di fornirne un quadro completo ed unificato, evitando particolarismi

ed elementi in contrasto (proposito ben condivisibile da Aristotele!). Il realisti sono fermamente convinti della possibilità di

raggiungere una tale conoscenza e per conseguire il loro obiettivo si impegnano alacremente nel descrivere la realtà sottostante

all'apparenza, “popolata”, a loro avviso, da entità generalmente inosservabili (almeno ad occhio nudo, in alcuni casi): atomi,

molecole, geni, virus e persino buchi neri dalle proporzioni cosmiche. Sull'altro polo si dispongono gli antirealisti che, sebbene

critichino la pretesa razionalistica di comprensione totale della realtà, non di certo rinnegano il progresso tangibile, di estrazione di

certo “razionale”, che ha interessato il percorso scientifico dell'umanità. Per costoro deve risultare davvero difficile continuare a

negare l'esistenza degli inosservabili, in un mondo in cui la tecnologia di cui disponiamo utilizza proprio le conoscenze scientifiche

di tipo realistico (l'elettricità è il prodotto del flusso elettronico attraverso un conduttore: molti strumenti – quasi la totalità di quelli

che utilizziamo – sono costruiti grazie a questa consapevolezza, dalla lampadina allo smartphone, persino le automobili), gli

antirealisti devono fare dunque i conti anche con l'evidenza quotidiana, di conseguenza vi è davvero ancora spazio per dubitare

dell'esistenza di entità come gli atomi? A riguardo spesso si sostiene che molte teorie accettate nel passato postulavano l'esistenza di

entità che si sono rivelate inesistenti, l'antirealista quindi, giocandosi questa carta, obietta alla questione sopra esposta: “perché

dovremmo pensare di avere ragione a nostra volta? In un futuro più o meno prossimo qualcuno potrebbe confutare le nostre

credenze proprio come noi abbiamo fatto con quelle del passato”.

5.1. Apparenza e realtà

«La descrizione scientifica del mondo suggerisce che la realtà del senso comune sia illusoria, o che, quantomeno, certamente da

molti punti di vista non percepiamo il mondo per come esso è», così Ladyman commenta la distinzione tra apparenza e realtà

operata dal fisico Arthur Eddington, il quale sottolinea inoltre la straordinaria familiarità percettiva goduta dall'apparenza rispetto a

17

quella realtà che i fisici dicono essere essenziale . Il mondo descritto dalla scienza appare «in gran parte vuoto», egli dice, e la

nostra comprensione di esso non è spontanea tanto quanto quella di ciò che ci appare immediatamente intorno quando si aprono gli

occhi, la fisica teorica del XX secolo si muove porprio in questa direzione, abbandona ovvero il senso comune matematizzando e

complicando continuamente la propria comprensione dei fenomeni fino ad estraniare il piano dei costituenti ultimi da quello della

percezione normale della nostra esistenza biologica. Per comprendere nello specifico l'approccio della scienza contemporanea è

importante distinguere tra proprietà primarie e secondarie, nozioni sviluppatesi in seno alla rivoluzione scientifica “scoppiata” nel

be mezzo dell'età moderna. La nuova interpretazione del mondo (ci esprimiamo al presente perché è da noi stessi condivisa), che ha

abbandonato gli stereotipi qualitativi della fisica aristotelica, è di tipo meccanicistico: il cosmo non è più proiettato teleologicamente

verso il Motore Immobile, Bene assoluto e supremo, ma, come un grande orologio, presenta parti contigue che incastrandosi l'una

nell'altra generano un movimento equilibrato e sempre ugualmente determinato da leggi precise, senza determinazioni finalistiche.

Così l'uomo – o lo scienziato – moderno inizia a vedere nella realtà non più “forze occulte”, ma meccanismi dotati di rationes, di

rapporti (o, alla greca: logoi), in una parola: razionali, la fisica quindi si matematizza e si fa “statica”, si ripensa in senso

strettamente materialistico – mentre per Aristotele non ha senso parlare di materia al di fuori del sinolo con la forma – non è un caso

che la teoria newtoniana sulla gravitazione non abbia riscontrato sin da subito un gran successo, propone infatti un modello di

“azione a distanza” che per i meccanicisti è impensabile, le evidenze pratiche e la straordinaria precisione matematica hanno però

permesso infine di accettare comunemente quanto teorizzato.

L'orologio meccanico, innalzato da Locke in questo senso a metafora formale della struttura dell'universo, presenta a suo avviso una

parte epifenomenica, macroscopica, rappresentata dalle lancette e dal loro movimento coerente e costante, e una parte interna con

una serie meccanismi di più ridotte dimensioni, che non funzionano se non gli uni rispetto agli altri ma che effettivamente

permettono, in ultima analisi, di misurare costantemente il tempo con le lancette da loro mosse: la parte macroscopica sta per i

fenomeni naturali, quella microscopica sta per le loro leggi, carpire con l'intelletto questi meccanismi reconditi è il compito della

filosofia naturale. L'oggettività della scienza si configura man mano come il prodotto ultimo della messa al bando della soggettività

umana. Possiamo ritornare così, dopo questo rapido excursus storico-epistemologico introduttivo, alla distinzione tra proprietà

primarie e secondarie, compito che ci risulta estremamente semplificato avendo a disposizione la metafora d'orologeria: le primarie

(o reali) sono quelle sembrano possedute dagli oggetti e che lo sono in realtà, le secondarie (o apparenti) sono quelle percepite

soltanto dalla mente di chi osserva l'oggetto, ma non possedute in realtà da esso. Tale distinzione risale agli stessi atomisti greci:

questi sostenevano che le proprietà reali degli oggetti fossero soltanto quelle degli atomi che li costituiscono o il risultato della loro

particolare combinazione, una tesi ripresa da molti filosofi moderni, tra i quali Locke, Newton, Boyle e molti altri.; in questo senso

dunque si può accordare il grado di proprietà primaria soltanto alle specifiche delle particelle che compongono un oggetto, ad

17 Famosa è la sua discussione delle due tavole: La descrizione scientifica del mondo suggerisce che la realtà del senso comune sia

illusoria, o che, quantomeno, certamente da molti punti di vista non percepiamo il mondo per come esso è: «la prima mi è familiare

fin dai primissimi anni. È un oggetto comune di quell'ambiente che io chiamo il mondo. Come lo descriverò? Ha un'estensione; è

relativamente stabile; è colorata; soprattutto è sostanziale. La tavola n. 2 è la mia tavola scientifica. Si tratta di una conoscenza più

recente e non mi riesce ugualmente familiare. Non appartiene al mondo sopra citato […] benché non distingua quanto i esso sia

oggettivo e quanto soggettivo […] la mia tavola scientifica è in gran parte “vuoto”. Sparpagliate radamente in questo vuoto vi sono

numerose cariche elettriche che si muovono in tutte le direzioni con grande velocità; ma il loro volume complessivo rappresenta

meno di un bilionesimo del volume della tavola stessa.»

18

esempio gli atomi di un tavolo, ma non all'apparenza fenomenica che lo contraddistingue, ad esempio il colore. È di Locke la

l'analoga distinzione tra essenza reale e nominale: la prima è costituita dalle proprietà reali ed inamovibili (il piombo non può

tramutarsi in oro), la seconda da quanto di macroscopicamente possiamo stabilire di un dato oggetto di sensazione, determinazione

che può anche mutare a seconda delle condizioni di osservazione. Anche ridotto ai minimi termini – diremmo oggi, considerando

l'atomo singolo del metallo – secondo Locke l'oro manterrebbe le proprie proprietà primarie (massa, estensione, forma), queste di

certo non produrrebbero direttamente la fenomenologia di carattere secondario ma avrebbero il potere, o la disposizione, di causare

in noi un certo tipo di sensazioni: un lingotto d'oro “è giallo” a prescindere dalla sua osservazione da parte nostra, esso ha una

costante disposizione ad apparire così poiché è microstrutturalmente composto in un certo modo. Due oggetti con le stesse proprietà

primarie avranno necessariamente le stesse proprietà secondarie, non è vero però il contrario (il legno può apparire giallo come

l'oro, ma non ha le stesse proprietà), questo perché le proprietà secondarie soprav-vengono, come è esplicitato dalla loro

definizione, a quelle primarie, ovvero ne sono il prodotto unidirezionale, ne derivano. La descrizione quantitativa del mondo

nell'epoca “post rivoluzionaria” pone al centro della propria ricerca le proprietà primarie: velocità, accelerazione, massa, volume

sono quantità misurabili e oggettive, rappresentabili geometricamente e calcolabili algebricamente: Le proprietà primarie come

abbiamo visto sono quindi separate da quelle secondarie, sebbene queste ultime siano riducibili razionalmente alle prime in quanto

prodotti delle medesime, dato che però non tutte le cognizioni che ci formiamo circa le esperienze degli oggetti osservati sono

corrispondenti ad una realtà, cosa ci permette di dire che esista anche solo una realtà sottesa all'esperienza comune? Se, in altri

termini, ci sono delle proprietà secondarie non identificabili semplicemente con le primarie, cosa ci permette di pensare che il resto

lo sia? Cosa ci permette di affermare positivamente che esistano delle entità sottese alla realtà se nella nostra esperienza non

possiamo averne riscontro?

5.2. La metafisica del mondo esterno

Il realismo metafisico è la concezione secondo la quale il nostro linguaggio si riferisce ad una realtà indipendente dalla mente –

indipendente dalla percezione di una mente – popolata ovvero di enti reali. Il problema filosofico, al di là dell'estrema e pur

possibile negazione dell'esistenza di tali entità, sta infatti nel cercare che natura abbiano gli oggetti e come possiamo pensare di

conoscerla, in effetti l'induttivismo di ascendenza empirista, quello che comunemente mettiamo in opera nel rapporto con ciò che ci

circonda, mal si concilia teoricamente con la prospettiva del realismo metafisico.

2.1 Realismo ed ideismo

La concezione più semplice a proposito del mondo e della percezione che ne abbiamo è detta realismo diretto, per cui siamo in

grado di percepire oggetti reali con il solo ausilio dei nostri sensi. La prima obiezione a questa teoria sta nel fatto che, come abbiam

visto, ciò che percepiamo della realtà è frutto della nostra particolare percezione, della rielaborazione sensoriale, condizionato

quindi dalle condizioni ambientali in cui lo esperiamo. È noto a tutti che il bastone immerso in un contenitore d'acqua risulti

spezzato alla vista, in realtà è lo stesso, ma i nostri sensi ce ne danno un'idea diversa: ad un livello più ampio potremmo essere in

una condizione, una delle tante possibili, di costante distorsione percettiva, uno status che però percepiamo come normale.

Oltretutto entra in gioco il ritardo caratteristico di ogni atto percettivo, difatti tra l'emissione di luce da una fonte o la riflessione di

luce di un oggetto e l'effettiva rielaborazione cerebrale passano pochi ma significativi istanti, i quali sono abbastanza per far sì che

18

la percezione si possa dire differita e quindi – almeno teoricamente – “irreale”. Al realismo diretto si oppone dunque l'ideismo,

secondo il quale non si percepiscono direttamente oggetti esterni, ma soltanto idee e rappresentazioni della nostra mente. Locke

19

(1632-1704), Berkeley (1685-1753) e Hume (1711-1776) sostengono, sebbene in modi diversi , proprio questa concezione, a loro

avviso il mondo non è percepito che tramite impressioni o idee; secondo questi empiristi esistono due classi di oggetti mentali:

quella rappresentata dalle emozioni e dalle impressioni sensoriali e quella che altro non contiene che le più deboli copie delle prime,

la prima è decisamente legata al mondo sensoriale e contingente, la seconda raccoglie le idee di carattere maggiormente

trascendentale (per un esempio: nella prima v'è “una tovaglia rossa”, nella seconda “il rosso”). Una simile concezione è chiamata

anche realismo causale o indiretto: vi sono oggetti esterni che esistono indipendentemente dalla nostra mente e che, attraverso i

sensi, causano la percezione indiretta che ne abbiamo. Si presenta di nuovo il quesito sopra riportato: ma se alcune proprietà sono

secondarie, e quindi non identificabili con la struttura stessa dell'oggetto, come facciamo a sapere che ci sia almeno una proprietà

primaria che somiglia alla nostra percezione di essa? Per Locke la pratica scientifica ci offre un alto grado di probabilità e la

distinzione tra le proprietà chiarifica il cammino, ma non tutti la pensano allo stesso modo.

2.2 Idealismo

Berkeley attacca tale discriminazione tra le proprietà, sebbene prenda le mosse dalle stesse teorie condivise da Locke e gli altri

empiristi. Egli nega la possibilità di un realismo causale e l'esistenza stessa della materia, non crede in altri termini che gli oggetti

siano indipendenti dalla mente e composti di corpuscoli, non concedendo quindi a nessuna proprietà lo statuto di primaria. La

18 L'opposizione non riguarda la realtà metafisica postulata, ma la natura della percezione propria dell'essere umano: le entità reali

esistono ma sono percepite secondo dinamiche non del tutto identificabili con esse. Ad ogni modo realismo ed ideismo non sono

incompatibili, in effetti l'ideismo stabilisce che le impressioni siano comunque causate dalle entità di fondo e nello specifico dalla

loro configurazione.

19 Riportiamo tre citazioni. Locke: la mente «non ha altro immediato oggetto che non siano le sue proprie idee» (Saggio

sull'intelligenza umana); Hume: «tutte le percezioni dello spirito si possono dividere in due classi, che io chiamerò impressioni e

idee» (Trattato sulla natura umana); Berkeley, che comunque è più vicino all'idealismo: «è evidente per chiunque esamini gli oggetti

della conoscenza umana, che questi sono: o idee impresse ai sensi nel momento attuale, o idee percepite prestando attenzione alle

emozioni e agli atti della mente» (Trattato sui principi della conoscenza umana). Facilmente si ravviserà la dicotomia evidenziata nel

testo, comunemente riportata dai filosofi citati (almeno Hume e Berkeley in questo caso). 19

materia, definita portatrice di proprietà primarie (estensione, massa, movimento ecc.) non può essere oggetto di intellezione diretta,

20

come lo sono le “idee”, uniche a poter vantare questa caratteristica, pertanto della materia non si può che avere un'idea , proprio

come in un sogno, nel quale si hanno percezioni spazio-temporali relative ad oggetti materiali senza che questi esistano. Tutto ciò è

riassumibile nella formula «Esse est percipi», che vuol dire "l'essere significa essere percepito", ossia: nulla esiste fuori dalla

percezione intellettiva, l'esperienza stessa è mera percezione illusoria, se il genere umano sparisse sparirebbe anche l'idea stessa di

un mondo materiale. Un generale relativismo permea “l'esperienza” filosofica di Berkeley, le proprietà primarie sono, a suo avviso,

relative e variabili tanto quanto le secondarie, la distinzione non può sussistere perché meramente arbitraria: se non riusciamo a

separare dall'oggetto d'analisi una proprietà come il colore – perlomeno dal nostro punto di vista macroscopico – non possiamo allo

stesso modo separare altre proprietà come la massa e l'estensione, nulla ci garantisce che queste siano indipendenti da noi. Berkeley

è allora un idealista, a suo avviso soltanto la mente (o lo spirito) può dirsi un ente “reale”, tutto al di fuori di essa è proiezione o,

21

quantomeno, concrezione di forme “percepibili”, dato il loro statuto intellegibile, soltanto da una mente pensante. Locke e gli

empiristi negano che si possano ridurre tutte le proprietà del mondo allo stato di intelligibilità, cioè allo stato secondario, allo stesso

tempo però negano anche la percezione reale di oggetti, definendola soltanto rielaborazione mentale di impressioni causate dalla

configurazione corpuscolare, Berkeley, opponendosi ad una tale astrusa concezione, ritiene dunque di rimanere molto più aderente

al senso comune (l'idealismo sarebbe tutto sommato più completo dell'ideismo). Questo tipo di scetticismo è però alquanto

estremistico, ne sono un esempio Descartes e il suo demone ingannatore: una prospettiva speculativa che oggi potremmo ricollegare

alla famosa trilogia cinematografica di Matrix, il computer che illude gli uomini, o meglio le loro menti, di vivere in un determinato

mondo sensibile, quando questi non stanno che fluttuando in un liquido di sospensione. Dove Descartes pone l'ego cogitans,

Berkeley pone Dio stesso: a suo avviso è la divinità a reggere il continuum spazio-temporale percepito dagli uomini, anche al di

fuori della loro cognizione attiva di esso, per cui se si lascia un oggetto in una stanza lo si ritroverà lì anche se per un periodo non lo

si è percepito. Una versione più sofisticata di questo tipo di scetticismo si riscontra in Kant, egli crede, in accordo col realista

metafisico, che esista una realtà indipendente (quella noumenica), ma nega che se ne possa avere cognizione; ciò che ci è accordato

è lo studio dei fenomeni, prodotti dei rispettivi ed intangibili noumeni, fenomeni verso i quali possiamo essere orientati soltanto da

alcune nostre conoscenze a priori (ovvero: matematica, geometria, meccanica newtoniana).

5.3. Semantica

Il forte scontro tra ideisti e idealisti, tra una metafisica reale ed una metafisica delle essenze sembra volgere al termine sulle soglie

del positivismo logico, tentativo abbastanza deciso di metter fine alle dispute in questione.

3.1 Positivismo logico

Il termine positivismo fu coniato dal francese August Comte (1798-1857) che nel suo Discours sur l’esprit positif (1844) proponeva

diverse accezioni per ciò che era da lui inteso come positivo: positivo stava per reale, in quanto opposto alla misteriosità

spiritualistica della scienza precedente; stava per utile al progresso sociale e alla nuova organizzazione della popolazione; stava per

certo, in contrapposizione alla vecchia scientificità vaga e carica di dubbi; stava per preciso, in quanto aderente alla natura dei

fenomeni. Egli difatti divideva il progresso sociale in tre fasi: quella teologica, quella metafisica e quella scientifico-positiva, nella

prima ogni spiegazione del mondo presenta un carattere spiritualistico, teologico, magico-mistico; nella seconda si postula

l'esistenza di forme, forze inosservabili, corpuscoli ecc; nella terza infine, culmine della maturazione intellettuale “umana”, si

rinuncia alla pretesa di spiegare le cause o la natura delle cose, l'unico compito della conoscenza è quello della predizione dei

fenomeni. Notevoli inoltre le suggestioni per gli studi storici e le discipline sociali: nacque un nuovo metodo storiografico, attento

soprattutto a fattori ambientali, sociali, razziali, si svilupparono l'antropologia e la sociologia, discipline chiaramente volte alla

riorganizzazione, spesso pretenziosa, della società. Ora, al di là delle (nuove e sostitutive) pretese positivistiche di riformulare la

società occidentale all'insegna del mito scientifico, stiliamo un rapido prospetto storico-teorico del positivismo:

Esso prende le mosse dall'empirismo (specificamente dalle ricerche di Hume) e intende dar risalto all'osservazione, quale unica

fonte di conoscenza, richiede procedure di verifica/falsificazione, non accetta la nozione di causalità, la metafisicità, il realismo, dà

poco valore alla nozione di spiegazione. I positivisti fanno un ulteriore passo avanti rispetto al qualitativismo aristotelico, cioè si

spingono oltre la prima critica moderna alle sue determinazioni; essi non accettano dunque né l'esistenza di indecifrabili virtù (o

cause, o essenze) sottese alla fisicità né, quantomeno, l'esistenza di realtà più o meno corpuscolari sottese al livello fenomenico, ne

consegue che anche la nozione di causalità risulti sensibilmente riformulata. Ad ogni modo la spinta positivistica era destinata ad

essere sommersa dall'idealismo romantico del XIX secolo, per poi riemergere con forza agli inizi del Novecento attraverso il lavoro

degli esponenti del Circolo di Vienna, dispersisi poi, dopo l'avvento del nazismo, generalmente in direzione degli Stati Uniti, dove

le loro prospettive speculative si sarebbero rivelate di nuovo proficue, tra i neopositivisti logici si ricordano Moritz Schlick

(fondatore del Circolo), Carl Hempel (1905-1997), Carnap, Reichenbach e Ayer.

Il loro principale obiettivo consisteva nel riformulare la cultura all'insegna della scientificità, sostenuti inoltre dalle parallele

ricerche logiche di Gottlob Frege (1845-1925) e Bertrand Russell (1872-1970), che promettevano livelli di precisione ed analiticità

mai avuti a disposizione in secoli di oppressione metafisica. Il vecchio impianto conoscitivo non permetteva di aprocciarsi in modo

neutrale alla comprensione del mondo, poneva su oggetti e fenomeni etichette cariche di pregiudizio; al contrario la nuova scienza

20 «Le idee che ci facciamo delle cose sono tutto ciò che possiamo dire della materia. Perciò per "materia" si deve intendere una

sostanza inerte e priva di alcun senso, della quale però si pensa che abbia estensione, forma e movimento. È quindi chiaro che la

nozione stessa di ciò che viene chiamato "materia" o "sostanza corporea" è contraddittoria. Non è quindi il caso di spendere altro

tempo per dimostrarne l'assurdità» (Berkeley, Trattato sui principi della conoscenza umana, § 9)

21 Il termine forma è da intendersi quale traduzione del greco eidos così trasposto e rielaborato dalla speculazione aristotelica a partire

dalla prima teorizzazione metafisica platonica, in cui era utilizzato in riferimento alle vere e proprie idee iperuraniche. Il formalismo

berkeleyano è sostenuto peraltro da una lunga tradizione di estrazione neoplatonica che percorre tutto il Medioevo.

20

analitica era molto più attenta ai modi contingenti del significare che alle essenze eterne ed immutabili: la connessione con

l'esperienza era quantomai salda, i contenuti intellettivi dovevano essere legati ad essa, l'idealismo doveva essere bandito. Stiamo

parlando del cosiddetto criterio empiristico di significanza, portato alle estreme conseguenze nel Tractatus di Ludwig Wittgenstein

(1889-1951). La critica dei positivisti alla metafisica era integerrima, a loro avviso essa non è significante perché, come afferma

Carnap, nei suoi riferimenti «accenna solo ad associazioni di idee e sentimenti, dai quali, però, la parola non ottiene nessun

significato»; termini come Dio, il Bene, l'assoluto, l'essenza, non hanno corrispettivi empirici, sono quindi pseudo-concetti proprio

come le scienze che li utilizzano, che sono chiamate dai positivisti pseudo-scienze. Anche per i positivisti i termini empiricamente

validi, tuttavia, non sono necessariamente visibili: le onde elettromagnetiche, ad esempio, sono invisibili tanto quanto un presunto

“spirito”, ma le prime sono ricevibili da un'antenna il secondo no, la differenza sta nella legittimazione offerta dall'esperienza al

senso dato ad una certa realtà. Gli asserti della scienza sono dunque veri in quanto significanti – cioè empiricamente verificabili –

gli empiristi raccolgono a questo proposito la distinzione kantiana tra giudizi analitici (necessari) e sintetici (contingenti), unici

giudizi possibili all'interno del panorama scientifico ed entrambi, sebbene secondo procedure differenti, portatori di verità: i primi

rispettano le dinamiche della logica, in quanto espressione di relazioni tra concetti (cfr. Hume, al quale, come si è detto. i positivisti

si ispirano in partenza), i secondi quelle dell'empiricità, in quanto principianti da dati fattuali e per questo soggetti a verifica.

Riassumendo, gli empiristi logici fondano la conoscenza scientifica su due concetti:

- il criterio verificazionale del significato, per cui un asserto è letteralmente significante se e solo se è analitico o verificabile

empiricamente.

- il principio di verificazione, per cui il significato di un asserto non tautologico si identifica con il metodo della sua verificazione,

ovvero la procedura empirica attraverso la quale si può stabilire se è vero. Dare senso ad un enunciato è dunque trasformarlo nelle

definizioni dei termini che lo compongono, fino a trovarsi parole non ulteriormente definibili, il cui significato, infine, può essere

22

solo mostrato

Secondo il fondazionalismo, d'altra parte, vi sono due tipi di credenze: quelle autoreferenziali (di base) e quelle inferite –

deduttivamente o induttivamente – dalle prime; molti empiristi ritengono fondazionale proprio la conoscenza che abbiamo dei nostri

stati sensoriali. I neopositivisti propongono allora, a sanare la controversia, il concetto di enunciato protocollare, da loro posto a

fondamento della conoscenza, identificabile con proposizioni basilari corrispondenti a particolari dati di fatto, i quali rispecchiano la

visione in prima persona e coniugata al tempo presente di una data situazione fenomenica, essi sono: sintetici e contingenti,

immediati, immuni dal dubbio e fedeli all'esperienza. La composizione di tali enunciati da luogo ad ipotesi empiriche, come le

teorie scientifiche, che permettono di formulare previsioni sull'andamento del mondo, ad ogni modo non si possono avere certezze,

non siamo in grado di stabilire quanto sia giusto costruire la nostra conoscenza sulla base empirica, pur forte, di cui disponiamo, del

resto le obiezioni di Berkeley al realismo si sono dimostrate tenaci. L'unico modo per ovviare alla necessità di instaurare un legame

che vada oltre l'esperienza diretta è quello di ridurre tutta la conoscenza propria ai suoi elementi “primi”, elementari ed inscindibili,

proprio gli enunciati protocollari: gli oggetti fisici divengono dunque costruzioni logiche a partire dai dati di senso protocollari; se

non è possibile stabilire l'esistenza indipendente della realtà è possibile al contrario speculare sulla serie di sensazioni provate dal

soggetto in osservazione; un oggetto fisico è dunque, in definitiva, nient'altro che la «permanente possibilità di sensazione»,

secondo la celebre espressione di J. S. Mill. Il fenomenismo che qui risulta è dunque l'unica vera alternativa allo scetticismo, a

parere dei positivisti, se si vuole evitare contemporaneamente una metafisica pregiudizievole e assolutistica. Il positivismo ha

dunque l'obiettivo di tenere uniti, sotto l'unico segno della significanza, la permanenza empirica della sensazione e la teoresi

scientifica che si produce da essa, quest'ultima deve essere confermata costantemente dagli asserti osservativi (logica della

conferma) ed esplicata tramite le formalizzazioni analitiche della matematica e della logica.

3.2 Strumentalismo semantico ed empirismo riduttivo

Il problema principale dei positivisti era che la scienza che idolatravano utilizzava proprio quegli elementi teorici (atomo, carica

ecc.) che essi rifiutavano in favore di un empirismo dei sensi. L'empirismo sui concetti viene affrontato allora dai positivisti

secondo due approcci: 1) negare che fossero significanti o 2) mostrare che il loro significato potesse essere reso accettabile dal loro

punto di vista. A loro avviso, asserti non genuinamente riferentisi al mondo non potevano essere dichiarati né veri né falsi, ad

esempio: la proposizione “l'omicidio è ingiusto” non si riferisce a qualcosa di «genuinamente mondano» ma è l'espressione di un

atteggiamento morale rispetto ad un atto, pertanto non è ascrivibile al dominio delle asserzioni verificabili. Gli enunciati che al

contrario possono rientrare in questa categoria sono detti assertivi, poiché fanno riferimento al mondo empirico, possono essere

anche falsi (del tipo, “un autobus è più piccolo di un'utilitaria”), pur restando “assertivamente” accettabili. Su quest'onda si

muovono anche alcuni antirealisti, per i quali anche i concetti teorici non sono assertivi, poiché non si riferiscono realmente ad

entità inosservabili ma rappresentano mere costruzioni logico-semantiche atte a sistematizzare le relazioni tra i fenomeni: possiamo

utilizzare il termine atomo proprio come utilizziamo la locuzione “italiano medio”, non esiste infatti realmente un individuo che

incarna la locuzione italiano medio, ma è un utile concetto spendibile in teorizzazioni di tipo economico, allo stesso modo quello di

atomo è un concetto utilmente spendibile dalla scienza teorica, questa posizione è detta specificamente strumentalismo semantico.

D'altra parte c'è chi sostiene che anche i termini teorici siano assertivi, in quanto riducibili ad asserzioni su entità osservative, una

posizione che si definisce empirismo riduttivo, ad esempio: la pressione è definibile come il rapporto tra forza e superficie, due

concetti realmente esperibili. Ma non sempre nella teorizzazione scientifica abbiamo a disposizione una diversa formulazione di una

proprietà, nel caso della temperatura difatti dobbiamo disporre per forza di una definizione operazionale (si ha bisogno di un un

22 Questo principio tuttavia è qui espresso nella sua forma debole, poiché de facto non impone che la verifica sia effettuata, ma solo che

deve poter essere effettuata, anche solo in linea di principio, lasciando spazio nel dominio delle asserzioni riconoscibili dalla scienza

anche a proposizioni come «l'anima è immortale», dato che queste rimandano ad un'esperienza che potenzialmente potrebbe darsi

dopo la morte. Per questo si è pensato ad una versione forte dello stesso, per la quale un giudizio è dotato di significato solo quando

può essere mostrato definitivamente vero o falso, deve cioè darsi una esperienza che possa mostrarne questo valore di verità. 21

riscontro empirico di riferimento per determinare la temperatura: si hanno 100 gradi Celsius quando l'acqua bolle in condizioni

normali di pressione atmosferica). Il fallibilismo linguistico e osservativo che emerge da queste considerazioni risulta essere un

colpo forte per idee dei positivisti, che reagiscono in modi diversi: dall'abbandono della pretesa di una certezza scientifica verso

posizioni falsificazioniste all'accettazione di una qualche forma di realismo. Molti antirealisti non intendono eliminare i termini

teorici postulati dai realisti, che riconoscono essere assertivi, ma negare la corrispondenza linguaggio-mondo pretesa da questi; il

costruttivista sociale è di questo avviso, infatti egli non negherebbe che molti asserti tipici del nostro mondo siano considerabili

veritieri, ma affermerebbe che questi non son altro che il frutto di convenzioni socialmente stabilite. Diverse sono dunque le

determinazioni dell'antirealismo, come diversi sono i tipi di antirealismo formulati nel corso della storia della scienza.

22

6. Sottodeterminazione

Alla luce del clamoroso successo riscontrato dal realismo scientifico e dalla sua quotidiana messa in pratica abbiamo bisogno di

chiederci quanto possa essere ancora valido appoggiare una tesi antirealista, globale o particolare che sia.

6.1. Sottodeterminazione

Spesso più di una teoria o legge è compatibile con l'evidenza fattuale, si può allora dire che i dati sottodeterminino una certa teoria

quando sono insufficienti per stabilire quale, tra molte di esse, sia quella vera. Spesso, ad esempio, la causa di un dato malore è

sottodeterminata dai sintomi che presenta il paziente, a cui il medico risponde secondo la propria esperienza, ma chiaramente senza

la certezza assoluta. Nella scienza teorica abbiamo a disposizione l'esempio storico del conflitto tra il modello tolemaico e quello

23

copernicano, che, nel livello di transizione, si trovavano ad essere entrambe dotati di un livello di precisione tale da prevedere con

la stessa esattezza la posizione di un pianeta nella volta celeste, eppure l'una poneva la terra, l'altra il sole, al centro del cosmo.

1.1 Sottodeterminazione debole

Se due teorie sono empiricamente equivalenti in senso debole, ovvero sono compatibili con l'evidenza disponibile in un dato

momento (storico), non c'è ragione di dichiararne una vera e l'altra falsa. Spesso si conclude che le due teorie siano diverse

elaborazioni dello stesso principio soggiacente, quello che è accaduto proprio con le prime due versioni della fisica quantistica. Una

diversa versione della sottodeterminazione è quella del problema dell'adeguamento della curva.

In questo grafico è rappresentato il rapporto tra due grandezze, queste sono contraddistinte da una relazione lineare di carattere

direttamente proporzionale espressa dalla linea retta, tuttavia la linea ha un carattere genuinamente teorico; se eseguiamo un

esperimento, e riportiamo quindi sul grafico i punti corrispondenti alle coordinate di determinati riscontri sperimentali, non

otteniamo una linea bensì soltanto una serie di punti, per i quali, di certo passa la linea retta in questione, ma non è escluso che

possano passare anche le altre curve rappresentate (in tangenza con la retta): nulla garantisce che la teoria che genera una linea retta

sia vera mentre le altre siano false, dopotutto tutti i dati raccolti fino ad un determinato momento danno una serie di punti con i

quali sono compatibili quasi tutte le curve, dovremmo sospendere il giudizio. Solo nuovi dati, più specifici, possono eliminare la

sottodeterminazione debole relativa ad un dato momento, ma ci sarà sempre un'altra teoria equivalente in senso debole con una in

nostro possesso. Naturalmente in questo modo non avremmo mai ragioni valide per sostenere un'ipotesi piuttosto che un'altra,

mandando all'aria ogni proposito di progresso conoscitivo; in nostro aiuto “viene” paradossalmente proprio Popper: a suo avviso,

date due teorie concorrenti, siamo in grado di rifiutarne una – e di accettare l'altra almeno come probabilmente vera – se questa è

formulata ad hoc per render conto di dati sperimentali anomali, risultante quindi incapace di generare nuove previsioni e di

conseguenza non falsificabile; Popper chiaramente non sosterrebbe di credere ad una teoria piuttosto che all'altra, ma, da una

prospettiva “standard”, questa sua concezione potrebbe essere adoperata per confutare i piani degli scettici estremisti e salvare così

il progresso conoscitivo della scienza. Ad esempio la “teoria” creazionista sembra essere proprio elaborata ad hoc – anche se, a

questo riguardo, anacronisticamente, in quanto è apparsa notoriamente prima – rispetto alla teoria evoluzionistica di Darwin, questa,

a differenza del creazionismo, si dimostra (almeno) maggiormente falsificabile, mentre la prima non permette di generare previsioni

sul futuro se non in virtù di un atto di fede.

1.2 Sottodeterminazione forte

Nel caso della versione forte non solo l'evidenza disponibile in un dato momento, ma nemmeno quella possibile, è in grado di darci

la capacità di sostenere una data teoria rispetto ad un'altra: se si prende come riferimento l'argomento del demone ingannatore di

Descartes si avrà un chiaro esempio di sottodeterminazione forte; in quel caso infatti l'impossibilità di porsi nella posizione di

escludere certamente di non stare sognando comporta l'impossibilità di affrancare un'ipotesi alternativa, quale può essere quella di

una realtà sostanziale indipendente dall'intelletto. Spesso tendiamo ad eludere le argomentazioni dello scettico, che vuole

24

indistinguibili due teorie sottodeterminate, sostenendo che l'ipotesi alternativa alla nostra non sia rilevante ; non è sicuramente lo

23 Il modello tolemaico, per usare la metafora dell'approssimazione, aveva, per così dire, precisione in “difetto”, mentre il modello

copernicano l'aveva “in eccesso”, ovvero: ognuno dei due, nella sua imprecisione, collocava un determinato pianeta nella volta

celeste in modo abbastanza accettabile per la capacità osservativa di cui si disponeva in quel periodo storico; in altri termini il

modello tolemaico errava per incompletezza, quello copernicano per “immaturità”.

24 È rilevante, ad esempio, ai fini della distinguibilità, la possibilità che un uccello osservato a distanza sia un falco piuttosto che

un'aquila, dal momento che entrambi presentano certe caratteristiche morfologiche simili (ad es. becco adunco). Non è forse molto 23

stesso per il proposito critico di Hume nei confronti della causalità metafisica, dopotutto non risulta tanto stravagante ed impossibile

da essere archiviata facilmente e, per questo, essere considerata irrilevante.

Duhem, come abbiamo già sottolineato, affermava che non si possono dichiarare delle teorie vere o false, a partire da esperimenti

cruciali, soltanto per vie logiche, dato che ogni esperimento necessita di una certa dose di caratteri e condizioni di sfondo che ne

inficiano la neutralità. Pertanto, nel momento in cui una teoria viene falsificata da un esperimento cruciale, qualcuno può continuare

a sostenerla semplicemente mostrando la non neutralità dell'esperimento e cercando di aggiustare la teoria stessa per risolvere il

problema; ma fino a che punto siamo giustificati a manipolare una teoria per renderla compatibile con l'esperienza? Ora, al di là

della banale petizione di buon senso formulata da Duhem stesso, cerchiamo di comprendere quali debbano essere i limiti di una tale

procedura. Si potrebbero variare le assunzioni ausiliarie (cioè le condizioni di sfondo) per stabilire se siano queste o meno a

conferire un certo andamento all'esperienza di controllo: se il fenomeno atteso non si ripresenta sapremo che tali assunzioni, spiega

Ladyman «non sono da biasimare». Secondo Quine, lo si è già mostrato, si possono inserire tra le assunzioni di partenza – da poter

variare, all'occorrenza – anche i domini della logica e della matematica, di modo che, se non si vuol dismettere la componente

empirica dell'impianto teorico, si può agire sull'impostazione logico-matematica dello stesso, mutandola. Un dato esperimento

potrebbe allora sottodeterminare le seguenti due possibilità: 1) la teoria deve considerarsi falsificata o confermata o 2) la

componente logico-matematica risulta confutata; in altri termini, un esperimento non sottodetermina più teorie in competizione, ma

le parti stesse del grande contenitore scientifico in cui si compone una data teoria, un problema davvero intricato: in un caso del

genere ci troveremmo nella possibilità (o necessità) di poter, o dover, rimettere in gioco, piuttosto che una teoria rispetto all'altra,

tutto il piano teorico su cui esse poggiano, cioè il sistema deduttivo della logica e della matematica.

Fortunatamente nella pratica ci affidiamo a considerazioni pragmatiche per dirimere certi tipi di controversie, risulta infatti talmente

“scomodo” e problematico trasfigurare le leggi logiche che pensiamo subito a rimodulare gli altri settori del sistema ipotetico, il che

si dimostra estremamente più vantaggioso. C'è dell'acqua a terra: potrebbe essere causato dal lavandino lasciato aperto o da un

secchio rovesciato o da qualcos'altro, non possiamo dirlo con certezza, ma di certo non mettiamo in discussione il fatto che sia tra il

lavandino e l'acqua, sia tra il secchio e la stessa, o altro, ci sia un legame di tipo causale che possiamo provare potenzialmente

secondo inferenze logiche: se non è né il secchio né il lavandino, pensiamo ad altre cause senza particolari problemi. Nel caso delle

geometrie non euclidee, però, non è altrettanto facile evitare di mettere in discussione l'impostazione classica della geometria,

ovvero la geometria euclidea, la quale è considerata una scienza a priori poiché emette giudizi che si credono incontrovertibili (in

quanto discendenti deduttivamente da assiomi autoevidenti), Kant stesso la considerava persino sintetica, poiché composta da

conoscenze, sì “analitiche”, ma ottenute da una sostantivazione del mondo sola ratione. La monumentalità di questo tipo di

geometria, viene scalfita nel XIX secolo dalla dimostrazione di due sistemi geometrici alternativi, che negano il quinto postulato

25

euclideo . Queste geometrie curve impostano lo spazio non più in maniera bidimensionale (lo spazio della geometria iperbolica è

un piano distorto, quello della geometria ellittica è addirittura una sfera), ciò implica una trasfigurazione delle proprietà di poligoni,

rette, angoli e quanto segue. L'importanza di queste geometrie si riconosce precipuamente alla luce della teoria della relatività

generale, che, per l'appunto, pensa lo spazio in termini curvilinei, se allora la nostra migliore teoria sullo spazio non tiene conto

della geometria euclidea, non c'è ragione di pensare che quest'ultima utilizzi concetti aprioristici sottesi necessariamente al mondo.

L'applicazione della matematica alla realtà (geometria applicata) presenta dunque un carattere diverso rispetto alla sua forma

astratta ed aprioristica (geometria pura): la relatività generale ci insegna che la luce segue sempre la traiettoria più breve tra due

punti, ma questa spesso è curva (e non rettilinea) poiché la materia deforma lo spazio-tempo (cfr. esperimento sulla deviazione dei

raggi stellari da parte del campo solare). Tutto ciò dimostra che l'evenienza di mutare i presupposti logici delle nostre elucubrazioni

scientifiche spesso non si dimostra tanto infondata. La forma forte dell'argomento della sottodeterminazione si presenta dunque

come la migliore confutazione del realismo scientifico, dato che ad ogni teoria si possono affiancare infinite possibili altre teorie

empiricamente equipollenti, tali da non permettere la determinazione definitiva della veridicità dell'una piuttosto che dell'altra

rispetto all'evidenza esperienziale.

Risposte alla sottodeterminazione (forte)

Naturalmente la prospettiva appena delineata presenta un'ascendenza decisamente scettica, proponiamo diverse strategie di risposta:

1.2.1 La tesi forte dell'equivalenza empirica è incoerente

Questa tesi presuppone innanzitutto che si sia in grado di prevedere sempre e comunque le conseguenze osservative di una teoria,

idea alquanto pretenziosa ed arbitraria, in quanto pretende di possedere un criterio di distinzione tra osservabile e non osservabile

che, de facto, non esiste, pertanto questa tesi non può arrogarsi una certa rilevanza epistemologica. Tale obiezione non è però del

tutto invincibile: «non è necessario», osserva Ladyman, «che una distinzione sia netta perché non-arbitraria» (cioè trascendente

dalle nostre determinazioni, oggettiva), ci è chiaro che si possa osservare un albero ma non un elettrone, di certo non lo

determiniamo noi arbitrariamente; avere una chiara nozione di osservabilità, poi, ci permette di prevedere quasi sempre le

conseguenze osservative di certi presupposti teorici. Inoltre si può stabilire, indipendentemente dalla teoria, quali siano le variabili

da osservare per formulare certe predizioni, ad esempio: nel caso dell'elettromagnetismo si possono utilizzare nozioni come

“velocità” e “accelerazione” – cioè formulare un «linguaggio dell'osservazione», come affermerebbero Laudan e Leplin – per

prevedere i fenomeni di interazione di particelle in un dato campo magnetico, rimanendo “oggettivamente” fuori dalle

rilevante invece l'ipotesi del demone ingannatore in opposizione alla sostanzialità di un oggetto, nel momento in cui si voglia

rilevarne la presenza.

25 «Se una retta taglia altre due rette determinando dallo stesso lato angoli interni la cui somma è minore di quella di due angoli retti,

prolungando indefinitamente le due rette, esse si incontreranno dalla parte dove la somma dei due angoli è minore di due angoli

retti». Da ciò deriva, in geometria euclidea, che due rette parallele non possano incontrarsi, poiché «la somma degli angoli interni»

determinati dall'intersezione di una terza retta risulta uguale, e non minore, alla «somma di due angoli retti», cioè 180 gradi. Non sarà

così nelle due geometrie (ellittica ed iperbolica), per le quali non varrà questo principio, considerato indipendente dagli altri 4 che

caratterizzano la geometria di Euclide, i quali si credevano, almeno fino a questo punto, strettamente legati al quinto.

24

determinazioni specifiche della teoria (un esempio sono le nozioni di “potenziale elettromagnetico” o “densità di carica”). Oltretutto

i criteri di osservabilità mutano nel tempo, inserendo ogni teoria in un universo di verificazione relativistico, pertanto il «linguaggio

osservativo» non è sempre identico, ma relativo «ad un particolare stato della conoscenza scientifica e delle risorse tecnologiche

disponibili per l'osservazione e la rivelazione» (ibid.): due teorie non rimarranno per sempre equivalenti empiricamente, prima o poi

sarà possibile distinguerle. Una decisa replica a questa obiezione vorrebbe anche la nozione di equivalenza empirica relativizzata, in

altri termini: ci sarà sempre, in qualsiasi punto del tempo, una teoria scientifica equivalente ad un'altra data, pertanto

sottodeterminata. Inoltre è possibile osservare che qualsiasi conseguenza empirica ricavabile da una teoria è legata ad assunzioni di

sfondo che la determinano, perciò l'idea di poter determinare una conseguenza osservativa è in se stessa incoerente, anche perché

questo tipo di previsioni, tanto quanto le condizioni di sfondo entro le quali si articolano, sono esposte al mutare diacronico della

26

capacità scientifica. Oltretutto, alla luce della distinzione operata da Hoefer e Rosemberg tra teorie totali e parziali , e considerato

lo scarso peso epistemologico delle equivalenze empiriche parziali (che sono cioè totalmente ascrivibili alla dimensione storico-

relativa della conoscenza, quindi di matrice “debole”), ci troviamo di fronte ad un interrogativo: vi sono teorie totali esposte “al

fuoco” dell'equivalenza empirica forte? (se sì, i realisti dovranno fare i conti con se stessi)

1.2.2 La tesi forte dell'equivalenza empirica è falsa

Si potrebbe obiettare inoltre che non v'è alcuna ragione di pensare che vi siano una o più teorie equivalenti empiricamente ad una

data, poiché esse sono o troppo rare o non genuine (ossia precipuamente formulate ad hoc). È alquanto difficile del resto dimostrare

che ci siano infinite possibilità equivalenti, il realista ha molto spesso dalla sua parte la referenzialità empirica e il successo

pragmatico delle teorie che sostiene, dopotutto si possono generare miriadi di teorie equivalenti non genuine; Ladyman porta un

piccolo esempio: la teoria “gli elettroni hanno una carica” è equivalente empiricamente a “gli elettroni hanno una carica e Dio

esiste”, poiché la seconda non ha conseguenze osservative; diversi altri algoritmi sono stati definiti per la creazione di teorie

alternative, ma, in fondo, queste procedure, come osservano Laudan e Leplin, non sono che «trucchi logico-semantici», i quali

generano nient'altro che pseudo-teorie, costruite e costruibili ad hoc per difendere la tesi della sottodeterminazione. Ad ogni modo,

anche tra i critici, c'è chi ammette che si debbano considerare tutte le possibili teorie poiché l'inusualità e l'artificiosità non possono

essere criteri dirimenti nello stabilire la considerabilità di una data teoria, altrimenti si dovrebbe ammettere che vi siano criteri non

razionali utilizzati allo scopo opposto (cioè sostenere la teoria che si sta difendendo), come la “semplicità” o la “plausibilità”. Di

nuovo si presenta l'interrogativo: ma le teorie equivalenti, artificiose o meno, sono rilevanti in fin dei conti? Non ci sono argomenti

conclusivi per sostenere la falsità dell'argomento della sottodeterminazione, ma non ve ne sono nemmeno di conclusivi per

dimostrarne la veridicità, di conseguenza si possono continuare a generare equivalenze teoriche nei modi più disparati, “razionali” e

non, oppure continuare a negarne la possibilità, ma tutto sommato non si arriverà ad un punto di approdo, almeno per ora.

1.2.3 L'equivalenza empirica non implica l'equivalenza rispetto all'evidenza

Molti ritengono, a dispetto delle obiezioni formulate dai “sottodeterministi”, che l'equivalenza nella predizione di certi fenomeni

non si possa porre sullo stesso piano del sostegno conferito dall'evidenza ad una delle teorie in competizione. In poche parole essi

sostengono che certe teorie siano dotate di virtù superempiriche (semplicità, eleganza, potere esplicativo ecc.) che ne determinano la

27

maggiore affidabilità. Si hanno a disposizione infatti anche virtù empiriche come l'adeguatezza empirica e la forza empirica , la

prima rappresenta la capacità di prevedere i fenomeni, la seconda la capacità di prevedere un maggior numero di fenomeni; nella

pratica scientifica tuttavia non si prediligono certe teorie rispetto ad altre soltanto in base a considerazioni di carattere empirico,

spesso sono invocate proprio quelle caratteristiche sopra esposte come superempiriche, tra le quali rientra la “capacità”, in senso

passivo, di un'ipotesi di essere compresa in un sistema teorico più ampio e generalmente riconosciuto. Tuttavia diversi sono i punti

deboli della caratterizzazione superempirica: le virtù non sono ordinabili in una scala gerarchica; non sempre la “semplicità” va

d'accordo con il restante impianto teorico; non di certo una teoria più elegante deve essere vera ecc.; di certo però la linearità, la

semplicità di applicazione e l'immediatezza sono buone motivazioni di ordine pratico per preferire una certa teoria rispetto ad

un'altra: un'argomentazione che va a favore anche dell'antirealista, poiché riduce la credibilità delle pretese del realista, ma

quest'ultimo, come al solito, ha dalla sua in grande successo che le “proprie” teorie riscontrano nella vita di ogni giorno. Van

Fraassen (antirealista) a tal proposito scrive: «le virtù pragmatiche non ci danno alcuna ragione oltre e al di sopra dell'evidenza dei

dati empirici, per pensare che una teoria sia vera», ovvero le virtù superempiriche non sono ragioni epistemiche ma soltanto ragioni

pragmatiche, chi, come il realista, non distingue tra le due, non riesce a comprendere la differenza tra ciò che è vero e ciò che crede

esserlo, o che gli è utile credere. In questo senso il realista si arroccherebbe quindi sulla nozione di potere esplicativo, verso la quale

convergono tendenzialmente le altre virtù superempiriche, innalzandola a criterio epistemico spendibile nella scelta delle teorie.

1.2.4 Conclusioni sulla sottodeterminazione

Diversi altri approcci sono utilizzati per sanare le problematiche derivanti dalla sottodeterminazione delle teorie. Alcuni, come i

positivisti, sostengono la tesi riduzionista, per la quale due teorie osservativamente equivalenti dovrebbero essere comprese come

due formulazioni della stessa teoria. Altri sostengono che la scelta tra le teorie sia frutto di una convenzione, si basi ovvero sulla

convenienza, sulle nostre caratteristiche fisiologiche e cognitive, sul linguaggio ecc. Una risposta più decisa e complessa è invece

quella dell'antirealismo costruttivista, che pensa la sottodeterminazione in maniera “paradigmatica”, ossia: la sottodeterminazione

viene annullata in base a fattori di ordine sociale, culturale, psicologico, ideologico, economico ecc., nessuna componente

metafisica o epistemica entra in gioco, l'approdo di quanti sostengono questa tesi naturalmente è spesso scettico o agnostico.

26 Una teoria è totale quando risulta globalmente adeguabile a tutti gli ambiti empirici, cioè è in grado di predire tutti i fenomeni

possibili e non solo quelli di un particolare dominio scientifico (nel qual caso si tratterebbe di una teoria parziale).

27 La teoria della relatività generale è più adeguata della teoria newtoniana, poiché prevede i fenomeni con maggiore precisione, dando

peraltro ragione della forza di gravità, che la meccanica newtoniana si limita soltanto a postulare, tuttavia è meno forte della stessa

poiché prevede e dà spiegazione di un numero più ristretto di fenomeni. 25

6.2. L'empirismo costruttivo

Analizziamo ora le peculiarità dell'alquanto originale empirismo costruttivo di van Fraassen, il quale rifiuta infatti la componente

epistemica del realismo ma accetta di contro quella semantica e quella metafisica.

Egli ha le idee chiare sul fatto che «l'accettazione di una teoria scientifica implica la credenza che sia vera […] e la credenza che

essa sia empiricamente adeguata», ma non implica la credenza nell'indipendente esistenza delle entità che essa postula, ciò infatti

non è rilevante ai fini della fenomenologia di cui si premura di dar conto, vero punto nodale del dire scientifico. Infatti una teoria

scientifica a suo avviso «salva i fenomeni», cioè è in grado di descriverli correttamente; i fenomeni del presente, quelli del passato e

finanche quelli del futuro, quindi l'accettazione di una teoria è quantomeno segnata da una sorta di fede nelle idee che propugna. Per

van Fraassen inoltre un fenomeno è certamente sempre osservabile ma non sempre osservato; ad ogni modo, sebbene quest'ultima

convinzione lo accomuni ai realisti, egli è in disaccordo circa le finalità dell'impresa scientifica. Per il realista la scienza rende conto

delle entità inosservabili per spiegare fenomeni osservabili, il costruttivista si adopera per spiegare i fenomeni inosservabili a

prescindere dalla prima istanza.

Obiezioni

2.1. L'osservabile e l'inosservabile

Non è possibile tracciare una linea di demarcazione forte tra ciò che è osservabile e ciò che non lo è, prima di tutto perché ciò ha

una caratterizzazione storica, cioè muta le proprie determinazioni in base alle nostre capacità di osservazione (prodotte e mutate

dalla tecnologia a nostra disposizione). Grover Maxwell chiarifica bene questo punto quando afferma che «tracciare la linea di

divisione tra osservativo e teorico in qualsiasi punto è un accidente […] degli strumenti contingentemente a nostra disposizione, e

quindi non ha alcuno statuto ontologico» o epistemologico. L'empirismo di van Fraassen tuttavia è comunque alquanto relativistico,

cioè ammette la contingenza diacronica della capacità d'osservazione e non rinuncia tassativamente all'esistenza delle entità del

realismo, crede invero ad un certo funzionalismo scientifico per cui mantenere una distinzione tra osservabile e non risulta efficace

ai fini del mantenimento dell'adeguatezza empirica di una data ipotesi. Ogni percezione può essere un'osservazione o meno, quindi,

secondo i realisti, il continuum che, grazie al progressivo sviluppo della tecnologia, si instaura tra la percezione e l'osservazione non

permette di stabilire né assolutamente né relativamente una distinzione tra l'osservabile e il non osservabile, nemmeno in presenza

di estremi opposti e cogenti; in altre parole nulla è “inosservabile per principio”, nemmeno gli elettroni (caso abbastanza estremo)

che, allo stato attuale, non siamo in grado nemmeno di collocare con precisione nello spazio, ma che nulla vieta siano osservabili in

un futuro più o meno prossimo: mantenere quindi un atteggiamento scettico nei confronti di ciò che è relativamente inosservabile

non sembra avere grande rilevanza epistemica – o filosofica – obiettivo che persegue invece proprio van Fraassen. Questi però è

allo stesso modo determinato nel sostenere la “causa” dell'adeguatezza empirica; egli sottolinea infatti che la nostra limitatezza

28

fisiologica ci permette di stabilire una distinzione abbastanza accettabile, certo non assoluta, tra ciò che possiamo percepire e ciò

che non siamo in grado di esperire e osservare: gli elettroni, per quanto si voglia essere convinti della loro esistenza, non

risulteranno mai osservabili col nostro apparato visivo, al contrario siamo in grado di vedere di fatto, egli scrive, «verità su molte

cose: noi stessi, gli altri, gli alberi e gli animali, le nuvole e i fiumi – nell'immediatezza dell'esperienza» (si noti la vicinanza al

realismo diretto) ed è ciò che la scienza si premura di spiegare, a prescindere da ciò che causa sostanzialmente tali fenomeni.

L'osservabilità delle lune di Giove, ad esempio, non ha la stessa rilevanza epistemica del caso degli elettroni, queste infatti

sarebbero osservabili se ci trovassimo ad una distanza che ci permettesse di farlo, è una questione di spazialità, per gli elettroni

dovremmo disporre necessariamente di un apparato percettivo totalmente diverso, è una questione di costituzione, di conseguenza:

ha senso determinare un criterio d'osservabilità di certi sistemi fisici in quanto relativo anche a certe condizioni osservative di

sfondo, per così dire, costitutive, che invalidano de facto la possibilità pratico-teorica del continuum osservativo a cui si faceva

riferimento poc'anzi.

2.2 Accettazione e credenza

L'accettazione di una data teoria è costituita, per van Fraassen, oltre che dalla convinzione nella sua adeguatezza empirica, anche

dall'impegno profuso e programmatico ad esaminare il mondo e i suoi fenomeni entro la cornice teorico-pratica che essa comporta:

una «scommessa» sulla sua veridicità. Egli ritiene che, data la praticità entro la quale è immerso il mondo scientifico, l'utilizzo della

terminologia di settore possa correre parallelamente alla mancanza di convinzione certa – o credenza – sulle entità che la teoria va

postulando: accettazione non è a suo avviso, almeno filosoficamente, sinonimo di credenza. Realisti come Paul Horwich sostengono

che tenere distinta la credenza nella verità di una teoria da un atteggiamento epistemico debole di carattere pratico sia estremamente

incoerente, la teoria è accettata se creduta fino in fondo, a suo avviso: «la credenza in una teoria non è che lo stato mentale

responsabile del nostro uso della teoria» e comprende per questo anche l'accettazione; quello di tenere disgiunte accettazione e

credenza è una sorta di intricato sofisma, in realtà però, a ben vedere, accettare una cosa non vuol dire crederci fermamente; il fatto

che nell'uso comune i due termini siano sinonimi non vuol dire che essi, ad un livello di analisi filosofico, non possano denotare

atteggiamenti psicologici diversi: “accetto una asserzione ma non ci credo” non è un'affermazione filosoficamente inaccettabile,

poiché sta per: “accetto le conseguenze e i risvolti pratici di un dato impianto teorico, ne prendo atto, ma non credo che sia vero fino

in fondo”. Ciò accade spesso (anche per gli stessi scienziati), tutti infatti si confrontano – e quindi accettano – quotidianamente con

i risvolti pratici della meccanica newtoniana (guidare un'auto, salire le scale, tuffarsi in piscina, ecc.) sebbene possano

contemporaneamente credere in teorie come quella della relatività o della meccanica quantistica, che, nelle loro asserzioni negano

più o meno totalmente gli assunti cardine della meccanica classica: è questo il meccanismo che differenzia l'accettazione dalla

credenza totale. Horwich risponde che, comunque sia, l'accettazione quotidiana ha un carattere «generale senza qualificazioni», cioè

28 «L'organismo umano rappresenta, dal punto di vista della fisica, un certo tipo di apparato di misurazione. In quanto tale esso ha certe

intrinseche limitazioni – che verranno descritte dettagliatamente ad un livello più avanzato della fisica e della biologia. È a queste

limitazioni che si riferisce il suffisso “abile” in “osservabile – alle nostre limitazioni, in quanto esseri umani.» (van Fraassen,

L'immagine scientifica, 1985)

26

ristretto al dominio circoscritto della praticità, contrariamente l'accettazione scientifica è «locale e qualificata», per questo

indissolubilmente legata alla credenza in quanto accettato.

7. Spiegazione e inferenza

La maggior parte delle spiegazioni “vincenti” dei fenomeni naturali fa riferimento a entità teoriche ed inosservabili, per questo il

realista è nettamente avvantaggiato nella disputa con quanti sostengono l'esatto contrario, dopotutto se questi ultimi si accontentano

della sola adeguatezza empirica di una teoria, il realista crede fermamente che l'ipotesi che la caratterizza debba essere

necessariamente, o almeno approssimativamente, vera. Se due teorie poi dimostrano di avere la stessa adeguatezza empirica ma di

possedere un diverso potere esplicativo, fornito da virtù superempiriche come l'eleganza e la semplicità (o quant'altro), il realista

accetta come migliore quella con maggior adeguatezza rispetto all'evidenza, quella che spiega ovvero in maniera migliore.

É il meccanismo sotteso grossomodo a quella che chiamiamo inferenza alla miglior spiegazione ( ) o abduzione, principio per il

IMS

quale si prende in considerazione l'ipotesi che meglio spiega una data evidenza empirica; «molti realisti», sostiene Ladyman,

«hanno sostenuto che questa regola sia parte dei canoni dell'inferenza razionale e che sia necessaria per conseguire qualsiasi

conoscenza sostanziale sul mondo», a conti fatti è un rimedio efficace al problema della sottodeterminazione.

Alcuni sostengono che l'abduzione sia il fondamento stesso del ragionamento induttivo e che quindi l'empirista costruttivo non

faccia altro che essere uno scettico selettivo, non avendo nessun'altra ragione per giustificare i suoi ragionamenti non deduttivi. Van

Fraassen risponde che l'abduzione non è un criterio forte di determinazione da un punto di vista epistemico, dato che non solo una

teoria falsa può dar benissimo conto dell'evidenza ma anche che una certa inferenza poggia su assunzioni di sfondo storicizzate e

mutevoli, che mirano a fornire un potere esplicativo dal carattere meramente pragmatico.

7.1. Spiegazione

Un spiegazione è tale in quanto ci garantisce la conoscenza del perché le cose accadano secondo certe dinamiche. Ci sono diversi

tipi di spiegazione: spesso abbiamo a che fare ad esempio con spiegazioni di tipo causale, oppure, in contesti più analitici, ci

confrontiamo con spiegazioni nomiche (dal gr. nomos, legge), cioè fondate su leggi di natura accettate, o ancora, ci troviamo alle

volte di fronte a spiegazioni psicologiche, che poggiano sulla conoscenza di desideri e credenze. Diversi altri, e meno forti, tipi di

spiegazione entrano peraltro in gioco nella vita quotidiana, nelle chiavi: psicanalitica, storica, funzionale, teologica, evoluzionistica,

teologica ecc., spesso riconducibili ad una o più delle tre istanze maggiori riportate poc'anzi. La scienza moderna è certamente

legata intimamente al concetto di causalità, sebbene nel passato – lo si è visto nel corso della trattazione – molti siano stati i casi di

rifiuto, di scetticismo, Hume riduceva in effetti il concetto di causa alla mera regolarità fenomenica della realtà, generalmente

accettata, ritenendo che le spiegazioni causali possedessero solamente un carattere nomico.

1.1 Il modello della spiegazione e la legge di copertura

Una delle più influenti concezioni della spiegazione scientifica è quella formulata da C. G. Hempel, secondo cui spiegare consiste

nel mostrare che un qualche fenomeno sia la conseguenza di una legge (o di un insieme di leggi) compresa(e) in relazione a certe

condizioni iniziali di sfondo. Si spiega il fenomeno dell'eclissi secondo le leggi della meccanica celeste ma nel dominio di quelle

dell'ottica, che corrispondono al background teorico su cui si staglia la spiegazione principale. Hempel sostiene altresì che la

spiegazione genuina è sempre conforme a certe leggi di riferimento, anche nel caso in cui non si sia in presenza del modello di

copertura. Prima di analizzare il primo modello a legge di copertura elaborato da Hempel è bene dar conto della terminologia

utilizzata (a cui ci siamo peraltro già accostati nell'introduzione): è detto explanandum ciò che deve essere spiegato, ciò che fornisce

la spiegazione è detto invece explanans.

Modello nomologico-deduttivo (ND)

Secondo questo modello la spiegazione dell'explanandum deve essere dedotta da leggi di natura e da fatti al contorno e condizioni

iniziali. Inoltre la spiegazione deve soddisfare diverse leggi logiche: (1) l'explanans deve implicare deduttivamente l'explanandum

(2) la deduzione deve configurarsi secondo leggi generali e (3) l'explanans deve avere contenuto empirico, cioè essere controllabile

empiricamente. A tutto ciò si somma una condizione empirica fondamentale: l'explanans deve prendere le mosse da enunciati veri.

Le critiche rivolte a questo modello sono spesso imperniate sull'idea che le condizioni proposte siano insufficienti, cioè sul fatto che

vi siano “spiegazioni” che le soddisfano pur non essendo di carattere scientifico, altri credono invece che le condizioni non siano

necessarie, cioè criteri di scientificità validi. Proponiamo alcuni ulteriori ordini di obiezioni.

Si hanno casi in cui il modello incorpora elementi irrilevanti nell'explanans, l'argomentazione resta corretta ma le conclusioni

possono risultare distorte. Casi in cui v'è una sorta di anticipazione (pre-emption), quando cioè un evento, che si sarebbe verificato

per qualche ragione prevista dal modello, si è verificato invece a causa di qualcos'altro. Casi di sovradeterminazione, per i quali si

riscontrano più fattori causali, ciascuno dei quali sufficiente per la determinazione di un fenomeno, per cui il modello è rispettato

ma non si ha una spiegazione precisa o la (unica) spiegazione del fenomeno. Casi di simmetria, per i quali se in un “verso” la

spiegazione risulta adeguata alla causalità del fenomeno, nell'altro, pur validamente, risulta non aderente all'effettivo corso causale

(in senso spazio-temporale) dell'evento in questione. Infine si evidenzia la questione del rapporto tra spiegazione e previsione,

compreso da Hempel, forse troppo azzardatamente, nei termini di identità strutturale tra le due: la prima, almeno secondo il

modello è di carattere certo e verificabile (poiché deduttiva), la seconda, al contrario, non ha a disposizione l'evento di cui si

ND,

interessa, tuttavia, nella sua formulazione ricorre alle leggi della prima (sebbene sembri, da un punto di vista meramente

29

cronologico, che la previsione preceda la spiegazione ). Ci sono dunque diversi casi di buone previsioni e spiegazioni inadeguate,

29 Si è in grado prevedere approssimativamente un temporale grazie all'abbassamento della lancetta di un barometro, ma ciò è reso

possibile dalle nozioni che si hanno a disposizione per la costruzione del dispositivo di misurazione stesso: se non si avessero non si

27

che si alternano a casi di buone spiegazioni che non prevedono nulla di consistente (la teoria evoluzionistica spiega i meccanismi

delle mutazioni, ma non permette di formulare previsioni concrete, data l'intrinseca casualità che le governa). Il modello ND

presenta anche un'accezione statistico-induttiva: le scienze sociali in effetti possono disporre soltanto di questo tipo di

determinazioni, per cui la comprensione dell'explanandum non ha carattere certo (in senso deduttivo) ma presenta un alto o basso

grado di probabilità; naturalmente, data l'ultima considerazione, il modello presenta una larga casistica sfavorevole, per cui passa

SI

decisamente in secondo piano

1.2 Altri modelli di spiegazione

Nel tentativo di superare le fallacie del modello filosofi come W. Salmon e D. Ruben hanno adottato un modello esplicativo che

ND,

mira a fornire la comprensione di un dato fenomeno tramite l'individuazione delle sue specifiche cause. In questo modo si

bypassano tutte le problematiche sollevate dal modello precedente, poiché non si è costretti a far riferimento a leggi generali o

procedimenti canonici, quel che conta è fornire la causa singola di ogni singolo fenomeno. Ma allora che cosa potremmo farcene se

non abbiamo qualcosa di “regolare” a cui riferirci? Tuttavia spesso proprio queste regolarità non fanno altro che essere

autoreferenziali, o invocare altre leggi, senza che di fatto spieghino le cause reali di ciò che analizzano. Inoltre il problema del

modello di copertura è quello di avere cognizione di ciò che può dirsi genuinamente “legge di natura” e di ciò che invece è mera

coincidenza empirica accidentale. La differenza sostanziale tra le due modalità ce la chiarifica quanto segue. Le leggi di natura

utilizzano asserzioni condizionali di tipo controfattuale: “se il gas fosse stato riscaldato e il volume mantenuto costante la pressione

sarebbe aumentata”, non c'è di fatto un'evidenza che provi tutto ciò in modo sostanziale (è tutto espresso in senso ipotetico), cosa

che è invece presente nell'asserzione accidentalmente vera “ciò che ho in tasca è color argento”, in questo caso infatti non

penseremmo mai ad un inferenza del tipo: “se ciò che si fosse trovato nella mia tasca sarebbe stato argentato” perché non ci

servirebbe affatto; le leggi di natura sostengono i controfattuali, contrariamente alle asserzioni sulla realtà, proprio perché sono

utilizzate per spiegare le motivazioni di un certo fatto, il fatto, al contrario, di per sé si rende esperibile. La spiegazione allora,

secondo alcuni, è costruita su legami in un certo qual modo necessari, poiché anche la generalizzazione ipotizzata nel caso

dell'oggetto color argento potrebbe essere, teoricamente, valida, il punto è che non rende conto delle cause intrinseche di quel

preciso processo. Contrariamente van Fraassen pensa, in linea col resto del suo approccio ai temi di filosofia della scienza, che ogni

spiegazione abbia un carattere pragmatico, cioè dipenda, in ultima analisi, dalle particolari aspettative e necessità dell'osservatore o

dello scienziato che formula una certa questione.

7.2. L'inferenza alla miglior spiegazione

L'espressione inferenza alla miglior spiegazione è stata introdotta da Gilbert Harman in un articolo omonimo del 1965 apparso su

“Philosophical Rewiew”, allo stesso tempo si utilizza parallelamente, come già anticipato, il termine abduzione, secondo la

terminologia di C. Pierce. I sostenitori di questo tipo di inferenza sostengono che la maggior parte dei ragionamenti induttivi

seguano proprio questa modalità (che è del tipo: se p allora q, q, quindi p), tuttavia non sempre ci si può affidare senza riserve a

ragionamenti così formulati, ad esempio:

Questo animale è un gatto e il gatto è un mammifero (se p quindi q)

Bess è un mammifero (q)

Bess è un gatto (p)

l'argomentazione non è deduttivamente valida, sebbene le premesse siano entrambe vere (fallacia nota come affermazione del

conseguente), questo significa che anche in altri casi, anche se poi si comprende di aver “azzeccato” la spiegazione, nulla ci

permette di avere la sicurezza su ciò che stiamo inferendo poiché, come si vede, potremmo avere esiti paradossali. “Malgrado” ciò

sarebbe difficile pensare la vita di ogni giorno al di fuori di questo tipo di inferenza, o anche la ricerca scientifica stessa, che spesso

predilige teorie dall'alto potere esplicativo sebbene queste non siano in grado di formulare previsioni o postulino l'esistenza di entità

inosservabili. Si comprenderà facilmente poiché l' vada a braccetto con il diffusissimo realismo scientifico, ecco allora due

IMS

modalità di difesa del realismo formulate secondo i principi dell'abduzione: difesa locale e difesa globale.

2.1 Difesa locale del realismo

Il problema della sottodeterminazione affligge da sempre i realisti, che rispondono di frequente con l'argomentazione secondo la

quale l'adeguatezza rispetto all'evidenza sia un criterio dirimente al cospetto dell'equivalenza empirica tra due teorie. La teoria

atomica ad esempio spiega effettivamente in modo abbastanza chiaro e sistematico i rapporti che intercorrono tra le sostanze

chimiche, le modalità del loro combinarsi, le dinamiche energetiche che le caratterizzano ecc., non si limita ovvero soltanto alla

previsione di certi fenomeni molecolari, dai riscontri più o meno macroscopici, ma ci fornisce gli strumenti per comprenderne le

linee di sviluppo essenziali, di averne esperienza e conoscenza, per così dire, in motu, e non solamente come in relazioni a stati

macroscopici futuri o passati. Alcuni come van Fraassen non riconoscono però tutte le ipotesi di tipo realista, ad esempio la teoria

atomica, sebbene sia sostenuta da riscontri sperimentali, viene rifiutata poiché facente capo ad entità inosservabili, al contrario

teorie come quella sull'estinzione dei dinosauri sono accettate poiché, oltre alla loro adeguatezza empirica (ritrovamenti fossili)

fanno riferimento a oggetti potenzialmente osservabili. Secondo Stathis Psillos infatti van Fraassen cercherebbe di dimostrare che

l' non sia accettabile – almeno in senso epistemico – per entità inosservabili, ma che lo sia al contrario per entità tangibili (o

IMS

potenzialmente tali), van Fraassen invocherebbe la regola dell'inferenza all'adeguatezza empirica della miglior spiegazione.

potrebbe utilizzare il barometro (e la previsione dovrebbe essere formulata secondo altre modalità, magari meno rigorose); infatti se

il temporale si verifica possiamo spiegarlo certamente in base alla variazione di pressione ma, nel prevederlo dobbiamo ricorrere per

forza di cose a conoscenza pregresse: de facto la spiegazione precede la previsione. Allo stesso modo si può risalire dall'ombra di un

campanile alla sua altezza, ma in realtà sono le nozioni di ottica e trigonometria a permetterlo.

28

2.2 Difesa globale del realismo

I realisti tentano un ultima difesa invocando il successo della scienza nella sua interezza, si tratta del noto no-miracles argument.

Secondo Hilary Putnam infatti «l'argomentazione positiva a favore del realismo è che si tratta dell'unica filosofia che non trasforma

il successo della scienza in un miracolo», dopotutto ogni oggetto tecnologico di cui disponiamo fonda la sua organizzazione, la sua

struttura, le sue finalità su teorie che postulano l'esistenza di entità inosservabili, perché non credervi? Sarebbe un assurdo. Van

Fraassen sottolinea però che utilizzare gli stessi schemi di inferenza adoperati nella pratica scientifica in questa circostanza) nel

(IMS

30

caso della trattazione del problema filosofico del realismo equivale ad «essere irrazionali» . Richard Boyd sostiene in particolare

che oltre a misurarci con l'oggi dovremmo spiegare il generale successo strumentale dei metodi scientifici lungo tutto il coso della

storia della scienza, dopotutto se le teorie che utilizziamo, che abbiamo utilizzato – e che utilizzeremo – non fossero vere, la loro

significanza empirica risulterebbe alquanto misteriosa. I realisti hanno inoltre un ulteriore asso nella manica da proporre agli

antirealisti, si tratta della famosa obiezione della congiunzione, che rende conto delle proprietà unificanti di certe teorie: se

prendiamo due teorie realiste T e T', la prima dalla fisica e la seconda dalla chimica, non è detto che, sebbene siano entrambe

empiricamente adeguate, la loro congiunzione T&T' sia altrettanto adeguata, ad ogni modo se T e T' sono vere anche T&T' è tale,

quindi si deve dar ragione, a maggior ragione, al realismo. Van Fraassen sostiene di rimando che gli scienziati più che congiungere

le teorie non fanno che correggerle ed adattarle, oltretutto ciò che li muove non è la razionalità pura, ma lo spirito pragmatico;

inoltre spesso due teorie sono solo approssimativamente vere, la loro congiunzione sarà dunque del medesimo tipo, o ancora si può

notare che spesso si può tentare di congiungere teorie incompatibili (ad es. quelle di Keplero e Newton), con esiti improbabili.

Van Fraassen, oltre a ricorrere all'obiezione pragmatistica, aggiunge, volgendosi contro la concezione realista che prevede di non

tenere in considerazione aprioristicamente le coincidenze e i casi fortuiti, che questi si possano in molti casi spiegare correttamente:

«È stato per coincidenza che ho incontrato il mio amico al mercato – ma posso spiegare perché ero là, ed egli può spiegare perché ci

era venuto, cosicché, assieme, possiamo spiegare come questo incontro si è verificato. Noi la chiamiamo coincidenza, non perché la

sua occorrenza fosse inspiegabile, ma perché noi non andammo per nostro conto al mercato al fine di incontrarci. Non può esservi

un requisito che obblighi la scienza a fornire un'eliminazione teoretica delle coincidenze o delle correlazioni accidentali in generale,

perché questo non ha neppure senso.»

Così egli argomenta, ma il realista non può formulare una spiegazione in termini di coincidenza, sarebbe alquanto arbitraria, al

contrario se l'incontro al mercato diventasse assiduo si potrebbe, o dovrebbe, cercare un alternativa esplicativa regolare. Van

Fraassen fornisce peraltro una spiegazione in chiave evoluzionistica dell'emergere e del mantenersi delle teorie scientifiche, per cui,

partendo dal presupposto che «qualsiasi teoria si trova fin dalla nascita a vivere in un mondo agitato da una feroce competizione»,

procede a mostrare che solo quelle che «hanno successo sopravvivono», cioè, in altre parole, una teoria sopravvive, proprio come i

caratteri darwiniani, perché dotata di un certo fenotipo (nello specifico l'adeguatezza empirico-pragmatica): allo stesso modo della

giraffa dal collo più lungo tra le giraffe, la teoria più adeguata e forte tra le teorie vince ciò che Darwin chiama the struggle for life,

“la lotta per la vita”. I realisti, pur accettando la spiegazione fenotipica di van Fraassen, ritengono che ciò che contraddistingue

realmente una teoria vincente e vera sia il genotipo, cioè la sua struttura “basilare” o, con una parafrasi sismologica, “ipocentrica”,

proprio perché si dimostra approssimativamente aderente alla verità del mondo e capace di formulare predizioni di successo,

31

piuttosto che spiegare soltanto la fenomenologia di carattere strettamente osservabile .

Leplin, da realista, sostiene che una teoria non ha bisogno essa stessa di una spiegazione, poiché o è sostenuta da un'altra teoria o «e

è come è il mondo», l'antirealista sosterrebbe che queste due istanze potrebbero essere valide anche per l'adeguatezza empirica che,

o è sostenuta dall'adeguatezza di un'altra, più specifica, teoria (ad esempio l'approssimazione della teoria newtoniana è spiegata

dalla teoria della relatività, a sua volta, potenzialmente, approssimativa) o che è come è il mondo (il che è alquanto probabile per

una teoria empiricamente adeguata). Quindi, onde evitare una certa circolarità (per cui il realismo, com'è stato nel caso

dell'induzione, è genuino perché ha sempre funzionato), si richiederebbe una petitio principii, ma, chi come Papineau e Psillos,

sostiene che questa circolarità, pur presente, non sia viziosa, rifiuta questa presunta necessita credendo che la regolarità d'azione

assimilata dal realismo abbia un carattere naturale e per nulla artificioso o, ancor meglio, coerente. Più semplicemente: la

circolarità della regola prodotta dal realismo (per cui la regola di inferenza è autoreferenziale – cioè creduta affidabile e vera – ma

non le premesse o la conclusione) è diversa dalla circolarità delle premesse (per cui la conclusione non è altro che una delle

premesse), che ha un carattere vizioso; il realismo, nel richiamare il concetto di abduzione, utilizza proprio la prima modalità

poiché, nel difendersi dalle obiezioni, conclude che l' sia affidabile senza che questa sia una premessa della sua difesa, sebbene,

IMS

su un piano strettamente epistemologico, inferisca poi dalla stessa idea di appartenenza connaturata dell' al metodo scientifico la

IMS

conclusione che sia un buon metodo di inferenza, realizzando la petitio principii di cui sopra: qui la circolarità di premessa è

presente, ma il riferimento che ci interessa è quello dell'affidabilità pratica in relazione alle obiezioni sulla circolarità, per cui in

fondo il realista si può riparare dietro la cortina della coerenza metodologica. Del resto Realismo e , allo stato attuale della

IMS

30 Stabilire che il realismo sia l'unica filosofia valida poiché corroborata da riscontri pratici non è far altro che credere che sia la miglior

soluzione possibile al dilemma “quale filosofia scegliere per spiegare il successo pratico?”, vi è ovvero una certa dose di circolarità.

In altri termini: abbiamo diverse filosofie (realismo, antirealismo, empirismo costruttivo, ecc) che offrono diverse versioni esplicative

della pratica scientifica – ovvero sono da considerarsi esse stesse, in un certo senso, ipotesi scientifiche (sull'operato storico della

scienza) – sceglierne una soltanto perché si crede che sia la miglior spiegazione (o l'unica possibile) dei successi di tale pratica è

identico a scegliere una determinata teoria piuttosto che un'altra soltanto perché ci pare la miglior spiegazione sul mondo, staremmo

utilizzando comunque l' , viziandoci di autoreferenzialità.

IMS

31 Si noti che con il termine fenotipo (dal greco phainein, che significa "apparire", e týpos, che significa "impronta") si intende l'insieme

di tutte le caratteristiche osservabili di un organismo vivente, ovvero le manifestazioni fisicamente osservabili del genotipo (dal

tedesco Genotypus, derivante dall'unione di Gen, ovvero gene, e lo stesso týpos) un termine con cui ci si riferisce invece alla

costituzione genetica dell'organismo, quindi alle sue caratteristiche intrinseche. Parallelamente, come riportato nel testo, e non a

caso, van Fraassen “gioca” attorno ai concetti di osservabilità e praticità, mentre i realisti costruiscono le proprie teorie attorno ad

entità inosservabili ma costitutive. 29


ACQUISTATO

14 volte

PAGINE

34

PESO

659.94 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in filosofia e scienze dell'educazione
SSD:
A.A.: 2016-2017

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Costantino.Romano di informazioni apprese con la frequenza delle lezioni di Filosofia della scienza e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Gabriele D'Annunzio - Unich o del prof Casadio Claudia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in filosofia e scienze dell'educazione

Sunto per l'esame di Storia del pensiero moderno, prof. E. Cafagna, testi consigliati: G. Cambiano, L. Fonnesu, M. Mori, Storia della filosofia occidentale, Vol 3 e 4
Appunto
Sunto e appunti di filosofia dell'economia, prof. G. Fidelibus, testi consigliati: di N. Berdjaev - Lettere ai miei nemici e di Vaclav Havel - Il potere dei senza potere
Appunto
Sunto per l'esame di Antropologia filosofica, prof G. di Biase, testi consigliati "L'uomo" e le "Passioni dell'anima" di Cartesio
Appunto
Riassunto per l'esame di Storia della storiografia medievale, prof Del Fuoco, testo consigliato Introduzione alla storia medievale, Delogu
Appunto