Sunto di filosofia della mente
Prefazione
Come funziona la mente si basa sia sulla scienza cognitiva che sulla psicologia evolutiva, entrambe fraintese da grande parte del pubblico. Anche la dissertazione sulla consapevolezza ha attirato numerosi fraintendimenti, perché non si è capito che essa solleva due ordini di problemi diversi. David Chalmers li ha denominati «il problema difficile» e «il problema facile»; io li ho chiamati rispettivamente «facoltà di sentire» e «accesso». In realtà tutte le teorie e le ricerche degli ultimi dieci anni che sostengono di voler spiegare il cosiddetto «problema difficile» (la facoltà di sentire), spiegano tutte il «problema facile» (l’accesso). Negli ultimi dieci anni ci sono stati progressi scientifici notevoli. Le ricerche sul neuroimaging che si avvalgono di strumenti come la Risonanza Magnetica Funzionale (fRMI). Se scrivessi il libro oggi dedicherei molto più spazio alla discussione sulle reti anatomiche che stanno alla base dei principali subsistemi mentali. Anche la genetica e la biologia evolutiva hanno conosciuto straordinari progressi metodologici. Nel 2001 si è conclusa la prima fase del progetto sul genoma umano che ha anche fornito tecniche che permettono ai biologi di cercare impronte statistiche della selezione darwiniana su particolari geni. Queste tecniche potrebbero arrivare a dimostrare l’idea centrale del libro, cioè che la mente è un sistema di organi di computazione selezionati naturalmente. Includerei nel libro le teorie collegate di Haidt, Tetlock, Fiske, Rozin e Shweder sulla psicologia morale. Esse richiamano fenomeni psicologici come la moralizzazione, lo sbalordimento morale (moral dumbfounding), i tabù e modelli relazionali che definiscono le regole sociali nelle società di tutto il mondo. Un’altra importante novità è rappresentata dall’intuizione di Geoffrey Miller, secondo cui la variabilità individuale in cognizione, sentimento e personalità potrebbe essere scaturita da 2 differenti processi evolutivi: l’equilibrio mutazione-selezione, nel caso di intelligenza e numerosi disordini psicologici, e la selezione frequenza-dipendente, nel caso della variazione della personalità e del carattere. Includerei alcuni risultati della teoria del gioco evolutivo, con i suoi studi e test sperimentali sul modo in cui gli uomini gestiscono il dilemma in giochi come Ultimatum Game. Meriterebbero una discussione «evo-devo» (studio di come il cambiamento evolutivo si realizzi nello sviluppo embrionale dell’organismo) e plasticità neurale (analizzata in Tabula rasa).
Cap. 1 – Attrezzatura base
A partire dal 1920, quando Karel Capek, nel dramma R.U.R., coniò il termine «robot», essi sono stati evocati in tante opere di fantasia: Speedy, Cutie e Dave in Io, Robot di Isaac Asimov, Nomad in Star Trek, R2D2 e C3PO in Guerre stellari, Terminator, ecc. Il mio punto di partenza è il divario tra i robot nell’immaginazione e nella realtà, perché indica il primo passo per conoscere se stessi: cogliere appieno quale programma straordinariamente complesso stia dietro ad atti di vita mentale che noi diamo per scontati. Se non esistono robot umanoidi è perché i problemi d’ingegneria che noi esseri umani risolviamo per vedere, camminare, progettare e giungere alla fine della giornata sono qualcosa di ben più arduo che sbarcare sulla Luna. In un sistema ben progettato, le componenti sono scatole nere che svolgono le loro funzioni come per magia. È altrettanto vero per la mente.
La sfida dei robot: Nei film, con l’aiuto di distorsioni con l’obiettivo a occhio di pesce o croci di collimazione, siamo messi spesso di fronte a scene viste con gli occhi di un robot. Ma il robot non ospita un pubblico di omuncoli che assistono allo spettacolo e gli dicono quello che vedono. Il mondo ad un robot appare come una serie di numeri: i più piccoli vengono dalle macchie più scure, quelli più grandi dalle più luminose. Perché un cervello di robot, o un cervello umano, riconosca gli oggetti e non ci vada a sbattere contro, bisogna che macini questi numeri. In qualche modo il cervello deve risolvere il problema di identificare oggetti tridimensionali a partire dalle macchioline sulla retina e di determinare che cos’è ogni puntino (ombra o vernice, piega o sovrapposizione, trasparente o opaca) sapendo di che oggetto fa parte. Una volta scolpito il mondo visivo in oggetti, occorre sapere di che materia sono fatti. Il nostro sistema visivo ci permette di vedere il luminoso carbone all’aperto nero e la scura palla di neve al chiuso bianca. Così la nostra sensazione conscia di colore e luminosità corrisponde al mondo com’è piuttosto che a come si presenta all’occhio. Il problema successivo è vedere in profondità. La terza dimensione dev’essere ricostruita dal cervello.
Molti fanno notare che nessun animale ha sviluppato ruote, vedendovi un esempio di come l’evoluzione sia spesso incapace di trovare la soluzione ottimale a un problema di ingegneria. In realtà sono meglio le gambe, alle quali quasi tutte le terre emerse sono accessibili. Ma le gambe chiedono un alto prezzo: il software per controllarle. Come specie umana, a differenza di quadrupedi o insetti a 6 zampe, quando camminiamo, non facciamo che stare per cadere ed evitarlo appena in tempo. Quando corriamo, è un decollo dopo l’altro. Queste acrobazie aeree ci permettono di piantare i piedi su appigli molto o irregolarmente distanziati che non ci sorreggerebbero in stato di quiete, di farci strada lungo stretti sentieri e di saltare gli ostacoli. Ma nessuno ha ancora capito come facciamo a farlo. Altre sfide sono rappresentate dal capire come si controllano braccio e mano. Il primo può esser paragonato ad una lampada da architetto, e il cervello risolve senza fatica le equazioni ogni volta che indichiamo qualcosa con il dito. La mano può essere configurata in tanti modi a seconda dell’azione. Ogni presa richiede una precisa combinazione di tensioni muscolari che mantengano la forma mentre il carico oppone una forza contraria.
Un essere intelligente deve ordinare gli oggetti in categorie, in modo da poter applicare all’esemplare che ha sottomano il sapere conquistato su oggetti simili, incontrati in passato. Ma ogni volta che si cerca di programmare una serie di criteri per riconoscere i membri di una certa categoria, la categoria si disintegra. Un sistema intelligente, insomma, dev’essere fornito di una più piccola lista di verità centrali e di una serie di regole per dedurne le implicazioni. Ma metter giù le regole del senso comune, come le categorie del senso comune, è tanto arduo da risultare frustrante. Anche le più semplici e chiare non riescono a catturare il nostro ragionare quotidiano. Il filosofo Daniel Dennett, mediante l’esempio del robot che va a prendere una batteria di ricambio in una stanza dove c’è una bomba ad orologeria, fa notare che essere intelligente deve dedurre solo le implicazioni pertinenti di ciò che sa. Tale esigenza pone un problema profondo sfuggito a molti, che erano convinti della facilità del proprio senso comune. Immaginiamo di disporre di una macchina dotata di vista, coordinazione motoria e senso comune. Ora dobbiamo immaginarci come il robot li metterà in uso. Dobbiamo dargli dei motivi.
La risposta classica sta nelle Regole fondamentali della robotica di Isaac Asimov:
- Un robot non può fare del male a un essere umano o, per inazione, permettere che un essere umano soffra.
- Un robot deve obbedire agli ordini degli esseri umani, tranne quando tali ordini sono in conflitto con la I legge.
- Un robot deve proteggere la propria esistenza, finché ciò non entra in conflitto con la I o la II legge.
Asimov ha notato con acume che l’autoconservazione, non emerge automaticamente in un sistema complesso. Molto meno ovvio, invece, è il bisogno delle altre due leggi. In questo caso Asimov, come tutti noi, è stato incapace di uscire dai propri processi di pensiero per vederli come prodotti della struttura della nostra mente anziché delle ineludibili leggi dell’universo. Noi non dimentichiamo mai la capacità umana di fare il male, e ci è facile perciò pensare che il male sia connaturato all’intelligenza. È un tema ricorrente nella nostra tradizione culturale: Adamo ed Eva che mangiano il frutto dell’albero della conoscenza, il fuoco di Prometeo e il vaso di Pandora, ecc. Dagli anni Cinquanta a tutti gli Ottanta, innumerevoli film del genere «computer in preda a furia omicida» hanno espresso la paura popolare che i cervelli elettronici diventassero più intelligenti e potenti e, un giorno, si rivoltassero contro di noi. Ora che i computer sono effettivamente diventati più intelligenti e potenti, quella paura è svanita. Gli unici guai che combinano vengono sotto forma di virus. Iniziamo a renderci conto che la cattiveria, come la vista, la coordinazione motoria e il senso comune, non nasce da sé con il computer, ma dev’essere programmata.
Progettare un robot è un po’ come prendere coscienza. Noi tendiamo a passar sopra con noncuranza alla nostra vita mentale. Ogni spiegazione di come funziona la mente che faccia speranzose allusioni a qualche singola forza sovrana o a «cultura», «apprendimento» o «auto-organizzazione», inizia a suonare vacua. Quando le aree visive del cervello sono danneggiate il mondo visivo non si limita a risultare annebbiato o pieno di buchi. Vengono rimossi alcuni aspetti particolari dell’esperienza visiva, mentre altri rimangono intatti. Alcuni pazienti vedono un mondo completo, ma recepiscono solo una metà di esso. Altri pazienti non riconoscono gli oggetti che vedono. Alcuni pazienti riconoscono gli oggetti inanimati, ma non i volti. Deducono che il volto allo specchio dev’essere il loro, ma non lo riconoscono. Tali sindromi sono causate da un danno, in genere un ictus, a una o più delle trenta aree cerebrali che compongono il sistema visivo dei primati. Alcune aree sono specializzate in colore e forma, altre nella localizzazione di un oggetto, altre nel suo riconoscimento, altre ancora nel suo modo di muoversi.
Un’ulteriore apertura del nostro orizzonte ce la offrono le sorprendenti somiglianze fra gemelli monozigotici, che condividono le ricette genetiche con le quali si costruisce la mente. Questa, nei due individui, è straordinariamente simile per forme di talento tipo ortografia o matematica, per opinioni su questioni come l’apartheid, la pena di morte o le madri che lavorano, per scelte di carriera, per hobby, vizi, inclinazioni religiose, gusti riguardo all’altro sesso. I gemelli monozigotici sono ben più simili fra loro dei gemelli dizigotici, che condividono solo metà delle loro ricette genetiche, e il particolare che colpisce di più è che sono quasi altrettanto simili quando vengono allevati separatamente e quando vengono allevati insieme. Gemelli monozigotici separati alla nascita condividono tratti come l’entrare in acqua all’indietro e solo fino alle ginocchia, il non andare a votare perché non si sentono abbastanza informati, ecc. Tali scoperte, mostrando in quanti modi la mente può variare nella struttura innata, ci aprono gli occhi su quanta struttura deve avere.
Un’ingegneria diversa della psiche
La mente è ciò che il cervello fa; in particolare, il cervello elabora informazioni. È organizzata in moduli, o organi mentali, dotati ognuno di una specializzazione. Il loro funzionamento si è modellato per selezione naturale in modo da risolvere i problemi della vita di cacciatori e raccoglitori condotta dai nostri antenati durante la maggior parte della nostra storia evoluzionistica. La psicologia è ingegneria inversa, punta a capire per quale scopo è stata costruita una macchina. La legittimazione dell’ingegneria inversa degli esseri viventi viene da Charles Darwin. Fu lui a indicare come «organi di estrema perfezione e complessità provengano dall’evoluzione di replicatori lungo immensi periodi di tempo. È solo negli ultimissimi anni che la sfida di Darwin è stata raccolta da un nuovo approccio, battezzato dall’antropologo John Tooby e dalla psicologa Leda Cosmides «psicologia evoluzionistica». Essa fonde due rivoluzioni scientifiche. Una è la rivoluzione cognitivista degli anni 50 e 60, che spiega la meccanica di pensiero ed emozione in termini di informazione e computazione. L’altra è la rivoluzione nella biologia evoluzionistica degli anni 60 e 70, che spiega il complesso schema di adattamento degli esseri viventi in termini di selezione fra replicatori. La scienza cognitiva ci aiuta a capire come sia possibile una mente e che tipo di mente abbiamo. La biologia evoluzionistica ci aiuta a capire perché abbiamo il tipo di mente che abbiamo. Informazione e computazione risiedono in configurazioni di dati e in rapporti di logica indipendenti dal medium fisico che li trasporta. Tale intuizione, espressa la prima volta dal matematico Alan Turing, dagli informatici Allen Newell, Herbert Simon e Marvin Minsky e dai filosofi Putnam e Jerry Fodor, è ora detta teoria computazionale della mente. Risolve un enigma del «problema mente-corpo»: come connettere significato e intenzione, l’essenza della nostra vita mentale, con la materia come il cervello. La teoria computazionale della mente ci consente di mantenere credenze e desideri nelle nostre spiegazioni del comportamento, pur radicandoli nell’universo fisico. Permette al significato di causare ed essere causato. Il contenuto dell’attività cerebrale sta nelle combinazioni di connessioni e in quelle di attività fra i neuroni. Minime differenze nei dettagli delle connessioni possono far sì che zone di cervello d’aspetto simile implementino programmi molto diversi. La teoria computazionale della mente non coincide con la disprezzata «metafora del computer». Il computer è seriale, fa una cosa alla volta, mentre il cervello è parallelo, fa milioni di cose alla volta. Il computer è veloce, il cervello lento. Le parti del computer sono affidabili, quelle del cervello piene di disturbi. Il computer ha un numero limitato di connessioni, il cervello ne ha miliardi su miliardi. Il computer è assemblato secondo uno schema, il cervello deve assemblarsi da sé. La mente non è un singolo organo, ma un sistema di organi, moduli mentali.
La costruzione di un robot pone numerosi problemi di software. Prendiamo il nostro primo problema, il senso della vista. Una macchina vedente deve risolvere un problema detto di ottica inversa. L’ottica ordinaria è il ramo della fisica che permette di predire come un oggetto con una certa forma, certo materiale e certa illuminazione proietti i colori che chiamiamo immagine retinica. Ma il cervello deve risolvere il problema opposto. L’input è l’immagine retinica, e l’output quel che sappiamo di stare vedendo. L’ottica inversa non ha soluzione. La risposta è che è il cervello a fornire l’informazione mancante, l’informazione sul mondo in cui ci siamo evoluti e su come esso riflette la luce. Il cervello ha rinunciato a ogni pretesa di essere un risolutore di problemi in generale. È stato dotato di un marchingegno che percepisce la natura delle superfici in condizioni di visione tipicamente terrestri perché è specializzato in questo problema del nostro pianeta: apportiamo qualche lieve modifica al problema stesso, e il cervello non lo risolve più (schermo tv sono puntini e non reali persone). Il nostro senso comune riguardo agli altri è una sorta di psicologia intuitiva: cerchiamo di inferire convinzioni e desideri delle persone da ciò che esse fanno e, in base alle nostre intuizioni sulle loro convinzioni e i loro desideri, cerchiamo di predire ciò che faranno. La nostra psicologia intuitiva, però, deve presupporre che gli altri abbiano convinzioni e desideri. La mente dev’essere fatta di parti specializzate perché deve risolvere problemi specializzati. I moduli sono definiti non per forza dal tipo di informazioni che hanno a disposizione, quanto dagli speciali compiti che svolgono con le informazioni che hanno a disposizione. Il corpo ha una struttura eterogenea composta di molte parti specializzate. Ed è probabile che tutto ciò valga anche per la mente. I nostri organi fisici devono la loro complessa struttura all’informazione contenuta nel genoma umano, e lo stesso vale, ne sono convinto, per i nostri organi mentali. Il fatto che la mente abbia una complessa struttura innata non significa che l’apprendimento conti poco. Affermare che esistono numerosi moduli innati significa affermare che esistono numerose macchine da apprendimento innate, ognuna delle quali apprende secondo una particolare logica. Gli organi mentali e fisici complessi, sono indubbiamente costruiti secondo ricette genetiche complesse, con molti geni che cooperano in modi ancora incomprensibili. Un difetto in uno qualunque di essi può guastare tutto. Le famiglie di neuroni che formeranno i diversi organi mentali, tutti discendenti di un lembo omogeneo di tessuto embrionale, devono essere progettate per comportarsi da opportuniste mentre il cervello si assembla, afferrando ogni informazione disponibile per differenziarsi l’una dall’altra. I moduli del cervello assumono la loro identità grazie a una combinazione del tipo di tessuto di cui sono costituiti in partenza, di dove sono nel cervello, e di…
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Riassunto esame Filosofia della scienza, Prof. Graziano Mario, libro consigliato Filosofia della mente , Pietro Per…
-
Riassunto esame Filosofia, prof. Perconti, libro consigliato L'Autocoscienza
-
Riassunto esame Psicologia della comunicazione, prof. Mantovani, libro consigliato Come funziona la nostra mente, A…
-
Riassunto esame Logica e Filosofia della Scienza, prof. Laudisa, libro consigliato L'Istinto del Linguaggio, Pinker