Che materia stai cercando?

Tesi triennale - Intelligenza Artificiale Appunti scolastici Premium

Tesi di laurea triennale in filosofia della mente (psicologia) sulle critiche del filosofo John R. Searle all'Intelligenza Artificiale nella sua visione estrema. Lavoro visionato dal relatore Daniela Steila. Università degli Studi di Torino - Unito.Scarica il file in formato PDF!

Materia di Filosofia della mente relatore Prof. D. Steila

Anteprima

ESTRATTO DOCUMENTO

dire, ruzzolano le une sulle altre in tutte le direzioni (acqua)” (Searle, 1994, p. 30). Il fatto

che una certa proprietà sia mentale non implica che non sia fisica, così come il fatto che

una proprietà sia fisica non implica che non sia anche mentale (Searle, 1992). Secondo

Searle, inoltre, alcune nozioni proprie delle scienze cognitive (come i concetti di

computazione, intelligenza, o elaborazione di informazioni) sono definite in maniera

troppo vaga per consentire una descrizione adeguata dei fenomeni mentali in termini di

e calcolatori.

software

Un terzo caposaldo dell’attuale concezione materialista è l’idea, diffusasi tra gli

intellettuali occidentali a partire dal diciassettesimo secolo, che la realtà sia oggettiva e

che, per questa ragione, sia conoscibile scientificamente solo se considerata come un

insieme di fenomeni oggettivi (Searle, 1992). Secondo Searle è sufficiente riflettere sui

propri stati soggettivi per negare questa assunzione che ha portato, d’altronde, a mettere

da parte lo studio della vita mentale per concentrarsi esclusivamente sul comportamento

osservabile dall’esterno. Piuttosto che indagare da cosa emergano i fenomeni mentali

vissuti in prima persona, ci si chiede da quali condizioni insorgano credenze, desideri, o

stati della mente attribuiti ad un altro sistema. Adottando un’epistemologia impersonale,

diventa difficile riuscire a distinguere quali sistemi possiedano realmente una mente e

quali, invece, non ne possiedono una ma si comportano come se l’avessero.

Per concludere l’analisi dei fondamenti del panorama contemporaneo, Searle avanza

l’ipotesi che le scienze cognitive siano influenzate dalla storia generale del progresso

scientifico: l’implausibilità delle teorie cognitive viene vista come un merito e non ne

diminuisce il valore. Ad esempio, è ormai dimostrato che le nostre percezioni sullo spazio

e sul tempo sono del tutto illusorie, confutate dalle conoscenze scientifiche che abbiamo

rispetto alle forze che agiscono sull’universo. Allo stesso modo, per quanto le ipotesi

dell’Intelligenza Artificiale e del funzionalismo contemporaneo possano risultare

controintuitive, potrebbero rovesciare le assunzioni legate al senso comune dimostrando

che anche queste sono solo illusioni.

Prima di passare in rassegna le critiche con cui Searle cerca di indebolire le basi del

materialismo, è necessario capire in che cosa consista esattamente questa dottrina nella

sua accezione contemporanea. Non si tratta semplicemente di considerare il mondo

come costituito interamente di particelle materiali (Searle, 1992); ad eccezione della

posizione cartesiana, quasi ogni altra filosofia della mente sostiene le stesse affermazioni.

Searle (2004) ritiene che, ai giorni nostri, la maggior parte dei dualisti delle sostanze

sostenga questa posizione filosofica in virtù di credenze religiose, dal momento che una

delle idee principali è quella che l’anima possa sopravvivere alla distruzione del corpo e

questa concezione collima con la credenza di una vita dopo la morte. Secondo questa

teoria, il corpo non è altro che una macchina ed è reso cosciente dall’anima a cui è

collegato. È l’anima ad identificare l’individuo e a connettersi in maniera accidentale con

un corpo, ma tale connessione è provvisoria e perdura finché quest’ultimo non muore,

momento in cui l’anima lo abbandona. Le scoperte scientifiche riguardo ai processi

25

cerebrali che avvengono per produrre la coscienza umana rendono il dualismo delle

sostanze poco plausibile (Searle, 2004).

Il dualismo delle proprietà si distingue da quello cartesiano perché non postula l’esistenza

di due sostanze diverse: secondo questa corrente, gli esseri umani possiedono proprietà

fisiche e, all’interno del cervello, anche proprietà mentali. Questo tipo di dualismo

incappa, tuttavia, nel problema dell’epifenomenismo: la vita mentale non ha alcuna

relazione causale con gli eventi fisici. Gli stati mentali sono dei semplici epifenomeni

senza alcuna efficacia, giacché essendo fenomeni mentali non materiali non possono in

alcun modo determinare gli eventi fisici del mondo. Feigl (1958), nella sua critica del

dualismo, definisce le proprietà mentali come “ciondoli nomologici”, ossia prodotte dal

cervello in modi conformi a delle leggi, ma senza alcuna utilità. L’intuizione di base del

dualismo, ovvero che tutti noi abbiamo delle esperienze coscienti che sappiamo essere

diverse dagli oggetti fisici che ci circondano, è ancora molto forte (Searle, 2004). Il mondo

fisico è costituito interamente di particelle, ma una cosa come la coscienza rappresenta

chiaramente un’eccezione. Essa non è costituita affatto di particelle, dunque è

necessariamente qualcosa “in aggiunta” al fenomeno fisico.

Se da un lato le scoperte biologiche relative ai processi cerebrali hanno messo in dubbio

la plausibilità del dualismo, dall’altra hanno aperto la strada all’idea che l’universo sia

composto da un’unica entità (Searle, 2004). Questa prospettiva è chiamata monismo e si

divide in due declinazioni diverse: il monismo mentalistico è detto anche idealismo

perché sostiene una visione del mondo formato esclusivamente da idee e, talvolta, da

menti che ospitano le idee; il monismo materialistico, invece, è la concezione per cui

esiste solo la realtà fisica, mentre i fenomeni mentali vengono negati (Armstrong, 1968;

Place, 1956; Smart, 1965; Searle, 1992, p. 43).

Searle (1992; 2004) offre poi una ricostruzione storica delle principali forme di

materialismo a partire dal XX secolo fino alla sua formulazione più moderna con la teoria

computazionale della mente.

La prima teoria materialista della mente fu il comportamentismo, l’idea secondo cui gli

stati mentali non sono altro che il comportamento del corpo (Searle, 2004). Ne esistono

due coniugazioni differenti: il comportamentismo metodologico ed il comportamentismo

logico. Il primo è nato con l’intento di elevare la psicologia al livello delle altre scienze

naturali, dotandola di una metodologia scientificamente rispettabile. Le affermazioni

scientifiche devono essere oggettive e controllabili e gli unici fenomeni psicologici

osservabili oggettivamente sono quelli relativi al comportamento umano. L’obiettivo di

questa dottrina era quello di indagare le correlazioni tra input e output comportamentali

(Watson, 1925; Searle, 1992), tanto che a volte veniva chiamato psicologia dello “stimolo

e risposta” (Searle, 2004). La dimensione mentale o spirituale veniva considerata

misteriosa e non era ritenuta indagabile dalla ricerca psicologica. Il comportamentismo

logico, invece, si spinse ancora oltre, sostenendo che un’affermazione sullo stato mentale

di una persona si può tradurre su una serie di enunciati sul suo comportamento effettivo

26

o ipotetico (ibid.). Un determinato stato mentale è una disposizione a mettere in atto

certi tipi di comportamento.

Intorno agli anni Sessanta del secolo scorso, il progresso storico delle filosofie materialiste

della mente determinò la sostituzione graduale del comportamentismo da parte della

cosiddetta teoria dell’identità (Searle, 1992). Detta anche fisicalismo, questa prospettiva

identificava gli stati mentali con gli stati del cervello e del sistema nervoso centrale (Place,

1956; Smart, 1965; Searle, 1994, p. 51). L’errore di Cartesio non era di tipo logico:

ritenere che i fenomeni mentali fossero indipendenti dalla realtà materiale era un

ragionamento sensato; tuttavia, secondo i teorici dell’identità, l’evidenza empirica

dimostrava che, dal punto di vista scientifico, ciò che noi consideriamo mente altro non è

che un cervello e che quelli che noi consideriamo stati mentali, non sono altro che stati

del cervello (Searle, 1992; Searle, 2004). L’identità del binomio mente-cervello venne

paragonato ad altre corrispondenze, come quella tra lampi e scariche elettriche (Smart,

1965; Searle, 1994, p. 51) o tra molecole di H₂O ed acqua (Feigl, 1958; Shaffer, 1961;

Searle, 1994, p. 52).

Le difficoltà della teoria dell’identità tra un tipo di stato mentale ed un tipo di stato

neurofisiologico determinarono, nel campo materialista, il passaggio ad una formulazione

un po’ più debole di questa istanza (Searle, 1992; Searle, 2004). La teoria dell’identità tra

occorrenze, anche detta teoria dell’identità token-token continua ad identificare i

fenomeni mentali con quelli fisici, ma si differenzia dalla sua progenitrice: se prima si

parlava di tipi, ossia entità generali astratte, in seguito si iniziò a parlare di token, ossia

oggetti o eventi particolari concreti. Secondo questa visione, ogni occorrenza di uno stato

mentale è identica all’occorrenza di un evento neurofisiologico corrispondente. Diversi

token di tipi diversi di stati cerebrali possono verificarsi per token dello stesso tipo di

stato mentale (ibid.).

A questo punto, per i teorici dell’identità tra occorrenze emerse il problema di definire

cos’avessero in comune due token diversi che producono lo stesso tipo di stato mentale.

La risposta alla questione non poteva essere ricondotta alle proprietà mentali, poiché lo

scopo di questa dottrina materialista era proprio sbarazzarsi di queste peculiarità. La

conseguenza fu la formulazione di una tesi chiamata funzionalismo, riassunta da Searle

nella seguente definizione: “Due diversi stati neurofisiologici sono occorrenze dello stesso

tipo di stato mentale se svolgono, nella vita complessiva di un organismo, la medesima

funzione” (Searle, 1994, p. 56). Secondo questa posizione, ogni stato neurofisiologico si

identifica con un particolare stato mentale in virtù del tipo di funzione che svolge nel

comportamento complessivo dell’organismo (Searle, 2004), e la nozione di funzione viene

spiegata nei termini delle relazioni causali con gli stimoli che l’organismo riceve come

input, con i suoi altri stati “mentali” e con il comportamento osservabile che ne

costituisce l’output (Lewis, 1972; Grice, 1975; Searle, 1992, p. 56). Credenze, desideri e

percezioni vengono analizzati nei termini delle loro relazioni causali (Searle, 2004). Una

credenza è, quindi, un’entità che causa un certo comportamento esterno in virtù delle

relazioni che intrattiene con gli stimoli in entrata nell’organismo e con gli altri stati

27

mentali. Questa posizione era detta a volte “funzionalismo della scatola nera”, dal

momento che considerava l’insorgere delle relazioni causali come un meccanismo che

non può essere affrontato filosoficamente, che va lasciato alle ricerche degli psicologi e

dei neurobiologi (ibid.). La tesi funzionalista, d’altra parte, permette di evitare le

implicazioni delle teorie dell’identità tra tipi secondo cui solo sistemi dotati di un cervello

simile al nostro possono avere stati mentali (Searle, 1992). Purché le relazioni causali si

dimostrino adeguate, qualsiasi sistema può avere stati mentali, a prescindere al materiale

costitutivo. È proprio a partire da questo punto cruciale che si sviluppò, successivamente,

tutta la prospettiva computazionale che abbiamo già esposto precedentemente e che

rappresenta uno degli sviluppi più stimolanti del materialismo contemporaneo.

Le opinioni riguardanti il funzionalismo computazionale e la sua trasposizione nei concetti

dell’Intelligenza Artificiale forte costituiranno un discorso a sé che verrà affrontato più

avanti nel corso di questo elaborato. Tuttavia, dopo aver delineato una panoramica

essenziale delle principali nozioni e formulazioni in cui si è tradotta la dottrina

materialista a partire dal XX secolo, è possibile, muniti di una maggiore consapevolezza,

sviscerare i punti salienti della critica che ne offre John Searle. Nella pubblicazione del

1992, come abbiamo detto, l’autore articola la propria analisi sulla base di quelle che

ritiene essere le istanze fondamentali legate al monismo materialista.

La tesi a sostegno della coscienza è forse una delle più complesse all’interno del discorso

di Searle. Il filosofo (1992) ritiene che non sia possibile studiare i fenomeni mentali senza

studiare anche la coscienza, poiché se non avessimo nozione dell’esperienza cosciente

non avremmo nozione su alcun evento mentale. È vero che la maggior parte della vita

mentale di un individuo è fondamentalmente inconscia, ma è proprio dal concetto di

coscienza che deriva quello di stato mentale inconscio.

Searle (1992), inoltre, avanza delle argomentazioni atte a confutare la tesi per cui tutta la

realtà dovrebbe essere oggettiva. Erroneamente, all’interno della distinzione tra ciò che è

oggettivo e ciò che è soggettivo, sembra che si tenda a confondere la dimensione

ontologica con quella epistemologica. Dal punto di vista epistemologico, ovvero quello

che riguarda il “come” raccogliere informazioni sul tema, è necessario indagare la realtà

cercando di liberarsi il più possibile da pregiudizi e preconcetti legati al ricercatore, ma ciò

non vuol dire che la realtà non contenga in sé aspetti irriducibilmente soggettivi.

Riproporsi di studiare la realtà in maniera indipendente dalle interpretazioni oggettive e

personali dell’osservatore è un obiettivo estremamente importante, ma non va confuso

con l’idea che tutta la realtà sia meramente oggettiva, un’idea che, secondo Searle, si

dimostra palesemente falsa sotto il profilo neurobiologico (ibid.). Di conseguenza, tentare

di studiare la mente come se consistesse solo di fenomeni indipendenti dalla coscienza e

dalla soggettività comporta l’errore di tralasciare proprio quelle che sono le proprietà

essenziali che permettono di distinguere i fenomeni mentali da quelli non mentali.

Proprio qui giace l’implausibilità declamata da Searle (1992). Negando la connessione tra i

fenomeni mentali e la coscienza, l’unico modo di definire eventi come le credenze o i

desideri è attraverso il comportamento esteriore, ideologia tipica del comportamentismo,

28

o a relazioni causa-effetto, come sostenuto dal funzionalismo, e così via. Gli stati mentali

coscienti o inconsci, però, presentano caratteristiche soggettive che vanno oltre le

semplici interpretazioni attribuite da un osservatore esterno. Uno stato mentale è sempre

di qualcuno, c’è sempre un soggetto a cui esso appartiene. Il punto di vista in prima

persona è dunque fondamentale e va colto anche quando, come spesso accade nella

ricerca scientifica, lo studio condotto è rivolto verso altre persone (ibid.). Searle ritiene

che tra stati mentali e comportamento sussista una relazione contingente. Infatti, a

determinati stati mentali non corrisponde alcun comportamento osservabile e, viceversa,

a certi comportamenti non corrisponde alcuno stato mentale. Per le stesse ragioni, è

errato supporre che l’unico modo per attestare la vita mentale negli altri individui sia

l’osservazione del comportamento. La certezza della coscienza di altri esseri (umani o

animali) non deriva semplicemente dallo studio del comportamento esteriore, quanto

piuttosto dalla concezione causale che abbiamo del funzionamento del mondo. Per

risolvere il problema delle altre menti, non prendiamo in considerazione la teoria,

soggiacente al test di Turing, per cui a comportamenti uguali corrispondono i medesimi

fenomeni mentali, ma applichiamo l’idea per cui alle stesse cause debbano corrispondere

i medesimi effetti e a cause tra loro molto simili dovrebbero corrispondere effetti

tendenzialmente simili.

Il punto cruciale di queste argomentazioni, ad ogni modo, rimane l’asserzione secondo cui

la realtà è fisica. Nella visione di Searle, questa visione è errata per diverse ragioni. In

primo luogo, come abbiamo già visto in precedenza, la terminologia ereditata dalla

concezione cartesiana è fondamentalmente errata. La contrapposizione tra fisico e

mentale induce a pensare che qualsiasi entità vada ricollocata sotto una di queste due

etichette sebbene, nella pratica, può diventare piuttosto difficile farlo: si pensi di dover

attribuire ad una di queste categorie concetti come gli enunciati non grammaticali, i

problemi della bilancia dei pagamenti, o i punti segnati in una partita di football. Infine,

Searle (1992) afferma che è profondamente sbagliato supporre che l’obiettivo centrale

dell’ontologia debba essere quello di chiedersi quali tipi di cose esistano nel mondo,

piuttosto che domandarsi cosa deve verificarsi nel mondo perché i nostri enunciati

empirici siano veri. È questo l’errore che soggiace sia alla prospettiva dualista, che a

quella monista. Gli studiosi di entrambe queste visioni tentano di quantificare i tipi di

oggetti e proprietà esistenti nel mondo, con la differenza che mentre i dualisti che

individuano due, gli esponenti del monismo ne hanno individuato uno solo.

3.2.1 Sei argomenti contro il materialismo

Rappresentativa rispetto alla trascuratezza che Searle rimprovera alle tesi materialiste è

la collezione di una serie di argomenti che l’autore presenta all’interno dell’opera Mind, A

pubblicata nel 2004. Gli attacchi, elaborati da autori vari, si

Brief Introduction,

concentrano sull’importanza di fenomeni come l’intenzionalità e la coscienza che le

dottrine materialiste presentate precedentemente in questo paragrafo sembrano negare

29

od analizzare in maniera scorretta. Particolare enfasi è posta sul funzionalismo, che

rappresenta attualmente il ramo più in voga.

Il primo argomento è quello dei “qualia” mancanti, termine con cui talvolta, in filosofia, si

descrive l’aspetto qualitativo dell’esperienza cosciente (Searle, 2004). Ad ogni stato

conscio è associata una sensazione qualitativa ed il problema del funzionalismo è proprio

che non tiene conto di questi qualia. L’esistenza di queste percezioni è evidente sulla base

dell’esperienza soggettiva, perciò ogni teoria che le neghi, come ad esempio il

funzionalismo, dev’essere falsa.

Analogamente, come obiezione a questa teoria possiamo avanzare l’esperimento

mentale dello spettro invertito. Immaginiamo che ci siano due individui che percepiscono

senza problemi i colori, entrambi in grado di fare esattamente le stesse distinzioni e gli

stessi compiti legati alle esperienze cromatiche. Supponiamo, tuttavia, che uno di questi

due individui abbia lo spetto dei colori precisamente opposto rispetto a quello dell’altro,

tale che le loro esperienze qualitative interne siano molto diverse. Ciò che per uno è la

percezione del rosso, per l’altro è la percezione del verde, e viceversa. Non esiste alcun

test comportamentale in grado di scoprire questo problema, poiché i colori vengono

distinti benissimo da entrambi e le relazione tra colori sono le stesse almeno dal punto di

vista formale. Il funzionalismo è confutato, dal momento che darebbe la stessa

spiegazione per entrambi gli individui, senza essere in grado di individuare la differenza

tra le loro esperienze (Searle, 2004).

La tesi esposta nell’articolo di Thomas Nagel (1974) intitolato “Cosa si prova ad essere un

pipistrello?” rappresenta uno dei primi argomenti contro l’accezione funzionalista del

materialismo e sostiene che se pure avessimo piena conoscenza della neurobiologia del

cervello, non saremmo comunque in possesso di una spiegazione valida della coscienza.

Come dice Nagel, al giorno d’oggi conosciamo tutto quello che c’è da sapere rispetto alla

neurofisiologia di un pipistrello: sappiamo che hanno uno stile di vita molto diverso dal

nostro, poiché questi animali dormono tutto il giorno, vanno in giro volando la notte e si

orientano nell’ambiente circostante tramite gli echi dei segnali sonar che fanno

rimbalzare sugli oggetti solidi. Ma quali sensazioni si provano nei panni di un pipistrello? È

questa l’essenza della coscienza ed è questa esperienza che nessuno scienziato sarà in

grado di spiegare utilizzando criteri puramente oggettivi.

Un esperimento simile è quello formulato dal filosofo australiano Frank Jackson (1982).

Egli immagina che una neurobiologa di nome Mary sia un’esperta delle teorie dei colori e

sappia tutto ciò che c’è da sapere riguardo la percezione, gli apparati percettivi umani, la

fisica della luce e lo spettro dei colori. Ma supponiamo che Mary sia cresciuta in un

ambiente esclusivamente in bianco e nero e che non abbia mai avuto esperienza di un

oggetto colorato. Appare evidente, secondo Jackson, che alla conoscenza di Mary manca

qualcosa di fondamentale, ossia come appaia effettivamente un qualsiasi colore che non

appartenga a una scala di grigi. Così come la conoscenza di Mary è inadeguata poiché

trascura l’esperienza qualitativa dei colori, le spiegazioni materialistiche della mente che

non tengono conto dei qualia, sono a loro volta incomplete. 30

Immaginiamo, suggerisce Ned Block (1978), una popolazione molto numerosa in grado di

eseguire i processi di un programma funzionalistico di quelli che si presume metta in atto

anche il nostro cervello. Prendiamo in considerazione, ad esempio, un milione di neuroni

a paragone con un milione di individui della nazione cinese e supponiamo che entrambi

eseguano esattamente gli stessi passi. Il complesso della popolazione della Cina, è

evidente, non possiede alcuno stato mentale simile a quelli che il cervello umano, invece,

presenta.

L’argomento della concepibilità degli zombi si può considerare alla base di tutte le altre

obiezioni rivolte alla teoria materialistica. I sostenitori di questo tema si interrogano sulla

possibilità che esista un essere simile ad un essere umano sotto ogni punto di vista, ma

sprovvisto di qualsivoglia vita mentale. Una delle versioni più recenti è ad opera di

Thomas Nagel (1980). Egli immagina l’esistenza di un corpo umano privo degli stati

mentali di cui tutti noi abbiamo esperienza, ma in grado di eseguire, dal punto di vista

comportamentale, tutto quello che fa un normalissimo individuo. È questo che

rappresenta il concetto di zombi nella filosofia della mente (Searle, 2004). Si tratta di un

argomento speculare rispetto alla teoria cartesiana. Il dualismo di Cartesio sosteneva che

la mente può esistere anche senza un corpo, mentre questo esperimento afferma che un

corpo può esistere, da un punto di vista logico, anche senza stati mentali. La conclusione,

in entrambi i casi, è la stessa: la mente non è identica al corpo, né è una sua parte, o una

sua funzione.

Un ulteriore attacco diretto in maniera esplicita alle tesi materialiste e, in particolare,

all’Intelligenza Artificiale forte, è quello della stanza cinese formulato dallo stesso Searle,

che verrà presentato in forma più estesa nel paragrafo successivo.

3.3 L’esperimento mentale della stanza cinese

La confutazione attualmente più nota dell’intelligenza artificiale forte è l’argomento della

“stanza cinese”. Secondo la teoria della IA forte, che abbiamo già riportato in precedenza,

è possibile acquisire una capacità cognitiva semplicemente implementando il programma

di computer che simula questa capacità.

Supponiamo di chiudere in una stanza un individuo che non conosce la lingua cinese

(Searle, 1997; Searle, 2004). A sua disposizione vi sono scatole piene di simboli cinesi (il

e un manuale di regole (il programma informatico). L’individuo riceve

database)

dall’esterno dei simboli cinesi (input), ma non sa che si tratta di domande, poiché non ne

comprende il significato. Il manuale di cui è in possesso indica quali simboli deve usare

per rispondere (output), sempre senza illustrarne il significato. I simboli vengono

manipolati seguendo le regole del manuale, fornendo così le risposte ad ogni domanda

ma, se anche il soggetto dovesse superare il test di Turing per la comprensione del cinese,

è evidente che in realtà continua a non saper nulla della lingua (Searle, 2004).

Se l’individuo persiste a non comprendere il cinese pur implementando il programma

informatico che fornisce i simboli-risposta in seguito ai simboli-domanda, allora nessun

31

altro computer potrà farlo, pur implementando il programma, perché nessun computer

possiede qualcosa che l’individuo non abbia. Se ad esempio al soggetto in questione

venissero poste domande nella sua lingua madre, la qualità delle risposte sarebbe

ovviamente completamente differente; all’esterno, non verrebbe percepita alcuna

differenza fra le risposte in cinese e quelle nella lingua madre e per entrambe il test di

Turing sarebbe superato, ma dall’interno la differenza sarebbe enorme: questo è un

esempio di distinzione fra computazione e comprensione reale (ibid.).

Prima della pubblicazione della confutazione della stanza cinese, le critiche alla IA si

basavano sostanzialmente sulla considerazione che un computer non ha e non può

acquisire certe abilità che sono prerogativa esclusiva della mente umana (Searle, 2004).

Ma questa linea di attacco appare farraginosa perché, osserva Searle, non appena

qualcuno afferma che esiste un compito che un computer non è in grado di svolgere,

quasi sempre, in risposta, viene elaborato un programma che permette invece

l’esecuzione proprio di quel compito. L’argomento della stanza cinese adotta invece un

altro tipo di approccio. Non nega infatti che l’IA sia in grado di simulare perfettamente la

cognizione umana (simulare, appunto), nozione propria della tesi dell’Intelligenza

Artificiale debole (Searle, 1992). Ammette che i ricercatori possano certamente elaborare

un programma che superi il test di Turing per il cinese così come per qualunque altra

lingua, ma resta il fatto che il computer opererà sempre e comunque manipolando

simboli: le operazioni del computer sono definite infatti in maniera sintattica, mentre la

mente umana associa un significato ai simboli.

I programmi sono completamente sintattici, mentre la mente umana possiede una

semantica, e la sintassi da sola non è sufficiente per la semantica (Searle, 1997).

Searle (2004) aggiunge poi che sia la computazione che la sintassi sono funzioni relative

all’osservatore e non intrinseche al computer. Se, per esempio, digitiamo sulla

calcolatrice l’operazione “2+2=”, la calcolatrice fornirà il risultato “4” senza saper nulla di

computazione aritmetica o di simboli matematici. Essa è infatti un insieme di circuiti

elettronici che usiamo per eseguire calcoli; ciò che avviene fisicamente fra i circuiti è

intrinseco alla macchina, ma il senso attribuito al risultato è prerogativa dell’osservatore.

Allo stesso modo, l’informazione contenuta in un libro è relativa a chi legge e non

intrinseca: è l’osservatore che dà un significato all’insieme di simboli stampati sulle

pagine.

Per questo motivo, è impossibile “scoprire” se il cervello sia un computer digitale, perché

la funzione della computazione non viene “scoperta”, bensì “attribuita” (ibid.). Nessuna

macchina, nemmeno il cervello, può costituire intrinsecamente un computer digitale, se

non per un osservatore cosciente che riflette sulla computazione stessa. Il quesito

corretto da porsi è, continua Searle, se si possa attribuire una interpretazione

computazionale al cervello; la risposta è che si può attribuire una interpretazione

computazionale a qualunque cosa.

L’argomento più di frequente avanzato come critica alla confutazione della “stanza

cinese” ad opera dell’università di Berkeley è quello che Searle stesso (2004) chiama

32

“risposta del sistema”. I sostenitori di tale idea affermano che, sebbene il soggetto chiuso

nella stanza non capisca nulla di cinese, esso va considerato come parte di un sistema più

ampio, costituito non solo dalla persona, ma anche dalla stanza, il manuale, le scatole, le

finestre, … e quindi non è l’individuo, bensì l’intero sistema, la stanza nel suo complesso a

capire il cinese. Searle risponde che, se l’individuo non è in grado di comprendere gli

ideogrammi cinesi, in quanto in possesso della sintassi ma non della semantica, allora non

potrà farlo nemmeno la stanza, perché essa non ha alcun mezzo in più, rispetto

all’individuo, che le permetta di passare dalla sintassi alla semantica, cioè di attribuire un

significato ai simboli. L’individuo interiorizza tutti gli elementi del sistema (Searle, 1980).

Non c’è nulla, all’interno del sistema, che egli non comprenda, al punto che ci si potrebbe

anche sbarazzare della stanza. I computer dunque possono manipolare i simboli, ma la

manipolazione di per sé non implica la possibilità di attribuire un significato ai simboli

stessi. E quali sarebbero i motivi che inducono le risposte del sistema? Cioè per quali

“ragioni indipendenti” l’individuo nella stanza dovrebbe contenere in sé un

“sottosistema” che comprenda le storie in cinese? Si può solo affermare che esistono

degli input e degli output uguali a quelli che darebbe un nativo cinese, ma questo non

sarebbe sufficiente a far comprendere la lingua. Un punto fondamentale della questione

è che proprio la prova di Turing risulta in tal caso inadeguata: ci potrebbero essere infatti

due “sistemi” (un individuo che non conosce il cinese e un madrelingua cinese) che

superano entrambi la prova, ma uno solo dei due realmente capisce il cinese, l’altro

semplicemente “agisce” nel cinese. Se reputassimo sufficiente l’esistenza di un input, di

un output e di un adeguato programma per asserire che un dato sistema abbia

cognizione, allora anche il nostri organi, il fegato, il cuore, lo stomaco... sarebbero sistemi

dotati di comprensione, perché dotati appunto di tali requisiti. Quest’ultimo punto, in

particolare, si riferisce ad un problema più ampio nell’ambito delle ipotesi della IA forte.

Se si vuole che l’IA forte venga considerata una branca della psicologia, allora deve essere

in grado di poter distinguere un sistema mentale da uno non mentale, quindi deve poter

indicare quali siano i principi in base ai quali i sistemi mentali operano e distinguerli da

quelli con cui operano i sistemi non mentali. Inoltre, tale distinzione deve essere

ovviamente intrinseca ai sistemi, cioè non può essere evidente solo all’osservatore,

altrimenti ognuno potrebbe reputare “mentali” diversi sistemi in modo puramente

arbitrario. Però spesso nella letteratura della IA, questo concetto appare molto confuso.

Ad esempio McCarthy (1979) arriva ad attribuire delle opinioni a un termostato o anche a

qualunque macchina semplice in grado di eseguire risoluzioni di problemi. Ma, replica

Searle, anche se ammettessimo che un termostato possa avere convinzioni, di qualunque

tipo, allora non si potrebbe più considerare l’IA come una “scienza della mente”, perché

in tal caso la mente sarebbe ovunque, nel termostato così come nello stomaco, o nel

telefono e così via, e l’IA non sarebbe dunque più in grado di stabilire cosa distingue la

mente da una di queste macchine.

La replica di Berkeley non è l’unica critica mossa all’argomento della stanza cinese. La

“replica del robot” dell’università di Yale consiste nell’immaginare di inserire un computer

33

dentro un robot, tale non solo da ricevere simboli formali come input ed emettere simboli

formali come output, ma in grado di far funzionare il robot affinché esso possa

comportarsi in modo simile al percepire, camminare, mangiare... Ad esempio, il robot

potrebbe avere una telecamera per “vedere”, braccia e gambe per “agire”, azioni tutte

controllate dal computer inserito al suo interno. Un tale robot sarebbe in possesso di una

vera capacità di comprensione e di altri stati mentali. Searle osserva che tale ipotesi

ammette intanto, fra le righe, che la cognizione non sia mera manipolazione di simboli, in

quanto prevede un insieme di relazioni causali che coinvolgono il mondo esterno. Searle

aggiunge però che l’idea di considerare il robot in possesso di capacità ”percettive” e

“motorie” non si discosta dalla ipotesi originaria del programma di Schank riguardo alla

comprensione e all’intenzionalità e propone il seguente controesempio. Si supponga che,

invece del computer dentro il robot, si metta il solito individuo all’interno della stanza e

come al solito si forniscano i simboli cinesi e il manuale di istruzioni per usarli. Si

supponga inoltre che, all’insaputa del soggetto, alcuni dei simboli cinesi forniti

provengano da un apparecchio televisivo contenuto all’interno del robot e altri simboli

cinesi che il soggetto distribuisce servano a far muovere gli arti del robot. Dunque

l’individuo riceve le informazioni dall’apparato “percettivo” del robot, e di rimando

distribuisce istruzioni al suo apparato motorio, ma sempre e soltanto manipolando i

simboli, senza conoscerne il significato. Appare evidente allora come il robot non sia in

possesso di alcuno stato intenzionale: in pratica, si muove semplicemente a causa dei fili

e dei collegamenti elettrici al suo interno.

Un altro tentativo di critica all’argomento della stanza cinese è la replica del “simulatore

del cervello” (Berkeley e MIT), che consiste nel supporre di implementare un programma

che, a differenza di quello di Schank, simuli l’effettivo funzionamento di neuroni e sinapsi

del cervello di un cinese madrelingua quando comprende una storia in cinese e fornisce

risposte in cinese. Dunque si ha a disposizione una macchina che riceve storie e domande

in cinese come input, simula la struttura formale di un cervello cinese che comprende la

lingua, ed emette risposte in cinese come output. In tal caso si dovrà ammettere che la

macchina è in grado di capire, dal momento che non vi è alcuna differenza fra il

programma del cervello cinese a livello di sinapsi e il programma del computer. Searle

replica che, sebbene tutto ciò si avvicini molto all’effettivo funzionamento del cervello,

resta ancora insufficiente a spiegare la comprensione. Si può supporre infatti che,

all’interno della stanza cinese, si abbia adesso un individuo che operi con un complesso

sistema di condutture per l’acqua, con un complicato sistema di valvole. Quando l’uomo

riceve i simboli cinesi, controlla le istruzioni che indicano quali valvole deve aprire e

chiudere. Si può immaginare che ogni giuntura fra i tubi corrisponda ad una sinapsi del

cervello cinese e tutto il setting sia organizzato in modo che a valle dei tubi fuoriescano le

corrette risposte cinesi dopo aver azionato i tubi giusti. E’ evidente allora che il sistema

ora descritto non ha alcuna capacità di comprensione, dal momento che la funzione del

cervello che esso simula, e cioè la struttura formale dell’insieme di sinapsi, non è quella

34

adeguata a tale fine, poiché non simula le proprietà causali del cervello e le sua capacità

di produrre stati intenzionali.

Esiste una “replica combinata” (Berkeley e Stanford) che unisce le tre precedenti: si

supponga di disporre di un robot con un computer nel cranio programmato in modo da

simulare le sinapsi di un cervello umano e si supponga che il comportamento del robot sia

identico al comportamento umano a un livello tale che non possano distinguersi

differenze. Se si considera il tutto come un sistema unificato, e non solo come un

computer, si dovrà allora certamente attribuire intenzionalità al sistema. Searle osserva

che in effetti, se fosse possibile costruire un robot che simuli perfettamente il

comportamento umano, saremmo portati ad attribuirgli intenzionalità, fino a quando

non sia provato il contrario. Per cominciare, tutto ciò in ogni caso non servirebbe a

consolidare gli assunti della IA forte, la quale asserisce che elaborare un programma

formale con i necessari input e output rappresenti già di per sé una produzione di

intenzionalità. L’intenzionalità che in questa replica si attribuisce al computer non ha

alcuna relazione però con i programmi formali, perché si basa invece sull’osservazione del

comportamento del computer che ci fa pensare che debba avere stati mentali come gli

umani, fino a prova contraria. Ma se fossimo a conoscenza che il robot opera secondo un

programma formale opportunamente elaborato, allora non gli attribuiremmo alcuna

intenzionalità.

Un’ulteriore replica, detta “delle altre menti”, arriva da Yale. Poiché dal comportamento

di una persona siamo in grado di sapere se essa conosce il cinese o qualsiasi altra cosa,

dobbiamo attribuire al computer capacità conoscitiva perché anch’esso è in grado

superare i test di comportamento. Ma il vero problema, risponde Searle, non è in realtà

capire come le persone possiedono stati cognitivi, ma cosa noi attribuiamo ad esse

quando li riteniamo in possesso di stati cognitivi. I procedimenti computazionali, così

come gli input e gli output, non necessitano di stati cognitivi per esistere.

Infine, la replica “delle molte sedi” (Berkeley): se la condizione necessaria ad attribuire

stati cognitivi è l’esistenza di un procedimento causale, e dunque l’intenzionalità, prima o

poi la scienza sarà in grado di costruire dispositivi dotati appunto di tali procedimenti

causali e sarà questa la vera IA. La sola risposta che Searle fornisce è quella di ritenere

che tale dichiarazione banalizzi di fatto il progetto della IA. La tesi originale della IA era

quella che i processi mentali fossero “procedimenti computazionali che operano su

elementi formalmente definiti” (Searle, 1984, p. 63). Se la tesi, con la replica delle molte

sedi, viene modificata e stravolta in modo da essere diversa da quella originaria, le

obiezioni di Searle, ammette l’autore stesso, non sono più valide.

3.4 Refutazione dell’Intelligenza Artificiale forte

3.4.1 Il ruolo dell’intenzionalità 35

Dopo aver esplorato le tesi principali che avvalorano o che hanno condotto storicamente

alla formulazione dei paradigmi dell’Intelligenza Artificiale, è possibile addentrarsi nel

cuore dell’analisi che Searle offre riguardo le problematiche filosofiche legate al

computazionismo. Ricordiamo innanzitutto che l’autore propone una distinzione

fondamentale tra le tesi dell’IA “debole” e dell’IA “forte”. È verso quest’ultima che rivolge

le proprie obiezioni, verso l’ipotesi secondo cui “il computer appropriatamente

programmato è realmente una mente, nel senso che i computer, cui sono stati dati i

programmi giusti, capiscono e hanno altri stati cognitivi” (Searle, 1984, p. 46). L’idea che

un calcolatore possa avere pensieri, sentimenti e facoltà di comprensione solamente per

mezzo dell’implementazione di un programma adeguato è molto forte. Una prima replica

di Searle a questi argomenti fu pubblicata nel 1980, all’interno dell’articolo Minds, Brains

(Menti, Cervelli e Programmi), in cui l’autore articola una riflessione sulla

and Programs

base di alcune affermazioni circa l’intenzionalità degli individui. L’evidenza empirica ci

mostra che esistono relazioni causali tra i processi mentali, quale ad esempio

l’intenzionalità, ed i meccanismi interni al cervello (Searle, 1980). Inoltre, l’assunzione

principale che Searle intende dimostrare, è che installare un programma all’interno di un

computer non è mai, da sola, una condizione sufficiente per produrre intenzionalità. Una

diretta conseguenza di queste due asserzioni è che un sistema in grado di produrre

intenzionalità deve avere poteri causali uguali a quelli del cervello, per cui ogni tentativo

artificiale di creare intenzionalità dovrebbe riprodurre i caratteri causali inerenti al

cervello umano.

Come abbiamo visto ripercorrendo i principali progressi scientifici conseguiti nel campo

dell’Intelligenza Artificiale, uno dei traguardi più importanti a proposito del linguaggio

naturale ad opera di una macchina è quello raggiunto da Schank e i suoi colleghi di Yale

(Schank, 1975; Schank, 1980; Schank e Abelson, 1977; Searle, 1980). L’idea alla base di

questo programma era di simulare la capacità, propria degli esseri umani, di comprendere

un racconto. All’interno della sua pubblicazione, Searle riporta il caso di Schank come

esempio per qualsiasi altra simulazione dei fenomeni mentali ad opera di una macchina di

Turing. Sulla base del paradigma dell’IA forte, il sistema ideato da Schank non è

solamente in grado di riprodurre l’abilità umana di comprensione. I fautori di questa

dottrina ritengono che la macchina capisca letteralmente la storia per mezzo del

programma instanziato e che si possa, tramite questo modello, spiegare in che modo la

mente umana riesca ad assimilare una storia e a rispondere alle domande su essa. Queste

tesi vengono esaminate alla luce del della camera cinese che è stato

Gedankenexperiment

presentato nel paragrafo precedente (Searle, 2004). La conclusione che Searle evince da

questo esperimento è che l’individuo all’interno della stanza non capisca neppure uno tra

i simboli cinesi che gli vengono presentati e che dunque non comprenda il senso delle

frasi. Il computer non ha nulla di più rispetto all’essere umano e ciò significa che il sistema

di Schank non ha alcuna cognizione circa il significato delle storie che gli vengono

sottoposte (Searle, 1980). Ne consegue che il computer ed il suo programma non

soddisfino condizioni di comprensione sufficienti per spiegare i processi con cui una

36

mente umana apprende ed elabora una storia. Supponendo che sia possibile costruire un

programma che abbia gli stessi input e output di dati rispetto ad un nativo di

madrelingua, è plausibile assumere che a differire tra il caso del testo in inglese - in cui

l’individuo capisce - ed il caso del testo in cinese - in cui l’individuo non capisce - sia solo il

grado di manipolazione formale. Lo stesso Searle ammette che, nonostante la sua

veridicità non sia mai stata dimostrata, questa teoria dell’IA forte sia una possibilità

empirica. Ad ogni modo, l’argomento della stanza cinese sembra suggerire che non ci sia

nulla di rilevante in un programma di computer per quanto riguarda la comprensione

umana di una storia: nel caso del testo cinese, la persona possiede tutto ciò che si

potrebbe implementare in una macchina per mezzo di un e, nonostante ciò, non

software

capisce nulla della lingua; nel caso del testo inglese, invece, non c’è ragione di supporre

che la comprensione dei simboli sia legata ad operazioni computazionali sul piano

puramente formale tipiche dei computer. Il genere di comprensione che viene attribuito

ai computer non è quello metaforico che nella vita quotidiana si tende ad attribuire a

qualsiasi altra macchina.

Newell e Simon (1963) sostengono che il computer ha esattamente lo stesso tipo di

cognizione di un essere umano ed è proprio questa la tesi che Searle (1980) intende

confutare. Per introdurre la concezione di Searle circa i tipi di intenzionalità - intrinseca,

“come-se” e derivata -, bisogna affrontare innanzitutto il problema delle relazioni che

intercorrono tra la coscienza, il comportamento ed il cervello. Nella sua pubblicazione del

1992, Searle propone una serie di esperimenti mentali per contraddire la tesi secondo cui

esistono importanti connessioni interne tra la vita mentale ed il comportamento.

Il primo esperimento proposto dall’autore è quello dei cervelli di silicio (Searle, 1982;

Searle, 1994, p. 82). Supponiamo che ci sia un uomo il cui cervello inizi a deteriorarsi in

una maniera tale da fargli perdere gradualmente la vista. I medici, nel tentativo disperato

di salvare la vista dell’uomo ed alleviare il suo dolore, tentano di innestare dei chip di

silicio nel suo cervello. La soluzione sembra risolvere il problema della vista, che ritorna

perfettamente normale. Tuttavia, il cervello continua irrimediabilmente a deteriorarsi ed i

dottori sono costretti ad impiantare continuamente nuovi chip nella corteccia cerebrale,

sino a rimpiazzarla completamente. A questo punto, sono molteplici le cose che

potrebbero accadere. Per quanto Searle la ritenga un’ipotesi improbabile, non si può

escludere che i chip in silicio riescano a riprodurre perfettamente il potere causale dei

neuroni, consentendo di duplicare anche i fenomeni mentali e coscienti dell’individuo

(ibid.). Un altro possibile esito di questa storia potrebbe essere che lo spazio delle

esperienze coscienti, a mano a mano che nuovi chip di silicio vengono installati nel

cervello dell’uomo, tenda a rimpicciolirsi. Senza che ciò si ripercuota in alcun modo sul

comportamento esteriore, è possibile che il controllo sugli stati coscienti finisca per

annullarsi. Così, mentre i chip continuano a riprodurre le funzioni input-output, l’uomo

inizia a perdere il controllo sulle proprie azioni fino al collasso totale della coscienza.

Infine, una terza variante dell’esperimento prevede che si verifichi l’esatto opposto: i chip

di silicio nel cervello dell’uomo non apportano alcun cambiamento sulla vita mentale, ma

37

a livello comportamentale diventa sempre più difficile tradurre pensieri, intenzioni e

desideri in azioni. Pur essendo la coscienza ancora presente, non vi è alcun modo di

comunicarlo esternamente ai medici i quali, non riscontrando nessuna risposta

comportamentale, potrebbero dare per scontato che sussista una condizione di morte

cerebrale (ibid.).

Le tre variazioni dell’argomento appena esposto mettono in luce uno degli aspetti cruciali

legati al rapporto tra mente e comportamento: per Searle, dal punto di vista ontologico il

comportamento, il ruolo funzionale e le relazioni causali sono irrilevanti per l’esistenza

dei fenomeni mentali coscienti; il comportamento, tuttavia, ci mette in parte a

conoscenza degli stati mentali coscienti delle altre persone, mentre la coscienza media le

relazioni causali tra gli input ambientali e gli output comportamentali, esercitando il

controllo su questi ultimi (Searle, 1992). Un sistema potrebbe possedere fenomeni

mentali coscienti e ciononostante essere privo di espressioni comportamentali, o

viceversa avere un comportamento che sia privo di coscienza e ciò dimostra quello che

viene definito il principio dell’indipendenza tra coscienza e comportamento.

Un altro argomento, chiamato esperimento dei robot coscienti, suggerisce ancora che

nell’ontologia della coscienza il comportamento non ha alcuna rilevanza (Searle, 1992). Si

immagini di riuscire a progettare dei robot, destinati a lavorare in una catena di

montaggio, che siano stati idealmente resi in grado di compiere mansioni sofisticate.

Grazie alla conoscenza delle proprietà elettrochimiche della coscienza umana, si è riuscito

a produrre un modello di robot cosciente in grado di portare a termine un lavoro migliore

al punto di vista qualitativo. Si supponga adesso che con il passare del tempo insorga un

problema con i robot e che ci si accorga che questi si dimostrino infelici. Il gruppo di

ricerca robotica è costretto non solo a sollevare dall’incarico i robot tristi, ma di crearne

altri che pur essendo in grado di svolgere tutte le mansioni dei loro predecessori, siano

privi di fenomeni mentali. Si può, da un punto di vista puramente fantascientifico,

immaginare che il progetto vada a buon fine e che la nuova tipologia di robot riesca a

comportarsi esattamente come il modello precedente, pur senza dimostrare alcuno stato

cosciente. Questo esperimento dimostra come il comportamento non sia

necessariamente indicativo, di per sé, della presenza di stati coscienti all’interno di un

sistema, poiché una macchina cosciente può mettere in atto un comportamento identico

a quello di una macchina priva di vita mentale (ibid.).

Moltissimi fatti possono essere empirici da un punto di vista ontologico e fare parte del

mondo, pur non essendo empirici in senso epistemico e quindi risultare non accessibili a

tutti gli osservatori (Searle, 1992). È indiscutibile che il comportamento sia un aspetto

essenziale della vita reale, ma esso non è condizione necessaria né sufficiente per

l’esistenza degli stati mentali di un individuo, proprio come è stato messo in evidenza

dagli esperimenti riportati. È possibile, a questo punto, introdurre una distinzione che si

dimostra cruciale all’interno del dibattito filosofico dell’IA forte (Searle, 1992).

Quando si attribuisce un fenomeno mentale intenzionale ad un altro sistema,

l’affermazione formulata può presentare diversi tipi di condizioni di verità. Quando

38

nell’oggetto dell’attribuzione è realmente presente uno stato intenzionale, si parla di

intenzionalità intrinseca. Essa è parte della natura biologica degli esseri umani e di certi

tipi di animali. In questo caso le affermazioni circa quell’oggetto saranno letterali e riferite

a stati intenzionali che vengono realmente avvertiti. In secondo luogo, è possibile che lo

stato mentale attribuito sia semplicemente metaforico o figurativo: in questo caso si parla

di un’intenzionalità come-se, poiché non vi è nulla di intrinseco, non vi è alcuno stato

veramente intenzionale. Il sistema, semplicemente, è come-se-avesse-intenzionalità.

Frequentemente, infine, si attribuiscono proprietà intenzionali a fenomeni non mentali,

come quando affermiamo che un enunciato “significa”, o “rappresenta” qualcosa. Anche

se l’enunciato ha a tutti gli effetti il significato che gli viene attribuito, di certo non si può

parlare di un’intenzionalità intrinseca. Si tratta, più che altro, di un tipo di intenzionalità

derivata dall’agente umano che ha formulato l’affermazione (ibid.).

La differenziazione su cui è particolarmente importante porre l’accento ai fini di questa

rassegna è quella tra intenzionalità intrinseca ed intenzionalità come-se. Questa

distinzione è spesso stata negata, incappando, secondo Searle (1992) in una generale

che obbliga a sostenere l’idea che tutto quanto, nell’universo,

reductio ad absurdum

abbia un’intenzionalità. Se ciò fosse vero, dovremmo poter manipolare gli stati mentali di

qualsiasi altra nostra entità fisica, esattamente come facciamo con il nostro cervello.

3.4.2 Il problema della realizzabilità multipla e la sintassi

Continuando a fare riferimento all’esperimento della stanza cinese, deve esserci,

nell’individuo, un qualcosa che crea la condizione di capire l’inglese e, allo stesso modo,

deve esserci qualcosa che manca e che impedisce alla persona di comprendere il cinese

(Searle, 1980). Di qualsiasi cosa si tratti, Searle cerca di chiarire se questo qualcosa possa

essere implementato, o meno, all’interno di una macchina. Egli ritiene che questo sia

impossibile se le operazioni di tale macchina sono definite unicamente dall’installazione

di un programma di computer. L’intenzionalità non deriva da un implementato

software

nella mente umana, ma, per quanto ne sappiamo dalla struttura chimica e fisica del

nostro cervello che, sotto certe condizioni, è in grado di produrre percezioni, azioni,

sensazioni ed altri tipi di stati mentali intenzionali. Nessun modello puramente formale

sarà mai sufficiente in sé per produrre intenzionalità, ma forse, un modello con altri

processi fisici e chimici, potrebbe ottenere gli stessi effetti del nostro cervello nel

generare fenomeni mentali. “Quello che importa nelle operazioni del cervello sono le

effettive proprietà delle sequenze della sinapsi” (Searle, 1984, p. 65), eppure

riallacciandosi alla definizione classica di computazione, ci rendiamo conto che per i

fautori di questa declinazione del funzionalismo non è affatto così (Searle, 1992). Secondo

la definizione originaria della macchina di Turing (Turing, 1950), questi dispositivi sono

formati da un lungo nastro infinito su cui il sistema può manipolare (cancellando,

spostando e riscrivendo) una coppia di numeri, generalmente 0 e 1, sulla base di un

programma di istruzioni. Se presa alla lettera, questa descrizione diventa a dir poco

39

fuorviante: qualsiasi sistema che utilizza valori binomiali che possono essere identificati

come 0 e 1 può essere trattato come un calcolatore digitale ed una macchina del genere

potrebbe essere costituita praticamente da qualunque cosa. “Potrebbe trattarsi di un

sistema di leve e ingranaggi come un vecchio calcolatore meccanico; di un sistema

idraulico attraverso cui scorre acqua; di una rete di transistor stampati in un chip di silicio

attraverso cui passa corrente elettrica; o, addirittura, di un cervello. Ognuna di queste

macchine utilizza un proprio mezzo peculiare per rappresentare i simboli dell’aritmetica

binaria: le posizioni degli ingranaggi, la presenza o assenza di acqua, il livello di tensione

elettrica, e, forse, gli impulsi nervosi” (Johnson-Laird, 1988, p. 39; Searle, 1994, p. 221). I

teorici della tesi cognitivista riportano questi risultati con grande entusiasmo, sebbene

Searle (1992) lo trovi pressoché sconfortante. Come sottolinea Ned Block (1990) nella sua

opera, ai fini della descrizione computazionale, la realizzazione non è rilevante.

hardware

Egli prende in considerazione il sistema di un cancello, cui fa corrispondere, in maniera

del tutto convenzionale, la coppia di simboli 0 e 1 ai livelli di tensione di 4 e 7 volt.

Tuttavia, egli sostiene anche che questi cancelli potrebbero essere realizzati senza

elettricità, ma usando un complesso sistema di gatti, topolini e pezzetti di formaggio in

modo tale che il gatto, strattonando il guinzaglio cui è legato, apra il cancello. Questo

sistema è considerato trattabile in termini di valori 0 e 1, in relazione allo stato di

apertura o di chiusura del cancello (ibid.). Ancora, sottolinea Pylyshyn, una sequenza

computazionale potrebbe essere realizzata da “un gruppo di piccioni addestrati a

becchettare come una macchina di Turing” (Pylyshyn, 1984, p. 57; Searle, 1994, p. 222).

La tesi della realizzabilità multipla comporta, a detta di Searle (1992), una serie di

complicazioni piuttosto preoccupanti.

L’idea che per costruire un sistema in grado di svolgere le stesse operazioni eseguite dal

cervello possiamo servirci praticamente di qualsiasi cosa è realizzabile dal punto di vista

puramente sintattico. Non c’è nulla, a livello degli effetti fisici, che accomuni i processi dei

vari tipi di sistemi computazionali che abbiamo descritto. La computazione definita come

decodificazione di informazioni nel codice binario degli 0 e degli 1 è costituita da

operazioni meramente sintattiche (Searle, 1997). Le caratteristiche peculiari dei simboli

utilizzati sono formali o sintattiche, ma Searle sostiene che, sulla base della loro

esperienza personale, gli individui sappiano che la mente è qualcosa di più. La mente non

è solo manipolazione di simboli formali, poiché ha dei contenuti. La sintassi, inoltre, non è

intrinseca alla fisica: l’attribuzione di proprietà sintattiche è relativa ad un osservatore e

alla sua interpretazione dei suddetti fenomeni fisici (Searle, 1992). La peculiarità del cuore

di essere una pompa, o la capacità di eseguire fotosintesi che appartiene alle foglie,

entrambe queste caratteristiche emergono dalla realtà fisica di queste due entità e non

certo da un’attribuzione arbitraria o convenzionale da parte di un agente umano. Sapere

che il cervello è un calcolatore nella misura in cui qualsiasi altro sistema che segua la

definizione classica della computazione non è sufficiente per caratterizzare il cervello

come un calcolatore digitale, poiché questa descrizione è basata su una spiegazione

unicamente sintattica. Per qualsiasi oggetto è possibile un’interpretazione capace di

40

descriverlo come un calcolatore digitale e se un oggetto è sufficientemente complesso, vi

è una definizione per cui esso implementa un certo programma. Searle (1992) ritiene che

il problema della realizzabilità multipla possa essere risolto restringendo la definizione di

computazione, smettendo, dunque, di limitarsi alla struttura formale. Una spiegazione più

chiara dovrebbe porre l’accento sulle relazioni causali tra gli stati dei programmi, sulla

programmabilità e sulla controllabilità del meccanismo e sulla sua collocazione nel mondo

reale. Tuttavia, ciò non elimina il problema di fondo dell’attribuzione sintattica ad opera

di un osservatore esterno. Se con l’esperimento della stanza cinese Searle ci dimostra che

la semantica non è intrinseca alla sintassi, adesso sostiene l’idea che la sintassi non sia

intrinseca alla fisica. Sebbene le occorrenze simboliche siano sempre occorrenze fisiche,

nozioni come quella di “simbolo” non sono affatto definite sulla base di proprietà fisiche.

L’autore non vuole porre a priori dei limiti alle scoperte realizzabili nel campo delle

scienze cognitive, ma semplicemente sottolinea che attribuire ad un sistema un

funzionamento analogo a quello di un computer, non è altro che un’interpretazione

messa in atto da un fruitore esterno. In generale, le proprietà relative all’osservatore non

sono necessariamente intrinseche; e quindi, le proprietà computazionali, attenendosi alla

definizione classica della computazione, non sono caratteristiche intrinseche, bensì

relative all’osservatore. La tesi di Searle qui esposta può essere dunque sintetizzata con le

parole dello stesso autore: “Scopo delle scienze naturali è scoprire e descrivere le

proprietà intrinseche del mondo naturale. La scienza cognitiva computazionale - per il

modo stesso in cui definisce la computazione e i processi cognitivi - non può in alcun

modo essere considerata una scienza naturale; la nozione di computazione, lungi

dall’essere una proprietà intrinseca del mondo, è infatti essenzialmente relativa a un

osservatore” (Searle, 1994, p. 227). Dunque non è possibile scoprire che il cervello è un

calcolatore digitale. È possibile assegnargli un’interpretazione computazionale così come

possiamo farlo per qualsiasi altra cosa, ma i suoi processi non possono essere

intrinsecamente computazionali perché ciò andrebbe contro la visione classica della

computazione stessa.

Secondo la teoria tradizionale formulata da Newell (1982), inoltre, esistono tre livelli di

spiegazione causale dei processi in atto nel cervello: il livello dei programmi e

hardware,

dell’intenzionalità, chiamato livello della coscienza. Il contributo specifico delle scienze

cognitive si traduce a livello dei programmi, mentre i processi cerebrali, di per sé,

rappresentano solo gli in cui implementare i necessari per fornire le

hardware software

spiegazioni richieste. Tuttavia, come è stato già specificato, i simboli binari che si suppone

vengano manipolati dal cervello non hanno alcun potere causale, in quanto esistono

solamente dal punto di vista di un osservatore. Ma soprattutto, il programma non ha

alcuna ontologia se non quella che gli è conferita dal fruitore esterno quindi, dal punto di

vista fisico, non esiste affatto il livello dei programmi (Searle, 1992).

Molti sostenitori delle scienze cognitive opporranno alle critiche esposte finora l’idea che

la differenza tra il cervello e tutti gli altri sistemi descritti è che il primo è un sistema per

l’elaborazione di informazioni e che questa sua caratteristica sarebbe intrinseca. Secondo

41

Searle (1992), non è possibile aggirare in questo modo le argomentazioni esposte finora,

perché il cervello non elabora le informazioni come fanno i calcolatori. Nel cervello si

verificano processi neurobiologici unicamente intrinseci che, talvolta, producono

coscienza, mentre all’interno del calcolatore la codifica delle informazioni è soggetta

all’interpretazione di un agente esterno. In sintesi, la nozione di elaborazione di

informazioni così com’è stata formulata dalle scienze cognitive, è troppo astratta. Le

informazioni elaborate dal cervello sono sempre relative ad una modalità specifica, sia

essa l’udito o il tatto; dall’altro lato, i modelli computazionali si limitano a produrre

insiemi di simboli di output sulla base di insiemi di simboli in entrata (input).

3.4.3 I calcolatori possono pensare?

È con questo quesito che si concluderà questa breve rassegna delle principali questioni

teoriche che fanno da cornice al pensiero articolato di John Searle. La refutazione

raggiunge qui un punto cruciale, caratterizzante del campo dell’Intelligenza Artificiale

forte. L’autore decide di affrontare i punti filosofici generali sull’argomento in forma di

domande e risposte ed è proprio con una famosa questione che apre il dibattito:

“Una macchina può pensare?”

Per Searle (1980; 1987), la risposta è sì. In un certo senso, noi tutti siamo macchine,

quello che sta dentro la nostra testa può essere rappresentato come una macchina di

carne, e noi tutti siamo in grado di pensare. Perciò, nel senso in cui una macchina viene

intesa come un sistema fisico in grado di compiere certi tipi di operazioni, visto che noi

tutti siamo macchine, allora esistono macchine che possono pensare. È necessario

formulare il quesito in maniera differente:

“Può un artefatto, una macchina fatta dall’uomo pensare?”

Ancora una volta, dipende dal tipo di artefatto (ibid.). Se fosse possibile produrre

artificialmente una macchina indistinguibile molecola per molecola da un sistema

nervoso, si riprodurrebbero esattamente le cause e quindi, presumibilmente, gli effetti. In

questo caso sarebbe possibile a tutti gli effetti generare consapevolezza, intenzionalità e

tutto il resto utilizzando altri principi chimici. In linea di principio, quindi, considerando un

manufatto artificiale di questo tipo, la risposta è ancora sì. Bisogna restringere

ulteriormente il campo:

“Può un calcolatore digitale pensare?”

In questo caso, bisogna fare chiarezza su cosa si intende per calcolatore digitale. Da un

punto di vista matematico, se si definisce calcolatore digitale qualsiasi struttura

42

esemplificante o implementante un programma, allora qualsiasi cosa può essere descritta

come se fosse un calcolatore digitale. Persino una penna ferma sul tavolo può essere

definita come un calcolatore che ha installato al suo interno un programma che dice “Stai

lì”. In questa accezione, anche i nostri cervelli possono essere considerati dei computer,

poiché l’essere umano implementa una grande varietà di programmi così come sono

intesi. Ancora una volta, una domanda simile riceverebbe una risposta affermativa (ibid.).

Ma il vero quesito che si intende porre circa questi argomenti è la seguente:

“Potrebbe una cosa pensare, comprendere, e così via, unicamente per il fatto di essere un

computer con il giusto tipo di programma? Esemplificare o implementare il giusto programma, con

i giusti input e output, potrebbe essere di per sé una condizione sufficiente per il pensiero? È

costitutivo del pensiero?”

In tal caso, Searle (1980; 1987) ritiene che la risposta sia no. Un programma è definito in

maniera puramente sintattica. La manipolazione di simboli formali di per sé non ha alcuna

intenzionalità, ad eccezione di quella che possiedono gli studiosi che li hanno

programmati. I simboli utilizzati dal non hanno alcun significato, mentre il

software

pensiero, d’altra parte, coinvolge anche contenuti semantici significativi, com’è stato già

chiarificato con l’esperimento della stanza cinese. Un calcolatore è semplicemente in

grado di simulare caratteristiche mentali come la coscienza, le sensazioni e le emozioni,

non di riprodurle.

4. Riflessioni conclusive

Questo lavoro si è proposto di ricostruire la posizione di Searle rispetto alle ipotesi

dell’Intelligenza Artificiale forte. In prima istanza, egli condanna i principali approcci allo

studio della realtà, il dualismo e il monismo, e più in generale accusa la visione moderna

del mondo di essere rimasta ingabbiata all’interno di un vocabolario ormai obsoleto.

Searle si chiama fuori dall’insieme di binomi quali dualismo-monismo, mentalismo-

materialismo, o mente-corpo, e propone un punto di vista alternativo per risolvere il

problema del rapporto tra fenomeni mentali e fenomeni biologici. Il naturalismo biologico

rappresenta la posizione secondo cui mente e corpo non sono due cose differenti, bensì

interagiscono nella misura in cui i fenomeni mentali sono caratteristiche del cervello.

Questa visione scalza tanto i fondamenti del monismo quanto quelli del dualismo, ma non

sembra portare al crollo di una visione tanto ampia quant’è quella del funzionalismo

computazionale. Innumerevoli sono gli attacchi formulati alle obiezioni di Searle da parte

degli studiosi cognitivisti. Molti interrogativi rimangono ancora aperti, come mostra la

versione integrale del dibattito sull’Intelligenza Artificiale contenuto nel volume Menti,

Cervelli e Programmi a cura di Graziella Tonfoni nella sua edizione italiana. All’interno del

testo, vengono riportare diverse posizioni su numerosi interrogativi, molti dei quali, ad

oggi, rimangono ancora senza risposta. Qui possiamo limitarci a mettere in luce solo la

43

posizione di John Searle, uno dei molteplici pilastri che sostengono l’intera discussione

sulla conoscenza e sull’intelligenza umana. Può un calcolatore, se opportunamente

programmato, avere una mente? Secondo l’autore, sarà possibile porre una domanda del

genere solo dopo aver perfezionato la definizione stessa di macchina computazionale ed

altre nozioni a suo parere troppo vaghe, che non consentono di delineare una precisa

linea guida per futuri progetti di ricerca. Riguardo la situazione attuale, tuttavia, pur non

avendo forti obiezioni contro il paradigma dell’Intelligenza Artificiale debole, il filosofo si

schiera contro l’idea di fondo dell’Intelligenza Artificiale forte. I calcolatori, per come

vengono progettati al giorno d’oggi, non possono essere considerati come padroni di una

mente simile a quella umana. Essi mancano di alcuni fattori peculiari della vita mentale

dell’uomo, quali l’intenzionalità, la coscienza, la semantica dei pensieri, e così via. Searle

non pone limiti alle possibilità future della ricerca, tuttavia sostiene che l’unica macchina

in grado di pensare, sarebbe quella in grado di riprodurre tutti i processi causali che si

verificano nel cervello e che producono i già citati eventi della vita mentale. 44

Bibliografia

Anderson, M. (1992). Oxford: Blackwell.

Intelligence and development: A cognitive theory.

Armstrong, D. M. (1968). London: Routledge and Kegan

A Materialist Theory of Mind.

Paul.

Binet, A., e Simon, T. (1905). New methods for the diagnosis of the intellectual level of

subnormals. 191.

Annals of Psychology, 11,

Block, N. (1978). Troubles with functionalism. Minnesota Studies in the Philosophy of

pp. 261-325. Minneapolis: Minnesota University Press.

Science, 9,

Block, N. (1990). The Computer Model of the Mind. In D. Osherson e E. E. Smith (a cura

di). vol. 3 (pp. 247-289). Cambridge, MA: MIT Press.

An Invitation to Cognitive Science,

Ceci, S. J. (1990). On intelligence... more or less: A bio-ecological treatise on intellectual

Englewood Cliffs, NJ: Prentice-Hall.

development.

Ceci, S. J. (1996). Cambridge, MA: Harvard

On intelligence: A bioecological treatise.

University Press.

Ceci, S. J., e Roazzi, A. (1994). The effect of context on cognition: Postcards from Brazil. In

R. J. Sternberg e R. K. Wagner (a cura di). Mind in context: Interactionist perspectives on

Cambridge: Cambridge University Press.

human intelligence.

Chomsky, N. (1986). New York -

Knowledge of Language: Its Nature, Origin and Use.

Philadelphia: Praeger Special Studies.

Colby, K. M., Hilf, F. D., Weber, S., e Kraemer, H. (1972). Turing-like Indistinguishability

Tests for the Validation of a Computer Simulation of Paranoid Processes. Artificial

199-221.

Intelligence, 3,

Dennett, D. C. (1978). Brainstorms: Philosophical Essays on Mind and Psichology.

Cambridge, MA: MIT Press.

Descartes, R. (1641). Meditazioni sulla filosofia prima, seconda e sesta meditazione. In E.

Lojacono (a cura di). (pp. 671-680, 718-736). Tr. it. Torino: UTET, 1994.

Opere filosofiche

Di Francesco, M. (2005). Prefazione all’edizione italiana. In J. R. Searle (a cura di). La

(pp. IX-XVIII). Milano: Raffaello Cortina Editore.

mente 45

Ekstrom, R. B., French, J. W., e Harman, H. H. (1979). Cognitive factors: Their identification

Fort Worth: Society for

and replication. Multivariate behavioral research monographs.

Multivariate Experimental Psychology.

Ekstrom, R. B., French, J. W., Harman, H. H., e Derman, D. (1976). Manual for kit of factor-

Princeton, NJ: Educational Testing Service.

referenced cognitive tests, 1976.

Feigenbaum, E. A. e Feldman, J. (1963). New York: McGraw-Hill.

Computers and Thought.

Feigl, H. (1958). The ‘Mental’ and the ‘Physical’. In H. Feigl, M. Scriven, e G. Maxwell (a

cura di). Minneapolis: University of

Minnesota Studies in the Philosophy of Science, vol. 2.

Minnesota Press.

Fodor, J. (1975). New York: Thomas J. Crowell.

The Language of Thought.

Gardner, H. (1993). New York: Basic Books.

Multiple intellgences: The theory in practice.

Gardner, H. (2004a). The unschooled mind: How children think and how schools should

New York: Basic Books.

teach.

Gardner, H. (2004b). New York: Basic

Frames of mind: The theory of multiple intelligences.

Books.

Gardner, H., Kornhaber, M. L., e Wake, W. K. (1996). Intelligence: Multiple perspectives.

Fort Worth: Harcourt Brace.

Grice, P. (1975). Methods in Philosophical Psychology (From the Banal to the Bizzarre).

pp. 22-53.

Proceedings and Addresses of the American Philosophical Association, XLVIII,

Guilford, J. P. (1982). Cognitive psychology’s ambiguities: Some suggested remedies.

48-49.

Psychological Review, 89,

Hobbs, J. R. (1990). Matter, Levels, and Consciousness. Behavioral and Brain Sciences, 13

(4), pp. 610 sg.

Hofstadter, D., e Dennett. D. Tr. it. Milano: Adelphi, 1985.

L’io della mente.

Jackson, F. (1982). What Mary dind’t know. pp. 291-295.

Journal of Philosophy, 83, 46


PAGINE

51

PESO

365.41 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
Università: Torino - Unito
A.A.: 2016-2017

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher californiancrawl di informazioni apprese con la frequenza delle lezioni di Filosofia della mente e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Torino - Unito o del prof Steila Daniela.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in scienze e tecniche psicologiche

Riassunto esame Psicologia Dinamica, prof. Nespoli, libro consigliato Modelli Evolutivi in Psicologia Dinamica II, Quaglia, Longobardi
Appunto
Riassunto esame Psicologia Dinamica, prof. Nespoli, libro consigliato Modelli Evolutivi in Psicologia Dinamica I, Quaglia, Longobardi
Appunto
Riassunto esame Psicologia generale, prof. Del Giudice, libro consigliato Atkinson Hilgard s Introduzione alla Psicologia
Appunto
Riassunto esame Psicologia dello sviluppo, prof. Molina, libro consigliato Psicologia dello sviluppo, Vianello Gini Lanfranchi
Appunto