Anteprima
Vedrai una selezione di 9 pagine su 36
Filosofia della mente e intelligenza artificiale Pag. 1 Filosofia della mente e intelligenza artificiale Pag. 2
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Filosofia della mente e intelligenza artificiale Pag. 6
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Filosofia della mente e intelligenza artificiale Pag. 11
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Filosofia della mente e intelligenza artificiale Pag. 16
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Filosofia della mente e intelligenza artificiale Pag. 21
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Filosofia della mente e intelligenza artificiale Pag. 26
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Filosofia della mente e intelligenza artificiale Pag. 31
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Filosofia della mente e intelligenza artificiale Pag. 36
1 su 36
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Il metodo della simulazione per scoprire il programma PC che determina una capacità cognitiva

La particolare situazione ambientale A (task environment) dipende da un programma PC (software) che, data A, viene prima caricato in memoria e poi eseguito dalla macchina cognitiva universale (la mente) realizzata dal nostro cervello (hardware). Il cervello sta alla mente come l'hardware sta al software.

Sia che si tratti di riprodurre una certa capacità cognitiva C, sia che si tratti di spiegarla, dovremo cercare di scoprire il particolare programma PC da cui dipende. Il metodo che lo permette è il metodo della simulazione. Secondo tale metodo, data una certa situazione ambientale A e la capacità cognitiva C relativa al compito richiesto in A, si tratta di:

  1. Scrivere un programma P che permetta a un calcolatore digitale di comportarsi nella situazione A in modo rilevantemente simile a come si comporterebbe un uomo con la capacità C.
  2. Formulare l'ipotesi che il programma P sia il PC da cui la C dell'uomo dipende.
  3. Ricercare dati

sperimentali che permettano di confermare o smentire tale ipotesi; accettare o rigettare l'ipotesi.

Fermandosi al primo step ci si ritrova con una macchina che simula il comportamento umano al livello dell'IA tecnologica. I procedimenti del programma non sono gli stessi utilizzati dall'uomo, come invece sarebbe in una prospettiva di IA scientifica. Da questo punto di vista si fanno dei progressi nel secondo e terzo step del metodo della simulazione.

Uno dei primi programmi capaci di produrre comportamenti intelligenti in domini limitati ma significativi fu il Logic Theorist, realizzato negli anni Cinquanta da Newell, Simon e Shaw per produrre dimostrazioni di tautologie (leggi logiche proposizionali) mediante il sistema dei Principia Mathematica di Whitehead e Russell. Il LT cercava dimostrare che l'enunciato in questione era un

teorema di questo sistema, quindi chepoteva essere ottenuto a partire dagli assiomi del sistema mediante un numero finitodi applicazioni successive delle regole di inferenza del sistema stesso. Il programmacercava una dimostrazione dell'enunciato fornitogli mediante una backward searchche cercava di ricondurlo agli assiomi del sistema dei Principia utilizzando soltantooperazioni consentite dalle regole di inferenza del sistema stesso. Il metodo era dieuristico,tipo quindi il LT non prendeva in considerazione tutte le possibilità permessedal sistema dei Principia, ma soltanto quelle ritenute più utili o promettenti: ciò nonpermetteva di dimostrare tutti i teoremi del sistema, ma rendeva la ricerca piùefficiente. Il programma fu capace di dimostrare 32 dei primi 52 teoremi.Mentre il LT era capace di operare soltanto in un particolare task environment (laricerca di dimostrazioni di tautologie nel sistema dei Principia), il General ProblemSolver,

sviluppato dagli stessi autori alla fine degli anni Cinquanta, era in grado di affrontare problemi in molti ambienti diversi. Esso consisteva in due parti: una parte conteneva meccanismi generali per la risoluzione di problemi, mentre l'altra conteneva conoscenze specifiche relative a particolari task environment. Cambiando la seconda parte, il GPS era in grado di applicare gli stessi metodi generali a problemi di tipo diverso. Anche il GPS era basato su un metodo di ricerca euristica, in particolare attraverso due euristiche:

  1. l'analisi mezzi-obiettivi, che consiste nel cercare di stabilire la differenza tra la situazione iniziale e l'obiettivo che si vuole raggiungere e nel selezionare una serie di operatori che riducano la differenza;
  2. l'euristica di pianificazione, che consiste nel semplificare il problema di partenza ignorando alcuni dettagli dell'obiettivo.

Questi metodi vengono utilizzati anche dall'uomo per risolvere problemi. Il GPS

Sidimostrò capace di simulare in modo soddisfacente il comportamento di soggetti umani nella risoluzione di certi tipi di problemi. I dati raccolti, tuttavia, non permisero di confermare l'ipotesi che il programma fosse identificabile con le reali procedure di soluzione utilizzate dai soggetti osservati.

Filosofia della mente e intelligenza artificiale Emilia Brundu

Eliza è un programma realizzato da Weizenbaum negli anni Sessanta, in grado di imitare il tipo di conversazione sostenuta da uno psicoterapeuta con i propri pazienti. Esso è basato su parole chiave che vengono cercate nella risposta del paziente e dà un feedback attraverso formule standard: non è un buon modello di comportamento verbale. La procedura alla base del comportamento verbale di Eliza non può essere identificata con i reali processi mentali che generano comportamenti simili in un vero psicoterapeuta, tanto che non riconoscerebbe l'insensatezza di alcune frasi.

Andrebbe avanti nella conversazione applicando le associazioni alle parole chiave. Parry, invece, è un programma realizzato da Colby in grado di simulare il tipo di affermazioni solitamente prodotte da un essere umano affetto da paranoia. Il funzionamento è uguale a quello di Eliza, basato sulle parole chiave e le associazioni ad esse. Schrdlu e SAM sono altri due programmi di livello superiore rispetto a Eliza e Parry: sono capaci di dare risposte sensate a domande complesse su ambienti circoscritti. Il programma per la dama di Samuel, realizzato alla fine degli anni Cinquanta, è il capostipite dei programmi successivi realizzati per i giochi da tavolo. Questo impara a algoritmo di apprendimento non giocare sempre meglio: si tratta di un supervisionato.

Critiche al Turing Test e alla Tesi Computazionale della Mente

Il Turing Test e la TCM sono da molti anni al centro di un ampio dibattito ancora ben vivo.

Unità 5.1 - Critiche al Turing Test

In un articolo del

1949 citato nel saggio di Turing del 1950, il neurochirurgo Jefferson sostiene che, per poter affermare che una macchina abbia le stesse capacità del cervello umano, è necessario che essa abbia una (emozioni, sentimenti, sensazioni) paragonabile a quella di un essere umano. Questo è l'argomento principale dell'autocoscienza. Per Jefferson nessun meccanismo potrà provare sensazioni o avere un'interiorità: nessun meccanismo potrà mai eguagliare il cervello umano.

Turing risponde a questo argomento facendo notare che, se ci fosse una macchina non potremmo essere certi che essa non abbia una vita interiore, perché, se negassimo un'interiorità a tale macchina, dovremmo negarla anche a qualunque essere umano diverso da noi stessi. L'unico modo che abbiamo per accertare l'esistenza di emozioni e sensazioni in

Un'altra persona è quello di interrogarla su ciò che essa sta provando. Le risposte che sarebbero date da una macchina che passasse il Test sarebbero indistinguibili da quelle di una persona in carne e ossa. Turing conclude che l'argomento di Jefferson non è corretto perché si basa su una premessa falsa.

Lady Lovelace era una figlia di Byron, letterato e poeta inglese, ed era una matematica. Ha collaborato con Babbage. Nella nota G di un suo lavoro del 1942 sulla macchina analitica di Babbage presenta il suo argomento dell'incapacità creativa. Scrive che la macchina analitica non ha nessuna pretesa di creare qualcosa, ma può soltanto fare le cose che sappiamo come di fare.

Turing sostiene che l'incapacità creativa della macchina analitica non sia dimostrata e che, al contrario, ci siano buone ragioni per affermare che essa possieda tale capacità. Il controargomento si fonda su tre premesse:

calcolatore

universaleil fatto che la macchina analitica è un (che può eseguire➔ qualsiasi tipo di regola di calcolo);

apprendereil fatto che si possono costruire macchine e stati discreti capaci di➔ autonomamente;

Il fatto che una macchina capace di apprendere non è limitata a fare ciò che le➔ comportamenti nuovi è stato espressamente ordinato, ma può produrreinattesi.

La macchina analitica, inoltre, è capace di riprodurre esattamente il comportamentodi una qualsiasi macchina che apprende. Il controargomento di Turing non si limitaalla macchina analitica di Turing, ma vale per un qualsiasi calcolatore universale:chiunque neghi la capacità creativa di un calcolatore universale è soggetto a essa.

Block, filosofo americano, propone, nel 1981, una macchina ideale che sarebbe inpriva digrado di passare il Turing Test, applicando una procedura completamenteingegno o intelligenza: il Test non sarebbe una condizione sufficiente per

L'intelligenza di una macchina. Propone l'argomento del jukebox. La macchina di Block ha una memoria finita, sufficientemente grande da poter immagazzinare tutte le conversazioni sensate di una lunghezza prefissata fra due persone. Anche il Turing Test deve avere un limite: il numero delle conversazioni è limitato, quindi può essere immagazzinato in una memoria finita.

Supponiamo che la macchina di Block partecipi al gioco dell'imitazione e che la prima domanda sia x1. La macchina cerca una conversazione che inizia con x1. Trovata la conversazione, risponde con il secondo elemento x2 della sequenza. A questo punto, l'interrogante farà un'altra domanda x3. La macchina cercherà una conversazione che inizi con x1-x2-x3. Trovata la conversazione, la macchina risponderà con un quarto elemento x4 e così via. La macchina di Block sarà in grado di passare il Turing Test.

Test.così in grado diLa macchina ha la stessa intelligenza di un jukebox. Block la paragona a un tostapane.il Test non è un criterio sufficiente per l’attribuzione di intelligenza.Ne segue cheL’argomento mette in luce che, per parlare di intelligenza, non ci si può limitaresoltanto a simulare perfettamente il comportamento verbale di essere umano: èmodocruciale il in cui si ottiene tale simulazione. Possono esserci modi di passare ilTest che non sono intelligenti.La TCM non è toccata dall’argomento di Block, ma esso ha un’importanteconseguenza metodologica per i sostenitori. Il fatto che un programma sia capace disimulare aspetti del comportamento umano non è sufficiente per sostenere che taleprogramma corrisponda ai reali processi di pensiero alla base del comportamento: ilmero simulazionismo non può costituire un

Dettagli
Publisher
A.A. 2019-2020
36 pagine
SSD Scienze storiche, filosofiche, pedagogiche e psicologiche M-FIL/02 Logica e filosofia della scienza

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher fakeemib di informazioni apprese con la frequenza delle lezioni di Filosofia della mente e intelligenza artificiale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Cagliari o del prof Giunti Mario.