Anteprima
Vedrai una selezione di 12 pagine su 51
Tesi triennale - Intelligenza Artificiale Pag. 1 Tesi triennale - Intelligenza Artificiale Pag. 2
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 6
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 11
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 16
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 21
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 26
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 31
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 36
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 41
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 46
Anteprima di 12 pagg. su 51.
Scarica il documento per vederlo tutto.
Tesi triennale - Intelligenza Artificiale Pag. 51
1 su 51
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

La Conferenza di Dartmouth del 1956 può essere considerata come l’inizio ufficiale

dell’Intelligenza Artificiale (Tonfoni e Schneider, 1984). A quei tempi il termine di

Intelligenza Artificiale non era particolarmente rilevante, ma in seguito divenne quello

con cui tale progetto di ricerca fu denominato. Alla Conferenza presero parte psicologi,

matematici ed ingegneri elettronici, tra cui figurano nomi di spicco quali J. McCarthy, M.

Minsky, A. Newell, C. Shannon e H. Simon, tutti accomunati dall’idea che “i processi

possono aver luogo al di fuori della mente umana e che il miglior modo per riprodurre

quei processi sia il computer” (Tonfoni e Schneider, 1984, p. 11). L’approccio

ingegneristico e l’orientamento empirico permettono di definire questo settore di studio

che si occupa dei processi di intelligenza, dell’apprendimento e della simulazione, come

Intelligenza Artificiale volta alla ricerca applicata.

Provare teoremi, giocare e risolvere rompicapo furono i compiti peculiari dei primi

programmi di Intelligenza Artificiale, portati a termine attraverso metodi euristici (Tonfoni

9

e Schneider, 1984). Il primo programma di questo genere fu quello realizzato nel 1956 da

Allen Newell e Herbert Simon della Rand Corporation e del Carnegie Institute. Il Logic

era basato sull’intenzione di scoprire in che modo avvenga la soluzione di un

Theorist

problema per il quale non esiste alcun algoritmo noto, attraverso i complessi processi

euristici che operano nella mente del matematico. I furono uno

Principia Mathematica

dei lavori più difficili su cui gli autori si concentrarono. Nell’affrontare il problema, essi

scelsero di limitarsi ad un settore specifico, ovvero il calcolo proposizionale, definito come

“un sistema matematicamente formalizzato consistente in espressioni costruite da

combinazioni di simboli base” (Tonfoni e Schneider, 1984, p. 21). Le espressioni sono

costituite in parte da assiomi ed in parte dai teoremi. Tenendo presente che i secondi

derivano dai primi, il funzionamento del nello studio della prova di un

Logic Theorist

teorema si basava sul possesso di una serie di cinque assiomi e tre regole di inferenza che

permettessero di fare deduzioni. Il programma prendeva una delle regole di inferenza e

un assioma, applicandoli al teorema al fine di produrre una nuova espressione da

esaminare, ripetendo l’operazione fin quando il teorema non si fosse ridotto ad assiomi

semplici. Questo metodo, considerato molto inefficace, è chiamato Algoritmo del British

Museum; il nome gli fu attribuito in seguito alla dichiarazione che “tutti i libri del British

Museum avrebbero potuto essere scritti da scimmie provviste di macchine da scrivere,

concesso loro un margine di tempo sufficiente” (Tonfoni e Schneider, 1984, p.21). Pur

non avendo rappresentato un successo nella riproduzione dei comportamenti intelligenti

umani, il è riuscito ad ispirare molte idee in altri programmi sviluppati

Logic Theorist

successivamente.

Il ad esempio, diretto successore del fu un

General Problem Solver, Logic Theorist,

tentativo di studiare il comportamento cognitivo umano (Tonfoni e Schneider, 1984).

Questo progetto si basava sulla convinzione che gli esseri umani siano rappresentabili

come sistemi di analisi di informazioni e che sia possibile simulare i processi di problem

umano elaborando programmi complessi. Ogni programma differisce dagli altri

solving

per i compiti svolti, così come le persone affrontano i problemi in maniera diversa e

ciascun problema è differente dagli altri. Il programma di ricerca del General Problem

dunque, non si concentrò esclusivamente sul tentativo di utilizzare la macchina

Solver,

per risolvere problemi, ma anche sullo sviluppo di una teoria sulla soluzione dei problemi

da parte della mente umana. Nel contesto in cui è stato scritto il General Problem Solver,

si definisce il problema come la differenza tra uno stato corrente A del mondo ed uno

stato desiderato B del mondo, tale che la soluzione consiste nel ridurre questa differenza,

trasformando A in B. Per meglio delineare un problema, possiamo descriverlo in termini

di oggetti e operatori. I primi sono determinati dai loro caratteri e dalle differenze che si

possono osservare tra coppie di oggetti ed è proprio a questi che si applicano gli

operatori, al fine di produrre oggetti diversi o nuovi. Le cosiddette “tabelle di differenza”,

indicano al problem solver come applicare un operatore per ridurre una differenza

specifica tra A e B. Generalmente, il processo avviene in maniera graduale, e

l’applicazione di un operatore genera un A’ che è più vicino a B di quanto non lo fosse A.

10

La differenza viene ridotta adottando di volta in volta il metodo che sembra più

promettente, ripetendo l’operazione fin quando non si ottiene un A’ che combacia con B.

Il (sistema di produzione) è un altro importante sistema di IA che si

Production System

occupa della definizione e specificazione di un algoritmo (Tonfoni e Schneider, 1984). Le

tre componenti essenziali di un sistema di produzione sono: una base-dati e una serie di

regole di produzione o riscrittura (rewrite Queste regole sono usate per definire

rules).

grammatiche generative in linguistica, vale a dire una collezione di regole di scrittura che

permette di tradurre, attraverso diverse fasi, una catena di simboli in una parallela

assiomatica catena di simboli. Naturalmente, è necessario anche un interprete che usi le

regole di riscrittura e la base dati per eseguire i calcoli necessari. Quando l’interprete

scopre nella base-dati una situazione che combacia con una presente nelle regole, la

regola è pronta per essere usata. Se invece trova parecchie regole che potrebbero essere

usate in quella situazione, allora deve scegliere la migliore, molto spesso basandosi su

un’altra serie di regole. Il sistema può naturalmente cambiare l’ordine in cui preferisce

utilizzare una serie di regole, così com’è possibile che una regola di riscrittura venga

riscritta. Infine, le regole potrebbero anche rivelare al sistema che un problema è già

risolto o non è risolvibile.

Un allargamento degli interessi, che comprende la focalizzazione dell’attenzione sulla

comprensione del linguaggio umano, sul calcolo simbolico e sulla rappresentazione

semantica, è caratteristico della cosiddetta “Seconda Generazione” nella ricerca di IA

(Tonfoni e Schneider, 1984). È sempre con la Seconda Generazione che nasce

l’Intelligenza Artificiale applicata, con l’attuazione di sistemi esperti tutt’oggi utilizzati.

SHRDLU, un programma sviluppato tra il 1968 ed il 1970 da Terry Winograd presso il MIT,

è uno di questi. SHRDLU è un programma creato per la conversazione in linguaggio

naturale, il cui mondo è composto da semplici oggetti dalla forma geometrica: blocchi,

piramidi e cubi con i loro attributi di colori e dimensioni ed una scatola in cui possono

essere posti (Winograd, 1973). Al programma possono essere impartiti diversi ordini per

spostare gli oggetti tramite un immaginario braccio mobile di robot. Ad esempio: “Per

favore, poni sui blocchi rossi un cubo verde o la piramide verde”. Questa richiesta

prevede una prima fase di riconoscimento della “possibilità” sintattica della frase, alla

quale segue un’operazione di interpretazione semantica ed infine il controllo

dell’esistenza degli oggetti nominati e la possibilità di spostarli com’è stato richiesto. In

caso di ambiguità, SHRDLU chiederà precisazioni. Da questo programma, Winograd derivò

un modello di comprensione del linguaggio basato non solo sulla sintassi della frase, ma

anche sull’analisi del suo significato (ibid.).

La comprensione del linguaggio naturale, prima di diventare uno dei principali obiettivi

della ricerca in IA, fu sviluppata negli ultimi anni Sessanta come un lavoro individuale di

Robert Schank (Tonfoni e Schneider, 1984). La teoria di fondo era che ci dovesse essere

una rappresentazione di significato indipendente dalla varietà delle lingue. Questo generò

l’idea che esistesse “una predeterminata serie di possibili relazioni che creano una

struttura di significato in ogni lingua” (Schank, 1980, p. 244; Tonfoni e Schneider, 1984, p.

11

25). Il lavoro, che ebbe inizio a Stanford, partì semplicemente come un progetto di

linguistica, diventando solo in seguito il principale obiettivo della ricerca in IA svoltasi a

Yale. Furono Schank e i suoi studenti a dare l’avvio al cosiddetto paradigma di Yale, che

ebbe parecchie fasi storiche di sviluppo, tra cui possiamo ricordare le principali:

1. Traduzione automatica;

2. Semantica computazionale;

3. Inferenza concettuale;

4. Strutture a più elevato livello di conoscenze;

5. Comprensione integrata;

6. Organizzazione di memorie.

Nel 1975, Schank pubblicò il volume all’interno del

Conceptual Information Processing,

quale veniva presentato il sistema MARGIE, uno dei primi programmi in grado di trarre

conclusioni o fare parafrasi a partire da un input di linguaggio naturale e restituendo un

output anch’esso in linguaggio naturale. Il programma MARGIE era basato sulla teoria

della dipendenza concettuale di Schank, un modello di rappresentazione semantica non

dipendente dalla lingua specifica di realizzazione. Secondo questa teoria, per ogni coppia

di frasi tra loro identiche nel significato, indipendentemente dalla lingua, ci dovrebbe

essere una sola rappresentazione. Ogni informazione implicita in una frase, inoltre, deve

essere resa esplicita nella sua rappresentazione del significato. La proposizione del

significato, detta concettualizzazione, può essere attiva o stativa. La sua forma attiva si

presenta come: Attore-Azione-Oggetto-Direzione con (Strumento), mentre la

concettualizzazione stativa ha la forma: Oggetto (è in) Stato con (Valore). Dunque, come

sostiene Minsky (1975), un evento in generale ha: un attore, un’azione che è

rappresentata da quell’attore, un oggetto su cui l’azione è rappresentata e molto spesso

una direzione che orienta l’azione (da, a...); talvolta, un evento ha anche un modo (vero,

falso, forse). Vale a dire che un semplice evento consiste in un nome ed un insieme di

spazi, riguardanti diversi argomenti, che un sistema di IA come MARGIE ha il compito di

riempire (Tonfoni e Schneider, 1984). Il programma inserisce le informazioni analizzando

la frase o sulla base della conoscenza del mondo che possiede, o ancora attraverso più

complessi meccanismi d’inferenza. Schank presentò inizialmente una lista piuttosto

ristretta di atti fondamentali, in grado di rappresentare gran parte di tutti gli eventi

possibili: 13 “primitivi”, atti basilari che permettono

Dettagli
A.A. 2015-2016
51 pagine
SSD Scienze storiche, filosofiche, pedagogiche e psicologiche M-PSI/02 Psicobiologia e psicologia fisiologica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher californiancrawl di informazioni apprese con la frequenza delle lezioni di Filosofia della mente e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi di Torino o del prof Steila Daniela.