Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
La Conferenza di Dartmouth del 1956 può essere considerata come l’inizio ufficiale
dell’Intelligenza Artificiale (Tonfoni e Schneider, 1984). A quei tempi il termine di
Intelligenza Artificiale non era particolarmente rilevante, ma in seguito divenne quello
con cui tale progetto di ricerca fu denominato. Alla Conferenza presero parte psicologi,
matematici ed ingegneri elettronici, tra cui figurano nomi di spicco quali J. McCarthy, M.
Minsky, A. Newell, C. Shannon e H. Simon, tutti accomunati dall’idea che “i processi
possono aver luogo al di fuori della mente umana e che il miglior modo per riprodurre
quei processi sia il computer” (Tonfoni e Schneider, 1984, p. 11). L’approccio
ingegneristico e l’orientamento empirico permettono di definire questo settore di studio
che si occupa dei processi di intelligenza, dell’apprendimento e della simulazione, come
Intelligenza Artificiale volta alla ricerca applicata.
Provare teoremi, giocare e risolvere rompicapo furono i compiti peculiari dei primi
programmi di Intelligenza Artificiale, portati a termine attraverso metodi euristici (Tonfoni
9
e Schneider, 1984). Il primo programma di questo genere fu quello realizzato nel 1956 da
Allen Newell e Herbert Simon della Rand Corporation e del Carnegie Institute. Il Logic
era basato sull’intenzione di scoprire in che modo avvenga la soluzione di un
Theorist
problema per il quale non esiste alcun algoritmo noto, attraverso i complessi processi
euristici che operano nella mente del matematico. I furono uno
Principia Mathematica
dei lavori più difficili su cui gli autori si concentrarono. Nell’affrontare il problema, essi
scelsero di limitarsi ad un settore specifico, ovvero il calcolo proposizionale, definito come
“un sistema matematicamente formalizzato consistente in espressioni costruite da
combinazioni di simboli base” (Tonfoni e Schneider, 1984, p. 21). Le espressioni sono
costituite in parte da assiomi ed in parte dai teoremi. Tenendo presente che i secondi
derivano dai primi, il funzionamento del nello studio della prova di un
Logic Theorist
teorema si basava sul possesso di una serie di cinque assiomi e tre regole di inferenza che
permettessero di fare deduzioni. Il programma prendeva una delle regole di inferenza e
un assioma, applicandoli al teorema al fine di produrre una nuova espressione da
esaminare, ripetendo l’operazione fin quando il teorema non si fosse ridotto ad assiomi
semplici. Questo metodo, considerato molto inefficace, è chiamato Algoritmo del British
Museum; il nome gli fu attribuito in seguito alla dichiarazione che “tutti i libri del British
Museum avrebbero potuto essere scritti da scimmie provviste di macchine da scrivere,
concesso loro un margine di tempo sufficiente” (Tonfoni e Schneider, 1984, p.21). Pur
non avendo rappresentato un successo nella riproduzione dei comportamenti intelligenti
umani, il è riuscito ad ispirare molte idee in altri programmi sviluppati
Logic Theorist
successivamente.
Il ad esempio, diretto successore del fu un
General Problem Solver, Logic Theorist,
tentativo di studiare il comportamento cognitivo umano (Tonfoni e Schneider, 1984).
Questo progetto si basava sulla convinzione che gli esseri umani siano rappresentabili
come sistemi di analisi di informazioni e che sia possibile simulare i processi di problem
umano elaborando programmi complessi. Ogni programma differisce dagli altri
solving
per i compiti svolti, così come le persone affrontano i problemi in maniera diversa e
ciascun problema è differente dagli altri. Il programma di ricerca del General Problem
dunque, non si concentrò esclusivamente sul tentativo di utilizzare la macchina
Solver,
per risolvere problemi, ma anche sullo sviluppo di una teoria sulla soluzione dei problemi
da parte della mente umana. Nel contesto in cui è stato scritto il General Problem Solver,
si definisce il problema come la differenza tra uno stato corrente A del mondo ed uno
stato desiderato B del mondo, tale che la soluzione consiste nel ridurre questa differenza,
trasformando A in B. Per meglio delineare un problema, possiamo descriverlo in termini
di oggetti e operatori. I primi sono determinati dai loro caratteri e dalle differenze che si
possono osservare tra coppie di oggetti ed è proprio a questi che si applicano gli
operatori, al fine di produrre oggetti diversi o nuovi. Le cosiddette “tabelle di differenza”,
indicano al problem solver come applicare un operatore per ridurre una differenza
specifica tra A e B. Generalmente, il processo avviene in maniera graduale, e
l’applicazione di un operatore genera un A’ che è più vicino a B di quanto non lo fosse A.
10
La differenza viene ridotta adottando di volta in volta il metodo che sembra più
promettente, ripetendo l’operazione fin quando non si ottiene un A’ che combacia con B.
Il (sistema di produzione) è un altro importante sistema di IA che si
Production System
occupa della definizione e specificazione di un algoritmo (Tonfoni e Schneider, 1984). Le
tre componenti essenziali di un sistema di produzione sono: una base-dati e una serie di
regole di produzione o riscrittura (rewrite Queste regole sono usate per definire
rules).
grammatiche generative in linguistica, vale a dire una collezione di regole di scrittura che
permette di tradurre, attraverso diverse fasi, una catena di simboli in una parallela
assiomatica catena di simboli. Naturalmente, è necessario anche un interprete che usi le
regole di riscrittura e la base dati per eseguire i calcoli necessari. Quando l’interprete
scopre nella base-dati una situazione che combacia con una presente nelle regole, la
regola è pronta per essere usata. Se invece trova parecchie regole che potrebbero essere
usate in quella situazione, allora deve scegliere la migliore, molto spesso basandosi su
un’altra serie di regole. Il sistema può naturalmente cambiare l’ordine in cui preferisce
utilizzare una serie di regole, così com’è possibile che una regola di riscrittura venga
riscritta. Infine, le regole potrebbero anche rivelare al sistema che un problema è già
risolto o non è risolvibile.
Un allargamento degli interessi, che comprende la focalizzazione dell’attenzione sulla
comprensione del linguaggio umano, sul calcolo simbolico e sulla rappresentazione
semantica, è caratteristico della cosiddetta “Seconda Generazione” nella ricerca di IA
(Tonfoni e Schneider, 1984). È sempre con la Seconda Generazione che nasce
l’Intelligenza Artificiale applicata, con l’attuazione di sistemi esperti tutt’oggi utilizzati.
SHRDLU, un programma sviluppato tra il 1968 ed il 1970 da Terry Winograd presso il MIT,
è uno di questi. SHRDLU è un programma creato per la conversazione in linguaggio
naturale, il cui mondo è composto da semplici oggetti dalla forma geometrica: blocchi,
piramidi e cubi con i loro attributi di colori e dimensioni ed una scatola in cui possono
essere posti (Winograd, 1973). Al programma possono essere impartiti diversi ordini per
spostare gli oggetti tramite un immaginario braccio mobile di robot. Ad esempio: “Per
favore, poni sui blocchi rossi un cubo verde o la piramide verde”. Questa richiesta
prevede una prima fase di riconoscimento della “possibilità” sintattica della frase, alla
quale segue un’operazione di interpretazione semantica ed infine il controllo
dell’esistenza degli oggetti nominati e la possibilità di spostarli com’è stato richiesto. In
caso di ambiguità, SHRDLU chiederà precisazioni. Da questo programma, Winograd derivò
un modello di comprensione del linguaggio basato non solo sulla sintassi della frase, ma
anche sull’analisi del suo significato (ibid.).
La comprensione del linguaggio naturale, prima di diventare uno dei principali obiettivi
della ricerca in IA, fu sviluppata negli ultimi anni Sessanta come un lavoro individuale di
Robert Schank (Tonfoni e Schneider, 1984). La teoria di fondo era che ci dovesse essere
una rappresentazione di significato indipendente dalla varietà delle lingue. Questo generò
l’idea che esistesse “una predeterminata serie di possibili relazioni che creano una
struttura di significato in ogni lingua” (Schank, 1980, p. 244; Tonfoni e Schneider, 1984, p.
11
25). Il lavoro, che ebbe inizio a Stanford, partì semplicemente come un progetto di
linguistica, diventando solo in seguito il principale obiettivo della ricerca in IA svoltasi a
Yale. Furono Schank e i suoi studenti a dare l’avvio al cosiddetto paradigma di Yale, che
ebbe parecchie fasi storiche di sviluppo, tra cui possiamo ricordare le principali:
1. Traduzione automatica;
2. Semantica computazionale;
3. Inferenza concettuale;
4. Strutture a più elevato livello di conoscenze;
5. Comprensione integrata;
6. Organizzazione di memorie.
Nel 1975, Schank pubblicò il volume all’interno del
Conceptual Information Processing,
quale veniva presentato il sistema MARGIE, uno dei primi programmi in grado di trarre
conclusioni o fare parafrasi a partire da un input di linguaggio naturale e restituendo un
output anch’esso in linguaggio naturale. Il programma MARGIE era basato sulla teoria
della dipendenza concettuale di Schank, un modello di rappresentazione semantica non
dipendente dalla lingua specifica di realizzazione. Secondo questa teoria, per ogni coppia
di frasi tra loro identiche nel significato, indipendentemente dalla lingua, ci dovrebbe
essere una sola rappresentazione. Ogni informazione implicita in una frase, inoltre, deve
essere resa esplicita nella sua rappresentazione del significato. La proposizione del
significato, detta concettualizzazione, può essere attiva o stativa. La sua forma attiva si
presenta come: Attore-Azione-Oggetto-Direzione con (Strumento), mentre la
concettualizzazione stativa ha la forma: Oggetto (è in) Stato con (Valore). Dunque, come
sostiene Minsky (1975), un evento in generale ha: un attore, un’azione che è
rappresentata da quell’attore, un oggetto su cui l’azione è rappresentata e molto spesso
una direzione che orienta l’azione (da, a...); talvolta, un evento ha anche un modo (vero,
falso, forse). Vale a dire che un semplice evento consiste in un nome ed un insieme di
spazi, riguardanti diversi argomenti, che un sistema di IA come MARGIE ha il compito di
riempire (Tonfoni e Schneider, 1984). Il programma inserisce le informazioni analizzando
la frase o sulla base della conoscenza del mondo che possiede, o ancora attraverso più
complessi meccanismi d’inferenza. Schank presentò inizialmente una lista piuttosto
ristretta di atti fondamentali, in grado di rappresentare gran parte di tutti gli eventi
possibili: 13 “primitivi”, atti basilari che permettono