Estratto del documento

Intelligenza artificiale: la storia e le idee

L'intelligenza artificiale (IA) si presenta attraverso due discipline:

  • Disciplina ingegneristica – il cui obiettivo è costruire macchine capaci di assistere l'uomo e forse competere con esso;
  • Disciplina psicologica – il cui obiettivo è di riprodurre le caratteristiche essenziali dell'attività cognitiva umana.

Le basi dell'IA vennero gettate dai pionieri come McCarthy, Minsky, Rochester e Shannon nel giugno 1956 a Dartmouth (New Hampshire). In questo seminario, s'individuarono alcune aree di ricerca rimaste classiche e si presentarono i primi programmi intelligenti per calcolatori.

I primi sviluppi dell'IA

Le macchine di cui si parlava erano i calcolatori digitali. Secondo i pionieri, i calcolatori digitali erano uno strumento con capacità di elaborazione simbolica ineguagliate da qualsiasi altra macchina, e perciò adatta alla competizione con gli umani.

Logic Theorist → programma ideato alla Dartmouth da Newell, Simon e Shaw, che dimostrava alcuni teoremi del calcolo proporzionale. (Un altro programma fu quello ideato da Arthur Samuel per il gioco della dama)

I protagonisti si concentrano su ambiti ben delimitati → scelta condizionata da motivi pratici (scarsa potenza dei calcolatori) e teorici. Calcolatori digitali = macchine prescelte per realizzare sistemi IA. Nella forma di calcolatori generali hanno la caratteristica di essere macchine simboliche, che non eseguono solo un repertorio limitato di calcoli numerici.

Con queste macchine si inizia a disporre per la prima volta di una macchina capace di manipolare strutture di simboli che il programmatore fa corrispondere in modo naturale alle entità più diverse. Questa capacità di elaborazione, insieme all'istruzione di “salto condizionato” (consente di cambiare l'ordine di esecuzione delle istruzioni; in più conferisce al programma una certa capacità discriminativa, che sfocia nella selezione della sequenza di istruzioni da eseguire), sollecitò a parlare di “Macchine Intelligenti”.

→ 1949, primo grande calcolatore con programma memorizzato. Nella memoria interna risiedevano: dati e EDSAC istruzioni per manipolarli.

La tesi di Church-Turing

I programmi che determinano i processi di elaborazione dei calcolatori digitali sono procedimenti algoritmici specificati in qualche linguaggio. La nozione generale di programma dipende dunque da quella di procedimento algoritmico.

1935 – 1936 → tesi di Church-Turing, annunciata indipendentemente, attraverso la quale è stato possibile una caratterizzazione precisa e generalmente ritenuta soddisfacente delle funzioni calcolabili mediante procedimenti algoritmici.

  • Nella versione di Turing, la tesi asserisce che ogni funzione calcolabile mediante un procedimento algoritmico è calcolabile da una macchina di Turing.

Limiti e operazioni della macchina di Turing

  • La macchina di Turing è un calcolatore idealizzato, in quanto si suppone che essa non sia soggetta a nessuna limitazione;
  • No limite alle sue capacità di memoria – indefinitamente espandibile;
  • No limite alla durata dei processi di calcolo e si assume che la macchina funzioni sempre perfettamente.

Operazioni (estremamente elementari):

  • Può stampare o cancellare un simbolo sulla casella osservata;
  • Può spostare la testina di lettura di una casella a destra o sinistra;
  • Può cambiare la propria configurazione interna.

Quali di queste operazioni vengano eseguite dipende dal contenuto della casella osservata e dalla configurazione interna della macchina. Un'espressione è una successione finita di simboli presi dalla lista. Un'istruzione è una quintupla, cioè un'espressione della forma.

Definizione della macchina di Turing

Una macchina di Turing è un insieme finito (ma non vuoto) di quintuple che non contiene nessuna coppia di quintuple che coincidano nei loro primi due simboli. Questa definizione impone cruciali condizioni di finitezza e di determinatezza (ogni macchina potrà applicare al più un'istruzione).

Alcune macchine di Turing sono dette universali, poiché capaci di simulare il comportamento di una qualsiasi macchina di Turing dato un qualsiasi ingresso; dalla tesi di Church-Turing, segue che una tale macchina universale può calcolare ogni funzione calcolabile da un calcolatore digitale. Anche i computer d'uso comune hanno un'affinità con le macchine universali di Turing; per questo si potrebbero chiamare calcolatori potenzialmente universali.

Il lavoro che portò alla tesi di Church-Turing fu principalmente motivato dal problema di generalizzare i teoremi di incompletezza, scoperti da Gödel nel 1931. Il suo primo teorema implica un procedimento algoritmo che consente di operare in modo corretto nell'ambito dell'aritmetica elementare, allora esso risulta incompleto (cioè non permette di generare tutti gli enunciati aritmetici veri).

Teoria della complessità algoritmica

La teoria della complessità algoritmica o computazionale studia le risorse di calcolo necessarie per la soluzione dei problemi. I primi programmi dell'IA elaborano strutture di simboli e, soprattutto attraverso sequenze di applicazioni di regole di salto condizionato, simulano almeno una capacità: quella di scegliere, davanti ad un problema, solo alcune sequenze di mosse che potrebbero portare alla soluzione.

L'intelligenza fu primariamente identificata con questa capacità selettiva della mente umana. Il successo dei primi programmi alimentò la convinzione che compito principale dell'IA fosse lo studio delle strategie di soluzione di problemi efficacemente selettive o euristiche.

La programmazione euristica, il settore di ricerca nel quale l'IA racconta i suoi primi successi, tenendo conto delle strategie adottate dagli umani (i quali dovendo fornire soluzioni in tempi rapidi, tendono ad evitare ricerche “cieche” o basate su soluzioni ottimali).

Gli algoritmi euristici dell'IA sono ispirati dunque al comportamento cognitivo umano ma anche all'evoluzionismo darwiniano; inoltre prendono spunto da comportamenti individuali o collettivi osservati nel mondo animale.

Sistemi basati sulla conoscenza

Fondati su questa programmazione sono: i sistemi basati sulla conoscenza e tra questi i cosiddetti sistemi esperti, che generalmente richiedono un supporto hardware più potente di quello dei primi calcolatori. Un sistema esperto risolve problemi in ambito specialistico con prestazioni (nei casi riusciti) comparabili a quelle di un umano esperto.

Una metodologia comunemente impiegata prevede anzitutto la registrazione di conoscenze e di tecniche di ragionamento euristico dell'esperto umano. Queste conoscenze sono registrate in strutture dati chiamate basi di conoscenza, che generalmente assumono vaste dimensioni.

Alcuni problemi che le metodologie soggiacenti ai sistemi basati sulla conoscenza non permettono di affrontare adeguatamente:

  • Conoscenza tacita – forme di comportamento guidate dal “saper fare”, un tipo di abilità che appare difficile descrivere attraverso conoscenze dichiarative e regole esplicite;
  • Azione in tempo reale – non sempre è possibile generare risposte adeguate in tempi utili;
  • Robustezza – i sistemi che operano in base a rappresentazioni esplicite si rivelano fragili, spesso incapaci di operare in situazioni diverse da quelle previste dai progettisti. Discrepanze tra lo stato percepito del mondo e le condizioni previste portano a un rapido degrado delle prestazioni. (Essere umani e animali caratterizzati da prestazioni che prevedono una buona tolleranza).

Seconda fase dell'IA

Negli anni '20, attraverso il connessionismo, la nuova robotica e la cognizione situata e la tematizzazione di queste più altre difficoltà hanno permesso di delineare programmi della “nuova IA”.

Connessionismo → trae ispirazione da schematici modelli funzionali delle cellule nervose, introdotti nella scia di McCulloch e Pitts nel 1943. Ha affrontato i problemi di conoscenza tacita e di robustezza, ad esempio in relazione all'elaborazione di segnali sensoriali. La nuova robotica e la cognizione situata hanno invece affrontato i problemi dell'azione in tempo reale.

La nuova robotica e la cognizione situata → hanno affrontato i problemi dell'azione in tempo reale.

In alcuni scritti che si collocano alle origini della nuova robotica, Brooks ha assunto una posizione non lontana da un atteggiamento eliminativista “forte” nei confronti delle rappresentazioni. Le sue concezioni hanno guidato lo sviluppo di architetture innovative per il controllo dell'azione in robot che si sono mostrati capaci di agire in tempo reale e in ambienti non completamente strutturati, senza fare ricorso a sistemi di controllo centralizzato. Oltre a ciò ha proposto anche importanti questioni relative all'analisi e alla simulazione dei sistemi intelligenti.

  • Richiamo a non trascurare l'interazione tra corpo, cognizione e mondo in altri casi è sfociato in proposte anche molto diverse di interazione tra gli strumenti della prima IA e quelli della “nuova”.

La dimensione sociale dell'intelligenza è diventata in anni recenti uno dei settori principali di indagine dell'IA, anche perché l'interfacce uomo-macchina e sistemi diversi di controllo negli elettrodomestici pullulano di piccoli agenti intelligenti specializzati. I vantaggi vengono ampiamente sfruttati nella progettazione di agenti “ibridi” in IA.

Il gioco dell'imitazione di Turing

1950 – Turing con il suo “gioco dell'imitazione” ha discusso la possibilità di controllare se un calcolatore programmato potesse sostenere una conversazione come un essere umano (simulazione dei comportamenti intelligenti = obiettivo dell'IA).

Newell, Simon e Shaw furono i primi a porsi esplicitamente il problema della simulazione come strategia di costruzione di modelli mentali. La psicologia dell'elaborazione dell'informazione (PPI) aveva come obiettivo: costruire modelli algoritmici, cioè programmi che simulassero i processi cognitivi umani in modo psicologicamente realistico. La PPI era interessata principalmente al controllo. Si trattava di un procedimento euristico “guidato” dall'obiettivo, diventato presto noto come analisi mezzi-fine: invece di applicare sistematicamente tutte le regole della logica proposizionale, la routine, attraverso il confronto, selezionava solo quelle regole che permettevano di eliminare le differenze tra le due formule.

Questa forma di controllo è stata ampiamente sperimentata in numerosi programmi di IA. Nella PPI inizialmente il fulcro di una metodologia simulativa. Un aspetto importante di questa era che il programma doveva tener conto dei limiti effettivi dl solutore di problemi umano, limiti di memoria, di velocità di elaborazione eda... bisognava soddisfare alcune restrizioni se si voleva essere una simulazione psicologicamente realistica.

Non tutti i programmi dell'IA potevano essere considerati un “modello” (il quale prendeva la forma di un programma di tipo ben definito, chiamato anche “microteorie” da Newell e Simon). Una microteoria riguardava il comportamento di un singolo solutore umano di problemi, mentre la teoria generale dell'elaborazione umana dell'informazione era un corpus di generalizzazioni qualitative non più esprimibili sotto forma di programmi simulativi o microteorie.

In base a varie esperienze Newell e Simon hanno ritenuto che il test di Turing non fosse efficace, poiché non riguardava i processi del pensiero, ma solo la prestazione finale. In definitiva, i programmi sviluppati da Newell e Simon (nella 1' IA) possono essere visti come tentativi di costruire modelli cognitivi, impiegati per attribuire una struttura funzionale interna a parti del sistema per attribuire una struttura funzionale interna a parti del sistema cognitivo e per dare conto su questa base di varie proprietà esibite dal sistema stesso.

Simon → ha continuato sulla strada della costruzione di microteorie o di teorie “nella media ampiezza”. Newell → propose di costruire i programmi simulativi sulla base di nuove restrizioni. Fodor e altri → hanno sostenuto la tesi di un'architettura unificata.

Impostazione di Marr

Marr → avanza un'impostazione diversa per costruire un buon modello algoritmico di una qualche capacità cognitiva bisogna anzitutto specificare che cosa dovrebbe essere in grado di fare un soggetto umano che possiede quella capacità, e cioè quali corrispondenze algoritmiche tra ingressi e uscite caratterizzano l'esercizio di quella particolare capacità cognitiva. Ha proposto di identificare il compito del sistema visivo umano con la trasformazione dei valori di intensità luminosa registrati dai fotorecettori della retina.

Marr ha distinto vari sottoinsiemi deputati a compiti specifici e ha proposto di analizzarli con il medesimo impianto metodologico: mostrare che le corrispondenze fra gli ingressi e le uscite del sottoinsieme oggetto di indagine possono essere ottenute mediante un procedimento algoritmico. Dopo di che si può tentare di sviluppare il modello algoritmico analizzando i processi mediante i quali i soggetti umani determinano queste corrispondenze.

Il confronto tra processi cognitivi e processi di elaborazione neurale è reso problematico dalla stessa natura dell'elaborazione neurale, che avviene attraverso la propagazione di una miriade di segnali spesso privi di una plausibile interpretazione cognitiva. I limiti dei modelli cognitivi connessionisti restano per ora quelli di sempre: non è ancora chiaro se e come essi possano riuscire a simulare le capacità cognitive “superiori” e non solo quelle “inferiori”.

Discussioni filosofiche intorno all'IA

Una delle prime discussioni filosofiche intorno all'IA ha preso le mosse dai teoremi di incompletezza e di indecidibilità. Turing, per esempio, sosteneva che bisogna lasciare alle macchine la possibilità di sbagliare per cercare di imitare o modellare i comportamenti cognitivi degli esseri umani. Fin dalle origini dell'IA ha esercitato una notevole influenza sui filosofi interessati al problema mente-corpo, sulla psicologia e le neuroscienze.

Sia la PPI che l'IA hanno riconosciuto nella mente umana un sistema di elaborazione dell'informazione, proponendo di indagare i processi a uno specifico livello di analisi attraverso la costruzione di modelli algoritmici. La relativa autonomia dei livelli di spiegazione trovava ispirazione e conferma dell'architettura del calcolatore. Questa concezione di livelli ha fornito il nucleo teoretico a differenti programmi di ricerca, prima alla PPI e poi alla scienza cognitiva, alla psicologia e le neuroscienze.

Sistemi fisici di simboli

Una tesi “forte” sul ruolo del calcolatore è quella relativa ai sistemi fisici di simboli (SFS) proposta da Newell e Simon. Un SFS è un calcolatore potenzialmente universale. SFS interpreta un'espressione simbolica se questa denota un processo algoritmico e l'SFS può eseguire tale processo quando riceve in ingresso quell'espressione simbolica.

Newell ha successivamente interpretato l'impresa della scienza cognitiva attraverso l'individuazione di tre livelli di descrizione:

  • Livello di conoscenza;
  • Livello sintattico (o dei simboli);
  • Livello fisico.

Gli stati mentali sono rappresentazioni (le quali condividono con gli enunciati di un linguaggio una struttura combinatoria o composizionale). Anche le regole di manipolazione delle rappresentazioni devono permettere transizioni tra rappresentazioni in grado di giustificare regole di manipolazioni delle rappresentazioni, le quali costituiscono una sorta di “motore inferenziale” cognitivo.

Le rappresentazioni e le loro regole possono avere realizzazioni multiple, in sistemi o agenti fisici diversi: nel calcolatore sotto specie di hardware a loro volta diversi, negli esseri umani sotto specie di strutture biologiche. Ma i tre livelli sopra ricordati sono stati considerati autonomi e irriducibili l'uno all'altro in quanto livelli di spiegazione.

Le ipotesi del funzionalismo e della realizzabilità multipla hanno caratterizzato molti programmi di ricerca in scienza cognitiva e possono essere sintetizzate: il calcolatore fornisce un adeguato strumento per un'indagine poiché dimostra come certe strutture fisiche possono svolgere un ruolo di causa del comportamento intenzionale di un sistema.

Diversi critici (come Churchland e Edelman) hanno respinto l'ipotesi del SFS e di conseguenza anche il funzionalismo e la tesi della realizzabilità multipla. Il metodo dei modelli è dato dal funzionalismo più le restrizioni, e la tesi della realizzabilità multipla. Il metodo dei modelli in tutte le sue versioni adotta una strategia inevitabilmente anti-olistica nei confronti di un oggetto così complesso come il sistema cervello-mente, cercando di costruire modelli approssimati di “parti” del sistema. Non ci si è posto il problema delle relazioni di queste “parti” con tutto il resto del sistema.

Vi sono diverse e importanti eccezioni nell'IA riguardo questa tendenza. Damasio → evidenzia i limiti di questa prospettiva, attraverso i suoi lavori neuroscientifici (rapporto tra emozioni e processo deliberativo razionale). Damasio ipotizza che solo le emozioni provate nei confronti di situazioni reali o immaginate consentano agli esseri umani di scartare immediatamente un gran numero di scenari possibili. Provare emozioni costituirebbe un potente metodo euristico per esplorare lo spazio di un problema decisionale.

La conclusione di Damasio pone l'IA davanti a importanti sfide: è possibile progettare macchine che abbiano prestazioni comparabili agli esseri umani nel ragionamento pratico, senza che queste provino emozioni? Le emozioni che si provano di fronte a situazioni reali o immaginate possono essere viste soggettivamente esperite in particolari stati mentali, cioè qualia (in filosofia un quale = la qualità soggettivamente esperita di uno stato mentale, per esempio ciò che si prova nel vedere un oggetto in un determinato colore).

Anteprima
Vedrai una selezione di 6 pagine su 22
Riassunto esame intelligenza artificiale, prof. Bianchini, libro consigliato "Intelligenza artificiale",  Ernesto Burattini Pag. 1 Riassunto esame intelligenza artificiale, prof. Bianchini, libro consigliato "Intelligenza artificiale",  Ernesto Burattini Pag. 2
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Riassunto esame intelligenza artificiale, prof. Bianchini, libro consigliato "Intelligenza artificiale",  Ernesto Burattini Pag. 6
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Riassunto esame intelligenza artificiale, prof. Bianchini, libro consigliato "Intelligenza artificiale",  Ernesto Burattini Pag. 11
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Riassunto esame intelligenza artificiale, prof. Bianchini, libro consigliato "Intelligenza artificiale",  Ernesto Burattini Pag. 16
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Riassunto esame intelligenza artificiale, prof. Bianchini, libro consigliato "Intelligenza artificiale",  Ernesto Burattini Pag. 21
1 su 22
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze storiche, filosofiche, pedagogiche e psicologiche M-FIL/02 Logica e filosofia della scienza

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher toni.jacopo di informazioni apprese con la frequenza delle lezioni di Intelligenza artificale, problem solving e web semantico e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Bologna o del prof Bianchini Francesco.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community