vuoi
o PayPal
tutte le volte che vuoi
Italiano: Pirandello
Inglese: Mary Shelley (Frankenstein)
Scienze: Sistema nervoso
Fisica: Circuito elettrico e semiconduttori
INDICE
Cap.1 Introduzione pag.4
Cap.2 Definizione di I.A pag.5
-2.1 Cos'è l'intelligenza? pag.6
Cap.3 L’inizio della rivoluzione informatica pag.8
-3.1 Transistor pag.10
Cap.4 L'I.A. moderna: l'incertezza, il connessionismo e la pag.11
robotica
Le reti neurali
-4.1 pag.13
L’I.A. nella letteratura
-4.2 pag.14
L’I.A. a casa nostra
-4.3 pag.16
Conclusioni
Cap.6 pag.17
Bibliografia pag.18 3
1. Introduzione
L'obiettivo di questa tesina è quello di sfatare alcuni luoghi comuni che si sono creati nel
tempo riguardanti l'intelligenza artificiale e di rispondere ad alcune delle domande più
frequenti...
Molti di questi pregiudizi si sono creati a causa della letteratura ed al genere della
fantascienza, in cui spesso si vede la creazione di macchine in grado di pensare e di agire in
base alle proprie emozioni. Tra gli esempi più significativi troviamo l'opera di Isaac Asimov,
uno dei precursori di questo genere. Inoltre analizzeremo le analogie tra intelligenza creata
artificialmente ed intelligenza naturale o umana. Sebbene l'intelligenza artificiale sia
incredibilmente diffusa nei più svariati campi, la maggior parte delle persone non percepisce
le reali capacità di quest'ultima e non conosce gli utilizzi della stessa persino nell'ambito della
propria casa.
Esistono dei limiti che l'intelligenza artificiale non può oltrepassare?
Per rispondere a questa domanda prenderemo in considerazione la spaccatura tra
intelligenza artificale debole e intelligenza artificiale forte che divide da decenni gli scienziati
ed i letterati.
Qual è lo scopo dell'intelligenza artificiale?
Non tutti sanno che uno dei campi sui cui si combatté la seconda guerra mondiale fu quello
tecnologico, è infatti in quegli anni che furono creati i primi computer. Inizialmente
l'intelligenza artificiale fu creata per scopi bellici, ma una volta finito il conflitto fu riadattata. 4
2. Definizione di I.A.
"E' intelligenza artificiale quel settore dell'informatica che cerca di riprodurre nei computer
quel tipo di comportamenti che, quando sono assunti dagli esseri umani, vengono
generalmente considerati frutto della loro intelligenza".
(Marvin Minsky, 1956)
L’Intelligenza Artificiale nasce ufficialmente negli anni 50 con la redazione di un documento, a
seguito di un seminario tenutosi al Dartmouth College di Hannover, in cui si descriveva il
progetto di poter ricreare l’Intelligenza in un essere artificiale . Il termine stesso, Artificial
Intelligence, pare sia stato coniato da un giovane professore di matematica, John McCarthy,
nel tentativo di trovare un’etichetta accattivante e appetibile per supportare la richiesta dei
fondi da destinare all’organizzazione del seminario che avrebbe dovuto studiare delle
tecniche per “riprodurre l’intelligenza” in un essere non umano. Ecco come suonava tale
richiesta:
“Proponiamo che uno studio (di due mesi, con dieci uomini) dell’intelligenza artificiale venga
condotto durante l’estate del 1956 al Dartmouth College di Hannover, New Hampshire. Lo
studio
procederà sulla base della congettura che, in linea di principio, ogni aspetto
dell’apprendimento o
di qualsiasi altra caratteristica dell’intelligenza possa venir descritto in modo così preciso da
mettere una macchina in grado di simularlo”
La richiesta fu finanziata dalla fondazione Rockfeller e il seminario vide la partecipazione, tra
gli altri, di Marvin Minsky, Allen Newell, Herbert Simon. 5
2.1 Cos’è l’intelligenza?
L’intelligenza Artificiale è una disciplina che ha come obiettivo la creazione di macchine in
grado di pensare ed agire come gli esseri umani.
Il suo obiettivo, tuttavia, non è solo quello di imitare l’intelligenza umana o di produrne una
copia. L’IA vuole creare originali, cioè macchine dotate di mente. La mente umana sarebbe il
prodotto di un complesso insieme di calcoli eseguiti dal cervello. Vedremo ora che cosa sono
l’Intelligenza Artificiale forte e l’Intelligenza Artificiale debole. La distinzione fra IA forte e
debole riguarda il modo di concepire l’IA. Partiamo da questo: gli scienziati hanno cercato di
dimostrare che l’intelligenza umana funziona secondo dei procedimenti simili a quelli delle
macchine. La distinzione fra queste nasce proprio da ciò. Secondo la concezione forte ogni
operazione della nostra mente è riducibile ad un calcolo. Essa presuppone che un calcolatore,
quando sia programmato opportunamente, possa essere dotato di un’intelligenza vera non
distinguibile da quella umana e di altri stati cognitivi uguali a quelli degli esseri umani. Di
conseguenza i sostenitori di questa scuola di pensiero ritengono che un computer possa
essere una macchina dotata di mente.
umana. Per di più, l'abilità di gioco viene appresa dal programma scontrandosi con avversari
umani.
Il test di Turing è molto semplice. Una persona scrive su dei bigliettini delle domande da
inviare a due soggetti diversi in un'altra stanza per comprendere quali di questi è una persona
e quale la macchina. In una delle stanze è situata una macchina, nell'altra stanza si trova
invece la persona. Entrambe rispondono alla domanda dell'esaminatore stampando su un
biglietto una risposta. I biglietti sono infine riconsegnati all'esaminatore. Al termine del ciclo
delle domande l'esaminatore deve scoprire in quale delle due stanze si trova la macchina.
L'esperimento viene poi ripetuto sostituendo la macchina con una persona a cui è affidato il
compito di mentire alle domande. L'esaminatore deve cercare di capire quale delle due
persone sta mentendo e quale invece sta rispondendo sinceramente alle domande.
Il test di Turing è considerato superato soltanto se il numero di volte in cui l'esaminatore
individua la macchina è pari al numero di volte in cui l'esaminatore scopre la persona che
mente. Al momento nessuna macchina è mai riuscita a superare il test di Turing
sull'intelligenza artificiale. 7
valvole che faceva uso del sistema binario, ultimato però solo al concludersi della guerra. Il
fatto che non dovesse più essere usato per scopi militari permise agli americani di modificare
ENIAC e di utilizzarlo per varie sperimentazioni di tipo scientifico. Con l’inizio della Guerra
Fredda infatti la scienza, l’informazione e la conoscenza assunsero un ruolo ancora più
importante, e scopo degli U.S.A. era detenere il primato anche in questi campi, non solo in
quello militare.
Al progetto ENIAC si unirono nuovi scienziati e ricercatori, tra cui John Von Neumann,
ideatore del modello logico funzionale alla base di tutti i calcolatori odierni. Neumann
modificò ENIAC seguendo il suo modello e lo rese più facilmente programmabile. La
programmazione di ENIAC richiedeva infatti la modifica di interi circuiti, e il calore sprigionato
dalle valvole faceva si che si guastasse in media ogni 5 ore.
Al progetto ENIAC ne seguirono altri, che diedero luce a nuovi calcolatori dalle dimensioni
sempre più ridotte, grazie anche all’invenzione del transistor. La rivoluzione informatica era
appena cominciata, eppure già alcuni scienziati cominciarono a pensare come rendere queste
macchine “intelligenti”. Tra questi vi era lo scienziato Alan Turing. 9
3.1 Transistor
Come abbiamo visto nel capitolo precedente la grande invenzione che ha permesso la
diffusione dei computer è stata il transistor. Il transistor è un dispositivo composto da un
materiale semiconduttore al quale sono applicati tre terminali che lo collegano al circuito
esterno. L'applicazione di una tensione elettrica o di una corrente a due terminali permette di
regolare il flusso di corrente che attraversa il dispositivo, e questo permette di amplificare il
segnale in ingresso.
Il perno fondamentale del transistor è il materiale semiconduttore dal quale è composto. Un
semiconduttore infatti è un materiale la cui conducibilità dipende fortemente dalla
temperatura. Ogni materiale ha delle caratteristiche emergenti se viene drogato attraverso
l'inserimento di atomi impuri, ovvero non facenti parte del semiconduttore.
I transistor sono utilizzati principalmente come interruttori (switchers) e amplificatori di
segnali elettrici ed hanno sostituito i tubi termoionici permettendo la riduzione delle
dimensioni dei computer.
Questo dispositivo ha origine nel 1947 a seguito di una ricerca americana condotta da William
Shockley. Già prima della guerra però vi era stata una svolta nelle ricerche in questo campo
quando vennero analizzate le caratteristiche diverse del silicio a seconda delle impurità
presenti in esso. Sfortunatamente però, lo scoppiare del secondo conflitto di dimensioni
mondiali interruppe le ricerche che ripresero solamente al termine della guerra nel 1945. In
seguito lo studio ricominciò presso i Bell Labs ed il gruppo di ricercatori di Shockley concentrò
le proprie ricerche sul germanio invece che sul silicio. Con questo nuovo materiale fu
finalmente creato il primo dispositivo.
Il primo transistor aveva un aspetto diverso da quelli di oggi, era un antiestetico intreccio di
fili montati su un supporto di plexiglas e venne presentato al mondo intero il 23 dicembre
1947.
Grazie a questo tipo di tecnologia l'elettronica ricevette un forte impulso e questa consentì la
realizzazione di sistemi complessi di circuiti costituiti da materiali drogati. La diffusione di
questi circuiti di dimensioni molto più piccole, consentì di ridurre l'estensione dei precedenti
calcolatori che avevano bisogno di intere stanze.
Nel 1956 il gruppo di ricerca di Shockley ricevette il premio Nobel per la rilevanza della
scoperta e le possibili applicazioni che sarebbero state possibili di lì a poco.
Di grande valore è stata la presentazione fatta da poco, il 20 febbraio 2012, del transistor più
piccolo mai esistito. Questo congegno è incredibilmente costituito da un solo atomo.
L'applicazione è certamente ancora molto lontana a causa delle temperature di cui necessità
per il funzionamento, ovvero prossime allo zero assoluto (circa -273°). 10
4. L'I.A. moderna: l'incertezza, il connessionismo e la robotica
Dagli anni '70 ad oggi gli studiosi si sono posti nuove problematiche nel capire quando un
calcolatore è da considerare intelligente:
Innanzitutto il problema dell'incertezza e dello "sbagliare". Caratteristica dell'uomo è
·
infatti quella di sbagliare i ragionamenti, o di essere incerto su delle decisioni da prendere. Un
computer invece, una volta programmato esegue le istruzioni impartitegli senza mai andare
incontro ad errori, a meno che non sia stato programmato male, o gli sia stato comandato di
risolvere un problema irrisolvibile. Si tentò quindi di scrivere programmi nei quali erano
previsti, di tanto in tanto, degli errori che facessero "sbagliare" il calcolatore. In realtà, anche
qui, si aveva solo "l'illusione" che il calcolatore sbagliasse. L'errore era infatti generato da una
o più istruzioni contenute all'interno del programma: il calcolatore non stava di fatto
sbagliando ma eseguiva correttamente le istruzioni impartite dal programmatore.
Il secondo problema era che tutti gli esperimenti sulle I.A., dagli anni '50 in poi, benché
·
abbiano dato risultati importanti, non portavano alla creazione di una vera e propria "mente
artificiale", ma solo di computer che "simulavano" alcuni processi cognitivi umani
(memorizzare, imparare ect.), senza però avere un'intelligenza propria.
Fino alla fine degli anni '80, gli studiosi di I.A. hanno sempre pensato che questo problema
fosse dovuto al software utilizzato, cercando di migliorarlo sempre più in modo da trovare un
programma che rendesse il computer intelligente. Alcuni scienziati però si convissero che il
problema non risedeva nel software, ma nell'hardware del calcolatore, più precisamente nel
modello con cui i computer vengono costruiti. Il modello più utilizzato è quello "Von
Neumann - Bottleneck (dall'inglese "collo di bottiglia")", dove tutte le informazioni da
elaborare vengono memorizzate in unico "posto" che è la memoria RAM. Secondo alcuni
studiosi questo modello funziona in generale per la maggior parte dei calcolatori, ma non per