vuoi
o PayPal
tutte le volte che vuoi
Introduzione Infinito Dentro di Noi, tesina
Dagli automi semoventi di Erone da Alessandria allo Human Brain Project dei nostri giorni, passando per gli esperimenti nazisti e il seminario tenutosi nel 1956 al Dartmouth College di Hanover, nel New Hampshire, che sancì la nascita dell'Intelligenza Artificiale.
Collegamenti:
Infinito Dentro di Noi, tesina
Fisica: fisica dello stato solido, semiconduttori e superconduttori
Filosofia: i filosofi di fronte all'IA, Searle, Dreyfus, Winograd e Flores
SOMMARIO__________________________________
INTRODUZIONE E BREVE CONTESTO STORICO
-Cos’è l'Intelligenza Artificiale? Pag. 5
-Storia ” 7
-2000: il secolo del cervello ” 9
FISICA: SEMICONDUTTORI E SUPERCONDUTTORI
-Premessa Pag. 11
-Fisica dello stato solido ” 11
-I semiconduttori ” 13
-I superconduttori ” 14
FILOSOFIA: I FILOSOFI DI FRONTE ALL'IA
-Presupposti e problematiche Pag. 16
-Searle ” 16
-Dreyfus ” 17
-Winograd e Flores ” 18
4
INTRODUZIONE E BREVE CONTESTO STORICO
-Cos’è l'Intelligenza Artificiale?
L'Intelligenza Artificiale (termine coniato nel 1956 dal matematico John
McCarthy) è a tutti gli effetti una materia e consiste nello studio dei
fondamenti teorici, delle metodologie e delle tecniche che permettono di
progettare sistemi di hardware e sistemi di programmi software atti a fornire
ad un elaboratore elettronico prestazioni che non stenterebbero ad apparire,
ad un comune osservatore, prodotto di un'intelligenza umana.
Tale disciplina, nascendo, ha ereditato molte idee, tecniche, punti di vista da
altre discipline, in primis filosofia, psicologia e matematica. Più precisamente
derivano:
-dalla filosofia il dibattito, molto acceso anche in questo campo, su quale sia la
natura dell'intelligenza e quale quella della razionalità;
-dalla psicologia l'analisi delle relazioni fra conoscenza e azione;
-dalla matematica l'approccio formale, basato sulla logica.
L' Intelligenza Artificiale (cd. IA) ha una data di nascita ufficiale: il 1956,
l'anno dell'importante seminario estivo tenutosi presso il Dartmouth College di
Hanover, nel New Hampshire. Proprio a quell'occasione risale la fondazione
programmatica di questa materia di ricerca, ricerca che partì dalla raccolta dei
contributi sviluppati negli anni precedenti.
Far risalire la nascita dell'intelligenza artificiale a quell'estate risulta tuttavia
riduttivo.
È impossibile parlare di IA senza illustri riferimenti alla storia antica o
comunque ad una storia precedente il 1956, basti pensare ai primi calcolatori
elettronici o agli anni della cibernetica.
La verità è che l'uomo convive da tempo immemore con il desiderio di
indagare la mente ed è stato quest'ultimo a dare origine ad un lunga
tradizione di studio e ricerca sfociati più volte nel tentativo di emulare sé
stesso e la natura attraverso macchine frutto del proprio ingegno e di grandi
doti ingegneristiche.
Dagli automi semoventi di Erone di Alessandria alle macchine idrauliche di
Leonardo da Vinci, dalla tesi di Cartesio sulla sostanziale mancanza di
differenze tra "le macchine che costruiscono gli artigiani e i diversi corpi che
compone la sola natura" al progetto di meccanizzazione della Ragione di
Leibniz.
Inizialmente l'enorme differenza tra macchine e organismi viventi rendeva
difficile la deduzione da un'analogia tra i rispettivi comportamenti materiali, di
un'analogia tra le rispettive strutture interne. Queste analogie si sono però
fatte sempre più evidenti tra Ottocento e Novecento, a mano a mano che
elettrologia, termodinamica e chimica hanno permesso l'identificazione dei
processi che si svolgono nei dispositivi artificiali di produzione o utilizzazione di
lavoro o d'informazione con risultati equivalenti a quelli di alcuni processi
umani o animali.
Hanno avuto origine da queste osservazioni tre tendenze principali che
contraddistinguono il confronto speculativo tra prodotti della natura e prodotti
della tecnica: 5
-la tendenza tradizionale a utilizzare prodotti della cultura umana come
modelli del funzionamento di strutture naturali, organiche e inorganiche;
-la tendenza ad utilizzare prodotti dell'evoluzione fisica e biologica naturale
come prototipi dei prodotti dell'evoluzione culturale umana;
-la tendenza a vedere in questi ultimi un prolungamento, naturale o
automatico, dei processi di evoluzione darwiniana che hanno dato luogo alle
strutture, ai comportamenti e agli effetti eso-somatici dei viventi non umani.
Come esempi della prima tendenza si possono ricordare l'attribuzione delle
caratteristiche essenziali di una pompa idraulica al cuore e di quelle di una pila
di Volta ai meccanismi produttori di elettricità animale, l'attribuzione ai semi di
acero o di tiglio delle proprietà di una pala d'elica e all'occhio di quelle di una
macchina fotografica, la scoperta nei pipistrelli e nei cetacei di un sistema di
ecolocalizzazione analogo al "sonar", la scoperta negli uccelli migratori e in
alcuni batteri dell'equivalente di una bussola magnetica, rispettivamente a
declinazione e a inclinazione.
Nell'ambito di questa tendenza nasce il problema del modo in cui la natura ha
potuto "inventare" questi dispositivi; al quesito viene data una risposta in
termini di tentativi ed errori che scarica sul meccanismo darwiniano
dell'evoluzione - per selezione tra cambiamenti casuali di struttura e di
comportamento - la responsabilità di tale "apprendimento di specie" o
accumulo filogenetico di "conoscenza".
Quali esempi simmetrici della seconda tendenza, quella che cerca nella natura
i prototipi delle invenzioni umane, si possono prendere in considerazione i
paragoni che hanno costituito il punto di partenza della diramazione della
cibernetica detta "bionica": la pila di Volta come imitazione degli organi
elettrici della torpedine, la vite aerea o "elicottero" di Leonardo come
inversione dinamica dei semi volanti vegetali, il sonar di pipistrelli e dei delfini
come "precursore naturale" di quello delle navi, e così via.
Tuttavia mentre lo scopo della bionica consiste nello studiare con spirito
ingegneristico la “tecnologia naturale”, per incrementare le capacità
tecnologiche di risoluzione dei problemi non ancora ben impostati dall'uomo
(come la luce fredda delle lucciole o i calcolatori chimici delle piante
carnivore), il risultato indiretto di questi raffronti tra natura e tecnica è stato
quello di trasformare molte invenzioni dell'uomo in "scoperte" inconsapevoli di
soluzioni già introdotte dalla natura.
La terza tendenza, quella che vede nella creatività scientifica e tecnologica
dell'uomo un semplice prolungamento della creatività della natura caratterizza
per esempio l'epistemologia evoluzionistica di Popper, Lorentz e Campbell.
Anche in questo caso esistono parallelismi con la cibernetica e in particolare
con l'idea di Wiener il quale contrappone l'"apprendimento razziale e
filogenetico" all'apprendimento ontogenetico dell'individuo, e riconosce così
molti fenomeni naturali degni oggetti di studio di una "cibernetica dei sistemi
non viventi".
Il XX secolo fu responsabile di un grande passo in avanti nella storia
dell'Intelligenza Artificiale. Esso fu caratterizzato da un forte interesse nei
confronti di varie discipline che nell'IA risultano indissolubilmente legate: la
psicologia (l'indagine dell'inconscio e la psicoanalisi grazie a Freud) e
l'epistemologia (Popper) da un lato, l'avvento prima della cibernetica e
dell'elettronica e poi anche dell'informatica dall'altro.
6
-Storia
Se già nei secoli XVIII e XIX con la formalizzazione delle scienze e della
matematica furono create le condizioni per lo studio dell'intelligenza e delle
sue possibili artificializzazioni, fu solo a cavallo della Seconda Guerra Mondiale
che tale interesse intraprese una strada concreta arrivando alla definizione del
programma di ricerca espresso dal seminario di Darmouth nel 1956.
Purtroppo, come spesso accade, un avvenimento tragico come una Guerra
Mondiale significò anche un periodo di grandi investimenti nella ricerca e
quindi di grandi progressi scientifici. Le ricerche ebbero ovviamente come
scopo principe quello di creare armi sempre più potenti, ma sotto la guida di
un folle come Adolf Hitler si mossero anche in campo medico. Uomini senza né
etica né morale, ma con l'appellativo di dottori e ricercatori universitari, si
servirono della follia del loro Führer per realizzare esperimenti su vittime
innocenti, per la maggior parte ebrei provenienti dai campi di sterminio. Anche
in questa triste parentesi del novecento il progressivo interesse del secolo per i
processi della mente, la loro relazione con la neurologia, e il desiderio insito
dell'uomo di emulare la natura capendone i meccanismi portò molti medici
tedeschi a studiare il cervello e gli effetti di vari trattamenti su di esso. Fu il
caso di Hans Wilhelm Kogin che, interessato alla psichiatria, sottoponeva i suoi
pazienti a scariche mortali di elettroshock per poi analizzare il loro cervello o di
August Hirt che collezionava in particolari soluzioni la materia cerebrale degli
ebrei che Himmler gli consegnava.
Una volta chiusa per sempre questa orribile parentesi della storia mondiale la
società si riprese e così il mondo scientifico che se da un lato spostò parte dei
suoi interessi da quelli che erano stati durante il periodo del confitto dall' altro
mantenne e sviluppò ancor di più quell'interesse, nato già prima del conflitto,
per la meccanizzazione dell'intelligenza umana.
Il seminario di Dartmouth riunì un grande gruppo di studiosi con lo scopo di
esaminare la congettura che ogni aspetto dell'intelligenza potesse essere, in
linea di principio, descritto in modo tanto preciso da far sì che una macchina lo
simulasse. È fondamentale ricordare tra i nomi degli organizzatori del
seminario oltre a John McCarthy, il ricercatore di matematica e neurologia ad
Harvard Marvin Minsky, il direttore della ricerca sull'informazione in un centro
di ricerche dell'IBM Nathaniel Rochester, il matematico già famoso per la
teoria dell'informazione e allora ricercatore presso i Bell telephon laboratories
Claude E. Shannon.
Quelli che seguirono il seminario di Dartmouth furono gli anni delle grandi
aspettative, alimentate anche dai successi dovuti ai miglioramenti vertiginosi
dei supporti informatici utilizzati. Indicativamente possono essere rilevate due
tendenze: da una parte il gruppo guidato da Newell, Shaw e Simon interessato
alla simulazione dei processi cognitivi umani per mezzo dell'elaboratore, che
con il GPS (Generale Problem Solver) del 1958 intendeva estendere l'ambito
delle applicazioni del LT (paradigma della simulazione) oltre quelle puramente
logiche; dall'altra quanti dedicavano le loro forze al raggiungimento della
migliore prestazione possibile per i programmi, indipendentemente dal fatto
che questa potesse essere realizzata adottando procedure più o meno
imitative dei procedimenti seguiti dall'uomo (paradigma della prestazione o
dell'emulazione). 7
L'enfasi di questo periodo si pose sui meccanismi generali di ricerca e su una
concezione limitata della nozione di intelligenza, quale per esempio l'abilità di
giocare a scacchi o la capacità di risolvere problemi matematici.
Non molto tempo dopo però i ricercatori cominciarono ad incontrare i primi
insuccessi: metodi adeguati per casi semplici si rivelarono totalmente
inadeguati per i casi più complessi. Le grandi aspettative che erano state il
punto di partenza della ricerca in questo campo dovettero fare i conti con il
fallimento dei progetti di traduzione automatica fra linguaggi naturali; i
programmi che agivano a livello della semplice manipolazione sintattica si
dimostrarono inadatti e causarono il ritiro della maggior parte dei
finanziamenti provenienti da Inghilterra e Stati Uniti.
Queste e altre difficoltà portarono, a partire dagli anni Settanta, i gruppi di
ricerca a concentrarsi su aree sempre più ristrette di competenza fino alla
realizzazione dei primi sistemi esperti (sistemi in cui la conoscenza non è più
legata solamente alla comprensione teorica del problema, ma anche a
specifiche regole euristiche convalidate dall'esperienza; in un sistema esperto
quindi il complesso di queste due conoscenze è codificato e rappresentato in
un forma che l'elaboratore utilizza allo scopo di risolvere problemi simili a
quelli affrontati da un esperto umano).
Fu a partire da quel ridimensionamento delle aspettative che negli anni
Ottanta del Novecento, nacque l'IA come industria. L'intelligenza artificiale
entrò a far parte di un ampio sforzo che includeva la progettazione di chip e la
ricerca relativa alle interfacce uomo-macchina. Fu in questi anni inoltre che