Anteprima
Vedrai una selezione di 5 pagine su 20
Infinito Dentro di Noi, tesina Pag. 1 Infinito Dentro di Noi, tesina Pag. 2
Anteprima di 5 pagg. su 20.
Scarica il documento per vederlo tutto.
Infinito Dentro di Noi, tesina Pag. 6
Anteprima di 5 pagg. su 20.
Scarica il documento per vederlo tutto.
Infinito Dentro di Noi, tesina Pag. 11
Anteprima di 5 pagg. su 20.
Scarica il documento per vederlo tutto.
Infinito Dentro di Noi, tesina Pag. 16
1 su 20
Disdici quando vuoi 162x117
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Sintesi

Introduzione Infinito Dentro di Noi, tesina



Dagli automi semoventi di Erone da Alessandria allo Human Brain Project dei nostri giorni, passando per gli esperimenti nazisti e il seminario tenutosi nel 1956 al Dartmouth College di Hanover, nel New Hampshire, che sancì la nascita dell'Intelligenza Artificiale.

Collegamenti:


Infinito Dentro di Noi, tesina



Fisica: fisica dello stato solido, semiconduttori e superconduttori

Filosofia: i filosofi di fronte all'IA, Searle, Dreyfus, Winograd e Flores
Estratto del documento

SOMMARIO__________________________________

INTRODUZIONE E BREVE CONTESTO STORICO

-Cos’è l'Intelligenza Artificiale? Pag. 5

-Storia ” 7

-2000: il secolo del cervello ” 9

FISICA: SEMICONDUTTORI E SUPERCONDUTTORI

-Premessa Pag. 11

-Fisica dello stato solido ” 11

-I semiconduttori ” 13

-I superconduttori ” 14

FILOSOFIA: I FILOSOFI DI FRONTE ALL'IA

-Presupposti e problematiche Pag. 16

-Searle ” 16

-Dreyfus ” 17

-Winograd e Flores ” 18

4

INTRODUZIONE E BREVE CONTESTO STORICO

-Cos’è l'Intelligenza Artificiale?

L'Intelligenza Artificiale (termine coniato nel 1956 dal matematico John

McCarthy) è a tutti gli effetti una materia e consiste nello studio dei

fondamenti teorici, delle metodologie e delle tecniche che permettono di

progettare sistemi di hardware e sistemi di programmi software atti a fornire

ad un elaboratore elettronico prestazioni che non stenterebbero ad apparire,

ad un comune osservatore, prodotto di un'intelligenza umana.

Tale disciplina, nascendo, ha ereditato molte idee, tecniche, punti di vista da

altre discipline, in primis filosofia, psicologia e matematica. Più precisamente

derivano:

-dalla filosofia il dibattito, molto acceso anche in questo campo, su quale sia la

natura dell'intelligenza e quale quella della razionalità;

-dalla psicologia l'analisi delle relazioni fra conoscenza e azione;

-dalla matematica l'approccio formale, basato sulla logica.

L' Intelligenza Artificiale (cd. IA) ha una data di nascita ufficiale: il 1956,

l'anno dell'importante seminario estivo tenutosi presso il Dartmouth College di

Hanover, nel New Hampshire. Proprio a quell'occasione risale la fondazione

programmatica di questa materia di ricerca, ricerca che partì dalla raccolta dei

contributi sviluppati negli anni precedenti.

Far risalire la nascita dell'intelligenza artificiale a quell'estate risulta tuttavia

riduttivo.

È impossibile parlare di IA senza illustri riferimenti alla storia antica o

comunque ad una storia precedente il 1956, basti pensare ai primi calcolatori

elettronici o agli anni della cibernetica.

La verità è che l'uomo convive da tempo immemore con il desiderio di

indagare la mente ed è stato quest'ultimo a dare origine ad un lunga

tradizione di studio e ricerca sfociati più volte nel tentativo di emulare sé

stesso e la natura attraverso macchine frutto del proprio ingegno e di grandi

doti ingegneristiche.

Dagli automi semoventi di Erone di Alessandria alle macchine idrauliche di

Leonardo da Vinci, dalla tesi di Cartesio sulla sostanziale mancanza di

differenze tra "le macchine che costruiscono gli artigiani e i diversi corpi che

compone la sola natura" al progetto di meccanizzazione della Ragione di

Leibniz.

Inizialmente l'enorme differenza tra macchine e organismi viventi rendeva

difficile la deduzione da un'analogia tra i rispettivi comportamenti materiali, di

un'analogia tra le rispettive strutture interne. Queste analogie si sono però

fatte sempre più evidenti tra Ottocento e Novecento, a mano a mano che

elettrologia, termodinamica e chimica hanno permesso l'identificazione dei

processi che si svolgono nei dispositivi artificiali di produzione o utilizzazione di

lavoro o d'informazione con risultati equivalenti a quelli di alcuni processi

umani o animali.

Hanno avuto origine da queste osservazioni tre tendenze principali che

contraddistinguono il confronto speculativo tra prodotti della natura e prodotti

della tecnica: 5

-la tendenza tradizionale a utilizzare prodotti della cultura umana come

modelli del funzionamento di strutture naturali, organiche e inorganiche;

-la tendenza ad utilizzare prodotti dell'evoluzione fisica e biologica naturale

come prototipi dei prodotti dell'evoluzione culturale umana;

-la tendenza a vedere in questi ultimi un prolungamento, naturale o

automatico, dei processi di evoluzione darwiniana che hanno dato luogo alle

strutture, ai comportamenti e agli effetti eso-somatici dei viventi non umani.

Come esempi della prima tendenza si possono ricordare l'attribuzione delle

caratteristiche essenziali di una pompa idraulica al cuore e di quelle di una pila

di Volta ai meccanismi produttori di elettricità animale, l'attribuzione ai semi di

acero o di tiglio delle proprietà di una pala d'elica e all'occhio di quelle di una

macchina fotografica, la scoperta nei pipistrelli e nei cetacei di un sistema di

ecolocalizzazione analogo al "sonar", la scoperta negli uccelli migratori e in

alcuni batteri dell'equivalente di una bussola magnetica, rispettivamente a

declinazione e a inclinazione.

Nell'ambito di questa tendenza nasce il problema del modo in cui la natura ha

potuto "inventare" questi dispositivi; al quesito viene data una risposta in

termini di tentativi ed errori che scarica sul meccanismo darwiniano

dell'evoluzione - per selezione tra cambiamenti casuali di struttura e di

comportamento - la responsabilità di tale "apprendimento di specie" o

accumulo filogenetico di "conoscenza".

Quali esempi simmetrici della seconda tendenza, quella che cerca nella natura

i prototipi delle invenzioni umane, si possono prendere in considerazione i

paragoni che hanno costituito il punto di partenza della diramazione della

cibernetica detta "bionica": la pila di Volta come imitazione degli organi

elettrici della torpedine, la vite aerea o "elicottero" di Leonardo come

inversione dinamica dei semi volanti vegetali, il sonar di pipistrelli e dei delfini

come "precursore naturale" di quello delle navi, e così via.

Tuttavia mentre lo scopo della bionica consiste nello studiare con spirito

ingegneristico la “tecnologia naturale”, per incrementare le capacità

tecnologiche di risoluzione dei problemi non ancora ben impostati dall'uomo

(come la luce fredda delle lucciole o i calcolatori chimici delle piante

carnivore), il risultato indiretto di questi raffronti tra natura e tecnica è stato

quello di trasformare molte invenzioni dell'uomo in "scoperte" inconsapevoli di

soluzioni già introdotte dalla natura.

La terza tendenza, quella che vede nella creatività scientifica e tecnologica

dell'uomo un semplice prolungamento della creatività della natura caratterizza

per esempio l'epistemologia evoluzionistica di Popper, Lorentz e Campbell.

Anche in questo caso esistono parallelismi con la cibernetica e in particolare

con l'idea di Wiener il quale contrappone l'"apprendimento razziale e

filogenetico" all'apprendimento ontogenetico dell'individuo, e riconosce così

molti fenomeni naturali degni oggetti di studio di una "cibernetica dei sistemi

non viventi".

Il XX secolo fu responsabile di un grande passo in avanti nella storia

dell'Intelligenza Artificiale. Esso fu caratterizzato da un forte interesse nei

confronti di varie discipline che nell'IA risultano indissolubilmente legate: la

psicologia (l'indagine dell'inconscio e la psicoanalisi grazie a Freud) e

l'epistemologia (Popper) da un lato, l'avvento prima della cibernetica e

dell'elettronica e poi anche dell'informatica dall'altro.

6

-Storia

Se già nei secoli XVIII e XIX con la formalizzazione delle scienze e della

matematica furono create le condizioni per lo studio dell'intelligenza e delle

sue possibili artificializzazioni, fu solo a cavallo della Seconda Guerra Mondiale

che tale interesse intraprese una strada concreta arrivando alla definizione del

programma di ricerca espresso dal seminario di Darmouth nel 1956.

Purtroppo, come spesso accade, un avvenimento tragico come una Guerra

Mondiale significò anche un periodo di grandi investimenti nella ricerca e

quindi di grandi progressi scientifici. Le ricerche ebbero ovviamente come

scopo principe quello di creare armi sempre più potenti, ma sotto la guida di

un folle come Adolf Hitler si mossero anche in campo medico. Uomini senza né

etica né morale, ma con l'appellativo di dottori e ricercatori universitari, si

servirono della follia del loro Führer per realizzare esperimenti su vittime

innocenti, per la maggior parte ebrei provenienti dai campi di sterminio. Anche

in questa triste parentesi del novecento il progressivo interesse del secolo per i

processi della mente, la loro relazione con la neurologia, e il desiderio insito

dell'uomo di emulare la natura capendone i meccanismi portò molti medici

tedeschi a studiare il cervello e gli effetti di vari trattamenti su di esso. Fu il

caso di Hans Wilhelm Kogin che, interessato alla psichiatria, sottoponeva i suoi

pazienti a scariche mortali di elettroshock per poi analizzare il loro cervello o di

August Hirt che collezionava in particolari soluzioni la materia cerebrale degli

ebrei che Himmler gli consegnava.

Una volta chiusa per sempre questa orribile parentesi della storia mondiale la

società si riprese e così il mondo scientifico che se da un lato spostò parte dei

suoi interessi da quelli che erano stati durante il periodo del confitto dall' altro

mantenne e sviluppò ancor di più quell'interesse, nato già prima del conflitto,

per la meccanizzazione dell'intelligenza umana.

Il seminario di Dartmouth riunì un grande gruppo di studiosi con lo scopo di

esaminare la congettura che ogni aspetto dell'intelligenza potesse essere, in

linea di principio, descritto in modo tanto preciso da far sì che una macchina lo

simulasse. È fondamentale ricordare tra i nomi degli organizzatori del

seminario oltre a John McCarthy, il ricercatore di matematica e neurologia ad

Harvard Marvin Minsky, il direttore della ricerca sull'informazione in un centro

di ricerche dell'IBM Nathaniel Rochester, il matematico già famoso per la

teoria dell'informazione e allora ricercatore presso i Bell telephon laboratories

Claude E. Shannon.

Quelli che seguirono il seminario di Dartmouth furono gli anni delle grandi

aspettative, alimentate anche dai successi dovuti ai miglioramenti vertiginosi

dei supporti informatici utilizzati. Indicativamente possono essere rilevate due

tendenze: da una parte il gruppo guidato da Newell, Shaw e Simon interessato

alla simulazione dei processi cognitivi umani per mezzo dell'elaboratore, che

con il GPS (Generale Problem Solver) del 1958 intendeva estendere l'ambito

delle applicazioni del LT (paradigma della simulazione) oltre quelle puramente

logiche; dall'altra quanti dedicavano le loro forze al raggiungimento della

migliore prestazione possibile per i programmi, indipendentemente dal fatto

che questa potesse essere realizzata adottando procedure più o meno

imitative dei procedimenti seguiti dall'uomo (paradigma della prestazione o

dell'emulazione). 7

L'enfasi di questo periodo si pose sui meccanismi generali di ricerca e su una

concezione limitata della nozione di intelligenza, quale per esempio l'abilità di

giocare a scacchi o la capacità di risolvere problemi matematici.

Non molto tempo dopo però i ricercatori cominciarono ad incontrare i primi

insuccessi: metodi adeguati per casi semplici si rivelarono totalmente

inadeguati per i casi più complessi. Le grandi aspettative che erano state il

punto di partenza della ricerca in questo campo dovettero fare i conti con il

fallimento dei progetti di traduzione automatica fra linguaggi naturali; i

programmi che agivano a livello della semplice manipolazione sintattica si

dimostrarono inadatti e causarono il ritiro della maggior parte dei

finanziamenti provenienti da Inghilterra e Stati Uniti.

Queste e altre difficoltà portarono, a partire dagli anni Settanta, i gruppi di

ricerca a concentrarsi su aree sempre più ristrette di competenza fino alla

realizzazione dei primi sistemi esperti (sistemi in cui la conoscenza non è più

legata solamente alla comprensione teorica del problema, ma anche a

specifiche regole euristiche convalidate dall'esperienza; in un sistema esperto

quindi il complesso di queste due conoscenze è codificato e rappresentato in

un forma che l'elaboratore utilizza allo scopo di risolvere problemi simili a

quelli affrontati da un esperto umano).

Fu a partire da quel ridimensionamento delle aspettative che negli anni

Ottanta del Novecento, nacque l'IA come industria. L'intelligenza artificiale

entrò a far parte di un ampio sforzo che includeva la progettazione di chip e la

ricerca relativa alle interfacce uomo-macchina. Fu in questi anni inoltre che

Dettagli
Publisher
20 pagine
6 download