vuoi
o PayPal
tutte le volte che vuoi
Storia: Seconda e terza rivoluzione industriale
Scienze: Sistemi di posizionamento globale
Fisica: Sistemi di trasmissione del segnale
Matematica: Calcolo combinatorio
Latino: Plinio il Vecchio
Italiano: Italo Calvino
Inglese: An incorrect use of technology: George Orwell: 1984
Arte: Il futurismo: Giacomo Balla
Introduzione.
L'umanità ha vissuto a lungo quello che si suole definire “il tempo quasi immobile”, in cui i cambiamenti nel
modo di vivere si misuravano in secoli o in millenni. Oggi ci misuriamo invece con cambiamenti rapidissimi:
la terza rivoluzione industriale, quella dell'energia atomica e soprattutto dell'informatica, tocca in profondità
la nostra vita quotidiana e uno dei suoi grandi sogni è l’intelligenza artificiale. Questa ha sicuramente
migliorato la nostra vita accompagnandoci tutti i giorni in diverse forme e rendendo più comoda la nostra
esistenza, aiutandoci a garantire la nostra sicurezza, tutelando la nostra salute. Ma cosa si intende per
intelligenza artificiale? L’intelligenza artificiale.
Come disse Marvin Lee Minsky, noto scienziato e informatico statunitense ed esperto nel campo
dell’intelligenza artificiale, in The Society of Mind (1989) “The question is not whether intelligent machines
can have emotions, but whether machines can be intelligent without any emotions”. Infatti, con il termine
“Intelligenza artificiale”, coniato nel 1956 dal matematico americano John McCarthy, si intende
generalmente l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana.
Tuttavia, la sua definizione è ancora oggi molto discussa da filosofi e scienziati; in particolare, si distinguono
due correnti di pensiero: quella della I.A. forte e quella della I.A. debole.
Intelligenza artificiale forte.
L’intelligenza artificiale forte, il cui maggior esponente può essere considerato la professoressa Margaret
Boden, ritiene che un computer correttamente programmato possa essere veramente dotato di una
intelligenza pura, non distinguibile da quella umana. L’idea alla base di questa teoria risale al filosofo
empirista inglese Thomas Hobbes, il quale aveva sostenuto che ragionare non era nient’altro che calcolare: la
mente umana dunque non era altro che il prodotto di un complesso insieme di calcoli eseguiti dal cervello.
Intelligenza artificiale debole.
L’intelligenza artificiale debole del filosofo John Rogers Searle, invece, sostiene che un computer non potrà
mai eguagliare la mente umana, ma potrà arrivare solo a simulare alcuni processi cognitivi umani senza mai
riuscire a riprodurli nella loro totale complessità. L’obiezione si fonda sul fatto che i computer non
possiedono una coscienza per cui si comportano come se fossero intelligenti, ma in realtà seguono procedure
meccaniche, senza comprendere le loro azioni.
Cibernetica.
Alle due fondamentali correnti di pensiero, si affianca quello che è uno dei grandi risultati degli studi
moderni sull’intelligenza artificiale: la cibernetica. Questa disciplina si occupa dello studio delle analogie tra
le macchine e gli organismi viventi, soprattutto per quanto riguarda la capacità di autoregolarsi e di adattarsi
all’ambiente. Essa richiede la collaborazione di diverse discipline, quali l’informatica, la biologia, la
matematica, l’ingegneria e la fisica e trova diverse applicazioni nel campo degli organismi viventi con la
bionica, dei sistemi artificiali con i robot e delle organizzazioni sociali, politiche ed economiche, nella forma
di cibernetica applicata alla risoluzione dei problemi di regolazione e controllo.
Filosofia.
Karl Popper.
Come insegna Popper, la verità non è qualcosa di dato, piuttosto è un semplice ideale regolativo che guida il
processo di crescita della conoscenza, ma che non si raggiunge mai. Infatti, la sua teoria, che prende il nome
di falsificabilismo, si fonda sul concetto che la scienza è caratterizzata da un progresso che egli intende in
modo simile alla teoria evoluzionistica darwiniana: la competizione tra le teorie permette la selezione della
teoria che si dimostra più adatta a sopravvivere e che pertanto viene riconosciuta valida finché non si
presenta un’altra teoria a falsificarne la validità: ne consegue la necessità del dibattito.
Il dibattito.
I dibattiti pubblici sull’Intelligenza Artificiale si accendono fondamentalmente dalla pubblicazione nel 1950
di un articolo fortemente rivoluzionario, Computing Machinery and Intelligence, apparso sulla rivista
1
“Mind”, nel quale il matematico Alan Turing si domandava “Can machines think?” e cercava di dare una
risposta attraverso un test noto come “test di Turing”. Al centro della discussione si posero in particolar
modo i due esponenti precedentemente citati: la professoressa Margaret Boden e il filosofo John Searle.
Margaret Boden.
Professoressa e autorità internazionale nel campo dell’intelligenza artificiale, per i quali servizi le era stato
conferito un OBE (Order of the British Empire), fu la scrittrice della prestigiosa opera Artificial intelligence
and natural man (1979): in essa Boden descrive il modello computazionale della mente.
Secondo la teoria della professoressa, esiste una forte analogia tra il cervello umano e il computer: entrambi
hanno un substrato fisico che nel primo è biologico-neurale e nel secondo è elettronico; entrambi a livelli alti
mostrano di avere conoscenze, adattabilità, intelligenza e capacità di calcolo.
Boden definisce meglio questa analogia presentando le tre idee fondamentali su cui si fonda il modello
computazionale:
1) i fenomeni mentali sono schematizzabili in: ricezione dell’informazione esterna, elaborazione
autonoma secondo schemi, costruzione di risposte;
2) l’elaborazione delle informazioni può essere espressa in forma computazionale, ovvero come
semplice calcolo secondo regole meccaniche;
3) un qualsiasi sistema di elaborazione è costituito da sottoinsiemi collegati tra loro: a livelli bassi
presentano componenti (biologico-neurali nel cervello e elettronici nel computer) che sono dediti alla
comprensione e funzionano secondo leggi fisico-chimiche; a livelli intermedio-alti presentano
sistemi (il software nel caso dei computer e l’intero sistema neurale nel cervello) che si occupano di
tradurre il linguaggio macchina o i fenomeni o le informazioni in linguaggio naturale.
John Rogers Searle.
Il filosofo è noto per aver concepito l’esperimento mentale chiamato “Stanza cinese”, con il quale vuole
dimostrare che nessun computer è in grado di “pensare” come un essere umano, partendo dal presupposto
che il computer, per elaborare l’informazione, non ha bisogno di comprendere. Dunque, in linea con il
pensiero dell’intelligenza artificiale debole, egli fonda la sua teoria sul principio fondamentale che “la
consapevolezza è frutto dell'attività fisica specifica di un sistema fisico specifico (il cervello). Benché questa
attività possa essere simulata da un computer, questa non può far sorgere la consapevolezza.”
Sulla base di questo principio egli critica l’idea di un’intelligenza artificiale forte e soprattutto il famoso test
di Turing: esso consiste nel posizionare un uomo X davanti a due consolle attraverso le quali può parlare a
due soggetti che però non vede; i due soggetti sono Y, un altro essere umano, e Z una macchina che deve
dimostrare di avere una intelligenza; se X non riesce a distinguere Y da Z, allora Z ha superato il test e deve
essere considerata “intelligente”. Searle attaccò a fondo questa argomentazione asserendo che il test di
Turing non dimostra nulla sull’intelligenza e la consapevolezza di Z: egli ipotizza che l’uomo Y sia un
italiano che non conosce il cinese, ma che abbia a disposizione un manuale per comprendere e tradurre le
domande che gli vengono poste da X e che Z sia altrettanto dotato di un software per la traduzione.
Entrambi saranno in grado di elaborare e manipolare i simboli per dare a X delle risposte adeguate, ma né Y
né Z avrà compreso né quello che gli veniva chiesto né quello che ha realmente risposto.
Ne consegue che questa argomentazione non può essere accettata in quanto Searle fa coincidere la
consapevolezza con l’intelligenza, quando l’intelligenza consiste nella capacità di saper applicare le regole e
le conoscenze acquisite alle esperienze che vengono proposte, senza necessariamente comprendere.
Storia.
L’intelligenza artificiale si presenta come uno dei più grandi risultati di un processo di innovazione
tecnologica che si è verificato a seguito della seconda e della terza rivoluzione industriale.
Seconda Rivoluzione Industriale.
In realtà la seconda rivoluzione industriale, che ha inizio negli anni 50 del 1800 e termina con l’inizio della
prima guerra mondiale nel 1914, pone solo le basi per una futura rivoluzione nell’ambito dell’informatica,
dando un impulso allo sviluppo dell’apparato elettrico ancora in via di sperimentazione in quegli anni: si
cercava di sfruttare i corsi d’acqua per la produzione di energia elettrica, poiché in Italia la centrale
termoelettrica a carbone di Galileo Ferraris risultava molto costosa per la necessità di importare il carbone. 2
Solo dopo il 1870, si ha un incremento nel campo elettrico quando si producono i primi generatori di
corrente elettrica, quali la dinamo e il motore elettrico, e si diffonde la rete elettrica per l’illuminazione al
posto del gas illuminante nelle case, nei luoghi di lavoro e sulle strade: l’introduzione dell’elettricità
trasformò la vita dei cittadini rendendo più sicure le strade, permettendo loro una vita notturna o anche di
lavorare di notte nelle fabbriche per incrementare la produzione.
Terza Rivoluzione Industriale.
La crescita, lo sviluppo e l’accumulo delle conoscenze scientifiche e tecnologiche, già a partire dalla prima
metà del 900, era strettamente necessario nel contesto militare delle guerre mondiali e in quello successivo
della guerra fredda quando le maggiori superpotenze, ovvero Stati Uniti e Unione Sovietica, necessitavano
di progresso e innovazione tecnologica per la crescita economica.
L’elettronica, la telematica e soprattutto l’informatica sono i campi su cui maggiormente si incentra questa
rivoluzione industriale: sono discipline ex-novo che subiscono un continuo e rapido sviluppo e si diffondono
così tanto sul mercato globale al punto da apportare modifiche a livello tecnologico, economico e sociale con
impatti notevoli sugli stili di vita soprattutto dei paesi occidentali.
Per quanto riguarda l’elettronica, sicuramente i più importanti passi avanti compiuti nella storia di questo
settore sono stati la diffusione della radio e soprattutto l’invenzione della televisione, come mezzo di
comunicazione di massa per la diffusione di contenuti visivi e sonori in tempo reale o con lieve ritardo, che
ha avuto una rapida diffusione grazie alla sua semplicità d’uso e ai suoi costi relativamente contenuti. La
televisione dell’inventore John Logie Baird costituisce il primo modello nella storia: un televisore analogico
di grandi dimensioni e in grado di proiettare un’immagine di piccole dimensioni divisa in 28 linee e in
bianco e nero. Oggi, invece, ed in meno di 100 anni, siamo giunti ad avere a disposizione persino un
televisore con le stesse dimensioni esterne del primo modello, ma con caratteristiche ben superiori: schermo
di elevata dimensione che esclude quasi totalmente la presenza dei bordi, uno spessore fino ad un minimo di
appena 1 cm, tecnologie digitali avanzatissime che con un elevato numero di pixel per centimetro e con una
luminosità e un contrasto elevati rendono l’immagine quasi reale.
All’importante innovazione dell’elettronica, si affianca l’introduzione della telematica che si occupa della
trasmissione dell’informazione a distanza tra due o più utenti. Inizialmente, con i primi sistemi era data la
possibilità agli utenti esterni, attraverso un software installato su un computer, di utilizzare funzioni di
messaggistica e file sharing centralizzato attraverso la propria linea telefonica. Oggi, invece, grazie
all’evoluzione delle tecnologie audio-video è possibile avere dei sistemi di videoconferenza a distanza che
mettono in comunicazione più persone in contemporanea senza la necessità di un host o server esterno che