C 1 -
APITOLO SCIENZE COGNITIVE E INTELLIGENZA ARTIFICIALE
L
E SCIENZE COGNITIVE
È difficile definire le “scienze cognitive” infatti abbiamo più progetti di ricerca provenienti da vari
ambiti di studio ed in questo modo si è creata quella che alcuni studiosi hanno definito una “galassia
cognitiva”.
Oggetto di studio potrebbe essere definito l’atto cognitivo umano inteso come espressione di tutte le
capacità della sua mente; ma il risultato della ricerca deve permettere all’elaboratore di simulare il
comportamento esplicato o deve essere conferma di una struttura e di una funzione cerebrale
accertate dalle neuroscienze.
I termini “scienze cognitive” non vanno quindi a definire “tutte le scienze che studiano l’atto
cognitivo umano”, ma a questo oggetto di ricerca collegano la finalità di esplicare cosa significa
conoscenza e il criterio di verità dato dalla prova empirica.
L’ipotesi classica o semplicemente “cognitivismo” comprende 3 tesi fondamentali:
1. l’oggetto di ricerca non può essere rappresentato teoricamente in modo esaustivo;
2. esiste un legame tra gli stati cerebrali ed il modo esterno, il sistema cognitivo dell’uomo è
caratterizzato da “rappresentazioni” che si formano all’interno del cervello in
corrispondenza della realtà esterna;
3. tali rappresentazioni sono simboliche, rette da regole, ed esprimibili tramite un calcolo
seriale.
Su quest’ultimo punto si è creata una scissione tra coloro che lo accettano, appunto i cognitivisti, e
coloro che invece dubitano dell’esistenza di tali rappresentazioni simboliche e dunque della
riproducibilità in modo logico-seriale del procedimento cerebrale di elaborazione
dell’informazione; così anche al posto di “rappresentazioni” si parla di “stati cerebrali.
I
L SIGNIFICATO
Rispetto alle tradizionali analisi filosofiche le scienze cognitive introducono due nuovi oggetti di
ricerca, il cervello e l’elaboratore.
L’impostazione è decisamente monista: non esiste una mente che non sia il prodotto di un cervello e
di un corpo, non esiste uno spirito separabile dal cervello e dal corpo. Lo stato cerebrale esprime la
mente, questa il linguaggio.
Alla luce di questa interpretazione, le parole “senso” e “significato” assumono nuova connotazione.
Essi vanno a denotare uno stato di attivazione di un cervello in corrispondenza di un determinato
stimolo. Il linguaggio è lo stimolo sonoro che attiva lo stato cerebrale; non porta quindi un senso
che possa definirsi oggettivo. Il significato si costruisce all’interno della mente, mentre il
linguaggio è lo stimolo sonoro che causa il significato all’interno del soggetto che percepisce. 1
Il Diritto Artificiale
La relazione di significato non lega quindi il linguaggio al mondo denotato ed all’individuo, bensì
lega direttamente il mondo sentito alla mente.
Anche se fino ad oggi nessuna macchina è stata mai in grado di simulare in modo soddisfacente
alcune capacità come la fantasia, la coscienza di sé, la creatività, ecc… per altre capacità le
macchine offrono già risultati di gran lunga superiori a quelli di un cervello, come per la capacità di
calcolo.
D’altro canto non è stato difficile ricostruire nell’elaboratore il pensiero logico e l’uso del
linguaggio. Quel che invece no si è riusciti a fare è dotare di significato tale uso e tale logica. Un
elaboratore non pensa, eppure può usare il linguaggio e le regole logiche meglio di chiunque tra noi.
Se il senso e il significato fossero veramente dati oggettivi presenti nel linguaggio, allora
l’elaboratore già penserebbe in modo sensato; purtroppo non è così.
La posizione cognitiva è dunque strettamente legata alla prova empirica: “se la teoria è corretta
allora la macchina costruita secondo essa sarà in grado di avere il comportamento previsto” e
l’apertura alla prova empirica nelle scienze che studiano la mente ha comportato un radicale
mutamento metodologico. Ma non sempre l’elaboratore è in grado di individuare gli oggetti della
realtà né di separare una parola dall’altra in modo corrispondente al significato, né di leggere una
scrittura o di differenziare un tipo di carattere dall’altro.
I “A”
L SIGNIFICATO DELLA LETTERA
Ad esempio si può scrivere la lettera “a” in vari modi e caratteri quindi per l’elaboratore sarà
difficile riconoscere la lettera se scritta in un modo diverso da quello programmato; aumentando la
possibilità di errore aumenta anche la percentuale di lettere “non a” riconosciute invece come tali.
Se poi ampliamo il numero di tipi di carattere già previsti nella programmazione, aumenta
corrispondentemente la capacità dell’elaboratore di riconoscere la lettera, si raggiunge l’ottimo
dicendo dall’inizio che tipo di carattere si usa.
La definizione logica permette solo di riconoscere esattamente la lettera definita nel tipo di carattere
definito senza errori di sorta. Se si introduce per la visione ed il riconoscimento di immagini una
metodologia non logica basata sulla maggiore o minore somiglianza non è possibile la scelta fra
diversi gradi di somiglianza, non è possibile una decisione se ne si presuppone un criterio di scelta.
Opportuno sembrerebbe, allora, scegliere il criteri di minimizzazione dell’errore. Questo criterio è
comunque un criterio arbitrario, ma un metodo analogico non permette una conclusione se non c’è
un criterio o valore di scelta, e la conclusione è che il valore di scelta nella somiglianza tra “o” e “a”
dipende dall’esistenza di “b,c,d,e,f,g…” e che quindi non è possibile stabilire a priori tale valore o
criterio. 2
Il Diritto Artificiale
VOLERE O COMPRENDERE
Le ricerche in tema di riconoscimento delle forme vennero portate avanti soprattutto da Marvin
Minsky e collaboratori nel laboratorio di Intelligenza Artificiale al MIT, costituito nel 1959.
Il problema era quella dell’individuazione, le conclusioni alle quali questi studi pervenivano erano
che per individuare ad esempio una sedia era spesso necessario “volere” individuare una sedia, che
nessun concetto o rappresentazione o simbolo di “sedia” permetteva all’elaboratore di individuare la
sedia dal mondo circostante. L’individuazione dipendeva non solo dalle qualità sensibili
dell’oggetto e dalle capacità sensoriali del sistema cognitivo.
Mansky giunse alla conclusione che ogni significato nella mente di un sistema cognitivo dipende
da ogni altro significato, mentre la definizione della “cosa” quasi sempre è
contemporaneamente strutturale e finalistico, dipende cioè dalla volontà di chi definisce o usa
la definizione, dipende, in ultima analisi, anche da ciò che si vuole fare, nell’esempio, con la
sedia. , ?
INTELLIGENZA ARTIFICIALE MENTE O CERVELLO
Gli studi sull’intelligenza artificiale (AI) si sono sviluppati a partire dal 1956. l’intento era quello di
simulare su un elaboratore elettronico il comportamento intelligente umano, costruire cioè una
macchina, anche se diversa nella struttura del cervello umano, in grado di avere un comportamento
intelligente indistinguibile da un comportamento umano in un determinato ambito.Già dall’inizio si
manifestarono chiari i due diversi orientamenti che portarono la ricerca a dividersi sul metodo di
indagine.
Il primo orientamento era legato alla impostazione di Turino: se il comportamento di un
elaboratore non è distinguibile in nulla da quello di un essere umano, cioè se un uomo, che non sa
se il proprio interlocutore sia un essere umano o un elaboratore, non riesce a scoprire di cosa o di
chi si tratti, allora, indipendentemente dalla architettura interna dell’elaboratore, questo “pensa”.
Data la struttura logica degli elaboratori, badati sul funzionamento di circuiti elettrici aperto/chiuso,
fu naturale nell’evoluzione di queste correnti di ricerca verso una rappresentazione simbolica e retta
da regole della mente: il noto paradigma cognitivisti “rules and representations”.
Il paradigma forniva alcuni inestimabili vantaggi:
1. la sistematicità;
2. la possibilità di una valutazione formale della correttezza della teoria;
3. la esplicazione di ogni passo teorico;
4. la prevedibilità del risultato;
5. la immediata implementabilità su macchine ad architettura von Neumann. 3
Il Diritto Artificiale
L’implementazione su elaboratore delle teorie cognitivisti portò allo sviluppo degli attuali
computers, macchine cioè che tutto fanno tranne che riprodurre le capacità cognitive dell’uomo.
Le differenze metodologiche si trasformarono in due scuole di pensiero:
East Coast cui fa capo il MIT e vi appartengono correnti più propriamente cognitiviste,
❦ che vedono nella coerenza teorico-formale il criterio di verità della teoria, mentre
l’elaboratore dà solo il risultato tecnico della stessa.
West Coast ha come punto di riferimento la University of California e vi appartengono le
❦ scuole connessionistiche, che rifiutano il paradigma “rules and representations” e con esso il
criterio di verità dato dalla coerenza formale, adottando invece quello formale relativo
all’uguaglianza di struttura tra computer e cervello e quello empirico della risposta
dell’elaboratore. Nell’orizzonte connessionista la mente non offre di per sé alcun ragguaglio
su come facciamo a pensare. Essa elabora trasforma il materiale già finito che le fornisce il
cervello partendo dalla sensazione. Se si vuole perciò simulare la mente in modo
soddisfacente occorre ricostruire la struttura del cervello. Essa va quindi riprodotta nella
struttura dell’elaboratore.
L’
INTELLIGENZA ARTIFICIALE DISTRIBUITA
La critica alla concezione cognitivista è andata oltre ponendo in dubbio anche l’esistenza delle
connessioni logiche tra i simboli e criticando quindi l’opinione che i processi cognitivi siano guidati
da regole; secondo tale critica la regola di comportamento è una qualità emergente di un sistema
dinamico che per sé non segue determinate regole.
La predizione di un comportamento secondo uno schema di regole può pertanto essere solo
probabilistica, né è possibile migliorare le regole descriventi il comportamento fino al punto da
rendere possibile una predizione esatta.
Le critiche connessioniste al cognitivismo sono basate sui risultati sperimentali derivanti
dall’invenzione di un software, chiamato reti neurali, che permette la simulazione su elaboratore di
un tipo di comportamento non-logico tuttavia probabilisticamente predittibile.
Le reti si sono sviluppate sulle ricerche in intelligenza artificiale che hanno seguito un approccio di
“livello basso” cioè tendente a simulare il cervello umano, nella struttura neurone-sinapsi, già nel
momento strutturale o di progettazione, affinché questa si costruisca una visione intelligente del
mondo circostante.
Queste ricerche intendono simulare nella macchina il ragionamento pratico dell’uomo in cui tramite
la sensazione viene costruito un concetto e quindi un giudizio.
Ma una possibilità di trovare una sintesi tra connessionismo e simbolismo può trovarsi nel fatto che
i procedimenti umani di elaborazione dell’informazione possono essere descritti e chiariti
4
Il Diritto Artificiale
esattamente solo come processi dio una rete connessioniste,m ma che il comportamento di questo
sistema ciononostante può venire descritto solo approssimativamente come manipolazione di
simboli. La descrizione di un comportamento quale formale manipolazione di simboli sarebbe
pertanto una rappresentazione idealizzata del reale procedimento.
C 2 – L R N
APITOLO E ETI EURALI
I
NTRODUZIONE
Le reti neurali differiscono in modo radicale e per diversi aspetti dai tradizionali modelli
d’intelligenza artificiale. Le principali differenze derivano senz’altro da questo presupposto: le reti
apprendono, non conoscono già le regole ma si modellano, attraverso un algoritmo
d’apprendimento, in modo tale da comportarsi come se conoscessero le regole, alla fine
dell’apprendimento. Quale sarà il risultato finale dell’apprendimento è imprevedibile, infatti il
programmatore non può prevedere l’evoluzione della rete; ma una volta terminato l’apprendimento
la rete diventa stabile.
Ci sono dunque due momenti diversi che caratterizzano una rete:
1. allenamento-apprendimento;
2. configurazione finale.
Partendo dalla prima fase, la struttura della rete è formata da alcuni ingressi, nei quali vengono
immessi i dati che descrivono una certa realtà, ad esempio le lettere dell’alfabeto. C’è poi uno stato
intermedio chiamato hidden units, che serve per il corretto calcolo dell’algoritmo di apprendimento
ed uno strato di unità in uscita nel quale durante l’apprendimento vengono inseriti i dati relativi alle
risposte che la rete deve fornire in dipendenza dell’ingresso; così ad esempio in corrispondenza
dell’attivazione dell’unità di ingresso della lettera “E” la rete deve fornite in uscita la corretta
pronuncio di quella lettera.
Le diverse unità dei diversi strati sono collegate tra loro attraverso connessioni sulle quali
passa un segnale, corrispondente all’attivazione della rispettiva unità di partenza. Su queste
connessioni però sono posti dei pesi che danno maggiore o minore importanza a quella connessione
rispetto alle altre a seconda di quanto essa ha contribuito alla risposta esatta. Ad esempio quando
viene attivata la lettera “E”, la prima volta che la rete inizia ad allenarsi i pesi sulle connessioni
verranno distribuiti casualmente, in modo da fornire una prima risposta, che sarà probabilmente
errata, quindi in uscita avremo ad esempio la lettera “S”. a questo punto forniamo alla rete la
risposta esatta cioè “E”. Si ripete di nuovo la procedura ingresso-uscita con nuovi pesi e si
confronta quale delle due risposte si è avvicinata di più a quella desiderata. Si fa quindi lo stesso
procedimento per tutte le lettere dell’alfabeto. Alla fine del processo di apprendimento la rete avrà
minimizzato l’errore per tutte le entrate e si sarà stabilizzata. 5
Il Diritto Artificiale
Paragoniamo ora la rete ad un normale programma. Secondo lo schema “rules and representations”
un programma per questo tipo di calcolo sarebbe stato assai facile da elaborare giacché tra
l’ingresso e l’uscita vi è una corrispondenza biunivoca “E/E”; quindi sarebbe bastato costruire una
regola che dicesse “se allora E”, cioè tutte le volte che l’ingresso è uguale a “E” allora pronuncia
“E”. ma nel caso, ad esempio, della lingua inglese, la pronuncia di una vocale subisce numerose
eccezione a seconda della parola in cui la vocale si trova inserita. Ad esempio la vocale “E” non si
legge allo stesso modo nella parola “ready” e “read”, in questo caso lo schema “rules and
representations” risulta troppo rigido, occorre ricostruire tutte le regole e tutte le eccezioni di
pronuncia elaborando quindi un programma tutt’altro che semplice.
Dunque in una situazione di carenza di dati o in cui i dati non sono omogenei o chiari, una rete,
similmente ad un essere umano, è in grado di fornire risultati accettabili. Ed infatti proprio il
riconoscimento di forme “pattern recognition” è stato il campo di maggior successo anche nella
conversione testo-linguaggio, nell’apprendimento delle strutture di significato del linguaggio
naturale, nella compressione di immagini, così ad esempio nel riconoscimento calligrafico e nel
riconoscimento dei suoni, oppure ancora nel controllo motorio dei robot.
D V N P
ALLA MACCHINA DI ON EUMANN AL ERCEPTRON
Per lungo tempo l’elaborazione dati simbolica era l’unica possibilità di elaborazione dati; in seguito
è stato postulato “un linguaggio dello spirito”, in cui il cervello umano “calcola” opinioni in forma
preposizionale. Si palesarono due problemi principalmente
1. il primo problema si è mostrato nella necessità che un modello adeguato di un processi
cognitivo non deve solo fornire uguali output a uguali input, ma anche dovrebbe raffigurare
i processi che realmente hanno luogo, in quanto essi siano rilevanti. Un chiaro esempio che i
processi cognitivi dell’uomo on sono legati ad un sistema di elaborazione delle informazioni
simbolico nello stile di una architettura Von Neumann, è mostrato dalla cosiddetta
condizione dei 100 passi: così ad esempio per riconoscere un volto o una risposta conosciuta
ad una domanda l’uomo ha bisogno di circa 100 millesimi di secondo.
La frequenza di attivazione dei neuroni del cervello umano è di circa un millesimo di
secondo. Da ciò risulta che il processo cognitivo che realmente ha luogo contiene circa 100
passi seriali. Un programma con 100 passi di programma sarebbe però estremamente
piccolo e completamente inadeguato, quando si tratta della simulazione di processi
intelligenti. Programmi soddisfacenti portano facilmente ad alcune migliaia di passi di
programma, senza raggiungere, però, la prestazione che il cervello fornisce in circa 100
passi. 6
Il Diritto Artificiale
Questa carenza nelle macchine viene colmata con una frequenza di attivazione dei
processori più elevata in nano secondi ottenendo così una più alta velocità di calcolo.
Comunque anche se si
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Riassunto esame Logica ed informatica giuridica, Prof. Romeo Francesco, libro consigliato Logica ed informatica giu…
-
Riassunto esame Logica ed informatica giuridica, Prof. Romeo Francesco, libro consigliato Presupposti e strumenti d…
-
Riassunto esame Istituzioni di diritto privato, Prof. Romeo Chrisitian, libro consigliato Istituzioni di diritto pr…
-
Riassunto esame Sociologia della comunicazione, Prof. Angelo Romeo, libro consigliato Sociologia della comunicazion…