vuoi
o PayPal
tutte le volte che vuoi
Hanno rilevanza produttiva e percettiva. La presenza di questo
effetto se ne ha evidenza che quando accediamo a una parola,
quando vogliamo esprimere una parola, diamo particolare rilevanza
in tutte le parole che iniziano per la stessa iniziale o sillaba( e anche
finiscono). La rappresentazione interna mette evidenza su prima e
ultima sillaba. Si chiama EFFETTO VASCA DA BAGNO. Le parti più
pertinenti di una sequenza sono iniziale e finale.
Jancke(psicolinguista) la definisce FORMA A U. Gli stimoli hanno
struttura gerarchica nella memoria, altri stimoli sono non strutturati.
Le cifre di un numero di telefono, richiamiamo la sequenza non una
cifra alla volta, ma per gruppi di cifre che si richiamano dalla nostra
memoria. LA STRUTTURA E’ IMPORTANTE NELLA MEMORIZZAZIONE.
Altro elemento essenziale, è l’elemento della frequenza nella
memoria. Tendiamo a memorizzare più facilmente gli stimoli più
frequenti. È il procedimento meno strategico e meno consapevole
per memorizzare un’info. La frequenza determina radicamento nella
nostra memoria, più frequente stimolo più facile recuperarlo. Altri
effetti frequenza: percepire una parola come semplice o complessa
dipende da quante volte l’abbiamo ascoltata(INUTILE NON E’
SEMPLICE PERCHE’ DERIVATO(PERCEZIONE STRUTTURA E’ MENO
FORTE DIPENDENDO DA QUANTE VOLTE LA USIAMO, NON LA
PERCEPIAMO NEANCHE COME COMPLESSA, LA PERCEPIAMO COME
UN TUTT’UNO(A DIFFERENZA DI INCAUTO, DOVE TENDIAMO A
SCOMPORLA))). La frequenza radica info nella nostra memoria
quindi il tempo di reazione per una parola molto frequente è più
ridotto. Altro effetto è quello di struttura interna della parola: PIU’
UNA PAROLA E’ FREQUENTE, MENO SIAMO IN GRADO DI PERCEPIRE
LA SUA STRUTTURA INTERNA.
Modi di rappresentazione di serie temporali: modo più noto è quello
A CATENA, in base al quale recuperiamo uno stimolo temporale
partendo dal primo elemento(C per parola CANE). Memorizziamo
una parola come tante perle attaccate ad un filo, recuperandolo
perla per perla. Ogni unità di quella parola è lo stimolo la cui
risposta è rappresentata dall’unità successiva. Catena di stimoli,
ogni unità evoca in risposta unità successiva. Un modello di questo
tipo viene definito MARKOVIANO DI PRIMO ORDINE, uno stimolo
evoca solo lo stimolo successivo al suo. Ci sono evidenze che
contraddicono questo effetto, come dimenticare unità intermedia.
Però anche se dimentichiamo un’unità sappiamo comunque come
va a finire, e ciò contraddice questo modello MARKOVIANO.
Altri modelli sono POSIZIONALI. Dicono che nostra memoria è
costruita per scatole: abbiamo scatola che mettiamo unità che
arrivano per prime, e poi per quelle che vengono dopo. Quante
scatole abbiamo, quanto è lunga questa sequenza? Sono i modelli
che tengono meglio conto dell’evidenza. Esiste un problema di
questo modello: se le scatole sono discrete, come le possiamo
invertire di ordine? Come è possibile che facciamo errori di
inversione di ordine? La codifica della posizione oscilla tra alcuni
valori: se pensiamo ad una codifica numerica, una scatola non è il
numero 2 preciso, ma ha un intervallo da 1.5 e 2.
Altro modello dice che la codifica della posizione non è un problema
di stimolo risposta(come a catena) né un problema di associazione
di uno stimolo ad una determinata scatola posizionale. È
semplicemente un problema di LIVELLO DI ATTIVAZIONE. Ciò
significa che quando percepiamo uno stimolo nel tempo, si attiva un
dato cluster di neuroni, specializzati per rispondere a un dato
stimolo. Questo livello si attiva fortemente immediatamente in
risposta a stimolo ma poi si degrada subito nel tempo. Parola cane:
NEURONE C subito attivo a 1, poi degrada nel tempo(0.5,0.2) e poi
così via con altri neuroni. La sequenza si vede guardando livelli di
attivazioni di neuroni che hanno risposto a quello stimolo, e per
ricostruire la sequenza temporale precisa si guarda quello che ha il
livello di attivazione più basso( perché si segue la curva di
decadimento), verso poi quelli più alti. Il GRADIENTE DI
ATTIVAZIONE ci fa determinare quando abbiamo percepito uno
stimolo. Evidenza empirica la contraddice. QUINDI ABBIAMO VISTO
3 MODELLI: MODELLO A CATENA, MODELLO POSIZIONALE E
MODELLO ORDINALE, importanti perché nostro cervello organizza
parole mettendole in relazione con combinazione di questi modelli.
Grazie a questi modelli siamo in grado di capire le somigliazne tra le
parole, come la radice di un verbo in forme flesse di un verbo.
Capiamo che 2 forme sono dello stesso paradigma verbale dalla
stessa parchè composte dalla stessa parte di sinistra.(CANTARE E
CANTIAMO).
Se però diciamo CANTARE E AMARE ci accorgiamo che terminano
allo stesso modo. Non ci fanno percepire però il suono ARE nella
stessa sequenza temporale: in cantare, ci sono 4 elementi
temporali(CANT), in amare solo 2 (AM), non sono allineati nel
tempo. Alleniamo a sinistra o a destra? Come la rappresentiamo
internamente? Da qui poi dipende la nostra capacità di
generalizzare.
Un modo per rappresentare modello a catena è un grafico a catena,
in cui ogni pallino è un’unità e poi delle frecce avanti o di ritorno.
Percorrendo unità da sinistra verso destra, siamo in grado di
produrre diverse forme. Questo grafo viene chiamato AUTOMA A
STATO FINITO. Per produrre una forma diversa da LAVA ad esempio,
se volessimo fare LAVANO, abbiamo bisogno di frecce in avanti in
più che porta a -NO. Il problema di questi grafo è che contiene
LOOP, ovvero frecce di ritorno, in questo modo non ci dice dove
fermarci e abbiamo sequenze che possono ripetersi all’infinito.
Perciò non è adeguata per rappresentare l’ordine delle relazioni tra
gli elementi costitutivi di una parola. Codifica a catena quindi è un
bel problema.
Un problema delle reti neurali ispirati su un modello a catena, che
attivano nodi in risposta a un determinato stimolo, come si
rappresentavano delle rappresentazioni di ordine? Una risposta
possibile è quella di dare posizione ad ogni nodo. Si associava una
lettera a una posizione: lettera C rappresentata in posizione 1, che
attiva un nodo diverso rispetto alla C in terza posizione. Questo si
chiama MODIFICA CONGIUNTA, codificando un nodo non soltanto
con contenuto ma anche con posizione. Questa codifica ci consente
di allineare 2 sequenze con contenuti uguali ma ordine diverso.
LAVA E LAVANO, i nodi uguali LAVA si attivano nelle stesse posizioni.
Con RILAVA però le relazioni di posizioni si spostano, in questo caso
LAVA sarà in posizione 3, 4 ,…. Quindi modello a catena può avere
un po' di problemi, anche molto dispendiosa specialmente in
sequenze con unità molto lunghe.
Un modo per ridurre questo problema è la CODIFICA PER WICKEL
PHONES, in cui associamo a ciascun nodo non una lettera e la sua
posizione in sequenza, ma una lettera e il carattere che è a sinistra
della lettera e il carattere a destra di quella lettera in una sequenza.
In LAVA, il nodo L è preseguita da # che sta per inizio o fine parola,
e la lettera seguente(A). si caratterizzano per lettera che precede e
lettera che segue. Si individuano posizioni di carattere relativi al
contesto a sinsitra e destra, senza richiedere un ordine posizionale.
Si dice solo tra quali lettere si trove. Si crea una ridondanza nella
rappresentazione. La A in LAVA e LAVANO, la seconda A, nonostante
si trovi nello stesso ordine in entrambe le situazioni, vive in 2
contesti diversi. CODIFICA PER CONTESTO DESTRO E SINISTRO. Ha il
vantaggio che si fa astrazione della posizione. Vantaggio anche
rispetto allineamento forme LAVA E RILAVA.
PER RETI NEURALI ADDESTRATE A LEGGERE: si somministra uno
stimolo a una rete neurale, una parola qualsiasi. Alla rete però si
somministrano le lettere in modo diverso, si danno le lettere in
grafemi più piccoli, che sono le linee per cui si compone quella
lettera(stanghetta verticale, orizzontale, ecc). l’input quindi era una
sequenza di tratti che componevano i caratteri, che si combinano in
vari modi. Si attivano in basso e si propagano verso l’alto al livello
successivo, superiore, che corrispondono alla nostra nozione di
lettera. Infine, ancora verso l’alto, avremo l’attivazione della parola
che avevamo trovato scritta, grazie alla combinazione di lettere.
Alla fine quello che si ottiene è una CODIFICA CONGIUNTA, in cui a
ciascuno stimolo abbiamo associato una posizione specifica.
Le reti si sono liberate dal concetto di posizione con le RETI
RICORRENTI, la soluzione più geniale al problema di
rappresentazione sequenza temporale in rete neurale. senza questa
soluzione, adottata dalle reti neurali di ultima generazione, ci
sarebbe stato un dispendio enorme di risorse per venire incontro
alle diverse ricorrenze di uno stimolo in diversi contesti. Il contesto
può essere rappresentato in una rete neurale attraverso un ciclo di
attivazione ricorrente. Nozione nata da Elmann. Le unità di input si
attivano secondo gli stessi principi sempre, in base agli stimoli in
arrivo per cui si è specializzato. Un nodo con un livello di attivazione
più alto è quello che meglio si è specializzato per un determinato
stimolo. Gli stimoli si presentano uno alla volta, in presenza di uno
stimolo alla volta. Il problema delle reti precedenti è che
rappresentano e attivano contestualmente degli stimoli che invece
si percepiscono grazie al tempo, non sincronicamente ma con un
ordine ben definito.
Le reti ricorrenti si libera dalla rappresentazione sincrona di uno
stimolo complesso, non rappresentandolo come un tutto, nel quale
la ripetizione dello stesso simbolo determina l’attivazione di una
stessa unità nella mia rete. Va mandata nell’ordine in cui l’ho
percepita. Una parola è uno stimolo che si sviluppa nel tempo, gli
stimoli delle lettere arrivano in istanti temporali diversi. Negli
stimoli di LAVA, ad esempio, abbiamo 4 stimoli diversi che si
presentano in istanti temporali diversi.
Rappresentazione di LAVA in ricorrenti: primo percepisco lettera L e
la lettera riconosce la L; poi manda avanti i livelli successivi fino a
output, in cui ripete lo stimolo che ha ricevuto. Dopo si resetta
perché aspetta il secondo stimolo, che è una A: stessa propagazione
e stessa risposta, in modo diverso da L. diverso perché non si dà
solo la A, ma anche lo stimolo dell’istante precedente. Quando
ricevo la A non ricevo solo stimolo corrente, ma ik ricordo relativo
allo stimolo precedente. È una sorta d