Anteprima
Vedrai una selezione di 3 pagine su 7
Appunti lezioni Psicolinguistica Pag. 1 Appunti lezioni Psicolinguistica Pag. 2
Anteprima di 3 pagg. su 7.
Scarica il documento per vederlo tutto.
Appunti lezioni Psicolinguistica Pag. 6
1 su 7
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Hanno rilevanza produttiva e percettiva. La presenza di questo

effetto se ne ha evidenza che quando accediamo a una parola,

quando vogliamo esprimere una parola, diamo particolare rilevanza

in tutte le parole che iniziano per la stessa iniziale o sillaba( e anche

finiscono). La rappresentazione interna mette evidenza su prima e

ultima sillaba. Si chiama EFFETTO VASCA DA BAGNO. Le parti più

pertinenti di una sequenza sono iniziale e finale.

Jancke(psicolinguista) la definisce FORMA A U. Gli stimoli hanno

struttura gerarchica nella memoria, altri stimoli sono non strutturati.

Le cifre di un numero di telefono, richiamiamo la sequenza non una

cifra alla volta, ma per gruppi di cifre che si richiamano dalla nostra

memoria. LA STRUTTURA E’ IMPORTANTE NELLA MEMORIZZAZIONE.

Altro elemento essenziale, è l’elemento della frequenza nella

memoria. Tendiamo a memorizzare più facilmente gli stimoli più

frequenti. È il procedimento meno strategico e meno consapevole

per memorizzare un’info. La frequenza determina radicamento nella

nostra memoria, più frequente stimolo più facile recuperarlo. Altri

effetti frequenza: percepire una parola come semplice o complessa

dipende da quante volte l’abbiamo ascoltata(INUTILE NON E’

SEMPLICE PERCHE’ DERIVATO(PERCEZIONE STRUTTURA E’ MENO

FORTE DIPENDENDO DA QUANTE VOLTE LA USIAMO, NON LA

PERCEPIAMO NEANCHE COME COMPLESSA, LA PERCEPIAMO COME

UN TUTT’UNO(A DIFFERENZA DI INCAUTO, DOVE TENDIAMO A

SCOMPORLA))). La frequenza radica info nella nostra memoria

quindi il tempo di reazione per una parola molto frequente è più

ridotto. Altro effetto è quello di struttura interna della parola: PIU’

UNA PAROLA E’ FREQUENTE, MENO SIAMO IN GRADO DI PERCEPIRE

LA SUA STRUTTURA INTERNA.

Modi di rappresentazione di serie temporali: modo più noto è quello

A CATENA, in base al quale recuperiamo uno stimolo temporale

partendo dal primo elemento(C per parola CANE). Memorizziamo

una parola come tante perle attaccate ad un filo, recuperandolo

perla per perla. Ogni unità di quella parola è lo stimolo la cui

risposta è rappresentata dall’unità successiva. Catena di stimoli,

ogni unità evoca in risposta unità successiva. Un modello di questo

tipo viene definito MARKOVIANO DI PRIMO ORDINE, uno stimolo

evoca solo lo stimolo successivo al suo. Ci sono evidenze che

contraddicono questo effetto, come dimenticare unità intermedia.

Però anche se dimentichiamo un’unità sappiamo comunque come

va a finire, e ciò contraddice questo modello MARKOVIANO.

Altri modelli sono POSIZIONALI. Dicono che nostra memoria è

costruita per scatole: abbiamo scatola che mettiamo unità che

arrivano per prime, e poi per quelle che vengono dopo. Quante

scatole abbiamo, quanto è lunga questa sequenza? Sono i modelli

che tengono meglio conto dell’evidenza. Esiste un problema di

questo modello: se le scatole sono discrete, come le possiamo

invertire di ordine? Come è possibile che facciamo errori di

inversione di ordine? La codifica della posizione oscilla tra alcuni

valori: se pensiamo ad una codifica numerica, una scatola non è il

numero 2 preciso, ma ha un intervallo da 1.5 e 2.

Altro modello dice che la codifica della posizione non è un problema

di stimolo risposta(come a catena) né un problema di associazione

di uno stimolo ad una determinata scatola posizionale. È

semplicemente un problema di LIVELLO DI ATTIVAZIONE. Ciò

significa che quando percepiamo uno stimolo nel tempo, si attiva un

dato cluster di neuroni, specializzati per rispondere a un dato

stimolo. Questo livello si attiva fortemente immediatamente in

risposta a stimolo ma poi si degrada subito nel tempo. Parola cane:

NEURONE C subito attivo a 1, poi degrada nel tempo(0.5,0.2) e poi

così via con altri neuroni. La sequenza si vede guardando livelli di

attivazioni di neuroni che hanno risposto a quello stimolo, e per

ricostruire la sequenza temporale precisa si guarda quello che ha il

livello di attivazione più basso( perché si segue la curva di

decadimento), verso poi quelli più alti. Il GRADIENTE DI

ATTIVAZIONE ci fa determinare quando abbiamo percepito uno

stimolo. Evidenza empirica la contraddice. QUINDI ABBIAMO VISTO

3 MODELLI: MODELLO A CATENA, MODELLO POSIZIONALE E

MODELLO ORDINALE, importanti perché nostro cervello organizza

parole mettendole in relazione con combinazione di questi modelli.

Grazie a questi modelli siamo in grado di capire le somigliazne tra le

parole, come la radice di un verbo in forme flesse di un verbo.

Capiamo che 2 forme sono dello stesso paradigma verbale dalla

stessa parchè composte dalla stessa parte di sinistra.(CANTARE E

CANTIAMO).

Se però diciamo CANTARE E AMARE ci accorgiamo che terminano

allo stesso modo. Non ci fanno percepire però il suono ARE nella

stessa sequenza temporale: in cantare, ci sono 4 elementi

temporali(CANT), in amare solo 2 (AM), non sono allineati nel

tempo. Alleniamo a sinistra o a destra? Come la rappresentiamo

internamente? Da qui poi dipende la nostra capacità di

generalizzare.

Un modo per rappresentare modello a catena è un grafico a catena,

in cui ogni pallino è un’unità e poi delle frecce avanti o di ritorno.

Percorrendo unità da sinistra verso destra, siamo in grado di

produrre diverse forme. Questo grafo viene chiamato AUTOMA A

STATO FINITO. Per produrre una forma diversa da LAVA ad esempio,

se volessimo fare LAVANO, abbiamo bisogno di frecce in avanti in

più che porta a -NO. Il problema di questi grafo è che contiene

LOOP, ovvero frecce di ritorno, in questo modo non ci dice dove

fermarci e abbiamo sequenze che possono ripetersi all’infinito.

Perciò non è adeguata per rappresentare l’ordine delle relazioni tra

gli elementi costitutivi di una parola. Codifica a catena quindi è un

bel problema.

Un problema delle reti neurali ispirati su un modello a catena, che

attivano nodi in risposta a un determinato stimolo, come si

rappresentavano delle rappresentazioni di ordine? Una risposta

possibile è quella di dare posizione ad ogni nodo. Si associava una

lettera a una posizione: lettera C rappresentata in posizione 1, che

attiva un nodo diverso rispetto alla C in terza posizione. Questo si

chiama MODIFICA CONGIUNTA, codificando un nodo non soltanto

con contenuto ma anche con posizione. Questa codifica ci consente

di allineare 2 sequenze con contenuti uguali ma ordine diverso.

LAVA E LAVANO, i nodi uguali LAVA si attivano nelle stesse posizioni.

Con RILAVA però le relazioni di posizioni si spostano, in questo caso

LAVA sarà in posizione 3, 4 ,…. Quindi modello a catena può avere

un po' di problemi, anche molto dispendiosa specialmente in

sequenze con unità molto lunghe.

Un modo per ridurre questo problema è la CODIFICA PER WICKEL

PHONES, in cui associamo a ciascun nodo non una lettera e la sua

posizione in sequenza, ma una lettera e il carattere che è a sinistra

della lettera e il carattere a destra di quella lettera in una sequenza.

In LAVA, il nodo L è preseguita da # che sta per inizio o fine parola,

e la lettera seguente(A). si caratterizzano per lettera che precede e

lettera che segue. Si individuano posizioni di carattere relativi al

contesto a sinsitra e destra, senza richiedere un ordine posizionale.

Si dice solo tra quali lettere si trove. Si crea una ridondanza nella

rappresentazione. La A in LAVA e LAVANO, la seconda A, nonostante

si trovi nello stesso ordine in entrambe le situazioni, vive in 2

contesti diversi. CODIFICA PER CONTESTO DESTRO E SINISTRO. Ha il

vantaggio che si fa astrazione della posizione. Vantaggio anche

rispetto allineamento forme LAVA E RILAVA.

PER RETI NEURALI ADDESTRATE A LEGGERE: si somministra uno

stimolo a una rete neurale, una parola qualsiasi. Alla rete però si

somministrano le lettere in modo diverso, si danno le lettere in

grafemi più piccoli, che sono le linee per cui si compone quella

lettera(stanghetta verticale, orizzontale, ecc). l’input quindi era una

sequenza di tratti che componevano i caratteri, che si combinano in

vari modi. Si attivano in basso e si propagano verso l’alto al livello

successivo, superiore, che corrispondono alla nostra nozione di

lettera. Infine, ancora verso l’alto, avremo l’attivazione della parola

che avevamo trovato scritta, grazie alla combinazione di lettere.

Alla fine quello che si ottiene è una CODIFICA CONGIUNTA, in cui a

ciascuno stimolo abbiamo associato una posizione specifica.

Le reti si sono liberate dal concetto di posizione con le RETI

RICORRENTI, la soluzione più geniale al problema di

rappresentazione sequenza temporale in rete neurale. senza questa

soluzione, adottata dalle reti neurali di ultima generazione, ci

sarebbe stato un dispendio enorme di risorse per venire incontro

alle diverse ricorrenze di uno stimolo in diversi contesti. Il contesto

può essere rappresentato in una rete neurale attraverso un ciclo di

attivazione ricorrente. Nozione nata da Elmann. Le unità di input si

attivano secondo gli stessi principi sempre, in base agli stimoli in

arrivo per cui si è specializzato. Un nodo con un livello di attivazione

più alto è quello che meglio si è specializzato per un determinato

stimolo. Gli stimoli si presentano uno alla volta, in presenza di uno

stimolo alla volta. Il problema delle reti precedenti è che

rappresentano e attivano contestualmente degli stimoli che invece

si percepiscono grazie al tempo, non sincronicamente ma con un

ordine ben definito.

Le reti ricorrenti si libera dalla rappresentazione sincrona di uno

stimolo complesso, non rappresentandolo come un tutto, nel quale

la ripetizione dello stesso simbolo determina l’attivazione di una

stessa unità nella mia rete. Va mandata nell’ordine in cui l’ho

percepita. Una parola è uno stimolo che si sviluppa nel tempo, gli

stimoli delle lettere arrivano in istanti temporali diversi. Negli

stimoli di LAVA, ad esempio, abbiamo 4 stimoli diversi che si

presentano in istanti temporali diversi.

Rappresentazione di LAVA in ricorrenti: primo percepisco lettera L e

la lettera riconosce la L; poi manda avanti i livelli successivi fino a

output, in cui ripete lo stimolo che ha ricevuto. Dopo si resetta

perché aspetta il secondo stimolo, che è una A: stessa propagazione

e stessa risposta, in modo diverso da L. diverso perché non si dà

solo la A, ma anche lo stimolo dell’istante precedente. Quando

ricevo la A non ricevo solo stimolo corrente, ma ik ricordo relativo

allo stimolo precedente. È una sorta d

Dettagli
Publisher
A.A. 2023-2024
7 pagine
SSD Scienze antichità, filologico-letterarie e storico-artistiche L-FIL-LET/12 Linguistica italiana

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher chrismane99 di informazioni apprese con la frequenza delle lezioni di Linguistica computazionale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Pisa o del prof Bevivino Vito.