Che materia stai cercando?

Sintesi di Linguistica e Psicolinguistica

Sintesi di tutto il materiale necessario al superamento dell’esame di Elementi di Linguistica e Psicolinguistica tenuto dalle Prof.sse Giustolisi e Foppolo: appunti presi a lezione, articoli discussi a lezione, studio di capitoli di libri discussi a lezione. Con illustrazioni e grafici degli articoli e degli esperimenti trattati.

Esame di Elementi di Linguistica e Psicolinguistica docente Prof. F. Foppolo

Anteprima

ESTRATTO DOCUMENTO

Università degli Studi di Milano-Bicocca

Monkey vocal tracts are speech-ready

Fitch, de Boer, Mathur & Ghazanfar

For four decades, the inability of nonhuman primates to produce human speech sounds has been claimed to stem from

limitations in their vocal tract anatomy, a conclusion based on plaster casts made from the vocal tract of a monkey cadaver. We

used x-ray videos to quantify vocal tract dynamics in living macaques during vocalization, facial displays, and feeding. We

demonstrate that the macaque vocal tract could easily produce an adequate range of speech sounds to support spoken

language, showing that previous techniques based on postmortem samples drastically underestimated primate vocal

capabilities. Our findings imply that the evolution of human speech capabilities required neural changes rather than

modifications of vocal anatomy. Macaques have a speech-ready vocal tract but lack a speech-ready brain to control it.

Fonologia

La fonologia è lo studio del modo in cui i foni interagiscono all’interno di una lingua, della

funzione linguistica dei suoni. La fonologia può essere distinta in fonologia segmentale e

fonologia soprasegmentale.

La fonologia segmentale si basa sui segmenti, che possono essere fonemi e sillabe.

I fonemi sono i suoni che sono rilevanti per una determinata lingua, ossia sono quei foni

linguistici che all’interno di una lingua hanno una funzione distintiva, che permettono di

distinguere due parole con significato diverso.

Per individuare i fonemi si confrontano coppie minime di parole che hanno segmenti

diversi nella medesima posizione, ad esempio: ‘faro’ si distingue da ‘varo’, ‘paro’ si

distingue da ‘baro’, ‘paro’ si distingue da ‘pero’, ‘caro’ si distingue da ‘calo’.

I fonemi non hanno realtà concreta –sono astrazioni psicologiche che si realizzano nei

foni. I foni si indicano tra parentesi quadre [f]; i fonemi si indicano tra parentesi oblique /f/.

In italiano, i foni [ɱ], [n], [ŋ] esistono perché vengono invariabilmente pronunciati in quella

maniera quando si trovano all’interno di determinate parole, ma non vengono percepiti

come distinti –vengono tutti riconosciuti come il fonema /n/. Ad esempio: nonno si

pronuncia con [n], sangue si pronuncia con [ŋ], invidia si pronuncia con [ɱ].

Tali foni in italiano sono dunque allofoni: modi diversi di pronunciare lo stesso fonema /n/

che si trovano in distribuzione complementare —in determinati contesti viene pronunciato

un fono e in altri contesti un altro fono— ma non hanno mai carattere distintivo.

La sillaba è un’unità prosodica costituita da uno o più foni agglomerati attorno ad un picco

di intensità, che generalmente si trova in corrispondenza di una vocale.

La sillaba è formata da un attacco —generalmente una consonante— e da una rima, a

sua volta formata dal nucleo vocalico e da una possibile coda —generalmente una

consonante; se la coda è presente la rima è chiusa, se la coda è assente la rima è aperta.

Ad esempio: /tram/ è una sillaba chiusa, /tre/ è una sillaba aperta. La sillaba più comune in

italiano è una sillaba aperta composta da una consonante iniziale e una vocale finale, ad

esempio: /ka.sa/.

I fonemi che precedono —attacco— e seguono —coda— il nucleo vocalico sono ordinati

secondo una precisa scala di sonorità universale: vocali, nasali, fricative, affricate,

occlusive —dove il caso: sonore, sorde. In qualsiasi lingua vale che se ci sono due

consonanti che precedono il nucleo sillabico, queste devono essere ordinate dalla meno

sonora alla più sonora; mentre se ci sono due consonanti che seguono il nucleo sillabico,

queste devono essere ordinate dalla più sonora alla meno sonora.

10 di 46

Università degli Studi di Milano-Bicocca

La fonologia soprasegmentale necessita di ulteriori livelli, i tratti soprasegmentali. I tratti

soprasegmentali —o prosodici— sono fenomeni fonologici che riguardano la catena

parlata nella sua successione lineare e i rapporti tra foni che si susseguono, essi sono:

l’accento, la lunghezza temporale o durata, il tono, l’intonazione, il ritmo.

L’accento è una proprietà delle sillabe che definisce un aumento di intensità della voce e

si realizza sul nucleo vocalico della sillaba.

All’interno di una parola plurisillabica, possono esservi più vocali che ricevono un accento:

si avrà dunque una prominenza lessicale primaria —l’accento primario— e prominenze

lessicali secondarie —gli accenti secondari.

In italiano, l’accento ha funzione distintiva perché permette di distinguere fra parole, ad

esempio: ‘subìto’ si distingue da ‘sùbito’, ‘circuìto’ si distingue da ‘circùito’.

In italiano, l’accento è libero perché può cadere su qualsiasi sillaba:

le parole tronche hanno l’accento sull’ultima sillaba, ad esempio ‘capitanò’;

• le parole piane hanno l’accento sulla penultima sillaba, ad esempio ‘capitàno’;

• le parole sdrucciole hanno l’accento sulla terzultima sillaba, ad esempio ‘càpita’;

• le parole bisdrucciole hanno l’accento sulla quartultima sillaba, ad esempio ‘càpitano’.

In altre lingue, l’accento è fisso, ad esempio: in francese, l’accento cade sempre sull’ultima

sillaba; in ungherese, l’accento cade sempre sulla prima sillaba.

I segmenti fonici (consonanti e vocali) possono variare per la loro lunghezza temporale

—o durata.

In italiano, la lunghezza consonantica è un tratto distintivo, dal momento che serve per

riconoscere coppie minime di parole, ad esempio: ‘fato’ si distingue da ‘fatto’, ‘pena’ si

distingue da ‘penna’ e ‘calo’ si distingue da ‘callo’.

In italiano, la lunghezza vocalica non è un tratto distintivo, visto che non esistono coppie

minime formate da due vocali, ad esempio: ‘no’ non si distingue da ‘noo’ e ‘amore’ non si

distingue da ‘amoore’.

In altre lingue, la lunghezza vocalica è un tratto distintivo, ad esempio: in latino,

‘vĕnit’ (viene) si distingue da ‘vēnit’ (venne), ‘mălus’ (cattivo) si distingue da ‘mālus’ (melo).

Da un punto di vista fonetico, il tono e l’intonazione corrispondono alla variazione della

frequenza di vibrazione delle corde vocali.

Il tono si riferisce a variazioni nella frequenza all’interno di una parola. In alcune lingue, il

tono ha funzione distintiva, ad esempio: in cinese mandarino, ‘mā’ (madre) ha tono alto e

‘má’

costante e si distingue da (lino) che ha tono alto e ascendente, da ‘mă’ (cavallo) che

ha tono basso e discendente-ascendente e da ‘mà’ (ingiuriare) che ha tono alto e

discendente.

Oltre che su una sillaba all’interno di una parola, si può mettere l’accento su una parola

intera o gruppo di parole, dando così intonazione alla frase. Ad esempio: ‘No, Maria ha

accompagnato Leo in stazione’ si distingue da ‘No, Maria ha accompagnato Leo in

stazione’, da ‘No, Maria ha accompagnato Leo in stazione’ e da ‘No, Maria ha

accompagnato Leo in stazione’.

Il ritmo è l’alternarsi regolare di sillabe o accenti.

Le lingue possono essere divise in due macroclassi a seconda della loro classe ritmica:

lingue a mitragliatrice, il cui ritmo è determinato dall’occorrenza regolare di

• determinate unità sillabiche, con l’alternanza di sillabe forti e sillabe deboli, ad esempio

l’italiano;

lingue a codice Morse, il cui ritmo è determinato dall’occorrenza irregolare di unità

• sillabiche forti e deboli, ad esempio l’inglese.

11 di 46

Università degli Studi di Milano-Bicocca

Le lingue a mitragliatrice sono lingue a isocronismo sillabico, il cui ritmo è basato

sull’occorrenza regolare delle sillabe, ossia sul fatto che le sillabe hanno più o meno la

stessa durata; le lingue a codice Morse possono essere: lingue a isocronismo accentuale,

ad esempio inglese e olandese, il cui ritmo è basato sull’occorrenza regolare degli accenti,

ossia sul fatto che gli intervalli tra un accento e l’altro sono più o meno di uguale durata o

lingue a isocronismo moraico, ad esempio il giapponese, il cui ritmo è basato

sull’occorrenza regolare delle more —unità subsillabiche.

Rasmus, Nespor & Mehler hanno mostrato che questa distinzione in classi ritmiche è il

risultato di differenze nella organizzazione di consonanti e vocali. In particolare, la

differenza è data dalla percentuale di spazio vocalico e da quanto varia lo spazio occupato

da consonanti.

La variazione di intonazione e ritmo definisce la variazione prosodica, caratteristica di

ogni lingua.

Psicolinguistica

L’input percettivo acustico viene processato categoricamente dal nostro sistema

percettivo. Grazie a questa percezione categoriale, siamo in grado fin da piccoli di

distinguere fra due fonemi, nonostante le differenze tra alcune coppie siano minime. Ad

esempio: i fonemi /b/ e /p/ sono quasi identici —entrambi sono consonanti occlusive

bilabiali— tranne che per la sonorità —/b/ è sonora e /p/ è sorda. La differenza tra i due

fonemi sta nel VOT (Voice Onset Time) ossia nel tempo di inizio della sonorità, l’istante in

cui le corde iniziano a vibrare: nel caso di [b] il VOT è tra gli 0 e i 20 ms —le corde vocali

vibrano subito, nel caso della [p] il VOT è dopo i 40 ms —le corde vocali non vibrano

subito.

Se percepissimo il suono in /p/

maniera continua allora ci

aspetteremmo che, facendo

ascoltare le sillabe [ba] e [pa] in cui

è stato manipolato il loro VOT ad

intervalli compresi tra 20 e 60 ms, i

giudizi sul suono ascoltato si

dovrebbero posizionare su un /b/

continuum. Eppure, McMurray,

Tanenhaus, Aslin & Spivey

hanno dimostrato che fino a 10 ms B P

di VOT, il suono è per tutti [b], sopra i 30 VOT

ms di VOT, il suono è per tutti [p].

Il nostro sistema percettivo adotta dunque una discriminazione categoriale dei suoni, pur

essendo questi distribuiti su un continuum.

Le lingue si differenziano per il numero di confini disponibili lungo il continuum del VOT,

per esempio: l’italiano ha un solo confine e dunque possono essere discriminati al

massimo due suoni sulla linea di sonorità; il tailandese ha due confini e dunque possono

essere discriminati fino a un massimo di tre suoni sulla linea di sonorità. Questo spiega

anche perché, in alcune lingue, alcune differenze nel suono si traducono in differenze fra

parole, ma in altre lingue non si sente questa differenza. Per esempio: il giapponese, a

differenza dell’italiano, non ha nessun confine sul continuum della sonorità fra /l/e /r/.

12 di 46

Università degli Studi di Milano-Bicocca

Nel secondo esperimento, McMurray, Tanenhaus,

Aslin & Spivey dimostrano che il fonema può

essere percepito come ambiguo quando: è

associato a una parola e viene pronunciato in

presenza di una scena visiva in cui sono presenti

due oggetti che differiscono per la sillaba iniziale.

Infatti, i soggetti non hanno dubbi a guardare il

bear .. quando il VOT è vicino allo 0, ma più ci si

allontana dallo 0, tanto più i soggetti considerano

anche la possibilità che la parola che stiano

sentendo sia pear .

L’interpretazione acustica è dunque categoriale, ma influenzata dal contesto.

Diversi studi dimostrano che siamo sensibili alle informazioni legate alla coarticolazione

di suoni. Ad esempio: nel pronunciare la parola /voce/, articoleremo la parte finale della /o/

sulla base del suono che la segue, cioè /c/.

L’informazione legata alla coarticolazione viene utilizzata anche da chi percepisce

uditivamente la parola. Sulla base di questo indizio, infatti, l’ascoltatore compie

costantemente anticipazioni rispetto alla prosecuzione attesa della parola che pensa

seguirà, dato l’input fino a quel momento.

Marlsen-Wilson & Warren hanno messo in atto un disegno sperimentale per indagare se

e come viene utilizzata l’informazione legata alla coarticolazione da chi percepisce

uditivamente la parola: il compito dell’ascoltatore è di definire se la parola ascoltata è nella

propria lingua o meno; gli stimoli vengono preparati eliminando la /c/ e sostituendo la /g/

all’onda sonora della parola /voce/, ottenendo la non-parola /voge/, e eliminando la /b/ e

sostituendo la /g/ all’onda sonora della non-parola /vobe/, ottenendo la non-parola /voge/.

In entrambi i casi, siamo di fronte a due non-parole, quindi i soggetti dovrebbero

rispondere questo in entrambi i casi. In particolare però, sentendo /vo/ con la

coarticolazione che prelude a /voce/ ci aspettiamo la parola reale ‘voce’, ma la nostra

aspettativa viene delusa e questo ha un costo in termini di tempo di riconoscimento;

quando invece sentiamo /vo/ con la coarticolazione /ob/, di fatto non ci aspettiamo

nessuna parola che inizia con /vob/ quindi non c’è nessun costo dovuto alla sorpresa.

Questo esperimento dimostra che quando processiamo l’input acustico usiamo tutti i

dettagli disponibili nell’input per velocizzare la nostra ricerca di parole compatibili con

esso.

Linguistica

Acquisizione del linguaggio

Le informazioni acustiche veicolate dalla variazione prosodica —altezza, ampiezza e

durata dei suoni linguistici— riescono a passare anche attraverso l’utero materno. Poiché

il sistema uditivo di un bambino si sviluppa intorno ai 7 mesi di gestazione, i bambini sono

in grado di percepire la variazione prosodica del parlato della madre dai 7 ai 9 mesi di

gestazione.

Dehaene-Lambertz ha mostrato come neonati prematuri, di 35-36 settimane, sanno

discriminare tra sillabe diverse. 13 di 46

Università degli Studi di Milano-Bicocca

DeCasper & Fifer hanno mostrato come neonati di 1-3 giorni preferiscono la voce della

loro madre rispetto a quella di un’altra donna.

Singh, Morgan & White hanno mostrato come i neonati preferiscono la voce umana che

parla rispetto ad altri rumori o al silenzio.

Mehler e collaboratori hanno dimostrato che bambini appena nati, di 4 giorni, sono in

grado di distinguere la loro lingua da un’altra lingua che abbia un ritmo diverso: bambini

francesi di 4 giorni distinguono il russo dal francese e preferiscono ascoltare discorsi in

francese; bambini non francesi di 4 giorni non distinguono tra francese e russo e non

mostrano preferenza per il francese.

Sebbene i suoni linguistici possibili siano molto numerosi, noi siamo in grado di

riconoscere, e distinguere, solo quei suoni che sono rilevanti per la lingua parliamo.

Secondo la teoria learning by forgetting di Werker e collaboratori, poiché i bambini non

sanno in che ambiente linguistico cresceranno, essi sono in grado di distinguere tra tutti i

foni e, crescendo, dimenticano. Essi hanno dunque messo in pratica un disegno

sperimentale volto a confermare tale teoria: hanno condizionato bambini americani di 7

mesi a girare la testa verso un pupazzo quando questi udivano un cambiamento di fonema

pronunciato, dopodiché hanno esposto i bambini americani a due foni che non sono

fonemi in inglese e lo sono in hindi; gli adulti hindi distinguono tra i due foni, gli adulti

americani non distinguono tra i due foni e i bambini americani distinguono tra i due foni.

Studi successivi hanno dimostrato che questa abilità si perde intorno ai 10 mesi.

Altri probabili meccanismi coinvolti nell’acquisizione del linguaggio sono lo statistical

learning, ipotizzato da Saffran, Aslin, & Newport, e il rule learning, ipotizzato da Marcus e

collaboratori.

Lo statistical learning è l’apprendimento di relazioni statistiche tra gli elementi di una

sequenza temporale sulla base delle probabilità con la quale un elemento della sequenza

segue l’elemento precedente.

Saffran, Aslin, & Newport hanno messo in atto due disegni sperimentali con neonati di 8

mesi che prevedevano una fase di familiarizzazione e una fase di test: durante la

familiarizzazione i neonati ascoltano con una registrazione di due minuti in cui vengono

pronunciate 4 non-parole ognuna ripetuta 180 volte in modo casuale e continuo; durante la

fase di test i partecipanti sono esposti sia agli stimoli contenuti nella fase di

familiarizzazione, sia a stimoli simili. I neonati determinano la durata dello stimolo: esso

coincide con il periodo di attenzione sostenuta verso un flash lampeggiante posto a destra

o a sinistra del neonato. Se i neonati riconoscono come familiari gli stimoli uditi nella prima

fase, dovrebbero mostrare diverse durate di attenzione verso il flash in corrispondenza di

audio familiari rispetto ad audio non familiari.

14 di 46

Università degli Studi di Milano-Bicocca

Nel primo studio la fase di test prevedeva l’ascolto di due pseudoparole come quelle usate

nella fase di familiarizzazione e di due pseudoparole composte dalle stesse sillabe della

fase di familiarizzazione, ma in ordine diverso.

Nel secondo studio, la fase di test prevedeva l’ascolto di due pseudoparole come quelle

usate nella fase di familiarizzazione e di due pseudoparole composte dall’ultima sillaba di

una pseudoparola familiare e dalle prime due sillabe di una pseudoparola familiare.

Il rule learning è l’apprendimento di regole strutturali astratte a partire da stimoli

presentati in sequenza e la capacità di generalizzare la regola estratta ad altri stimoli.

Marcus e collaboratori hanno messo in atto tre disegni sperimentali con neonati di 7 mesi

—1 mese più piccoli dei neonati coinvolti nell’esperimento di Saffran e collaboratori— che

prevedevano una fase di familiarizzazione e una fase di test.

Nel primo e nel secondo studio, la fase di familiarizzazione prevedeva l’ascolto di

pseudoparole con struttura ABA e ABB e la fase di test prevedeva l’ascolto di

pseudoparole con struttura ABA e ABB diverse da quelle udite nella fase di

familiarizzazione e di pseudoparole con struttura AAB.

Nel terzo studio, la fase di familiarizzazione prevedeva l’ascolto di pseudoparole con

struttura ABB e la fase di test prevedeva l’ascolto di pseudoparole con struttura ABB

diverse da quelle udite nella fase di familiarizzazione e di pseudoparole con struttura AAB.

15 di 46

Università degli Studi di Milano-Bicocca

Psicolinguistica

Il lessico mentale è un magazzino in cui sono contenute le informazioni semantiche,

fonetiche, ortografiche e sintattiche relative alle parole che conosciamo.

È plausibile ipotizzare che il lessico mentale sia costituito da tre sottoinsiemi separati: uno

contenente l’informazione semantica, uno contenente l’informazione acustica e uno

contenente l’informazione grafica.

È plausibile pensare anche che sia costituito da due sottoinsiemi: uno per il

processamento dell’input e uno per il processamento dell’output.

Nel processamento dell’input, due sono i canali che ci costringono a una ricerca lessicale:

il canale uditivo —per le parole udite— e il canale visivo —per le parole scritte.

Il lessico mentale dell’adulto contiene tra le 60.000 e le 75.000 entrate lessicali; un

bambino a un anno conosce —comprende— circa 100 parole.

How Many Words Do We Know? Practical Estimates of Vocabulary Size Dependent on Word Definition, the

Degree of Language Input and the Participant’s Age

Brysbaert, Stevens, Mandera & Keuleers

Based on an analysis of the literature and a large scale crowdsourcing experiment, we estimate that an average 20-year-old

native speaker of American English knows 42,000 lemmas and 4,200 non-transparent multiword expressions, derived from

11,100 word families. The numbers range from 27,000 lemmas for the lowest 5% to 52,000 for the highest 5%. Between the

ages of 20 and 60, the average person learns 6,000 extra lemmas or about one new lemma every 2 days. The knowledge of

the words can be as shallow as knowing that the word exists. In addition, people learn tens of thousands of inflected forms

and proper nouns (names), which account for the substantially high numbers of ‘words known’ mentioned in other

publications.

Introducing Psycholinguistics

Paul Warren

One important issue is that the notion of word is different when applied to different languages. But even if we gloss over

language differences and reach a tacit agreement that words are what are separated by spaces in printed text, then we still

have to face the question of whether 'cat' and 'cats' are two entirely separate words or two versions of the same word.

Or whether 'foot' and 'feet' are two words. Or whether 'houseboat' is a different word from both 'house' and 'boat'. Or

whether 'phone-tree' is two words or one. Or whether 'old' is the same word in 'old news' and 'old friend'.

The second issue we need to consider is what knowing a word entails. A distinction can be drawn between passive and active

vocabularies —most speakers can understand more words than they are likely to use in they own speech. But also there are

words that we see and understand in print, but have never encountered in speech (and occasionally vice versa).

Spivey & Marian si sono chiesti se i lessici mentali di individui

bilingue siano separati o vengano entrambi attivati durante la

ricerca lessicale. Essi hanno messo dunque in atto un disegno

sperimentale volto a rispondere a questo interrogativo: a +

soggetti bilingue anglo-russi vengono date istruzioni in entrambe

le lingue con parole cognate e vengono osservati i movimenti

oculari dei soggetti verso degli oggetti presentati. In particolare,

le parole cognate sono ‘marker’ (evidenziatore) in inglese e

/marka/ (francobollo) in russo e gli oggetti presentati sono un

evidenziatore, un francobollo e degli oggetti non relazionati.

16 di 46

Università degli Studi di Milano-Bicocca

Le istruzioni date in inglese sono del tipo ‘Put the russo inglese

marker above the cross’ e le istruzioni date in

russo sono del tipo ‘Poloji marku nije krestika’.

L’ipotesi è che nel lessico mentale di un individuo

bilingue si attivino tutte le parole compatibili con

un determinato input linguistico,

indipendentemente da quale lingua egli stia

ascoltando o parlando. La predizione è dunque

che vi sia un’interferenza durante l’ascolto delle

parole cognate ‘marker’ e ‘marku’.

I risultati mostrano infatti che i soggetti, sentendo

le istruzioni in russo guardano significativamente

di più l’evidenziatore e, sentendo le istruzioni in

inglese, guardano significativamente di più il bilingue controlli

francobollo rispetto agli altri distrattori.

The results in Russian, in particular, demonstrate that, contrary to the traditional psycholinguistic account of bilingual

language processing, bilingual listeners do not appear to be able to deactivate the irrelevant mental lexicon when in a

monolingual situation. In the context of previous research indicating independence of the two mental lexicons in bilinguals,

there exists at least one model of bilingual cognitive architecture that may accommodate much of the existing data. There

could perhaps be two semimodular mental lexicons in bilinguals. However, there would need to be a single common

acoustic-phonetic system that provides differential, parallel, and automatic mapping to the two lexicons, perhaps with no

language specific intermediate phonemic representations. With this basic cognitive architecture, there is in fact no need to

postulate a switching mechanism that is somehow voluntarily triggered. Spoken language automatically activates both

mental lexicons in parallel, but activates one of them only partially because the mapping has only a partial match.

Le tecniche di indagine in psicolinguistica sono molteplici, ma è possibile dividerle in due

classi generiche in base al tipo di indagine che compiono: off-line e on-line.

Se la tecnica è off-line allora si parla di studi comportamentali, in cui la misura del

processamento dell’input è calcolata alla fine di un percorso decisionale che avviene a

livello conscio. Spesso tale misura è riferita a un compito di scelta o di giudizio.

Se la tecnica è on-line allora si parla di misura implicita del processamento dell’input, in

cui la misura è interpretata come il riflesso di un processo inconscio che riflette il costo

computazionale —o sforzo cognitivo— legato a tale processo. Spesso tale misura è

riferita a un compito di lettura, di ascolto o di decisione lessicale.

Una delle variabili più studiate in psicolinguistica è il tempo di reazione (RT), cioè il tempo

di processamento dell’input esso, che può corrispondere al tempo impiegato a leggere/

ascoltare un dato input oppure il tempo impiegato a prendere una decisione/dare una

risposta su un dato input ed è interpretato come indice di difficoltà di tale processamento.

17 di 46

Università degli Studi di Milano-Bicocca

Una delle tecniche off-line più impiegate è il compito di decisione lessicale, una

metodologia sperimentale molto diffusa in cui il soggetto deve decidere, solitamente

premendo un bottone, se quella che gli viene presentata è una parola oppure una non-

parola nella sua lingua.

Le non-parole possono essere di due tipi:

parole illegali, cioè parole costruite con una combinazione di suoni illegittima per quella

• lingua, ad esempio ‘rmup’;

pseudoparole, cioè parole costruite con una combinazione di suoni legittima per quella

• lingua —che, in linea teorica, potrebbero costituire delle parole vere e proprie, ad

esempio ‘ormo’.

Se si tratta di non-parole, è più facile eseguire il compito quando queste contengono

sequenze illegittime per la propria lingua perché la nostra ricerca della parola avviene

basandosi linearmente su quanto ascoltiamo —o leggiamo— e dunque appena

incontriamo una sequenza illegittima, possiamo interrompere la nostra ricerca; nel caso di

pseudoparole, invece, continuiamo la ricerca finché non riusciamo a escludere che

esistano parole che hanno quella particolare combinazione di fonemi o grafemi.

Il riconoscimento è inoltre influenzato da altri fattori:

Frequenza: le parole più frequenti vengono riconosciute più facilmente di quelle più rare;

• questo suggerisce che i le connessioni neurali fra le diverse entrate lessicali nel nostro

lessico mentale corrispondenti a parole frequenti siano più facili da attivare.

Età di acquisizione: le parole imparate in età più tenera vengono riconosciute più

• facilmente di quelle imparate in età più adulta; questo suggerisce che le connessioni

neurali fra le diverse entrate lessicali nel nostro lessico mentale corrispondenti a parole

imparate da piccoli siano più facili da attivare —le connessioni sono più stabili perché

usate da più tempo e/o più frequentemente.

Lunghezza: le parole più corte vengono riconosciute più facilmente di quelle lunghe;

• questo suggerisce che –come anche per il tentativo di recupero di non-parole– la ricerca

della parola proceda in modo incrementale e quindi più una parola è lunga più tempo ci

si mette a recuperarla.

Vicinanza ortografica: i vicini ortografici sono parole che si differenziano per una sola

• lettera; minore è il numero di vicini ortografici, più facilmente vengono riconosciute le

parole; questo suggerisce che anche le parole simili vengono attivate.

Contesto: le parole attese o salienti in un determinato contesto vengono riconosciute

• più facilmente di quelle fuori contesto o inattese; questo suggerisce che quando

sentiamo una frase —quella che introduce il contesto, vengono pre-attivate anche parole

che sono tematicamente legate.

Concretezza: le parole più concrete o immaginabili vengono riconosciute più facilmente

• di quelle astratte. Il fattore della concretezza/immaginabilità è strettamente connesso

con il fattore della frequenza perché, di base, le parole che si riferiscono a oggetti

concreti sono più frequenti di quelle che si riferiscono a concetti astratti e al fattore

dell’età di acquisizione perché le parole concrete sono acquisite prima delle parole che

si riferiscono a concetti astratti.

In compiti di decisione lessicale può inoltre essere applicato il priming: un effetto —di

solito di facilitazione— che si ottiene sul tempo di risposta a uno stimolo target in

conseguenza alla presentazione di un altro stimolo prime ad esso precedente.

18 di 46

Università degli Studi di Milano-Bicocca

Linguistica

Acquisizione del linguaggio

Le tappe nell’acquisizione del linguaggio seguono un ordine preciso:

a 2-6 mesi, si sviluppano le prime vocalizzazioni;

• a 6 mesi, si sviluppano il pointing e altri gesti deittici;

• a 6-7 mesi, si sviluppa la lallazione canonica;

• a 9-12 mesi, si sviluppa la lallazione variata;

• a 12 mesi, avviene la produzione delle prime parole;

• a 18 mesi, avviene la produzione delle prime combinazioni di parole.

Così, anche le tappe nell’acquisizione del lessico sono precise:

a 12 mesi, il bambino conosce circa 10 parole;

• a 18 mesi, il bambino conosce circa 50 parole;

• a 24 mesi, il bambino conosce circa 300 parole;

• a 5 anni, dopo l’esplosione del vocabolario, il bambino conosce circa 10.000 parole.

L'acquisizione del lessico mette in gioco varie capacità: cognitive, sociali e linguistiche.

Capacità cognitive

Diversi studi sperimentali, attestano che i bambini sono dotati di capacità logico-

matematiche prima dell’acquisizione del linguaggio.

Addiction and subtraction by human infants

Wynn

Human infants can discriminate between different small numbers of items, and can determine numerical equivalence across

perceptual modalities. This may indicate the possession of true numerical concepts. Alternatively, purely perceptual

discriminations may underlie these abilities. This debate addresses the nature of subitization, the ability to quantify small

numbers of items without conscious counting. Subitization may involve the holistic recognition of canonical perceptual

patterns that do not reveal ordinal relationships between the numbers, or may instead be an iterative or 'counting' process

that specifies these numerical relationships. Here I show that 5-month-old infants can calculate the results of simple

arithmetical operations on small numbers of items. This indicates that infants possess true numerical concepts, and suggests

that humans are innately endowed with arithmetical abilities. It also suggests that subitization is a process that encodes

ordinal information, not a pattern-recognition process yielding non-numerical percepts.

The experiments used a looking-time procedure […]. Thirty-two infants with a mean age of 5 months 1 day participated in

experiment 1 and they were divided randomly into two equal groups. Those in the '1+1' group were shown a single item in

an empty display area. A small screen the rotated up, hiding the item from a view, and the experimenter brought a second

identical item into the display area, in clear view of the infant. The experimenter placed the second item out of the infant's

sight behind the screen. Thus, infants could clearly see the nature of the arithmetical operation being performed, but could

not see the result of the operation. The '2-1' group were similarly shown a sequence of events depicting a subtraction of one

item from two items. For both groups of infants, after the above sequence of events was concluded, the screen was rotated

downward to reveal either 1 or 2 items in the display case. Infants' looking time to the display was then recorded. Each infant

was shown the addiction or subtraction 6 times, the result alternating between 1 item and 2 items. Before these test trials,

infants were presented with a display containing 1 item and a display containing 2 items and their looking time was recorded,

to measure the baseline looking preferences for the two displays.

[…] in the test trials, infants in the two groups differed significantly —infants in the '1+1' group looked longer at 1, whereas

infants in the '2-1' group looked longer at 2. Thus, both groups looked longer at the incorrect than at the correct outcomes.

These results indicate that infants possess true numerical concepts, and suggests that humans are innately endowed with

arithmetical abilities. 19 di 46

Università degli Studi di Milano-Bicocca

Precursors of logical reasoning in preverbal human infants

Cesana-Arlotti, Martín, Téglás, Vorobyova, Cetnarski & Bonatti

Infants are able to entertain hypotheses about complex events and to modify them rationally when faced with inconsistent

evidence. These capacities suggest that infants can use elementary logical representations to frame and prune hypotheses. By

presenting scenes containing ambiguities about the identity of an object, here we show that 12- and 19-month-old infants

look longer at outcomes that are inconsistent with a logical inference necessary to resolve such ambiguities. At the moment of

a potential deduction, infants’ pupils dilated, and their eyes moved toward the ambiguous object when inferences could be

computed, in contrast to transparent scenes not requiring inferences to identify the object. These oculomotor markers

resembled those of adults inspecting similar scenes, suggesting that intuitive and stable logical structures involved in the

interpretation of dynamic scenes may be part of the fabric of the human mind. […]

One prominent account of them depicts infants as precocious Bayesian reasoners. However, most Bayesian theories require a

logical scaffolding to formulate, test, and modify hypotheses. Thus, characterizing the basic logical representations available to

preverbal infants for formulating hypotheses remains fundamental to understanding the very nature of knowledge

acquisition. Here we begin investigating the developmental precursors of such scaffolding, looking for behavioral correlates

of one simple logical representation and rule: disjunction (either A or B) and disjunctive syllogism (not A, therefore B).

Although elementary, this schema grounds one crucial hypothesis-testing strategy: Sherlock Holmes–like case-by-case

analysis of different possibilities, excluding alternatives until the culprit is found. […]

We studied 12- and 19-month-old infants, two ages at the onset of speech production and language learning but that precede

the development of extensive language knowledge. We presented infants with scenes injected with ambiguity about the

identity of an object, which could be resolved through disjunctive syllogism. […]

We recorded looking time. Both 12- and 19-month-olds looked longer at the inconsistent outcome, suggesting that they may

have derived the identity of the object in the cup through logical inference and were surprised when this conclusion was

violated, as revealed by mean looking times.

19-month-olds (n = 24) M = 7.7 s, M = 10.5 s, F1,23 = 5.79, P = 0.025

consistent inconsistent

12-month-olds (n=24) M =6.2 s, M = 7.6s, F1,23=5.19, P = 0.032

consistent inconsistent

[…] our data suggest that intuitive and stable logical structures involved in the interpretation of dynamic scenes may be

essential parts of the fabric of the mind. This does not imply that all logical reasoning is spontaneous or innate, just as

spontaneous and innate elementary numerical abilities do not imply that all mathematical knowledge is innate. Reasoning

occurs in many different forms and at many different levels of our mental processes, and the gulf separating infant thinking

from adult explicit logical reasoning is large. However, the development of reasoning abilities builds on a natural logical

foundation, whose profile we are beginning to uncover.

Un problema che il bambino deve affrontare è quello di stabilire il legame tra le parole e

quello per cui le parole stanno. Le parole servono per mettere in luce gli aspetti comuni tra

gli oggetti, cioè aiutano il bambino a formare categorie e a espandere il repertorio dei

concetti. I bambini tendono a guardare molto di più un oggetto di una nuova categoria

rispetto a un oggetto di una categoria familiare. Le parole sono speciali: a 9 mesi, qualsiasi

tipo di parola di contenuto incoraggia il bambino a formare categorie.

Capacità sociali

Affinché il bambino possa capire che una certa parola sta per un oggetto deve capire che

le parole hanno un valore referenziale, cioè che sono usate con l’intenzione di riferirsi a

oggetti o eventi che stanno per qualcosa nel mondo.

Prima dei 9 mesi i bambini sono sensibili alla relazione tra agente e oggetto durante l’atto

di afferrare qualcosa, poiché entra in gioco un contatto fisico tra agente e oggetto; tra i 9 e

i 12 mesi, iniziano a interpretare comportamenti gestuali come l’indicare, o il fissare e il

rivolgere lo sguardo verso qualcosa come comportamenti che servono per stabilire una

relazione tra agente e oggetto anche senza contatto fisico tra i due.

20 di 46

Università degli Studi di Milano-Bicocca

La capacità di interpretare questi comportamenti è importante per l’acquisizione del

lessico. Infatti, il bambino acquisisce il significato delle parole all’interno di un contesto

sociale, interagendo con gli adulti e con gli altri bambini.

Secondo Woodward, i bambini riescono a capire a quale oggetto l’adulto intenda riferirsi

per mezzo di una parola perché sono consapevoli del tipo di azioni che si compiono

mentre si usa il linguaggio.

Il bambino deve anche capire gli scopi e le intenzioni di chi parla.

A 16-18 mesi i bambini sono in grado di seguire lo sguardo dell’adulto, condividendo lo

stesso focus attenzionale —attenzione condivisa. Nonostante sia importante per i bambini

essere coinvolti nell’esperienza di attenzione condivisa, anche al di fuori di tali esperienze,

riescono a interpretare i comportamenti degli adulti, per esempio seguendo la direzione

dello sguardo. Attorno ai 9-12 mesi dispongono dell’intenzionalità.

Secondo Hoff & Naigles la componente sociale è efficace solo fino ai 18 mesi.

Dopodiché, gli aspetti sociali che svolgono un ruolo nell’acquisizione del lessico sono: la

disponibilità dell’adulto a rispondere al bambino; la capacità dell’adulto di capire a cosa il

bambino rivolge l’attenzione; la capacità dell’adulto di denominare gli oggetti a cui il

bambino presta attenzione.

Quello che conta quindi, sarebbe la capacità dell’adulto di coinvolgere il bambino nelle

interazioni linguistiche.

Capacità linguistiche

La lunghezza degli enunciati prodotti dagli adulti avrebbe una certa influenza nel

determinare l’ampiezza del vocabolario: enunciati lunghi favoriscono l’acquisizione del

lessico, dato che contengono più informazioni linguistiche.

Questa idea va in contrasto con il ruolo del CDS (Child Directed Speech), infatti

probabilmente dopo i 18 mesi il ruolo di questo tipo di registro diventa praticamente nullo.

Nei bambini, quello che conta è quindi la qualità dell’input poiché un input ricco, vario e

complesso permette al bambino di acquisire più informazioni.

Parole diverse mettono in luce aspetti diversi di un evento.

A 11 mesi i bambini associano le parole di contenuto; a 14 mesi, distinguono nomi e

aggettivi. Il legame tra nome e categoria d’oggetto è universale, infatti è stato riscontrato in

bambini esposti a lingue diverse.

I bambini usano informazioni sintattiche e morfosintattiche per stabilire se una parola è un

nome, un verbo o un aggettivo e si aspettano che in base alla categoria grammaticale la

parola sia associata a significati diversi.

Markman ha proposto che il bambino acquisisca il significato dei nomi guidato da tre

assunzioni: l’assunzione dell’oggetto intero, per la quale una nuova etichetta si riferisce

all’oggetto intero e non a una sua parte o al materiale di cui è fatto; l’assunzione

dell’estensione tassonomica, per la quale le etichette si riferiscono a oggetti della stessa

categoria piuttosto che a oggetti correlati; l’assunzione della mutua esclusività, per la

quale a ogni oggetto può essere associata una sola etichetta —i bambini escludono

l’esistenza dei sinonimi. 21 di 46

Università degli Studi di Milano-Bicocca

Young Children Associate Novel Words With Complex Objects Rather Than Salient Parts

Hollich, Hirsh-Pasek & Golinkoff

A word such as bottle could refer to the nipple, to the plastic base, or to the whole bottle including both of these parts. It also

could refer to sucking or even the process of feeding. Nonetheless, despite many possible misinterpretations, children

generally sort out the correct meanings. How?

One seemingly obvious solution to this problem is that children will make an educated guess. Indeed, one branch of research

in developmental psychology has sought to identify the heuristics that children use to limit their hypotheses about the

meaning of a new word.

One such tendency […] is that children appear to guess that labels refer to whole objects rather than actions, attributes, or

parts of objects. Markman called this heuristic the whole object bias.

There are a few problems with this whole object bias as a solution to the word-learning dilemma. First, most of the evidence

for this tendency is taken from children 18 months of age and older—most typically age 2 years. Very little is known about how

younger children interpret new labels, if their “educated” guesses would be less well informed, or if those guesses would hold

under the same types of situations. Second, previous work has used a highly restricted set of stimuli that potentially favors a

“whole” interpretation, especially with regard to parts. That is, the stimuli used previously were objects for which parts were

not particularly salient, and those parts were not necessarily distinct from the object, as would be the case for parts that

separate from an object itself. Yet children do learn words for complex objects made up of separable parts (e.g., flowers with

petals, pens with caps, shoes with laces). For such objects, including a myriad of toys, those parts may draw attention (e.g., the

wiggly antenna on a caterpillar toy), they may have their own labels (e.g., leaves on a tree), and they may separate from the

whole at times and be easily construed as objects in their own right (e.g., the ear on Mr. Potato Head). Nothing is known about

how children interpret labels in the presence of such complex novel objects or even if anything like a whole object bias would

obtain in such a case.

[…]

Because preverbal children cannot be asked to describe what they think a word refers to, the interactive intermodal

preferential looking paradigm was used. […]

A total of 48 infants, balanced for gender, participated. The 12-month-olds (n 28) had a mean age of 12.55 (range: 11.85–

13.23). The 19-month-olds (n 20) had mean age of 18.97 (range: 18.16–20.13). […]

We created four sets of multipart stimuli, two familiar sets and two novel sets. The familiar sets consisted of common two-part

objects with distinct (possibly salient) parts (phone with handset, shoe with laces, cup with lid, and bottle with nipple). Novel

stimuli were 1⁄2-in. thick wood cutouts that could separate into two pieces. The pieces fit together like a simple puzzle (aided

by Velcro) and were light enough that a 12-month-old could pull them apart easily. The base of the objects was painted a

single solid color (red or green), and the part had markings in addition to the solid color. The red object had light blue polka

dots; the green object had yellow stripes. These markings represented an attempt to heighten the salience of the parts and

increase the likelihood that infants would associate the word with them. […]

The testing apparatus consisted of a rotating black board. […] The board could be rotated almost 180°, allowing the stimuli to

be brought completely into and out of the infant’s view for timed intervals, and was high enough for the experimenter to hide

behind it completely during test trials. […]

Children first saw a pair of familiar objects (phone and shoe, cup and bottle) during the exploration phase. We ran these

familiar trials to familiarize infants with the preferential looking task and to introduce objects that can be seen both apart and

together. During a 26-s exploration phase, children were allowed to handle the objects one at a time, both apart and together

(e.g., the phone was shown on and off its cradle, the cup was handled with and without the lid). Then, during the test trials,

the two objects were affixed to the board; the experimenter turned the board so that it faced the child, ducked behind it, and

asked for one of the familiar objects three times during a 6-s trial, using a randomized assortment of token-final carrier

phrases (e.g., “Where’s the shoe? Show me the shoe! Find the shoe!”). The experimenter coordinated the presentation of

these phrases using a digital stopwatch.

Next, the novel stimuli were introduced. During the 26-s exploration phase, the child was encouraged by the experimenter to

move the pieces apart and together. A 6-s salience trial with the whole object and its attractive part affixed to the board then

determined each child’s baseline preference (e.g., “Look up here! What do you see?”). During training, the experimenter

22 di 46

Università degli Studi di Milano-Bicocca

labeled the novel object with a nonsense word (either modi [modaj] or dawnoo [danu]) seven times, using token-final

sentence frames (e.g., “Look at the modi! See the modi?”; “It’s a modi!”), while pulling the pieces apart and reattaching them.

In this manner, the label did not consistently co-occur with the object’s pieces being together. This manipulation was done for

the same reason that one part was patterned: to bias children toward a part interpretation of the novel word. In fact, the label

was rarely uttered while the object was together (less than 15% of the time, according to post hoc coding of a subset of the

data), minimizing the chance of a whole object interpretation. This coding indicated that the majority of labels were produced

when the objects were coming apart (45%) or coming together (24%). In addition, the experimenter maintained visual

fixation on the infant’s eyes to eliminate the possibility that the infant would use the experimenter’s gaze to determine the

intended referent of the label.

The testing phase had four, 6-s trials. During the first two test trials, the experimenter hid behind the testing board on which

the infant saw the patterned part and the whole object side by side (see Figure 3). The experimenter requested that the child

look at the target object, “[Child’s name], where’s the modi? Can you find the modi?” If children affixed the label to the whole

object, we hypothesized that they should look at the whole object more than at the part. If, however, children affixed the name

to the part, they should either look equally to both objects (because both contained the part) or look significantly more at the

part by itself. The tendency to look longer at a labeled object has been well established.

In the next two trials, we conducted a control to assess whether word learning had really occurred. In the new-label trial, a new

label (glorp or blicket) was offered. Thus, for example, infants were asked to look at the “glorp” rather than at the “modi.”

Consistent with previous work, if infants had specifically connected the label to the whole object, we expected they should

look less at it on these trials when an alternative label was requested. The final recovery trial ruled out that children had just

looked away from the whole object out of fatigue by asking the child to again look at the whole object—the modi. Thus, a

pattern of decreased looking on the new-label trials and increased looking on the recovery trials would insure that the infant’s

mapping was specific to the label and object used and provides a more stringent test of the word-learning hypothesis.

[…] both the 12- and 19-month-olds looked significantly longer at the

whole when the label was requested (in the test and recovery trials)

but not in the salience or new-label trials. […] The fact that children

did not have a preference for the patterned part or the whole object

during the salience trial reinforces the importance of the label in our

findings. The preference for the whole object after label training could

not be the result of an a priori perceptual preference for the whole

object. Thus, words, per se, did not simply increase attention to the

whole object. Otherwise, infants should have looked more at the

whole object on the new-label trials as well. 23 di 46

Università degli Studi di Milano-Bicocca

Alcuni ricercatori hanno analizzato lo sviluppo del vocabolario di bambini inglesi e italiani

di 8 anni, sottoponendo il questionario MacArthur ai genitori: il questionario consiste di una

serie parole, routine e suoni e per ogni item il genitore deve specificare se il proprio figlio

lo produce e/o lo comprende. I risultati mostrano che, tra gli 8 e i 16 mesi, i bambini

producono per lo più nomi di oggetti, persone, routine sociali, versi di animali e un solo

verbo —dare. Nel vocabolario di comprensione vi è un numero maggiore di verbi. Tra i

18-30 mesi i nomi rappresentano ancora la maggior parte delle parole conosciute dal

bambino, ma verbi e aggettivi iniziano ad aumentare. Ciò può essere dovuto al fatto che

gli aggettivi e i verbi sono parassiti dei nomi: gli aggettivi qualificano i nomi e i verbi

esprimono relazioni tra oggetti e individui denominati da nomi.

La comprensione del significato degli aggettivi emerge intono ai 14 mesi. A 21 mesi, i

bambini estendono gli aggettivi a proprietà di oggetti se appartengono alla stessa

categoria. A 3 anni sono in grado di estendere gli aggettivi a proprietà di oggetti che non

appartengono alla stessa categoria di livello base, ma solo se hanno la possibilità di

confrontare gli oggetti della stessa categoria che differiscono per una proprietà.

In base all’assunzione della mutua esclusività, i bambini assumono che le etichette si

escludano a vicenda, dunque quando i bambini hanno imparato il nome di un oggetto, se

sentono una nuova parola che si riferisce a quell’oggetto, assumeranno che la nuova

parola non sia un altro nome per quell’oggetto, ma che dovrà riferirsi a qualcos’altro —ad

una sua parte o a una sua proprietà.

Usando indizi morfologici e indizi distribuzionali, un bambino può identificare particolari

parole come appartenenti alla categoria degli aggettivi.

Una volta individuate queste parole, però, il compito del bambino è stabilirne il significato.

Per fare ciò, i bambini utilizzano principalmente la comparazione.

The Role of Comparison in the Extension of Novel Adjectives

Waxman & Klibanoff

John Locke posited that mapping words to properties of objects (e.g., color, texture, temperature) is a straightforward matter.

Particularly for properties of objects that are available directly to the senses (or "simple ideas," in Locke's terminology), all that

is required is an association between these simple ideas and their names. On the basis of this logic, Locke made two

assertions: first, that these simple ideas would be among the earliest acquired and, second, that once an association between

a sense experience and its name was established, that name would be readily and widely extended to describe other portions

of the same sensory experience. […]

However, despite its logic and intuitive appeal, Locke's seemingly straightforward account fails to capture the process by

which young learners map words to objects and their properties. For although many object properties are indeed directly

available to our senses, the words describing these "simple ideas" (in Locke's terminology) are not well represented in infants'

earliest lexicons. Instead, property terms tend to emerge late, especially as compared with words describing other, perhaps

more complex, concepts ("complex ideas" in Locke's terminology) such as object categories. In addition, contrary to Locke's

assertion, children do not extend newly acquired property terms widely to a diverse range of objects. Instead, these terms are

initially applied to fairly restricted sets of objects. […]

The earliest evidence for this position comes from 21-month-old infants who are just beginning to produce adjectives

spontaneously on their own. Waxman and Markow presented 21-month-olds with a single target (e.g., a red object) and two

test objects (e.g., a red vs. a blue object). Infants successfully extended a novel adjective, applied to the target (e.g., a red car),

to a test object sharing that property (e.g., another red car). However, they did so if, and only if, the target and test objects were

all members of the same basic-level object category (e.g., all cars). In sharp contrast, if the target (e.g., a red car) and test

objects (e.g., a red vs. a blue horse) were members of different basic-level categories, 21-month-olds failed to extend the

adjective systematically. […] 24 di 46

Università degli Studi di Milano-Bicocca

Like infants, 3-year-old children successfully extend novel adjectives to object properties when all the objects are members of

the same basic-level category (e.g., all plates), but they fail to extend adjectives systematically if the target (e.g., a transparent

plate) and test object (e.g., a transparent cup) are members of different basic-level categories. […] Nonetheless, when initially

mapping a novel adjective to an object property, 3-year-olds exhibit a clear reliance on basic-level categories to guide their

extensions. […]

This robust phenomenon presents a clear challenge to Locke's view, but it also raises several questions of its own.

One set of questions concerns the source(s) underlying this foundational role for basic-level categories. For example, it is

possible that the initial tendency to extend adjectives within, but not across, basic-level categories derives from the linguistic

fact that across languages, adjectives are morphologically, syntactically, and semantically dependent on the (basic level) count

nouns that they modify. It is also possible that this phenomenon rests upon aspects of the objects themselves, and in

particular on the degree of similarity—perceptual and/or conceptual—among members of basic-level categories.

Another set of questions centers more directly on the develop-mental implications of this phenomenon. Although a novel

adjective may initially be restricted to objects from the same basic-level category, it is eventually extended appropriately to

properties of objects from diverse basic-level categories. In the experiments reported here, we examined the circumstances

that motivate this advance. We focused on the processes of naming and comparison because, by its very nature, extending a

novel word from one object to another involves a comparison between objects.

The goal of Experiment 1 was to examine the role of explicit contrast in 3-year-olds' ability to extend a novel adjective to a

novel object property in objects from diverse basic-level categories. Children were shown a first target object that instantiated

the novel property under consideration (e.g., transparency) and a second target object with a contrastive property (e.g.,

opacity). In the within-basic condition, the two targets were members of the same basic-level object category (e.g., transparent

plate, opaque plate); in the across-basic condition, the targets were members of different basic-level categories (e.g.,

transparent plate, opaque toothbrush). Children were then presented with a forced-choice task involving objects from yet

another basic-level category (e.g., bottles) and were instructed to choose between (a) a matching test object (e.g., a

transparent bottle) and (b) a foil (e.g., an opaque bottle). […]

Thirty-two 3-year-olds (ranging in age from 3 years to 3 years 11 months, with a mean of 3 years 5 months) participated. […]

Stimuli were 84 small objects that could be easily handled by the participants (see Table 1). The objects were organized to

form 12 different sets, with two sets representing each target property (transparent, bumpy, curly, shiny, spotted, holey).

[…] each set included two target objects. All children saw the same first target (e.g., transparent plate). For children in the

within-basic condition, the second target (e.g., opaque plate) was a member of the same basic-level category as the first

target; these objects varied slightly in size, orientation, and shape. For children in the across-basic condition, the second target

(e.g., opaque toothbrush) was a member of a different basic-level category than the first target.

Within each set, we developed two different test trials. On each, the two test objects differed only with respect to the property

under consideration (e.g., transparent vs. opaque). […]

C hildren were tested individually in a quiet room in their preschool. To begin, the experimenter introduced a hand puppet

("Gogi") and explained that Gogi did not speak English. For each set, the experimenter introduced the first target, followed by

the second (contrastive) target. She then presented the first pair of test objects, along with a prompt for the child to select one

of them. Once the child made a selection, the experimenter removed the first test pair and presented the second. Target

objects remained in view at all times.

Children were assigned randomly to either the within-basic condition or the across-basic condition. In each condition, children

were assigned randomly to either the adjective or no-word conditions. In the adjective condition, the experimenter pointed to

the first target, saying, for example, "Gogi says this is a very blick-ish one." She then pointed to the second (contrastive) target,

saying, for example, "He says this one is not blick-ish." She then presented the two test objects, saying, for example, "Can you

give Gogi another one that is blick-ish. After the child made a selection, the experimenter removed the first test pair and

presented the second, explaining, "Now Gogi wants another blick-ish one. Can you give him another one that is blick-ish (The

novel adjectives were dak-ish, zav-ish, wugg-ish, fepp-ish, tal-ish, and blick-ish.) The procedure in the no-word condition was

identical except that no novel words were introduced. For example, the experimenter pointed to the first target, saying, "Gogi

likes this one," and to the second (contrastive) target, saying, "He doesn't like this one." Presenting the test trials, she said,

[…]

"Now Gogi wants another one. Can you give him another one that he'd like?"

25 di 46

Università degli Studi di Milano-Bicocca

As predicted, comparing two contrastive members of the same basic-level

category facilitated children's ability to identify the relevant property, map it to

a novel adjective, and subsequently extend that adjective broadly to objects

from different basic-level categories. However, comparing the very same

objects, in the absence of a novel adjective, or comparing two members of

different basic-level categories —with or without a novel adjective— conferred

no such advantage.

These results point to an important role for both naming and comparison.

Il bambino a 3 anni è in grado di estendere gli aggettivi

non solo a oggetti della stessa categoria di livello base,

ma anche a oggetti di altre categorie ma solo se nella

fase di familiarizzazione gli sono stati presentati due

oggetti che appartengono alla stessa categoria.

A 13-14 mesi i bambini stabiliscono un legame specifico tra nome e categoria e si

aspettano che una nuova parola sia un nome, mentre per i verbi questo accade a 18 mesi.

In un esperimento, Echols & Marti lo dimostrarono: i partecipanti erano di 13-14 e di 18

mesi e l’esperimento prevedeva una fase di familiarizzazione e una fase di test. Nella fase

di familiarizzazione, i bambini osservavano un cartone animato in cui un formichiere apre e

chiude una scatola. In questa fase, le condizioni erano due: i bambini potevano essere

assegnati o alla condizione nome o alla condizione verbo. Nella condizione nome, durante

l’osservazione del cartone, ai bambini veniva detto ‘Questo è un doco’; nella condizione

verbo, ai bambini veniva detto ‘Sta docando’. Nella successiva fase di test, i bambini

osservavano due cartoni animati: uno in cui il formichiere colora la scatola e uno in cui un

lamantino apre e chiude la scatola. I bambini di 13-14 mesi appartenenti alla condizione

nome mostrarono una preferenza per il formichiere poiché risultava loro familiare, e così

anche i bambini di 18 mesi appartenenti alla stessa condizione; i bambini di 13-14 mesi

appartenenti alla condizione verbo non mostrarono alcuna preferenza, ma i bambini di 18

mesi appartenenti a tale condizione mostrarono una preferenza per il lamantino poiché

l’azione di aprire e chiudere la scatola era loro familiare.

Anche questo esperimento sottolinea l’importanza di nominare.

In base ad alcuni esperimenti, è emerso che il contesto extralinguistico e gli indizi non

verbali sono sufficientemente informativi per permettere di stabilire il significato dei nomi;

ciò non avviene con i verbi: a differenza dei nomi, infatti, i verbi raramente sono contigui

all’evento che descrivono, spesso descrivono un evento che deve ancora iniziare, o un

evento già concluso.

È lo sfasamento temporale tra l’uso del verbo e ciò che il verbo descrive che rende difficile

stabilire il significato dei verbi.

Per testare questa ipotesi, Gillette e collaboratori hanno condotto diversi esperimenti.

Nel primo esperimento, cercano di simulare l’acquisizione di nomi e verbi da parte di

adulti. Mostrano a partecipanti adulti dei video di interazioni madre-bambino, durante le

quali venivano pronunciati i 24 nomi e i 24 verbi più comuni. Successivamente, ai

partecipanti viene mostrato un video in cui l’audio è stato tolto e quando viene pronunciata

la parola target, che può essere un nome o un verbo, si sente un beep. Il compito del

partecipante è di capire quale parola sia stata pronunciata. Nel caso dei nomi, gli adulti

arrivano a indovinarne (dopo 6 video con la stessa parola) il 45% delle volte; nel caso dei

verbi, gli adulti arrivano a indovinarne (dopo 6 video con la stessa parola) il 15% delle

volte. 26 di 46

Università degli Studi di Milano-Bicocca

I bambini userebbero l’informazione sintattica più il contesto extralinguistico per stabilire il

significato dei verbi; questa ipotesi è detta innesco sintattico del significato dei verbi.

Per questo Gillette e collaboratori sostengono che i verbi vengono acquisiti dopo i nomi,

perché per comprendere il significato dei verbi è necessario aver preliminarmente

acquisito il significato dei nomi e capire quali sono gli attori coinvolti nell’evento denotato

dal verbo.

È a partire dalla struttura argomentale del verbo e dal modo in cui sono espressi gli

argomenti che i bambini evincono alcuni aspetti del significato dei verbi. Confrontando le

diverse strutture sintattiche in cui un verbo può occorrere, il bambino arriva a determinare

il suo possibile significato.

Gleitman usa la seguente metafora: la struttura sintattica funziona come uno zoom che

mette a fuoco solo quella porzione dell’evento extralinguistico compatibile con la frase

pronunciata.

Questa ipotesi si basa sul presupposto che esista una correlazione tra sintassi e

semantica e si ispira all’idea di Brown secondo cui i bambini usano il contesto

morfosintattico per stabilire se una parola è un nome o un verbo e se è un nome comune o

proprio.

La prevalenza dei nomi rispetto a verbi e aggettivi non sembra valere però per lingue

come il cinese e il coreano, in cui ci sono più verbi che nomi. Secondo Gillette

bisognerebbe parlare di variazioni culturali poiché le madri coreane, ad esempio, usano

più verbi che nomi e questo si riflette nelle produzioni dei bambini.

Psicolinguistica

Il priming è un effetto —di solito di facilitazione— che si ottiene sul tempo di risposta a

uno stimolo, probe o target, in conseguenza alla presentazione di un altro stimolo, prime,

ad esso precedente.

L’effetto di priming si registra soprattutto in compiti di decisione lessicale. L’idea è che i

soggetti saranno più veloci a rispondere se quella parola è già stata attivata –e quindi è

più facile da riconoscere. Per vedere quali parole attivino quali parole si presentano primes

diversi e si misura se c’è facilitazione o meno nel compito di decisione lessicale a seconda

dei vari tipi di primes presentati. Se la presentazione di un prime rende i tempi di risposta

per un target più veloci, assumiamo che quel prime abbia pre-attivato il target; se la

presentazione di un prime non facilita i tempi di reazione, allora assumiamo che il prime

non abbia pre-attivato il target.

L’effetto di priming si può ottenere modulando diversi aspetti della parola prime:

vicinanza semantica, se la parola target è collegata semanticamente al prime che

• presento, il compito di decisione lessicale è facilitato rispetto a un prime che non ha

relazione semantica;

vicinanza ortografica/fonologica, se la parola target è collegata per grafia o suono al

• prime che presento, il compito di decisione lessicale è facilitato rispetto a un prime che

non ha relazione ortografica/fonologica.

I risultati sull’effetto di priming ci svelano come è organizzato il nostro lessico mentale.

Secondo il Modello della Coorte di Marslen-Wilson, quando si legge/sente una parola si

attivano tutte le parole che iniziano con lo stesso segmento visivo/acustico, cioè che sono

consistenti con l’input ortografico/fonologico in entrata.

27 di 46

Università degli Studi di Milano-Bicocca

Questo insieme di parole è definito coorte di candidati al riconoscimento.

Man mano che nuova informazione viene presentata vengono abbandonati i candidati che

non sono più compatibili con l’informazione in entrata, fino a che si rimane con un unico

candidato che corrisponde a quella data sequenza di segni/suoni.

Il processo di riconoscimento della parola nel contesto si articola in tre fasi:

fase di accesso, l’input fonologico attiva il set di candidati compatibili con esso, la coorte;

• fase di selezione, si identifica l’unico candidato compatibile con l’input fonologico;

• fase di integrazione, la parola scelta viene integrata nella rappresentazione complessiva

• della frase, considerando anche le sue caratteristiche sintattiche e/o semantiche.

Come dimostra lo studio di Zwitserlood effettuato con il paradigma del priming cross-

modale, nella fase di selezione è anche prevista una certa influenza del contesto.

The locus of the effects of sentential-semantic context in spoken-word processing.

Zwitserlood

Models of word recognition differ with respect to where the effects of sentential-semantic context are to be located. Using a

crossmodal priming technique, this research investigated the availability of lexical entries as a function of stimulus

information and contextual constraint. To investigate the exact locus of the effects of sentential contexts, probes that were

associatively related to contextually appropriate and inappropriate words were presented at various positions before and

concurrent with the spoken word. The results show that sentential contexts do not preselect a set of contextually appropriate

words before any sensory information about the spoken word is available. Moreover, during lexical access, defined here as the

initial contact with lexical entries and their semantic and syntactic properties, both contextually appropriate and inappropriate

words are activated. Contextual effects are located after lexical access, at a point in time during word processing where the

sensory input by itself is still insufficiently informative to disambiguate between the activated entries. This suggests that

sentential-semantic contexts have their effects during the process of selecting one of the activated candidates for recognition.

[…] The crossmodal priming paradigm involves the presentation of both spoken materials and visual target words, or probes.

The spoken materials consisted of 24 words embedded in three sentence types. In combination with each spoken word, two

target words were presented visually for lexical decision. These probes were either associated with the actually presented

spoken word, or with a Competitor, belonging to the same Word-Initial Cohort as the Actual Word. Four probe positions were

used for each word, established on the basis of gating data. All materials were in Dutch. The details of the test materials, the

control and the filler trials will be given below, together with information on the experimental design, subjects and procedure.

Mentre i soggetti ascoltavano la frase —in forma uditiva, sullo schermo veniva presentata

una parola target — in forma visiva.

Tale parola target poteva essere compatibile, cioè relata semanticamente, oppure no con il

prime. Per esempio: la parole ‘nave’ era associata alla parola ‘capita-no’ e la parola ‘soldi’

era associata alla parola ‘capita-le’.

Ciascun soggetto vedeva solo una delle due possibili parole target e doveva decidere

quanto più velocemente poteva se questa era una parola della sua lingua oppure no.

Il target veniva mostrato in quattro posizioni diverse:

alla prima sillaba della parola prime, quando l’input è ambiguo;

• alla seconda sillaba della parola prime, quando l’input è ambiguo;

• alla terza sillaba della parola prime, sul punto di disambiguazione;

• alla fine della parola prime, quando la parola è disambiguata.

Il Modello della Coorte predice che, prima del punto di riconoscimento entrambi i candidati

vengano attivati.

Effettivamente, sentendo /capi/, si attivano sia ‘capitano’ che ‘capitale’, cioè tutti i candidati

compatibili con l’input fonologico. 28 di 46

Università degli Studi di Milano-Bicocca

L’evidenza di questo è l’effetto di facilitazione osservato per parole semanticamente relate

a ‘capitano’ —cioè ‘nave’— e ‘capitale’ —cioè ‘soldi’— e il fatto che non si osserva una

differenza nei tempi di decisione lessicale fra queste.

Potrebbe però essere che si attivino solo le parole compatibili con il contesto dato e quindi

che tutte le parole che, pur facendo parte della coorte di candidati possibili, vengano

disattivate in quanto incompatibili con il contesto che si sta considerando.

Per testare questa possibilità il prime è stato inserito in tre contesti frasali diversi per

valutarne l’effetto sull’attivazione delle alternative lessicali:

contesto neutro (neutral context), ‘La prossima parola è capitano/capitale’;

• contesto compatibile con entrambe le continuazioni del segmento ambiguo (carrier

• context), ‘Essi piangevano la perdita del proprio capitano/capitale’;

contesto compatibile solo con una delle due continuazioni del segmento ambiguo

• (biasing context), ‘Sommessamente gli uomini si strinsero attorno alla bara. Essi

piangevano la perdita del proprio capitano/(capitale)’.

Nel biasing context compatibile solo con ‘capitano’ da un certo punto viene attivata solo la

parola compatibile con il contesto. L’evidenza di questo è l’effetto di facilitazione osservato

per parole semanticamente relate a ‘capitano’ —cioè ‘nave’, mentre non c’è facilitazione

per le parole relate a ‘capitale’ —cioè ‘soldi’.

Dunque, vi è un effetto del contesto nella selezione di candidati considerati nella coorte,

eppure esso non è immediato: anche nel biasing context, l’effetto del contesto si osserva

solo a partire da un certo punto in poi. L’evidenza di questo è il fatto che nelle posizioni di

ambiguità, ossia nella prima e nella seconda sillaba, non si osserva una maggiore

facilitazione per parole semanticamente relate a ‘capitano’ rispetto a quelle relate a

‘capitale’. L’effetto del contesto è osservabile a partire dalla terza sillaba della parola

prime, esso è tuttavia abbastanza precoce.

L’ambiguità può esservi anche in caso di parole complete, come per le parole omofone o

per le parole polisemiche, e si tratta di ambiguità semantica o polisemia.

Analogamente, anche nel caso di parole polisemiche vengono attivati tutti i significati

relativi a tale parola, ma eventualmente il contesto interferisce e ne disattiva alcuni.

Lexical Access during Sentence Comprehension: (Re)Consideration of Context Effects

Swinney

The effects of prior semantic context upon lexical access during sentence comprehension were examined in two experiments.

In both studies, subjects comprehended auditorily presented sentences containing lexical ambiguities and simultaneously

performed a lexical decision task upon visually presented letter strings. Lexical decisions for visual words related to each of the

meanings of the ambiguity were facilitated when these words were presented simultaneous with the end of the ambiguity

(Experiment l). This effect held even when a strong biasing context was present: When presented four syllables following the

ambiguity, only lexical decisions for visual words related to the contextually appropriate meaning of the ambiguity were

facilitated (Experiment 2). Arguments are made for autonomy of the lexical access process of a model of semantic context

effects is offered.

Ai partecipanti viene fatta sentire una frase che contiene una parola prime polisemica, ad

esempio ‘viola’ e la frase introduce un contesto che rende più plausibile uno dei significati

alternativi, ad esempio parlando di un ‘bosco’. Mentre ascoltano il prime, ai partecipanti

viene presentata visivamente una parola target e il loro compito è decidere se tale parola è

una parola della loro lingua o no. La parola target poteva essere di tre tipi:

target semanticamente relato al significato del prime usato nel contesto, ‘ciclamino’;

• target semanticamente relato al significato alternativo del prime, ‘clarinetto’;

• target non semanticamente relato ad alcuno dei significati del prime, ‘temperino’.

• 29 di 46


PAGINE

46

PESO

2.72 MB

PUBBLICATO

5 mesi fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
A.A.: 2018-2019

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher s.martinmerlo di informazioni apprese con la frequenza delle lezioni di Elementi di Linguistica e Psicolinguistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Milano Bicocca - Unimib o del prof Foppolo Francesca.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Elementi di linguistica e psicolinguistica

Elementi di Linguistica e Psicolinguistica
Appunto
Appunti delle lezioni di elementi di linguistica e psicolinguistica, prof. Panzeri
Appunto