Che materia stai cercando?

Domande aperte esame Psicologia Generale 2, prof. Reverberi, libro consigliato Psicologia Generale, Cherubini

Domande aperte dell'esame di Psicologia Generale 2 del prof. Reverberi, composto da risposte a tutte le 62 domande.
Gli argomenti principali che sono trattati sono: l'apprendimento per esperienza diretta, il sistema concettuale e l'esplorazione, il ragionamento per risolvere problemi, il linguaggio e la decisione, presenti nel libro consigliato "Psicologia Generale", Cherubini.

Esame di Psicologia generale docente Prof. C. Reverberi

Anteprima

ESTRATTO DOCUMENTO

l’attenzione selettiva e la memoria a breve termine. La categorizzazione basata su regole è più

precisa di quella basata su somiglianze, ma solo quando è disponibile un tempo sufficientemente

lungo; se il tempo di risposta è breve, le due strategie hanno uguale precisione.

22.In che modo la funzione inferenziale della categorizzazione può determinare l'insorgere di

falsi ricordi?

La funzione inferenziale procede in stile deduttivo, più precisamente in stile modus ponens.

Quando non sono disponibili tutte le informazioni riguardo un esemplare, ma solo alcune che

possono categorizzarlo e classificarlo parzialmente, può attivarsi un meccanismo deduttivo di

proiezione, cioè di generalizzazione da categorie a casi specifici, degli attributi tipici di quella

categoria, sul caso esemplare. Naturalmente la conclusione può rivelarsi falsa.

Questa funzione è basilare per il sistema cognitivo: ci basta percepire pochi dettagli e, se questi

sono sufficienti a classificare lo stimolo, si rende prontamente disponibile alla mente un vasto

patrimonio di conoscenze serbate nel concetto che abbiamo attivato.

La funzione inferenziale di questo tipo può però avere delle conseguenze negative. Nella

psicologia della testimonianza la funzione inferenziale contribuisce alla genesi di falsi ricordi:

talvolta dimentichiamo che alcune informazioni le abbiamo proiettate sullo stimolo, invece di

averle direttamente esperite. Nella psicologia sociale contribuisce ai fenomeni di stereotipia: gli

stereotipi sociali sono prototipi concettuali molto radicati e culturalmente mediati, pieni di

attributi altamente salienti che in molti casi sono distorti; considerano diagnostici e tipici attributi

che non lo sono, spesso in senso peggiorativo portando alla stigmatizzazione.

23.Esperimento 2-4-6.

Secondo Wason, noi umani sembriamo essere “verificazionisti”: cerchiamo soprattutto conferme

delle nostre ipotesi e, se le troviamo, non ci chiediamo se quelle conferme derivino da un controllo

equo e imparziale, o se non siamo piuttosto il sottoprodotto artificioso e viziato del modo stesso in

cui le abbiamo cercate.

Per sondare questa possibilità, Wason ideò un compito che riproduceva in forma astratta e

semplificata, i tre passaggi del metodo ipotetico deduttivo:

1.formulare ipotesi 2.derivarne previsioni 3.controllare sperimentalmente quelle previsioni

Lo sperimentatore fornisce una terna di numeri interi: 2-4-6. La terna rispetta una regola che lo

sperimentatore ha in mente e i soggetti devono scoprire la regola. Per farlo, possono produrre

altre terne e per ogni terna che producono, lo sperimentatore riferisce se è in accordo o no con la

regola.

Quando un partecipante è fiducioso di aver scoperto la regola, può riferirla. Se è errata, può

continuare a produrre altre terne. Nella ricerca originale la regola che i partecipanti dovevano

scoprire era semplice, ma piuttosto generale: “tre numeri in ordine crescente”. Solo il 20% dei

partecipanti indovinava la regola in prima dichiarazione. In questo compito il partecipante tipico

formula dapprima un’ipotesi piuttosto specifica. Si tratta quasi sempre di esempi positivi

dell’ipotesi. Soprattutto nella prima fase dell’esperimento, ci sono pochissimi “no” nelle rispose

dello sperimentatore alle terne prodotte dai partecipanti. Il partecipante esplora solo (o quasi)

terne congruenti alle ipotesi che sta controllando, cioè esempi positivi delle ipotesi che genera.

Non considera il fatto che con un’altra strategia, per esempio controllando esempi negativi,

potrebbe raccogliere molte informazioni utili.

La parzialità della sua strategia di ricerca lo porta a convincersi della verità di ipotesi sbagliate:

confirmation bias o tendenza alla conferma. Le principali osservazioni di Wason sul compito 2-4-6

furono:

-per controllare un’ipotesi, le persone esplorano soprattutto esempi positivi.

-l’esplorazione di casi positivi comporta la raccolta selettiva di sole conferme.

-l’esplorazione di esempi negativi qualche volta si manifesta, ma ciò avviene soprattutto in fasi

avanzate del controllo, dopo che sono stati esplorati diversi casi positivi.

-molti individui formulano e controllano una sola ipotesi alla volta, invece di produrre e

comparare tra loro più ipotesi alternative. Una volta formulata un’ipotesi e sviluppato un certo

grado di fiducia verso di essa, può intervenire un meccanismo di focalizzazione, che ci incoraggia a

vedere la nostra ipotesi come l’unica possibile.

24.Apprendimento su base statistica: la diagnosticità attesa.

Il controllo di ipotesi può essere scomposto in una fase strategica di esplorazione, o di ricerca di

informazione guidata da previsioni, e in una successiva fase di valutazione delle informazioni

raccolte. Una strategia di esplorazione consiste nella preferenza per alcuni test rispetto ad altri.

Gli studi sull’esplorazione si concentrano su quali domande preferiamo porre per sviluppare,

confermare, confutare o correggere le nostre congetture. Ogni test dicotomico D è descritto da

i

due parametri. Il primo è la probabilità complessiva di ottenere la risposta positiva “sì, D è vero”.

i

P(D ) = p(D |H) x p(H) + p(D |¬H) x p(¬H)

i i i

Il secondo parametro è la forza diagnostica delle sue risposte D e ¬D .

i i

Questi parametri permettono di calcolare la diagnosticità attesa (ES, Expected Support) è la media

della forza diagnostica delle risposte in valore assoluto.

ES (H) = p(D ) x |logLR (H)| + p(¬D ) x |logLR (H)|

Di i Di i ¬Di

In altri termini è ciò che l'utilità attesa è per una decisione economica. Questo parametro è in

grado di determinare l'effettiva utilità logica di un test, e quindi preferire tra due o più test per

discriminare tra un'ipotesi e il suo complemento in modo razionale.

25. 3 fattori per determinare se un test è diagnostico, in ordine di importanza.

L'esplorazione e il controllo d'ipotesi sono guidati da tre fattori o dimensioni che descrivono i test:

in ordine di importanza troviamo la diagnosticità, la positività vs negatività e la simmetria vs

asimmetria.

1)Diagnosticità attesa (ES): determina l'effettiva utilità di un test e corrisponde alla media della

forza diagnostica delle risposte in valore assoluto. Nel selezionare e formulare domande per il

controllo delle ipotesi, si tende a preferire quelle domande che hanno una maggiore diagnosticità

attesa, seguendo così un ragionamento razionale in termini bayesiani.

La sensibilità alla diagnosticità, tuttavia, non è sufficiente perché viene influenzata da altri fattori

psicologici come la preferenza per test positivi e per test estremi. Alcuni test hanno elevata

diagnosticità attesa, altri più scarsa.

2)Positività vs negatività: un test è positivo quando esplora un caso congruente con l’ipotesi. Un

test sull’attributo f per l’ipotesi H è positivo quando p(f|H) > p(f|¬H). Il test è negativo quando

p(f|H) < p(f|¬H). La preferenza per test positivi corrisponde, quindi, a preferire domande che

portano a conferme affermative e negazioni negative. Questo tipo di ragionamento è sbagliato e

illogico perché anche un “no” può confermare un'ipotesi, alla stessa maniera di un “sì”. La

preferenza per test positivi è molto diffusa perché, soprattutto in situazioni in cui le ipotesi sono

specifiche e circoscritte, attenersi ad uno stile di controllo positivo ottimizza il contenuto di

informazioni reperibile durante l'esplorazione.

3)Test simmetrici vs asimmetrici: un test è simmetrico quando la diagnosticità delle due risposte

possibili è la medesima, in valore assoluto. È asimmetrico quando i due valori sono differenti. I

test asimmetrici si distinguono in confermanti, quando la diagnosticità della risposta a conferma è

superiore a quella della risposta a falsificazione, e falsificanti, quando la diagnosticità della

risposta falsificante è superiore a quella della risposta confermante. I test asimmetrici falsificanti

sono anche detti estremi: hanno p(f|H) più vicina a 0 (se sono test negativi) o a 1 (se sono test

positivi) rispetto a quanto lo sia p(f|¬H).

Si preferiscono i test estremi, cioè gli asimmetrici falsificanti, la cui risposta che conferma l'ipotesi

è più probabile di quella che la falsifica, ma più debole. Una conseguenza di questa preferenza è il

confirmation bias, cioè una eccessiva fiducia nell'ipotesi, guidata da un numero maggiore di

conferme rispetto alle falsificazioni, senza tener conto dei loro pesi e delle loro forze. A volte si

può avere anche una preferenza opposta, cioè per i test asimmetrici confermanti, la cui

diagnosticità dell'esito confermante è maggiore rispetto a quella falsificante.

26.Feature positive effect.

Il feature positive effect è conosciuto anche come sottostima delle informazioni veicolate da

assenze. Nella valutazione di indizi tendiamo a considerare le informazioni associate a dettagli

presenti, e a sottostimare o ignorare quelle veicolate dall’assenza di qualcosa. Dal punto di vista

logico, non importa se un’informazione a supporto o a confutazione di un’ipotesi sia associata alla

presenza di un dettaglio, o alla sua assenza. Dal punto di vista psicologico, invece, questo fattore è

importante. Se si considera che lo stile di controllo più frequente, quello positivo, è volto a

verificare la presenza di attributi a conferma di un’ipotesi, e che quindi è l’assenza di quegli

attributi che va a confutarla, si può capire come questa tendenza psicologica possa amplificare il

confirmation bias: cerchiamo dettagli in grado di confermare le nostre congetture, se li troviamo,

confermiamo l’ipotesi; se non li troviamo (di fatto, ciò che troviamo è un’assenza di quei dettagli),

proprio perché le assenze ci sembrano un “nulla di fatto”, non indeboliscono l’ipotesi. Il risultato è

quindi una propensione ad eccessiva conferma.

Questo effetto fa parte di un insieme di tendenze psicologiche che influenzano la valutazione delle

informazioni, che sono i seguenti:

1)Effetti di primacy: nel controllare un’ipotesi, raccogliamo più di un’informazione nel corso del

tempo. In molte circostanze l’importanza diagnostica dei primi dati raccolti è sovrastimata. La

tendenza sembra invertirsi quando la serie di informazioni è particolarmente lunga (effetto di

recenza)

2)Sovrastima delle conferme: le informazioni a supporto di un’ipotesi che stiamo controllando

sono sovrastimate rispetto a quelle a confutazione. Un particolare fenomeno di sovrastima delle

conferme è costituito dai cosiddetti eventi a una sola faccia (one-sided events). Sono quegli eventi

che notiamo solo o soprattutto quando confermano un’ipotesi, e che ignoriamo quando non la

confermano

3)Costruzione confermatoria di evidenze ambigue: quando un dato ha molteplici interpretazioni,

alcune delle quali a supporto di un’ipotesi, e altre contro, tendiamo a notare solo o soprattutto le

interpretazioni a supporto

4)My side bias: chiamata anche tendenza del partito preso. Queste tendenze sono

particolarmente manifeste quando controlliamo un’ipotesi la cui verità consideriamo importante

per il gruppo cui sentiamo di appartenere. Questo bias ha un aspetto prettamente motivazionale:

infatti, siamo tutti in grado, se esortati o obbligati a farlo, di costruire interpretazioni di alcuni

eventi opposte al nostro credo. Tuttavia, non amiamo farlo spontaneamente

27.Descrivi l’esperimento di Allen e Brooks (1991) sulla categorizzazione tramite regole e tramite

somiglianze.

Non è detto che un individuo, nel classificare uno stimolo, si avvalga in modo esclusivo o di regole,

o di somiglianze. Può avvalersi di entrambe e, se danno esito diverso, scegliere quale soluzione

preferire, come dimostrato nell’esperimento di Allen e Brooks. Nella fase di training del loro

esperimento, i partecipanti dovevano imparare a classificare alcune figure che rappresentavano

animali immaginari (scavatori e costruttori). A metà dei partecipanti (condizione di

categorizzazione basata su regole) era fornita una regola classificatoria perfetta: “un animale è un

costruttore se e solo se ha almeno due delle seguenti caratteristiche: gambe lunghe, corpo

spigoloso, maculato”. L’altra metà procedeva per prove ed errori, con feedback di correttezza, fin

quando non apprendeva i due concetti a criterio (condizione di categorizzazione basata su

somiglianze). Nella fase di transfer erano mostrati alcuni stimoli che soddisfacevano il criterio

stabilito dalla regola, ma con diverso grado di somiglianza rispetto agli esemplari presentati nella

fase di training. Nella condizione di categorizzazione basata su regole, entrambi gli stimoli

avrebbero dovuto essere classificati senza esitazione come costruttori. Nell’altro tipo di

categorizzazione, lo stimolo simile agli esemplari presentati nella fase di training, avrebbe dovuto

essere classificato come costruttore, quello dissimile come scavatore. I risultati confermarono

questa previsione, ma il loro aspetto più interessante fu un altro: i partecipanti che conoscevano la

regola categorizzavano lo stimolo simile come costruttore correttamente nel 80% dei casi; ma lo

stimolo dissimile era classificato correttamente solo nel 55% dei casi. Il risultato mostra che la

stima di somiglianza può interferire con il giudizio di classificazione anche quando sono disponibili

regole semplici, precise, che il partecipante è addestrato a utilizzare.

28.I “pro” e i “contro” dello stile di controllo positivo.

Più che una ricerca di conferme, la preferenza per test positivi suggerisce una ricerca volta a

conferme affermative e falsificazioni negative. Alcuni analisti (modello della Optimal Data

Selection, ODS) hanno dimostrato che in situazioni in cui le ipotesi che esploriamo sono specifiche

e circoscritte, e altrettanto lo sono le regole che è nostro obiettivo scoprire (queste condizioni

sono chiamate assunti di rarità), attenersi a uno stile di controllo positivo ottimizza il contenuto di

informazioni reperibile durante l’esplorazione, rispetto all’attenersi a una strategia di controllo

negativo. Quando formuliamo una frase condizionale nella vita reale, di solito ci riferiamo a

insiemi abbastanza circoscritti di eventi, per i quali valgono assunti di rarità, e per i quali il

controllo positivo si rivelerebbe ottimale. Il fatto che il controllo positivo sia emerso, nel corso

dell’evoluzione umana, come una delle tendenze più forti nell’esplorazione potrebbe aver

costituito un utile adattamento a un ambiente dove le ipotesi che richiedono controllo sono

abbastanza circoscritte e specifiche. Questo non esclude, che l’adattamento generale a uno stile di

controllo positivo non comporti notevoli distorsioni di giudizio in alcuni contesti.

Il controllo positivo è una strategia semplice, la più frequente: ma ha conseguenze sottili. In molti

casi è una strategia semplice, euristica, pressoché necessaria per un efficiente controllo di ipotesi

in molti ambienti. In altri casi può produrre tendenze, anche molto forti, a confermare

inopinatamente ed eccessivamente le ipotesi controllate.

La preferenza per i test positivi rispetto a quelli negativi, cioè una ricerca volta a conferma

affermative e falsificazioni negative può essere vantaggiosa in alcuni casi e svantaggiosa in altri.

-È stato dimostrato che in situazioni in cui le ipotesi che esploriamo sono specifiche e circoscritte,

e altrettanto lo sono le regole che è il nostro obiettivo scoprire, attenersi a uno stile di controllo

positivo ottimizza il contenuto di informazione è reperibile durante l'esplorazione. Ad esempio

volendo controllare per via esperienziale le ipotesi specifica che "gli ippopotami barriscono" uno

stile di controllo negativo prevedrebbe andare ad osservare qualsiasi oggetto che non sia un

ippopotamo per vedere se barrisce. Oppure si potrebbe prestare attenzione a un qualsiasi rumore

che non sia un barrito. Ovviamente si troverebbero un'infinità di conferme: gli ippopotami sono

pochi e così anche i barriti. Uno stile di controllo positivo in questo caso sarebbe più ragionevole:

prestare attenzione agli ippopotami e alle cose che barriscono.

-Lo svantaggio si ritrova nel caso di ipotesi iperspecifiche controllate positivamente che daranno

luogo esclusivamente o soprattutto a conferme: impossibile trovare falsificazioni, esplorando solo

i casi H, perché tutti i casi H sono anche inclusi in T (regola generale). Nella vita reale esempi di

ipotesi troppo specifiche confermate a causa della strategia di controllo positivo, sono tutti quei

ritualismi associati a un qualche obiettivo, senza che in realtà contribuiscono a raggiungerlo. Se

uno studente ha associato la cravatta rossa che portava il primo esame al bel voto che ha

meritato, e continua da indossarla ad ogni esame, starà controllando positivamente l'ipotesi che la

cravatta rossa porta fortuna all'esame. L'ipotesi e iperspecifica poiché si studia, la maggior parte

delle volte l'esame andrà comunque bene, a prescindere dalla cravatta.

-L'acquiescenza è la tendenza a dire sì, invece di dire no o non so, in alcuni contesti sociali. La

propensione per stili di controllo positivi, se si manifesta in contesti esposti ad acquiescenza, può

costituire una potente ricetta per provocare un forte effetto di tendenza alla conferma. Le

conferme ottenute non sono reali ma generate da acquiescenza e da uno stile di controllo

positivo. Questo effetto può avere ricadute, per esempio, in ambito giudiziario.

29.Descrivi l’esperimento di Shepard, Hovland e Jenkins (1961) sull’apprendimento di concetti

basato su regole.

Shepard, Hovland e Jenkins hanno sviluppato una ricerca molto importante per descrivere una

prima famiglia di categorie basata su diverse combinazioni di tre attributi booleani. Nello studio,

ogni categoria era definita da quattro esempi positivi (membri della categoria) e quattro negativi

(membri di una diversa categoria), esaurendo le otto possibili combinazioni di tre attributi

booleani. La descrizione logica estesa (anche detta definizione estensionale di un concetto, o

notazione disgiuntiva normale, DNF) del “Partito della Poltrona” è l’elenco dei suoi appartenenti

noti, ciascuno espresso dalla congiunzione dei suoi attributi, e con ciascun membro disgiunto dagli

altri. Quando apprendiamo un concetto cerchiamo regolarità che accomunano gli esempi noti

della categoria che il concetto rappresenta. Dal punto di vista formale, identificare regolarità

significa comprimere la stringa. Il risultato è una semplice regola, che non ammette eccezioni:

esprime una condizione sia necessaria, sia sufficiente per appartenere al PdP. In termini logici, la

definizione compressa è chiamata intensionale. La complessità logica o booleana di un concetto

corrisponde al numero di letterali presenti nella regola che lo definisce, una volta compressa il più

possibile. Shepard e colleghi trovarono che il tempo d’apprendimento, il numero di errori

commessi durante l’apprendimento, e il numero di errori commessi nella riclassificazione degli

stimoli trascorso un certo periodo dall’apprendimento, covariano con la complessità logica del

concetto. Inoltre, la complessità logica non si è rivelata l’unico fattore che influenza la complessità

di apprendimento. A parità di complessità, regole che comprendono disgiunzioni sono più difficili

da apprendere rispetto a regole che comprendono solo congiunzioni. Questi risultati illustrano una

prima importante tipologia di concetti, e alcune loro caratteristiche. Chiedendoci quali attributi

accomunino gli esemplari di una categoria, siamo talvolta in grado di estrarre definizioni sintetiche

basate su regole di tipi deduttivo. In questo caso i corrispondenti concetti si dicono basati su

regole.

CAPITOLO 9 – Ragionare per risolvere problemi

30.I vincoli della fissità.

Fenomenologia del problem solving:

si tratta di manifestazioni comportamentali frequentemente osservate durante la risoluzione di

alcuni tipi di problemi, detti problemi per insight, ma che possono presentarsi anche in ogni altro

tipo di problema:

1)Impasse: il partecipante ha esplorato tutte le possibilità a sua disposizione; ha prodotto una

serie di tentativi, senza raggiungere un buon esito. Si blocca, può abbandonare il compito

2)Fissità/fissazione: il partecipante tenta e ritenta una strategia già provata, rilevatasi inefficace

3)Incubazione: una pausa temporale interposta tra diversi tentativi di soluzione può aiutare a

trovare nuove possibilità di soluzione

4)Aha-erlebnis: la soluzione può repentinamente rilevarsi. Questo tipo di sblocchi improvvisi sono

detti soluzioni per insight

Fissità:

il fenomeno della fissità denota un’influenza negativa di precedenti apprendimenti sulla possibilità

di affrontare un problema con mente sgombra. Conoscenze precedenti, apprendimenti passati,

impongono vincoli che possono impedire il raggiungimento della soluzione. Duncker illustrò un

tipo particolare di fissità, chiamata fissità funzionale, che definì come un blocco mentale che

impedisce di usare un oggetto in un modo nuovo. Lo illustrò con l’esempio del problema della

candela (presentava ai partecipanti una candela, una scatola di puntine e una scatola di

fiammiferi. Il compito era attaccare la candela al muro in modo che illuminasse la stanza. Quasi

tutti i partecipanti procedevano con tentativi diretti, cercando di fissare la candela al muro con le

puntine, o sciogliendo un po’ di cera da usare come colla. In questi modi non si riesce a risolvere il

problema; ben presto, la maggior parte dei partecipanti entrava in impasse. Pochi di loro

riuscirono a ristrutturare il problema creativamente: vuotavano una delle scatole, la fissavano

solidamente alla parete con le puntine a mo’ di portacandela, incollavano la candela alla scatola

con un po’ di cera, e la accendevano, risolvendo il compito).

Luchins studiò gli effetti di fissità dovuti all’Einstellung (impostazione soggettiva). Il modo con cui

ci poniamo di fronte a un problema può determinare ostacoli alla sua soluzione. Soluzioni

precedentemente offerte a problemi simili possono meccanizzare il ragionamento volto alla

soluzione di un nuovo problema: dal pensiero produttivo si passa ad un pensiero di tipo

riproduttivo.

Diversi studiosi hanno suggerito che la fissità funzionale discende dalle conoscenze precedenti. Di

conseguenza individui con minor disponibilità di conoscenze precedenti dovrebbero esserne meno

soggetti. A seguito di un esperimento con protagonisti soggetti di diverse età (bambini di 5, 6 e 7

anni) nella risoluzione di un problema, si poté osservare come i bambini più piccoli, meno vincolati

da schemi di conoscenza acquisita, possano meglio di altri vedere situazioni problematiche con

“occhi nuovi”, e risolverle più creativamente.

Grazie al “problema dei fiammiferi”, dove alcuni fiammiferi sono disposti in modo da formare

operazioni aritmetiche erronee su numeri romani, si poté evidenziare un altro vincolo della fissità.

Il compito consisteva nello spostamento di un solo fiammifero per trasformare l’equazione

erronea in una corretta. L’ipotesi degli autori, nel dominio dei calcoli aritmetici, era quella che le

conoscenze precedenti ci inducono ad assumere che, per modificare il risultato di un calcolo,

occorra modificare il valore numerico. Considerare la possibilità di trasformare un operatore, o di

trasformare il calcolo in un’eguaglianza, dovrebbe essere più difficile. I risultati hanno confermato

la previsione.

31.Backtracking.

Alcune strategie di ricerca euristica sono le migliori, altre peggiori, ma nessuna è esaustiva, e

nessuna garantisce la certezza di raggiungere il risultato. Quando ci accorgiamo che una via

imboccata non può portare alla soluzione, non possiamo far altro che tornare indietro

(backtracking) e cercarne un’altra o abbandonare.

Nella teoria di Newell e Simon il backtracking è una “ritirata” a uno stato precedente, che può

essere lo stato iniziale, da cui si procede a cercare una soluzione alternativa.

Ripiegare può essere difficile se stiamo seguendo una strategia hill climbing e il doverlo fare può

generare stati di impasse e abbandono del compito.

In alcuni casi questo comporta una ristrutturazione del problema, cioè pensare a nuove possibilità

d'azione o ridefinizione degli obiettivi.

Simon arrivò a considerare la ristrutturazione per insight descritta dall’approccio gestaltico come

una vera e propria ridefinizione dello spazio del problema, quindi, con la generazione di un nuovo

spazio degli stati.

32.Modello neodarwiniano della creatività.

Per rispondere a come può aver luogo la ricerca inconscia di idee nuove è stata avanzata

un’importante proposta ispirata alla teoria dell’evoluzione naturale di Darwin.

Il processo di elaborazione inconscia si svolge in due stadi:

-generazione: si formulano in modo non deterministico idee arbitrarie, combinando insieme a

caso gli elementi di conoscenza preesistenti.

-valutazione: filtro basato su criteri prestabiliti; valuta le idee prodotte, attribuendo loro una

“forza” maggiore o minore; lascia passare solo le idee più promettenti.

Le eventuali idee che sopravvivono servono da input per una nuova fase generativa, che le

ricombina tra loro. Il processo può essere ripetuto a oltranza, e l’output di un’interazione diviene

l’input per la successiva. Se una singola applicazione di una strategia neodarwiniana è poco

potente, il suo reiterato può essere molto potente.

In conclusione, le idee nuove e creative si svilupperanno nel cervello inconsciamente e senza

controllo consapevole, seguendo un processo analogo a quello che ha permesso al cervello stesso

di svilupparsi.

33.Spazi degli stati: definizione e esempi.

Lo spazio degli stati è l'insieme di tutte le possibilità che si possono ottenere applicando al vettore

iniziale tutti gli operatori disponibili e poi riapplicandoli a tutti i vettori output. Si tratta di uno

spazio esaustivo e combinatorio, o meglio di una mappa completa del territorio da percorrere per

avvicinarsi al goal.

Un esempio semplice è rappresentato da un gioco inventato da Lucas, chiamato la torre di Hanoi.

L'obiettivo è quello di spostare tutti i dischi sul terzo piolo esattamente nell'ordine in cui sono sul

primo. Si può muovere solo un disco alla volta e non si può collocare un disco più grande su un

disco più piccolo. La soluzione ottimale è il percorso che va dallo stato iniziale allo stato terminale

nel minor numero di mosse.

34.Fattori che influiscono su recupero spontaneo analogie.

Il ragionamento per analogia si basa sulle esperienze e conoscenze precedenti, che vengono

utilizzate per il pensiero riproduttivo ma anche produttivo. Per guidare il recupero delle analogie

spontanee, esistono vari meccanismi o criteri, presentati dalla teoria pragmatica dell’analogia.

Secondo questa teoria le persone sono guidate prima di tutto da una somiglianza superficiale

(l’analogia è tanto più visibile quanto più i comportamenti del dominio sorgente sono simili ai

componenti del dominio bersaglio) delle componenti in esame, ma queste non sono spesso

sufficienti per creare un’analogia; per questo motivo si passa all’individuazione delle somiglianze

di obiettivi (l’analogia è tanto più visibile quanto più gli obiettivi conseguiti nel dominio sorgente

sono simili a quelli da conseguire nel dominio bersaglio) e alla somiglianza strutturale (l’analogia è

tanto più visibile quanto maggiore è la somiglianza strutturale tra dominio sorgente e bersaglio).

L’analogia è tanto più visibile, quindi, quanto più cue e target hanno componenti superficiali,

strutture e obiettivi conseguiti simili. Questi tre principi sono vincoli flessibili presi in

considerazione parallelamente. L’importanza relativa può però variare in base all’età del soggetto:

i bambini tendono a fare analogie basate soprattutto su somiglianze superficiali, con allineamenti

anche in aperta violazione della somiglianza strutturale; successivamente si avrebbe un relational

shift, cioè il passaggio a privilegiare le analogie basate sulle somiglianze strutturali e di obiettivi.

35.Differenza tra esperti e non esperti.

L’esperto è caratterizzato da vaste conoscenze precedenti in un particolare dominio. Delle

conoscenze precedenti, finora conosciamo due risvolti:

-possono avere un effetto negativo, nella misura in cui determinano fissità, meccanizzazione del

pensiero e mental set

-possono avere un effetto positivo, nella misura in cui gli schemi favoriscono la rapida soluzione di

problemi

Ciò che sembra accumunare gli esperti di diverse aree sono poche caratteristiche non legate a

specifici tratti individuali:

-vaste conoscenze facilmente accessibili, accumulate per esperienza nell’arco di molti anni di

attività, e sedimentate in schemi dominio-specifici

-maggior ricorso all’attivazione automatica di schemi (pensiero implicito)

-il risparmio di risorse cognitive consentito dal pensiero implicito permette agli esperti di dedicare

più tempo e risorse ad approfondimenti analitici della situazione, se necessari (pensiero esplicito)

Chase e Simon ipotizzarono che gli esperti giocatori di scacchi erano tali perché possedevano una

gran quantità di configurazioni di pezzi depositate in memoria a lungo termine (chunks). I giocatori

esperti avrebbero acquisito degli schemi (templates), in grado di connettere tra loro in modo

sensato molti pezzi di una configurazione su una scacchiera. Le incredibili prestazioni di gioco dei

maestri di scacchi si possono ricondurre, non a particolari doti individuali, ma all’esperienza, che

ha depositato nelle loro memorie. La stessa conclusione sembra discendere dai numerosi studi

sull’expertise medica. La principale distinzione tra gli stili di ragionamento di un medico esperto e

di uno non esperto è che il primo sembra avvalersi in misura maggiore di processi impliciti e

automatici (categorizzando in base a somiglianze invece che avvalendosi di regole), mentre il

secondo più di processi espliciti e analitici (categorizzando in base a regole invece che avvalendosi

di somiglianze).

36.Inferenze illusorie.

Le inferenze illusorie sono delle interpretazioni o soluzioni ad un problema basate su una

rappresentazione incompleta del problema, che porta inevitabilmente a commettere errori di

giudizio e valutazione. Nel ragionare non si tengono a mente che le premesse possano essere

false, oppure non ci si chiede cosa possa falsificarle, per cui lo stato iniziale del problema rimane

costante e parziale e non viene aggiornato con le nuove conoscenze che si possono acquisire

durante il processo di ragionamento. Le risposte che si generano in situazioni di questo tipo sono

quindi errate perché non tengono conto della visione più generale e completa del problema. A

volte un limite che spiega l'insorgenza delle inferenze illusorie è quello dell'iterazione, cioè la

difficoltà nello sviluppare rappresentazioni di possibilità corrette ed esaustive oltre le primissime

conseguenze, che possono trarre in inganno.

Le difficoltà di un’inferenza dipende: 1.dal numero dei modelli che è necessario rappresentare per

trarla; 2.dalla necessità o meno di intraprendere il tentativo di rendere esplicite le possibilità

inizialmente non considerate.

37.Teorie principali sul ragionamento deduttivo.

Il ragionamento deduttivo può essere spiegato dalla semantica e dalla sintassi.

Per quanto riguarda l’approccio sintattico, la deduzione rappresenta la capacità di applicare

correttamente tutte le regole inferenziali necessarie e sufficienti a implementare in modo

completo e coerente un qualche tipo di logica e di astenersi dall'applicare schemi fallaci. La teoria

che spiega meglio la versione sintattica è la teoria della logica mentale. Essa sostiene che esiste

una logica della mente umana basata su un sistema interno di regole formali, anche se i suoi

principi e inferenze non corrispondono necessariamente a quelli della logica formale standard.

La versione di Braine e O’Brien scompone il ragionamento in due processi:

-routine di ragionamento diretto: si basa su alcuni circuiti logici in grado di implementare

automaticamente senza sforzo alcune regole inferenziali

-routine di ragionamento indiretto: si basa su schemi indiretti appresi che includono strategie

supposizionali. Non è automatica ma richiede una decisione consapevole e il coinvolgimento di

risorse attentive.

Per quanto riguarda invece l’approccio semantico, la deduzione rappresenta la capacità di

rappresentare correttamente tutte le possibilità previste dalle premesse, onde valutarle ed

escludere quelle incomparabili tra loro. La teoria che spiega questa concezione è quella dei

modelli mentali. Questa teoria è basata sull'assunto per cui un modello mentale costituisce un

isomorfismo alla struttura di ciò che rappresenta perché la sintassi superficiale viene dimenticata

e rimane solo il modello del significato. Ogni modello mentale deve soddisfare dei principi

(possibilità, iconicità, verità e economicità) affinché sia ritenuta corretta. La rappresentazione

esplicita che ne deriva è una descrizione in forma disgiuntiva della corrispondente tavola di verità.

38.Limiti del ragionamento deduttivo illustrati dalla teoria dei modelli mentali.

La teoria dei modelli mentali di Johnson e Laird offre una spiegazione semantica al ragionamento

deduttivo. Secondo questo modello la deduzione rappresenta la capacità di rappresentare

correttamente tutte le possibilità previste dalle premesse, onde valutarle ed escludere quelle

incomparabili tra loro. Una difficoltà che emerge nel ragionamento spontaneo umano potrebbe

essere il fatto che non sempre si è in grado di rappresentare adeguatamente tutte le possibilità

compatibili con le premesse. Le risorse cognitive a nostra disposizione, in assenza di supporti

esterni come la memoria o l'elaborazione, sono troppo limitate.

Un assunto fondamentale di questa teoria è che un modello mentale costituisce un isomorfismo

alla struttura di ciò che rappresenta. Il nocciolo della competenza logica umana può essere basato,

invece che su regole sintattiche, sull’abilità di rappresentare mentalmente insiemi di possibilità. La

versione attuale di questa teoria assume che il significato di ogni premessa con connettivi

verofunzionali sia rappresentato in mente da una semplificazione della corrispondente tavola di

verità.

Ogni modello mentale è iconico, cioè è un isomorfismo alla struttura del corrispondente

significato (principio di iconicità).

Ogni modello rappresenta una possibilità in cui la premessa è vera (principio di possibilità). Una

rappresentazione completamente esplicita, è la descrizione in forma disgiuntiva normale della

corrispondente tavola di verità.

Nella rappresentazione iniziale, si rappresentano esplicitamente solo gli asserti dichiarati veri nella

premessa (principio di verità),

e nel numero minore possibile (principio di economicità/dei modelli impliciti). In questo modo la

premessa verrebbe a essere rappresentata dai modelli mentali. Questa rappresentazione iniziale è

il vero e proprio modello mentale della premessa.

Una volta costruiti i modelli mentali del significato delle premesse (fase di comprensione), il

ragionamento consiste nell’integrarli (fase di integrazione). La conclusione è una descrizione del

modello con il requisito di essere parsimoniosa e nuova. Alla fase di produzione della conclusione

iniziale segue una fase iterativa di ricerca di controesempi/elaborazione dei modelli impliciti.

Secondo questo approccio, la difficoltà di un’inferenza dipende: dal numero dei modelli che è

necessario rappresentare per trarla e dalla necessità o meno di intraprendere il tentativo di

rendere esplicite possibilità inizialmente non considerate. Per esempio, il MP è più semplice del

DS, perché richiede il modello iniziale di una sola possibilità, mentre il DS ne richiede due. Il MP,

inoltre, è più semplice del MT, sia perché richiede il modello di una sola possibilità invece di tre, sia

perché il MT richiede l’elaborazione di possibilità inizialmente non considerate.

39. Secondo la teoria della logica mentale, da cosa dipende la difficoltà in un ragionamento

deduttivo.

La teoria della logica mentale implementa una versione psicologica del calcolo naturale,

scomponendo il ragionamento in due tipi: routine di ragionamento diretto e routine di

ragionamento indiretto. La prima si basa su alcuni circuiti logici (innati) in grado di implementare

automaticamente e senza sforzo alcune regole inferenziali. La seconda, invece, non è automatica:

la sua attivazione richiede una decisione consapevole da parte dell’individuo. Questi schemi sono

appresi.

I ragionamenti che dipendono solo da schemi diretti sono facili e automatici; anche loro però,

hanno un lieve grado di difficoltà, che dipende dal numero di schemi coinvolti e dalla disponibilità

degli schemi. Le inferenze che richiedono schemi indiretti sono più difficili; richiedono che alcuni

schemi di ragionamento indiretto siano stati appresi; questi schemi devono attivarsi. Ogni schema

indiretto richiede, per essere svolto, l’applicazione di schemi indiretti.

40. Pensiero produttivo e pensiero riproduttivo.

L'approccio globale tipico della teoria della Gestalt affronta il problema del problem solving in

termini olistici, avvalendosi cioè di molti e diversi processi, senza preoccuparsi di individuare i

dettagli degli uni rispetto agli altri, ma soffermandosi piuttosto sui principali fenomeni psicologici

coinvolti. Il metodo fenomenico adottato da gestaltisti come Kohler, Koffka e Wertheimer

considera la percezione e il pensiero come fenomeni della vita mentale, aventi gli stessi principi. Il

pensiero può essere sia riproduttivo che produttivo.

Il pensiero è riproduttivo quando parte da schemi appresi in passato e li mette in atto per

risolvere il problema attuale; è quindi una semplice replica legata all'esperienza che agisce per

associazioni. Un esempio di pensiero riproduttivo è fornito dagli studi di Thorndike con la sua

puzzle box. I suoi soggetti sperimentali (principalmente gatti) erano posti in questa gabbia chiusa

da cui dovevano cercare di uscire spingendo una levetta. I gatti procedevano per tentativi e, i

comportamenti che non portavano a risultati venivano abbandonati, mentre quelli che portavano

ad una qualche soluzione parziale o totale erano replicati nelle prove successive.

Il pensiero produttivo, al contrario di quello riproduttivo, non parte da schemi appresi

precedentemente, ma richiede piuttosto nuove ricombinazioni e soluzioni mai esperite prima. Un

esempio è fornito dagli studi sugli scimpanzé di Kohler. I suoi soggetti dovevano inventare un

modo per raggiungere il cibo utilizzando vari elementi che lo sperimentatore aveva posto

nell'ambiente. Ciò che si osserva è il fenomeno del detouring, cioè seguire una via indiretta per

raggiungere un obiettivo. Gli scimpanzé rappresentavano mentalmente i possibili percorsi

alternativi, piuttosto che metterli in pratica, a dimostrazione del fatto che avevano creato una

mappa mentale dell'ambiente. Quando si ha a che fare con il pensiero produttivo in cui bisogna

reinventarsi, si può spesso incorrere in problematiche di impasse o fissazione per un certo tipo di

soluzione.

41.Descrivi dettagliatamente l’euristica mezzi-fini.

Raccogliendo il protocollo di pensiero a voce alta di un partecipante che stava cercando di

risolvere un problema logico, Newell e Simon individuarono una procedura euristica di ricerca di

una soluzione in grado di semplificare lo spazio degli stati, e di guidare un solutore dall’inizio alla

fine del processo risolutivo. Divenne una strategia di compressione del problema molto utilizzata

negli studi di intelligenza artificiale, la cosiddetta means-ends analysis (analisi mezzi-fini). Da

queste prime osservazioni, Newell e Simon procedettero a formulare una teoria generale del

problem solving umano. È una teoria formale: si basa su simulazioni computazionali. Il suo

vantaggio è la precisione matematica dei processi che descrive. Lo svantaggio è che descrive solo i

processi di ricerca della soluzione, una volta data una rappresentazione iniziale (lo spazio degli

stati generato dallo spazio del problema).

42.Gli studi di Kohler sull’intelligenza delle scimmie antropoidi.

Köhler si dedicò allo studio dell’intelligenza animale. Studiò soprattutto il comportamento di

diversi scimpanzé posti di fronte a problemi. Scelse gli scimpanzé come oggetto privilegiato delle

sue osservazioni, perché li considerava più simili di altri primati all’uomo. I problemi consistevano

nel presentare cibo agli scimpanzé in posizioni non direttamente raggiungibili. In una prima fase si

accorse che gli scimpanzé erano capaci di comportamenti di detouring (seguire una via indiretta

per raggiungere un obiettivo). Questa forma di problem solving per Köhler costituiva una forma di

pensiero produttivo: il problema si è risolto per prove ed errori; ma le prove e gli errori sono

simulati dalla mente, invece che agiti nell’ambiente. Successivamente si dedicò anche a problemi

più complessi. Presentò agli scimpanzé del cibo o appeso troppo in alto, o troppo lontano dalle

sbarre della gabbia, per essere raggiunto semplicemente protendendo un braccio. Nella gabbia

erano presenti oggetti.

Köhler descrisse una sequenza di fenomeni spesso osservabili durante i tentativi:

1)di fronte a un problema nuovo, gli scimpanzé tendevano a produrre tentativi diretti, e non

efficaci

2)talvolta si fissavano su un certo tipo di soluzione, anche dopo aver constatato che non era

efficace

3)innervositi, si ritiravano in una pausa di inattività, durante la quale sembravano riflettere

4)talvolta, quando emergevano dalla pausa, si dirigevano direttamente verso alcuni oggetti e li

combinavano e utilizzavano per tentare una soluzione nuova rispetto alle precedenti

Questi comportamenti sono ben riconoscibili nella fenomenologia del problem solving: si tratta di

manifestazioni comportamentali frequentemente osservate durante la risoluzione di alcuni tipi di

problemi, detti problemi per insight, ma che possono presentarsi anche in ogni altro tipo di

problema:

1)Impasse: il partecipante ha esplorato tutte le possibilità a sua disposizione; ha prodotto una

serie di tentativi, senza raggiungere un buon esito. Si blocca, può abbandonare il compito

2)Fissità/fissazione: il partecipante tenta e ritenta una strategia già provata, rilevatasi inefficace

3)Incubazione: una pausa temporale interposta tra diversi tentativi di soluzione può aiutare a

trovare nuove possibilità di soluzione

4)Aha-erlebnis: la soluzione può repentinamente rilevarsi. Questo tipo di sblocchi improvvisi sono

detti soluzioni per insight

43.Prove neurologiche sulla dissociazione tra soluzioni pop out e seriali.

Alcuni studiosi hanno condotto esperimenti sull’esperienza “Aha-erlebnis” principalmente

attraverso il compito dei “composti remoti associati”, che consiste nel trovare una parola che

possa associarsi a tre parole stimolo, in modo da formare tre parole composte dotate di

significato. Per esempio, se le parole stimolo sono mobile, elevato e luogo, una soluzione potrebbe

essere sopra-. In questo compito la soluzione può essere cercata serialmente, esplorando diverse

possibilità in sequenza. Altre volte, però, la parola che risolve l’enigma “salta immediatamente in

mente” (soluzione per insight o pop-out). I partecipanti sanno distinguere le due modalità,

consentendo di confrontare i correlati (comportamentali e fisiologici) dei due stili solutori. Jung-

Beeman e colleghi (2004), in uno studio che si è avvalso della tecnica fMRI, hanno individuato

alcune dissociazioni tra le aree cerebrali maggiormente attive nelle prove in cui i partecipanti

indicavano che la soluzione era avvenuta per insight, rispetto a quelle in cui indicavano che erano

giunti gradualmente alla soluzione.

Questi e altri risultati sembrano dare sostanza all’idea che i processi su cui si basa l’insight siano,

almeno in parte, qualitativamente diversi da quelli legati all’esplorazione seriale delle diverse

soluzioni possibili. Bowden e Jung-Beeman (2007) sostengono che il coinvolgimento dell’emisfero

destro nelle soluzioni per insight indica che esse sono basare sulla costruzione di nuove

associazioni tra materiale prima non connesso.

44.Gli studi sulla meccanizzazione di Luchins.

Luchins, un gestaltista americano, studiò gli effetti di fissità dovuti all’Einstellung (impostazione

soggettiva): il modo in cui ci poniamo di fronte a un problema può determinare ostacoli alla sua

soluzione. Illustrò questo punto dimostrando che soluzioni precedentemente offerte a problemi

simili possono meccanizzare il ragionamento volto alla soluzione di un nuovo problema: dal

pensiero produttivo, che affronta i problemi nuovi, si passa a uno stile di pensiero riproduttivo, la

meccanica applicazione di schemi e regole appresi in passato. Nella sua ricerca originale Luchins

(1942) utilizzò diversi problemi, tra i quali i più famosi, e i più replicati, sono quelli dei vasi d’acqua.

Ai partecipanti erano descritti tre vasi di diversa capienza, e si chiedeva loro di ottenere una certa

quantità d’acqua. In alcuni esperimenti i partecipanti erano “guidati” nello scoprire la soluzione al

primo problema, in altri erano lasciati liberi di scoprirla da soli. Dopo il problema d’addestramento,

era presentata una lista di problemi simili. Nella maggior parte dei casi la procedura

precedentemente appresa sul problema originale era applicata correttamente ai primi 4 nuovi

problemi, ed erroneamente al 5: solo una minoranza di partecipanti fu in grado di vedere la più

semplice procedura da utilizzare. Naturalmente, i partecipanti di controllo che vedevano per

primo il problema 5 erano perfettamente in grado di risolverlo adottando la procedura corretta.

45.Descrivi i limiti umani nella costruzione di rappresentazioni di possibilità, e riportane alcuni

esempi famosi.

Le difficoltà di un'inferenza secondo l’approccio basato sulla costruzione di modelli mentali

dipendono:

-dal numero di modelli che è necessario rappresentare per trarla

Il MP è più semplice del DS, perché richiede il modello iniziale di una sola possibilità, mentre il DS

ne richiede due; il MT ne richiede tre.

-dalla necessità o meno di intraprendere la quarta fase, cioè il tentativo di rendere esplicite le

possibilità inizialmente non considerate. Questa difficoltà è ben illustrata dalle inferenze illusorie.

Esempi di questo errore sono quelli che si commettono nella risoluzione di sillogismi categorici

(utilizzo di euristiche come l’effetto atmosfera o l’euristica del matching) o nei sillogismi lineari.

Un esempio famoso è il problema del Thog. Date quattro figure geometriche (quadrato nero,

quadrato bianco, cerchio nero, cerchio bianco), lo sperimentatore scrive segretamente su un

foglietto uno dei colori è una delle forme dicendo che una figura è un Thog "se, e solo se, ha il

colore scritto sul foglietto, o la forma scritta sul foglietto, ma non entrambe le cose. Alla luce di

questo criterio il cerchio nero è un Thog". Nonostante la facilità delle premesse e l'accessibilità di

tutte le informazioni, la maggior parte dei partecipanti risponde non correttamente. La risposta

corretta è necessaria viene data da pochi partecipanti. Le persone costruiscono una sola

rappresentazione basata sulle caratteristiche dell'unico Thog che conoscono.

Anche se le rappresentazioni possibili del foglietto sono solo due (cerchio bianco e quadrato nero),

non è facile né spontaneo costruirle entrambe e perseguire la loro comune conclusione. Che

l'elemento di difficoltà sia questo è dimostrato dal fatto che il compito è facilitato quando

l'esplicitazione di quelle due possibilità è resa più semplice cambiando in vari modi il formato di

presentazione del problema.

CAPITOLO 10 – Il linguaggio

46.Modello della coorte.

Il modello della coorte viene proposto come spiegazione al processo di elaborazione delle parole.

L’identificazione di una parola avviene molto velocemente (circa 200-250 ms). Mentre sentiamo

una parola costruiamo contemporaneamente la coorte di candidati che ne condividono una parte

iniziale. La coorte è l'insieme delle parole che condividono una certa parte iniziale della parola.

A mano a mano che arrivano altre informazioni sulla composizione della parola, la quantità di

parole compatibili con l’informazione in ingresso diminuisce, fino ad arrivare al riconoscimento

vero e proprio di quella particolare parola. Il riconoscimento di una parola procede per

eliminazione, da sinistra verso destra.

Ogni parola possiede un solo uniqueness point (punto di unicità), cioè un punto in cui diventa

unica nella sua coorte, e viene perciò riconosciuta.

Il processo di riconoscimento di una parola avviene in tre fasi:

-l’accesso in cui la rappresentazione linguistica è usata per attivare a livello mentale la coorte

-la selezione, fase nella quale viene selezionato un candidato

-l’integrazione in cui le proprietà sintattiche e semantiche della parola sono usate per integrarla

nella rappresentazione complessiva della frase

Il contesto gioca un ruolo importante nel modello, ma può agire solo nella fase di selezione e

integrazione, dopo che la parola ha raggiunto il suo punto di univocità.

Anche altri fattori come la frequenza della parola possono influenzare il modello.

47. Modello DRC.

Il modello a due vie a cascata è stato creato per indagare i processi di elaborazione e pronuncia

delle parole e spiegare anche i processi sottostanti alla lettura. L'attivazione o inibizione delle

singole unità si accumula nel tempo attraverso cicli di elaborazione che si propagano a cascata nei

livelli successivi, in modo tale che l'attivazione o inibizione a un livello contribuisca a quelle di tutti

gli altri livelli. Si tratterebbe, dunque, di connessioni bidirezionali fra conoscenze semantiche,

ortografiche e fonologiche.

Il processo di pronuncia si divide in tre fasi:

1. via non lessicale: si cerca la regola più appropriata per trasformare il primo grafema della

sequenza, tra le regole specifiche per ogni lingua. Il fonema corrispondente viene attivato nel

buffer fonemico insieme alla sua attivazione nella via lessicale. Questa via vale per qualunque

stimolo ortografico e permette la lettura corretta di pseudoparole e di parole esistenti ma

sconosciute al lettore.

2. via lessicale diretta: la forma fonologica viene recuperata a seguito della attivazione della

parola nel lessico ortografico. I tratti delle lettere attivano le unità corrispondenti alle lettere in

parallelo e per tutte le posizioni. Le lettere attivano le unità corrispondenti alle parole nel lessico

ortografico dove sono contenute le rappresentazioni ortografiche delle parole conosciute dal

lettore. Questa attivazione produce una successiva attivazione di quella nel lessico fonologico che,

a sua volta, attiva i fonemi che compongono la parola nel buffer fonemico.

3. via lessicale semantica: la forma fonologica di una parola è recuperata attraverso la

rappresentazione del suo significato.

La via lessicale diretta e semantica producono la lettura corretta solo delle parole.

48. Illusione di Mosè.

L'illusione di Mosè è un fenomeno indagato da Erickson che riguarda il processo di elaborazione

delle frasi. Ai soggetti viene chiesto di rispondere a domande che possono trarre in inganno, per

esempio: "Quanti animali di ogni tipo ha portato Mosè sull'arca?” La risposta esatta sarebbe

"nessuno" dato che è Noè e non Mosè il protagonista di quel passaggio biblico. Lo stesso tipo di

errore si riscontrava anche quando il soggetto era avvisato che ci potevano essere degli errori

nelle domande. Un altro esempio proviene da uno studio in cui era presente la seguente

domanda: “Può un uomo sposare la sorella della sua vedova?”. Solo il 30% dei soggetti nota che

per avere una vedova una persona deve essere morta. Come mai le persone non si accorgono di

queste anomalie? Sono state proposte varie spiegazioni.

La comprensione del significato di una frase o di un testo è un processo incrementale in cui

strutture provvisorie sono create e mantenute temporaneamente in memoria. Alcune

caratteristiche della comprensione:

-la comprensione del linguaggio nella vita quotidiana è generalmente abbastanza superficiale,

dunque incline ad errori

-le persone esaminano le informazioni sulla base di una parte ristretta delle conoscenze

semantiche che possiedono

-la struttura della memoria semantica, e la diffusione dell’attivazione da un nodo ad altri

favoriscono la confusione fra nodi vicini nella rete semantica

Nella comprensione di una frase occorre prima riconoscere le parole che la compongono,

attivarne il significato, al contempo determinando le strutture sintattiche in cui sono inserite e le

relazioni semantiche fra esse. Occorre poi integrare queste informazioni nel contesto. È un

processo abbastanza complesso che si compie in un intervallo stimabile fra i 1000 e i 3000 ms.

L’ordine di questo processo è protagonista di un forte dibattito fra sostenitori di una prospettiva

sequenziale e coloro che invece sostengono che molti processi avvengano in modo parallelo. Il

dibattito fra i diversi modelli parte dalla presunta priorità di un tipo di informazione, quella

sintattica (ordine delle parole), su altre. La costruzione della struttura sintattica della frase

precederebbe i processi semantici (significato), e interagirebbe con essi solo in una fase

successiva. Secondo altri autori il sistema di elaborazione del linguaggio interagirebbe da subito

diverse fonti di informazione.

CAPITOLO 13 – La decisione

49. Teoria del prospetto.

La teoria del prospetto di Kahneman e Tversky è un tentativo di spiegare come le persone

prendano decisioni in condizioni di incertezza. È simile alla teoria dell'utilità attesa dell'approccio

normativo, ma questa teoria dell'approccio descrittivo aggiunge una sintesi formale di ciò che

avviene quando un individuo prende una decisione. L’approccio descrittivo si propone di

descrivere il modo in cui gli individui umani effettivamente ragionano, prendono decisioni e

formulano giudizi, confrontando empiricamente il ragionamento umano e i suoi esiti con quanto

previsto dalle regole illustrate dal modello normativo (che ha l’obiettivo di individuare i formalismi per

definire le scelte, in modo da poter circoscrivere quelle che, rispettando un numero di assiomi di coerenza

interna e più criteri di scelta (regole decisionali), possono essere definite razionali. Si studiano le decisioni

come se gli individui facessero i calcoli necessari per scegliere, decidere e agire nel rispetto di alcuni assiomi

di razionalità. Il protagonista dei modelli economici di questo tipo è un agente, un decisore virtuale il cui

comportamento è relativamente semplice, e completamente definibile da un insieme di assiomi.)

Secondo questa teoria, i soggetti ragionano in termini di scarto da un punto di riferimento e le

scelte variano a seconda se si tratti di un guadagno o di una perdita.

Il processo decisionale si divide in una prima fase di strutturazione, seguita da una fase di

valutazione.

La strutturazione di compone di 6 operazioni:

1.codifica delle opzioni di scelta in termini di guadagno o perdita rispetto al punto di riferimento;

2.segregazione che porta a separare decisioni che implicano rischi da quelle che non le prevedono;

3.cancellazione dei prospetti decisionali delle componenti ridondanti;

4.combinazione di alternative che portano ad esiti uguali;

5.semplificazione attraverso l'arrotondamento di probabilità e risultati attesi percepiti come

simili;

6.rilevazione di dominanza che prevede l'eliminazione dei prospetti dominati e focalizzazione sui

processi dominanti.

La seconda fase è quella di valutazione, dove il decisore confronta i diversi prospetti decisionali e

sceglie quello con il valore più alto. Il valore è assegnato a ogni opzione secondo la funzione di

valore. Essa può avere una curva concava o convessa. La curva di valore è concava e crescente

quando ci si riferisce ai guadagni e indica che le persone hanno una sensibilità marginale ai

guadagni. È convessa e decrescente, invece, quando ci si riferisce alle perdite e indica che le

persone sono maggiormente sensibili alle perdite rispetto ai guadagni. Questa avversione alle

perdite indica che un valore positivo associato ad un guadagno è inferiore rispetto ad un valore

negativo di una perdita.

La teoria del prospetto, inoltre, considera il peso decisionale affidato ad ogni possibile esito, cioè

quando un esito è più o meno probabile secondo il decisore. Questo diverso peso può portare ad

una sovrastima delle basse probabilità alla sottostima delle probabilità medio-alte e alla sensibilità

maggiore per cambiamenti di probabilità da 0% a 1% oppure da 99% a 100% rispetto allo stesso

cambiamento di un valore ma per valori centrali come da 60% a 61%.

50. Differenze tra teoria del prospetto e teoria dell'utilità.

La teoria del prospetto dell'approccio descrittivo è molto simile alla teoria dell'utilità

nell'approccio normativo, però la prima aggiunge una sintesi formale di ciò che avviene quando un

individuo prende una certa decisione. Le due teorie si differenziano in tre aspetti: nella nozione di

valore, nel concetto di peso decisionale e nel ruolo della rappresentazione decisionale.

1.Per la teoria dell'utilità il valore è una misura assoluta e oggettiva che corrisponde a quanto vale

un determinato esito; per la teoria del prospetto il valore è legato alle possibilità degli esiti,

assegnato nella fase di strutturazione. A parità di punto di riferimento, la funzione di valore per la

PT è una funzione di utilità razionale, ben definita, monotona crescente e continua. La curva di

valore è concava e crescente quando ci si riferisce ai guadagni e indica che le persone hanno una

sensibilità marginale ai guadagni. È convessa e decrescente, invece, quando ci si riferisce alle

perdite e indica che le persone sono maggiormente sensibili alle perdite rispetto ai guadagni.

Questa avversione alle perdite indica che un valore positivo associato ad un guadagno è inferiore

rispetto ad un valore negativo di una perdita.

Per la teoria dell'UA la funzione ha una forma lineare quando l'agente è neutrale verso il rischio,

concava quando è avverso al rischio, e convessa quando è propenso al rischio.

2.Il secondo punto di differenza è il peso decisionale che riguarda il modo in cui gli individui

considerano le probabilità associate agli esiti di una scelta. In realtà è simile al concetto di

probabilità soggettiva dell'altra teoria, cioè quei valori probabilistici associati al grado di fiducia

che l'agente ripone nei confronti dell'avverarsi di un esito.

La differenza è che nella PT c'è una precisa funzione che la descrive e cattura fenomeni tipici del

comportamento decisionale, cioè la sovrastima delle basse probabilità, la sottostima delle

probabilità medio alte e la sensibilità maggiore per cambiamenti di probabilità da 0% a 1% oppure

da 99% a 100% rispetto allo stesso cambiamento di un valore ma per valori centrali come da 60% a

61%.

3.Ultimo punto è la rappresentazione decisionale: secondo la teoria del prospetto un

cambiamento nella concezione che il soggetto ha del problema (quindi nella cornice cognitiva)

genera cambiamenti nel modo di interpretare il problema e di prendere decisioni correlate. Questi

effetti di incorniciamento (framing effects) sono una chiara violazione del principio di invarianza

della teoria dell'UA secondo cui la presentazione del problema decisionale non ha alcun effetto

sull'ordinamento delle preferenze.

51.Ipotesi alternative alle ricerche di Tversky e Kahneman.

Dagli esperimenti e dalle ricerche di Tversky e Kahneman sono stati evidenziati una serie di errori

sistematici commessi dalla maggioranza degli individui su molti tipi di problemi di giudizio.

L’insieme dei risultati ottenuti da queste ricerche sembra portare verso una concezione

pessimistica della razionalità umana, per cui i giudizi umani sono irrazionali e sbagliati a causa di

errori di competenza intrinseci ai meccanismi della cognizione umana. Gli errori che ne

scaturiscono, non sono errori di prestazione, ma di competenza, quindi sistematici. Utilizzando le

euristiche si incorre spesso in errori sistematici, a volte anche gravi, a seconda del contesto.

Davanti a questa visione sono state proposte alcune ipotesi alternative per spiegare il perché della

sistematicità degli errori umani.

Secondo l'ipotesi degli errori di prestazione, gli errori rilevati sono errori di prestazione e non di

competenza. Le motivazioni di queste prestazioni insoddisfacenti possono essere varie:

distrazione, mancanza di attenzione, problemi di memoria, carenza di motivazione. Il dato che

contrasta con questa ipotesi è però la sistematicità degli errori rilevati: infatti non è facilmente

spiegabile come errori dovuti a qualcosa di poco prevedibile si ripetano ogni volta con determinati

problemi di ragionamento. (La rilevazione empirica che smentisce questa ipotesi è la sistematicità

degli errori rilevanti.)


PAGINE

36

PESO

703.82 KB

PUBBLICATO

4 mesi fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
A.A.: 2017-2018

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Eleonor23 di informazioni apprese con la frequenza delle lezioni di Psicologia generale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Milano Bicocca - Unimib o del prof Reverberi Carlo.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Psicologia generale

Riassunto esame Psicologia generale, docente Ricciardelli, libro consigliato Psicologia generale, Paolo Cherubini
Appunto
Riassunto esame Psicologia generale, prof. Bricolo e Ricciardelli, libro consigliato Psicologia generale, Cherubini
Appunto
Glossario esame Psicologia Generale 2, prof. Reverberi, libro consigliato Psicologia Generale, Cherubini
Appunto
Psicologia generale 2, Implicatura conversazionale
Appunto