Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Esistono molti sistemi di logica deduttiva, volti a definire quali strutture impilcative siano valide.

Uno di questi è il calcolo proposizionale (vedi sotto).

2.Induzione per enumerazione di casi/generalizzazione/induzione associativa: la sua conclusione

è una relazione (regola) basata su concomitanze di osservazioni, o contingenze. La regola che

costituisce la conclusione è possibile, ma non necessaria. Tutti i processi che partendo da

osservazioni di casi specifici generano ipotesi o regole, compiono ragionamenti induttivi.

Caso 2Caso 1Regola (quei fagioli sono bianchiquei fagioli provengono da quel saccotutti i

fagioli in quel sacco sono bianchi)

La logica dell’induzione enumerativa è la semplice statistica descrittiva: comportarsi in maniera

logica prevede la raccolta di tutti i dati utili a stimare l’effettiva forza predittiva di una regola

ipotetica.

3.Induzione “volta alla spiegazione”/abduzione: si tratta di un ragionamento probabilistico che

genera un’ipotesi. In questo caso l’ipotesi riguarda un caso specifico, e non una regola generale.

Usiamo uno o qualche indizio su uno o pochi casi per stabilire, attraverso una regola generale già

appresa, un’ipotesi su quei casi. Per questa ragione l’abduzione viene anche chiamata

ragionamento all’indietro. Un’abduzione è sempre ipotetica.

RegolaCaso 2Caso 1 (tutti i fagioli in quel sacco sono bianchiquei fagioli sono bianchiquei

fagioli provengono da quel sacco)

Se c’è qualcosa di logico nell’abduzione, non è nella generazione di ipotesi, ma nel modo con cui

ne rivediamo il grado di probabilità. Il modo più classico per revisionare il grado di fiducia verso un

antecedente ipotetico H, alla luce di una conseguenza osservata D, è la regola di Bayes.

Cicli di conoscenza in psicologia

Ciclo inferenziale:

per Neisser e Gibson un percetto iniziale attiva schemi cognitivi anticipatori che inducono

aspettative e guidano l’esplorazione dell’ambiente. L’esplorazione consente, a sua volta, di

raccogliere ulteriori dati sensoriali, perfezionare e completare quel percetto, e costruirne altri. La

natura ciclica dell’accumulo di conoscenze attraverso il concatenarsi di congetture induttive,

previsioni deduttive, e loro verifica esplorativa, è tipica dell’intera cognizione umana: possiamo

illustrare il ruolo dei diversi processi di ragionamento in un ideale “ciclo inferenziale” della

conoscenza. Il suo obiettivo è costruire una rappresentazione di un ambiente complesso e

mutevole, continuamente passibile di revisioni: una “mappa dinamica” dove tracciare le possibili

“rotte” comportamentali verso gli obiettivi che ci prefiggiamo.

Le “logiche” dell’induzione

I frutti dell’induzione non possono essere descritti “logicamente” nella loro generazione. Possiamo

però descrivere il “corretto procedere” del loro controllo e revisione: quali sono le norme logiche

da adottare nel cercare di stabilire l’effettiva forza, o debolezza, dell’associazione che abbiamo

ipotizzato tra gli eventi X e Y.

La logica dell’induzione per enumerazione: statistica descrittiva

l’unica norma possibile per misurare la qualità di una regola che connette due eventi osservabili

XY è la corretta misurazione e descrizione dei due parametri probabilistici che la denotano. Per

farlo, servono informazioni su tutti e quattro i tipi di dati presenti in una tavola di contingenza, a,

b, c e d. Da quei parametri potremmo poi stimare la predittività ΔP della regola. Se un organismo,

al ripetersi di osservazioni di tipo a, b, c o d, apprende la regola XY con forza proporzionale al

suo ΔP oggettivo, diremo che quell’organismo si comporta in modo “logico”. Se invece apprende

XY con forza molto discrepante dal ΔP oggettivo, diremo che è “illogico”. Quando una persona

esplora il suo ambiente alla ricerca di osservazioni per stabilire la fondatezza della regola XY,

diremo che si comporta in modo “logico” se ricerca equamente tanto i dati di tipo a e b, quanto i

dati di tipo c e d.

La logica dell’induzione enumerativa è la semplice statistica descrittiva: comportarsi in maniera

“logica” prevede la raccolta di tutti i dati utili a stimare l’effettiva forza predittiva di una regola

ipotetica, nella misura in cui essi si rendono disponibili.

La logica dell’induzione per abduzione: statistica bayesiana

se c’è qualcosa di logico in un’abduzione, non è nella generazione dell’ipotesi, ma nel modo con

cui ne rivediamo il grado di probabilità. Il modo più classico per revisionare il grado di fiducia verso

un antecedente ipotetico H, alla luce della conseguenza osservata D, è la regola di Bayes (regola

preposta alla revisione del grado di probabilità di un’ipotesi alla luce della sua probabilità a priori,

e dell’osservazione di un qualche indizio o insieme di indizi). La sua struttura è abduttiva. In questo

sillogismo si assume che le premesse siano vere; il verificarsi o il mancato verificarsi (D; ¬D) di una

previsione di H; la fiducia riposta verso il sussistere dell’antecedente ipotetico H. Essa consente di

risolvere il sillogismo abduttivo, assegnando un valore di probabilità soggettiva a H: cioè, la regola

quantifica quel “forse” inserito nella conclusione del sillogismo.

p(H)p(D|H)

P(H|D) = p(D)

H= ipotesi, D= dato osservato, P(H|D)= probabilità a posteriori dell’ipotesi alla luce del dato

osservato, P(H)= probabilità a priori dell’ipotesi

p(H|D) p(H) p(D|H)

= x forma a rapporti

p(¬H|D) p(¬H) p(D|¬H)

Rapporto di Bayes:

il rapporto di Bayes è una misura di supporto Bayesiano di D: se è superiore a 1 supporta l’ipotesi,

se è inferiore a 1 tende a falsificarla, se è 1 il dato è “irrilevante”.

Likelihood ratio (LR)/rapporto di verosimiglianza:

il rapporto di Bayes di un dato D verso un’ipotesi può essere indicato con la sigla LR (H), dove LR

D

significa likelihood ratio. È il rapporto tra la probabilità di osservare un qualche indizio se si verifica

una certa condizione, e la probabilità di osservare lo stesso indizio qualora non si verifichi quella

condizione. È un’importante misura di diagnosticità di un indizio.

p(D|H)

LR (H) =

D p(D|¬H)

Odd:

sono rapporti di probabilità a posteriori di un’ipotesi alla luce di un dato. Si calcola facendo il

rapporto di probabilità a priori per la LR del dato.

O(H|D) = O(H) x LR (H)

D

Per risalire da un odd O a una probabilità p, basta dividere l’O per sé stesso più 1.

O

p = 1+O

Una logica della deduzione: il calcolo proposizionale

La deduzione è l’ambito classico di studio della logica. Esistono molti sistemi di logica deduttiva,

volti a definire quali strutture implicative siano valide. I due sistemi fondamentali sono il calcolo

proposizionale e il calcolo dei predicati del primo ordine.

Calcolo proposizionale:

è un linguaggio formale che descrive come cambiare proposizioni tramite operatori o connettivi.

Ha una sintassi, che definisce le formule ben formate (insieme di preposizioni che fanno parte di

quel linguaggio), e una semantica che associa a ogni formula valori di verità, e consente di

calcolare se una conclusione sia valida alla luce di determinate premesse. Il suo alfabeto si

compone di simboli, connettivi e parentesi.

Le regole per definire una formula ben formata (fbf) sono:

1)un letterale è una fbf

2)se A è una fbf, allora ¬A è una fbf

3)se A e B sono fbf, allora (A ʌ B), (A v B), (AB), (A ↔ B) sono fbf

4)nient’altro è una fbf

La semantica del calcolo proposizionale associa a ogni preposizione un valore di verità (V=vero,

F=falso) in funzione del valore di verità dei suoi costituenti. Il modo più semplice per definire il

significato che vogliamo attribuire ai connettivi consiste nell’uso di tavole di verità. Ogni tavola di

verità è una rappresentazione esaustiva di tutte le possibilità generate dalle proposizioni che

compongono la formula, e indica in quali possibilità la formula è vera, e in quali è falsa.

Le inferenze valide nel calcolo preposizionale:

nel calcolo proposizionale le inferenze valide (quelle in cui una conclusione è necessaria alla luce

della verità delle premesse) possono essere descritte in due modi: uno semantico, e l’altro

sintattico.

Il modo semantico si base sulle tavole di verità o sull’equivalente calcolo booleano. Un esempio è il

modus ponens (MP).

I metodi sintattici si avvalgono di regole inferenziali o assiomi. Uno dei metodi logici più diffusi è il

calcolo naturale che si avvale solo di regole inferenziali. Una regola inferenziale produce

meccanicamente un’inferenza ogni volta che le sono fornite in input premesse che corrispondono

alla sua forma. Uno degli schemi inferenziali del calcolo naturale è il MP, che si esprime così:

AB

A

-----------

.: B

Sillogismo condizionale/ipotetico:

una coppia di premesse che comprenda un condizionale, e l’affermazione o la negazione del suo

antecedente (p) o conseguente (q), viene detta sillogismo condizionale. Tra i quattro sillogismi

condizionali possibili, il primo, valido è il modus ponens. Il secondo sillogismo condizionale valido

è il modus tollens (MT). Il suo schema inferenziale è:

AB

¬B

-----------

.: ¬A

Gli altri due schemi condizionali sono invalidi, la logica non li supporta. La loro conclusione è

possibile ma non necessaria. Il primo è chiamato affermazione del conseguente (AC), che

corrisponde al sillogismo abduttivo di Peirce: solo che, invece di considerare possibile la

conclusione, la si considera necessaria.

AB

B

-----------

.: A

Il quarto sillogismo condizionale, anch’esso fallace, è chiamato negazione dell’antecedente (DA). Il

suo schema è il seguente:

AB

¬A

-----------

.: ¬B

Altri schemi inferenziali elementari che si sono rivelati importanti nello studio psicologico del

ragionamento umano sono stati il sillogismo disgiuntivo (DS),

A v B

¬A

----------

.: B

e la riduzione all’assurdo (RA),

A

B ʌ ¬B

----------

.: ¬A

Il sistema concettuale e la categorizzazione

Sistema concettuale:

è l’insieme dei concetti che si sono depositati nella nostra memoria semantica grazie

all’apprendimento. Ogni concetto è la rappresentazione mentale di un insieme (categoria) di

oggetti o eventi, e delle proprietà loro associate. I concetti sono appresi per via induttiva.

Categorizzazione:

processo attraverso il quale riportiamo abduttivamente o deduttivamente uno stimolo ambientale

a un concetto, riconoscendolo come esemplare della categoria corrispondente, anche se non

abbiamo mai esperito prima quello specifico esemplare.

Attributi degli esemplari:

ogni esemplare di una categoria può essere descritto in termini di presenza (1) o assenza (0) di

ciascun attributi f con cui abbiamo scelto di descrivere quella categoria.

i

Notazione disgiuntiva normale (DNF):

anche chiamata descrizione logica estesa e definizione estensionale di un concetto, è l’elenco dei

suoi appartenenti noti, ciascuno espresso dalla congiunzione dei suoi attributi, e con ciascun

membro disgiunto dagli altri.

Quando apprendiamo un concetto cerchiamo regolarità che accomunano gli esempi noti della

categoria che il concetto rappresenta. Indentificare regolarità significa comprimere la stringa di

simboli che definisce estensionalmente la categoria. Il risultato è una semplice regola: essa non

ammette eccezioni, esprime una condizione sia necessaria, sia sufficiente. La definizione

compressa è chiamata intensionale.

Complessità logica/booleana:

la complessità logica di un concetto corrisponde al numero di letterali presenti nella regola che lo

definisce, una volta compressa il più possibile.

Concetti basati su regole:

chiedendoci quali attributi accomunino gli esemplari di una categoria, siamo talvolta in grado di

estrarre definizioni sintetiche basate su regole di tipo deduttivo. I corrispondenti concetti si dicono

basati su regole. Tuttavia, sappiamo estrarre efficacemente queste regola solo quando esistono,

cioè il concetto è effettivamente comprimibile, e sono semplici.

Prototipo:

quando regole logiche precise non sono disponibili, o sono troppo complesse, tendiamo ad

astrarre schemi o prototipi del concetto. Il prototipo è un elenco di attributi frequentemente

osservati nei suoi esemplari, pur non necessariamente presenti in tutti gli esemplari. Quanto più

numerosi saranno gli attributi prototipici che un nuovo esemplare presenta, tanto più saremo

pronti e rapidi nel classificarlo (effetto tipicità). Nell’apprendere concetti, il sistema cognitivo è in

grado di astrarre tendenze centrali, di trattarle alla stessa stregua di esemplari già visti, e di

classificare nuovi esemplari in base alla loro distanza dalla tendenza centrale.

Teoria dei prototipi:

secondo questa teoria di Rosch, una categoria è rappresentata nella mente da un prototipo: la

rappresentazione di uno o alcuni esemplari medi, non necessariamente esistenti, molto tipici. Il

riferimento a una media tra esemplari descritta da attributi tipici suggerisce che la logica di

riferimento sia quella bayesiana. In questa teoria, i concetti di maggior rilievo psicologico, i

concetti base, sono quelli per i quali riusciamo ad estrarre dalle nostre osservazioni un cluster di

attributi dotati di alta cue validity (validità di indizio). Sono concetti che apprendiamo più

precocemente e più facilmente di quelli sovraordinati o subordinati, caratterizzati da minor

diagnosticità.

Cue validity:

indica quanto quell’attributo consenta di riconoscere un oggetto come appartenente o meno a

una categoria. Essa è concepita come forza diagnostica degli attributi, misurata con il LR.

cue validity (attributo) = p(categoria|attributo) – p(categoria)

Tipi di interpretazioni:

le combinazioni concettuali di due sostantivi sembrano ricadere in quattro tipologie in

interpretazioni:

1)Interpretazioni relazionali: stabiliscono l’esistenza di qualche relazione tra il concetto

modificatore e il concetto testa (“una matita letto è una matita che si mette accanto al letto per

scrivere messaggi”)

2)Interpretazioni basate su sovrapposizioni di proprietà: attribuiscono a un concetto una

proprietà dell’altro concetto (“una matita letto è una matita a forma di letto”)

3)Interpretazioni ibride: il referente è l’unione del concetto modificatore con il concetto testa

(“un pesce lampada è un pesce abissale molto luminoso tipicamente portato in vasi di vetro per

essere usato come lampada”)

4)Interpretazioni a riferimento diretto: associano la combinazione a un concetto già noto (“una

matita letto è una scatola di matite”)

Il referente dell’interpretazione coincide, quasi sempre con la testa linguistica (il primo sostantivo)

Criteri che indirizzano le interpretazioni:

la ricombinazione degli attributi dei due concetti alla base dell’interpretazione è guidata da tre

criteri:

-diagnosticità: ogni interpretazione deve contenere predicati diagnostici di entrambi i concetti

-plausibilità: ogni interpretazione deve descrivere un oggetto la cui esistenza è plausibile alla luce

della frequenza dei suoi attributi in altri concetti noti

-informatività: ogni interpretazione deve comunicare qualcosa di nuovo

Teoria della somiglianza-copertura:

l’apprendimento di concetti procede a cascata: ogni concetti appreso può contribuire non solo a

costruirne altri, ma a modificarne altri ancora. I principali studi empirici e modelli teorici

dell’induzione basata su categorie hanno stabilito che la forza di una conclusione induttiva di

questo tipo dipende da diversi tipi di somiglianza tra le due categorie menzionate nelle premesse e

quella menzionata nella conclusione. Nel modello della somiglianza-copertura, sviluppato da

Osherson, la forza di una conclusione induttiva basata su categorie è determinata da due fattori:

-grado di somiglianza tra le categorie nelle premesse e quella nella conclusione

-grado di copertura delle premesse rispetto alla conclusione

Il primo fattore dipende dal numero di attributi in comune tra i concetti nelle premesse e quello

nella conclusione. La copertura si riferisce invece all’estensione del campionamento descritto nelle

premesse, rispetto a quello necessario per includere la categoria menzionata nella conclusione.

Copertura:

la copertura è il grado di somiglianza tra la categoria sovraordinata S che include tutte le

p

categorie menzionate nelle premesse, e la categoria sovraordinata S che include tanto S , quanto

p

la categoria menzionata nella conclusione.

Categorizzazione:

la categorizzazione è forse il più basico dei processi inferenziali che si appoggiano al sistema

concettuale. Coinvolge meccanismi che sono in parte abduttivi e in parte deduttivi. Ha un duplice

obiettivo:

-semplificare le informazioni in ingresso, riconoscendo pattern complessi di stimolazione come

esempi noti funzione di semplificazione/di riconoscimento. Essa può procedere in due modi:

1) per stime di somiglianza: essa interviene quando i concetti sono rappresentati da prototipi o da

insiemi di esemplari. È abduttiva, cioè si basa sull’uso “all’indietro” di una regola probabilistica

2) applicando regole: in questo caso possiamo usarle “in avanti” (in stile deduttivo) per

riconoscere singoli esemplari

-arricchire quegli esemplari generalizzando loro alcune proprietà del concetto funzione

inferenziale/di generalizzazione. Essa si svolge sempre in stile deduttivo. Partendo da due

premesse, delle quali la prima è l’esito del riconoscimento e la seconda è una qualche regola che

descrive l’associazione di un attributo al concetto, essa genera conclusioni di tipo modus ponens.

Le esplorazioni e il controllo di ipotesi

Strategie:

piuttosto che limitarci a elaborare le informazioni che fortuitamente incontriamo, andiamo a

cercarle, e così facendo determiniamo, almeno in parte, quelle che raccoglieremo. Noi

applichiamo strategie di esplorazione, che vincolano le informazioni che riceveremo e potremo

valutare, escludendone alcune a vantaggio di altre. Adottare una strategia di selezione delle

informazioni è spesso necessario. Dagli studi sull’apprendimento concettuale è scaturita un’ampia

area di ricerca detta psicologia del controllo di ipotesi, che si sofferma sull’esplorazione e sul

controllo. Le prime e più note ricerche furono condotte da Wason, che sviluppò due paradigmi di

ricerca: il problema “2-4-6” e il compito di selezione (o problema delle quattro carte).

Il problema “2-4-6”:

Wason ideò un compito che riproduceva, in forma astratta e semplificata, i tre passaggi del

metodo ipotetico-deduttivo: 1) formulare ipotesi; 2) derivarne previsioni; 3) controllare

sperimentalmente quelle previsioni. Ai partecipanti era proposta una terna di numeri, 2-4-6, in

accordo con una regola pensata dallo sperimentatore. Compito dei partecipanti era indovinare la

regola. Per farlo potevano produrre altre terne di numeri. In un qualsiasi momento in cui un

partecipante si fosse convinto di aver centrato la regola corretta, poteva dichiararla. Nella ricerca

originale la regola che i partecipanti dovevano scoprire era semplice, ma piuttosto generale: “tre

numeri in ordine crescente”. Solo il 20% dei partecipanti indovinava la regola in prima

dichiarazione. Il partecipante si convince del fondamento di ipotesi che sono errate (confirmation

bias/tendenza di conferma).

Le principali osservazioni di Wason sul compito 2-4-6 furono le seguenti:

1)Per controllare un’ipotesi, le persone esplorano soprattutto esempi positivi

2)Nel compito 2-4-6 in versione originale l’esplorazione di casi positivi comporta la raccolta

selettiva di sole conferme; la fiducia del partecipante nella sua ipotesi, alla vista di ripetute

conferme, cresce, fino a convincerlo (erroneamente) della correttezza dell’ipotesi

3)L’esplorazione di esempi negativi avviene soprattutto in fasi avanzate del controllo, dopo che

sono stati esplorati diversi casi positivi

4)Molti individui formulano controllano una sola ipotesi alla volta, invece di produrre e comparare

tra loro più ipotesi alternative. Una volta formulata un’ipotesi e sviluppato un certo grado di

fiducia verso di essa, può intervenire un meccanismo di focalizzazione, che ci incoraggia a vedere

la nostra ipotesi come l’unica possibile.

Il problema della 4 carte:

Wason inventò un compito che si concentrava sui soli processi di formulazione di previsioni in via

deduttiva e sulla loro conseguente esplorazione. Quattro carte erano disposte sul tavolo. Ai

partecipanti era detto che ogni carta presentava una lettera su un lato e un numero sull’altro. Solo

un lato di ciascuna carta era visibile. Lo sperimentatore comunicava ai partecipanti una regola

condizionale riferita alle carte. La regola era: “Se una carta ha una D su un lato, allora ha un 3

sull’altro lato”. Successivamente viene chiesto al partecipante “di scegliere le carte necessarie a

stabilire se la regola è vera o falsa”.

L’esperimento si concentra sulla fase strategica, o fase di ricerca delle informazioni, in cui

decidiamo cosa esplorare

Le prime interpretazioni dei risultati dell’esperimento condotto da Wason furono le seguenti:

1)Esplorazione di casi positivi e mancata attenzione alle possibili falsificazioni: scegliendo le carte p

(carta D) e q (carta 3), si opta per i soli casi che possono dimostrarsi strettamente congruenti alla

regola. L’omissione della carta ¬q (carta 7) indica che il partecipante non presta attenzione alle

possibili falsificazioni

2)La strategia di esplorazione si basa sulle previsioni deduttive che il partecipante è in grado di

compiere: i risultati del compito indicano una vasta disponibilità dello schema modus ponens (giro

la carta D), una maggiore difficoltà dello schema modus tollens (giro la carta 7), e una disponibilità

intermedia dello schema fallace di affermazione del conseguente (giro la carta 3)

Principali strategie del controllo di ipotesi:

il controllo di ipotesi può essere scomposto in una fase strategica di esplorazione, o di ricerca di

informazione guidata da previsioni, e in una successiva fase di valutazione delle informazioni

raccolte. Una strategia di esplorazione consiste nella preferenza per alcuni test rispetto ad altri.

Gli studi sull’esplorazione si concentrano su quali domande preferiamo porre per sviluppare,

confermare, confutare o correggere le nostre congetture. Ogni test dicotomico D è descritto da

i

due parametri. Il primo è la probabilità complessiva di ottenere la risposta positiva “sì, D è vero”.

i

P(D ) = p(D |H) x p(H) + p(D |¬H) x p(¬H)

i i i

Il secondo parametro è la forza diagnostica delle sue risposte D e ¬D .

i i

Questi parametri permettono di calcolare la diagnosticità attesa (ES) di una domanda, che è la

media della forza diagnostica delle sue due risposte, in valore assoluto:

ES (H) = p(D ) x |logLR (H)| + p(¬D ) x |logLR (H)|

Di i Di i ¬Di

Questo parametro è in grado di determinare l’effettiva utilità logica di un test.

Tipi di test:

di seguito le tre principali dimensioni che descrivono i test studiati nella psicologia del controllo di

ipotesi:

1)Diagnosticità attesa (ES): alcuni test hanno elevata diagnosticità attesa, altri più scarsa

2)Positività vs negatività: un test è positivo quando esplora un caso congruente con l’ipotesi. Un

test sull’attributo f per l’ipotesi H è positivo quando p(f|H) > p(f|¬H). Il test è negativo quando

p(f|H) < p(f|¬H).

3)Test simmetrici vs asimmetrici: un test è simmetrico quando la diagnosticità delle due risposte

possibili è la medesima, in valore assoluto. È asimmetrico quando i due valori sono differenti. I

test asimmetrici si distinguono in confermanti, quando la diagnosticità della risposta a conferma è

superiore a quella della risposta a falsificazione, e falsificanti, quando la diagnosticità della

risposta falsificante è superiore a quella della risposta confermante. I test asimmetrici falsificanti

sono anche estremi: hanno p(f|H) più vicina a 0 (se sono test negativi) o a 1 (se sono test positivi)

rispetto a quanto lo sia p(f|¬H).

Preferenza per i test diagnostici:

Trope e Bassok mostrarono che, nel selezionare o formulare domande per controllare un’ipotesi,

siamo sensibili alla loro diagnosticità attesa e tendiamo a preferire quelle più diagnostiche.

Preferenza per i testi positivi:

la preferenza per test positivi suggerisce una ricerca volta a “conferme affermative e falsificazioni

negative”. Alcuni analisti hanno dimostrato che in situazioni in cui le ipotesi che esploriamo sono

specifiche e circoscritte, e altrettanto lo sono le regole che è nostro obiettivo scoprire (assunti di

rarità), attenersi a uno stile di controllo positivo ottimizza il contenuto di informazioni reperibile

durante l’esplorazione.

Klayman e Ha svilupparono un modello matematico che analizza l’utilità, e le possibili distorsioni di

giudizio, associate al controllo positivo in differenti contesti epistemici, cioè ipotizzando diversi

gradi di correttezza dell’ipotesi verso la regola bersaglio.

L’acquiescenza è la tendenza a dire “sì”, invece di “no” o “non so”, in alcuni contesti sociali.

L’acquiescenza unita al controllo positivo può causare distorsioni.

Il controllo positivo è il principale meccanismo che induce, in alcuni casi, alla formazione di giudizi

o domande pseudodiagnostiche.

Preferenza per i test estremi:

i testi estremi sono anche asimmetrici falsificanti: la risposta che conferma l’ipotesi è più

probabile di quella che la falsifica, ma più debole. Se usati ripetutamente, consentono di

raccogliere molte conferme deboli, e poche falsificazioni forti dell’ipotesi. Se le persone che la

adottano, nel valutare l’esito del test, prestano attenzione soprattutto al numero di conferme o

falsificazioni ricevute, e non alla loro forza, finiranno col riporre eccessiva fiducia nell’ipotesi.

Preferenza per i test asimmetrici confermanti:

Trope e Thompson, in compiti di controllo di ipotesi relative ad attribuzioni sociali, individuarono

una tendenza a preferire test asimmetrici confermanti, con bassa probabilità di raccogliere

conferme forti e alta probabilità di individuare falsificazioni deboli. Questa preferenza sembra

emergere solo quando attribuiamo un’elevata probabilità a priori all’ipotesi, grazie a un qualche

stereotipo.

Tendenze psicologiche che influenzano la valutazione:

1)Effetti di primacy: nel controllare un’ipotesi, raccogliamo più di un’informazione nel corso del

tempo. In molte circostanze l’importanza diagnostica dei primi dati raccolti è sovrastimata. La

tendenza sembra invertirsi quando la serie di informazioni è particolarmente lunga (effetto di

recenza)

2)Sovrastima delle conferme: le informazioni a supporto di un’ipotesi che stiamo controllando

sono sovrastimate rispetto a quelle a confutazione. Un particolare fenomeno di sovrastima delle

conferme è costituito dai cosiddetti eventi a una sola faccia (one-sided events). Sono quegli eventi

che notiamo solo o soprattutto quando confermano un’ipotesi, e che ignoriamo quando non la

confermano

3)Costruzione confermatoria di evidenze ambigue: quando un dato ha molteplici interpretazioni,

alcune delle quali a supporto di un’ipotesi, e altre contro, tendiamo a notare solo o soprattutto le

interpretazioni a supporto

4)My side bias: chiamata anche tendenza del partito preso. Queste tendenze sono

particolarmente manifeste quando controlliamo un’ipotesi la cui verità consideriamo importante

per il gruppo cui sentiamo di appartenere. Questo bias ha un aspetto prettamente motivazionale:

infatti, siamo tutti in grado, se esortati o obbligati a farlo, di costruire interpretazioni di alcuni

eventi opposte al nostro credo. Tuttavia, non amiamo farlo spontaneamente

5)Feauture positive effect: conosciuto anche come sottostima delle informazioni veicolate da

assenze. Nella valutazione di indizi tendiamo a considerare le informazioni associate a dettagli

presenti, e a sottostimare o ignorare quelle veicolate dall’assenza di qualcosa

Ragionare per risolvere problemi

Okay, Houston, we’ve had a problem here

Problem solving:

i fattori principali che intercorrono tra l’individuare un problema e la sua soluzione sono il tipo di

rappresentazione del problema che costruiamo e i processi di ragionamento, di esplorazione e di

esecuzioni attuati nella ricerca di soluzioni. Tre componenti del problem solving:

-rilevazione del problema: confronto tra l’ambiente attuale e i propri obiettivi. Un problema

sussiste se un obiettivo non è conseguibile attraverso azioni ovvie e non ostacolate. L’impianto

logico è di tipo ipotetico-deduttivo. A volte si possono generare dei sotto-problemi, soprattutto

quando le operazioni non sono banali, chiamati ostacoli di esecuzione.

-rappresentazione del problema: la rilevazione del problema mi induce a cercare spiegazioni

(abduzione). Mi costruisco quindi una rappresentazione del problema o spazio del problema,

composta di diverse possibilità. Se le possibilità sono luoghi, controllarle richiede di esplorarli; se

sono vere e proprie azioni, che possono avvicinarmi alla soluzione (operatori), controllarle significa

mettere in atto quelle azioni. L’esecuzione di azioni volta a controllare o modificare l’ambiente

presuppone di avere a disposizione conoscenze causali su quell’ambiente. Quanto più povere e

inadeguate saranno le conoscenze causali a disposizione, tanto più i tentativi di soluzione si

configureranno come una ricerca per prove ed errori.

-ricerca della soluzione: essa è iterativa: controllata una possibilità, occorre procedere a

controllare le altre. Se posso investire ancora risorse, intraprendo la fase di revisione di ipotesi che

consiste nel ricominciare da capo, cercando di stabilire come generare un’altra rappresentazione

del problema (ristrutturazione del compito) e poi elaborandola.

Alcuni studi hanno affrontato questa complessità nel risolvere problemi con un approccio globale

o olistico, avvalendosi di problemi la cui soluzione richiedeva molti processi, soffermandosi sui

principali fenomeni psicologici legati al problem solving. Sono soprattutto gli studi sviluppati dalla

scuola della Gestalt.

Altri studi, soprattutto dagli anni Settanta del Novecento in poi, hanno assunto una prospettiva più

atomistica, cercando di descrivere con granularità un po’ maggiore quali meccanismi psicologici

siano alla base di diversi tipi di ragionamenti, a loro volta alla base dei tentativi di soluzione di un

problema. Questo è conosciuto come approccio analitico.

L’approccio gestaltico

Fondazione della Gestalt:

Wertheimer fondò nel 1910 la scuola della Gestalt con Koffka e Kohler, che contestava i metodi

sperimentali, basati principalmente sull’introspezione (tentativo di scomporre un evento mentale

composito descrivendolo in termini di proprietà elementari), preferendogli quelli di tipo

fenomenologico (riportare “ciò che appare come appare”; descrive l’evento mentale come si

presenta, senza tentare di scomporlo in atomi di esperienza). “Il tutto è superiore alla somma

delle parti” è il tipico motto gestaltista. Nella prospettiva gestaltica la percezione e il pensiero non

erano considerati entità separate: entrambi erano fenomeni della vita mentale, rispondenti ai

medesimi principi.

Pensiero riproduttivo:

consiste nella capacità di replicare schemi appresi in passato. È associativo, ed è guidato

dall’esperienza.

Pensiero produttivo:

permette di ricombinare concetti e nozioni in forme nuove, senza coinvolgere precedenti

procedimenti esperienziali per prove ed errori. Consente di generare una soluzione creativa a un

problema, non diretta, e mai esperita prima in quella forma. Coincide con la definizione di

problem solving.

Köhler:

si dedicò allo studio dell’intelligenza animale. Studiò soprattutto il comportamento di diversi

scimpanzé posti di fronte a problemi. Scelse gli scimpanzé come oggetto privilegiato delle sue

osservazioni, perché li considerava più simili di altri primati all’uomo. I problemi consistevano nel

presentare cibo agli scimpanzé in posizioni non direttamente raggiungibili. In una prima fase si

accorse che gli scimpanzé erano capaci di comportamenti di detouring (seguire una via indiretta

per raggiungere un obiettivo). Questa forma di problem solving per Köhler costituiva una forma di

pensiero produttivo: il problema si è risolto per prove ed errori; ma le prove e gli errori sono

simulati dalla mente, invece che agiti nell’ambiente. Successivamente si dedicò anche a problemi

più complessi. Presentò agli scimpanzé del cibo o appeso troppo in alto, o troppo lontano dalle

sbarre della gabbia, per essere raggiunto semplicemente protendendo un braccio. Nella gabbia

erano presenti oggetti.

Köhler descrisse una sequenza di fenomeni spesso osservabili durante i tentativi:

1)di fronte a un problema nuovo, gli scimpanzé tendevano a produrre tentativi diretti, e non

efficaci

2)talvolta si fissavano su un certo tipo di soluzione, anche dopo aver constatato che non era

efficace

3)innervositi, si ritiravano in una pausa di inattività, durante la quale sembravano riflettere

4)talvolta, quando emergevano dalla pausa, si dirigevano direttamente verso alcuni oggetti e li

combinavano e utilizzavano per tentare una soluzione nuova rispetto alle precedenti

Fenomenologia del problem solving:

si tratta di manifestazioni comportamentali frequentemente osservate durante la risoluzione di

alcuni tipi di problemi, detti problemi per insight, ma che possono presentarsi anche in ogni altro

tipo di problema:

1)Impasse: il partecipante ha esplorato tutte le possibilità a sua disposizione; ha prodotto una

serie di tentativi, senza raggiungere un buon esito. Si blocca, può abbandonare il compito

2)Fissità/fissazione: il partecipante tenta e ritenta una strategia già provata, rilevatasi inefficace

3)Incubazione: una pausa temporale interposta tra diversi tentativi di soluzione può aiutare a

trovare nuove possibilità di soluzione

4)Aha-erlebnis: la soluzione può repentinamente rilevarsi. Questo tipo di sblocchi improvvisi sono

detti soluzioni per insight

Fissità:

il fenomeno della fissità denota un’influenza negativa di precedenti apprendimenti sulla possibilità

di affrontare un problema con mente sgombra. Conoscenze precedenti, apprendimenti passati,

impongono vincoli che possono impedire il raggiungimento della soluzione. Duncker illustrò un

tipo particolare di fissità, chiamata fissità funzionale, che definì come un blocco mentale che

impedisce di usare un oggetto in un modo nuovo. Lo illustrò con l’esempio del problema della

candela (presentava ai partecipanti una candela, una scatola di puntine e una scatola di

fiammiferi. Il compito era attaccare la candela al muro in modo che illuminasse la stanza. Quasi

tutti i partecipanti procedevano con tentativi diretti, cercando di fissare la candela al muro con le

puntine, o sciogliendo un po’ di cera da usare come colla. In questi modi non si riesce a risolvere il

problema; ben presto, la maggior parte dei partecipanti entrava in impasse. Pochi di loro

riuscirono a ristrutturare il problema creativamente: vuotavano una delle scatole, la fissavano

solidamente alla parete con le puntine a mo’ di portacandela, incollavano la candela alla scatola

con un po’ di cera, e la accendevano, risolvendo il compito).

Luchins studiò gli effetti di fissità dovuti all’Einstellung (impostazione soggettiva). Il modo con cui

ci poniamo di fronte a un problema può determinare ostacoli alla sua soluzione. Soluzioni

precedentemente offerte a problemi simili possono meccanizzare il ragionamento volto alla

soluzione di un nuovo problema: dal pensiero produttivo si passa ad un pensiero di tipo

riproduttivo.

Incubazione:

Wallas ipotizzò che ignorare il problema per un po’ aiuti a uscire da un’impasse o da una

fissazione. Studi dimostrano che esiste un significativo, anche se modesto, effetto del tempo di

incubazione. L’effetto è maggiore per i problemi che richiedono una soluzione creativa, e tende a

crescere all’aumentare del tempo dedicato al problema prima dell’incubazione. Gli effetti

dell’incubazione possono essere dovuti ad un’elaborazione inconscia: la nostra mente continua a

elaborare il problema subliminalmente, mentre ci dedichiamo ad altro.

Insight:

il termine insight si riferisce a un tipo di ristrutturazione o ricentramento improvviso del campo

percettivo. Le soluzioni per insight scaturiscono da processi fuori dal controllo consapevole del

solutore, e sull’esito dei quali non sono possibili previsioni accurate. I processi su cui si basa

l’insight sembrano essere qualitativamente diversi da quelli legati all’esplorazione seriale delle

diverse soluzioni possibili. Le soluzioni per insight sono più frequenti nei più esperti.

I processi su cui si basa l’insight sono qualitativamente diversi da quelli legati all’esplorazione

seriale delle diverse soluzioni possibili. Il coinvolgimento dell’emisfero destro nelle soluzioni per

insight indica che esse sono basate sulla costruzione di nuove associazioni tra materiale prima non

connesso. Le soluzioni per insight sono più frequenti nei più esperti.

Modelli neodarwiniani della creatività:

dal punto di vista computazionale è stata avanzata un’importante proposta ispirata alla teoria

neodarwiniana dell’evoluzione naturale. Il processo di ricerca inconscia di idee nuove si svolge in

due stadi: il primo è generativo, e formula idee arbitrarie, combinando insieme a casa gli elementi

di conoscenza preesistenti. Un successivo stadio di valutazione agisce da “filtro”: si bada su criteri

prestabiliti; esso valuta le idee prodotte, attribuisce loro una “forza” maggiore o minore, “lascia

passare” solo le più “promettenti”. Le idee che sopravvivono servono da input per una nuova fase

generativa.

Risolvere problemi è una passeggiata: spazi del problema e procedure di ricerca

Procedure euristiche di ricerca:

raccogliendo il protocollo di pensiero a voce alta di un partecipante che stava cercando di risolvere

un problema logico, Newell e Simon individuarono una procedura euristica di ricerca di una

soluzione in grado di semplificare lo spazio degli stati, e di guidare un solutore dall’inizio alla fine

del processo risolutivo. Divenne una strategia di compressione del problema molto utilizzata negli

studi di intelligenza artificiale, la cosiddetta means-ends analysis (analisi mezzi-fini). Da queste

prime osservazioni, Newell e Simon procedettero a formulare una teoria generale del problem

solving umano. È una teoria formale: si basa su simulazioni computazionali. Il suo vantaggio è la

precisione matematica dei processi che descrive. Lo svantaggio è che descrive solo i processi di

ricerca della soluzione, una volta data una rappresentazione iniziale (lo spazio degli stati generato

dallo spazio del problema)

Problemi ben definiti:

dal punto di vista matematico, un problema ben definito può essere completamente descritto da:

1)Uno stato iniziale: un vettore finito di caratteristiche o parametri, ciascuno dei quali può

assumere un numero finito di valori.

2)Uno stato obiettivo/terminale: lo stesso vettore di parametri che descrive lo stato iniziale, ma

istanziato a valori diversi.

3)Un insieme finito di funzioni/operatori, ciascuno dei quali accetta in ingresso un vettore di stato,

modifica il valore di uno o più parametri, e ritorna in uscita un diverso vettore di stato.

4)Una metrica in grado di misurare la differenza tra due vettori di stato.

Lo spazio da colmare per andare dallo stato iniziale a quello terminale è il problema. Le mosse da

fare (operatori da applicare) per colmare questo spazio è la soluzione. L’unico modo che ha un

sistema non intelligente per andare dalla partenza alla meta è procedere per prove ed errori.

Nel problem solving automatizzato esistono sia algoritmi di ricerca esaustivi, in grado di valutare

sistematicamente tutti i percorsi possibili e scegliendo quello ottimale, cioè il percorso più breve;

esistono anche algoritmi di ricerca euristici, che non sono esaustivi e non garantiscono di trovare

il percorso più breve. Molte volte consentono però di trovare una soluzione buona abbastanza

risparmiando sulle risorse di elaborazione e di memoria, e sul tempo di esecuzione.

Spazio degli stati:

insieme di tutte le possibilità che si possono ottenere applicando al vettore iniziale tutti gli

operatori disponibili, e poi riapplicandoli iterativamente a tutti i vettori di output.

Spazio del problema:

per Newell e Simon lo spazio del problema è la comprensione iniziale del problema, che consente

di generare lo spazio di stati che connettono la condizione iniziale a quella terminale.

L’analisi mezzi-fini:

l’analisi mezzi-fini riesce a ridurre il problema. Essa consiste infatti, nella generazione di sotto-

obiettivi, dal confronto tra situazione iniziale e terminale, alla luce degli operatori disponibili. Dal

punto di vista logico essa consiste nello sviluppo di un albero AND-OR: un nodo AND raggruppa

insiemi di operazioni che, se vengono eseguite tutte, permettono di soddisfare la radice. Un nodo

OR raggruppa stati possibili tali per cui, se almeno uno è soddisfatto, la radice può essere

soddisfatta. Se un nodo-problema può essere decomposto in più modi diversi, il risultato è un

nodo OR. L’analisi mezzi-fini è una strategia di ricerca euristica general purpose, cioè utilizzabile in

molti tipi di problemi, astratti o non astratti.

Hill-climbing:

strategia di ricerca euristica molto parsimoniosa, che non richiede memoria, ma di sapere solo

quale sia l’obiettivo e quale sia lo stato attuale. Tecnicamente si confronta il vettore che descrive

lo stato iniziale con il vettore che descrive quello terminale, valutando la distanza di ciascun

parametro del primo da ciascun parametro del secondo. Poi si sceglie una mossa che riduce la

distanza di almeno uno dei parametri, senza aumentare quella degli altri. L’hill-climbing può

portare al raggiungimento di massimi locali (punti in cui ogni operazione possibile aumenta la

distanza dall’obiettivo) che non coincidono con la soluzione. Il problema può essere parzialmente

attenuato quando si è in grado di discriminare esattamente lo stato terminale dai massimi locali, e

in caso di massimo locale si consente il backtracking: cioè tornare indietro lungo la via percorsa, e

ripartire da lì con una strategia diversa. Ma in questo caso la strategia richiede memoria, ed è, se

più efficace, meno efficiente.

Backtracking:

quando ci accorgiamo che una via imboccata non può portare alla soluzione, non possiamo far

altro che tornare indietro (backtracking), e cercarne un’altra, o abbandonare. Nella prospettiva di

Newell e Simon, il backtracking è un vero e proprio ripiegamento, una ritirata entro lo spazio degli

stati fino a un nuovo punto di inizio. Ripiegare può essere difficile, se stiamo seguendo una

strategia di tipo hill-climbing, e il doverlo fare può generare impasse e abbandono del compito.

Ristrutturazione:

consiste nel pensare nuove possibilità d’azione (nuovi operatori), o ridefinire gli obiettivi. Simon

arrivò a considerare la ristrutturazione per insight descritta dall’approccio gestaltico come una

vera e propria ridefinizione dello spazio del problema.

Conoscenze precedenti e problem solving

Ragionamento per analogia:

è un modo importante per portare le conoscenze precedenti e influenzare il problem solving, ed è

anche un tratto di unione che consente di connettere ragionamento produttivo e riproduttivo.

Questo ragionamento consiste nell’individuare alcune speciali somiglianze tra un insieme di

conoscenze passate relative a un problema già risolto e un problema nuovo con cui ci stiamo

confrontando. In base a quelle somiglianze ipotizziamo che la vecchia soluzione possa, una volta

adattata, applicarsi anche al nuovo caso. Ciò che viene messo in corrispondenza non sono tanto i

singoli elementi, quanto le relazioni che intercorrono tra loro: si cerca di identificare un

isomorfismo tre le strutture dei due problemi.

Si possono identificare diverse fasi:

-la sorgente è un dominio di conoscenze già acquisite. Il bersaglio è il problema nuovo, che funge

da indizio per il tentativo di recuperare dalla memoria una o più possibili sorgenti di

analogiafase di recupero

-se viene recuperata una possibile sorgente di analogia, si cerca di stabilire un isomorfismo

parzialemapping/allineamento strutturale

-se l’isomorfismo è convincente, si procede a cercare di estenderlo: alcuni elementi del dominio

sorgente non presenti nel dominio bersaglio sono trasferiti e copiati sul dominio

bersagliotransfer

-il transfer genera quindi inferenze (di tipo induttivo) relative al problema bersaglio. Se l’analogia

ha successo e il nuovo problema è stato risolto, l’isomorfismo può essere deprivato dei suoi

contenuti specifici. In questa forma astratta può essere appresofase di apprendimento

-il risultato è uno schema, cioè un insieme di regole che possono, in futuro, aiutare a risolvere altri

problemi si struttura analogaschemi dominio-specifici

Ogni volta che non abbiamo sufficienti informazioni specifiche per stabilire come comportarci in

una situazione nuova, cerchiamo analogie, cioè cerchiamo di “reclutare” conoscenze da un altro

dominio per applicarle alla nuova situazione. Per aumentare le probabilità che i due domini siano

adeguate, è necessario che i due domini siano strutturalmente simili. L’individuazione di analogie,

come tutti i processi induttivi, genera ipotesi, non certezze: quindi può condurre a conclusioni

errate, che richiedono un controllo.

Somiglianza e analogia:

Gentner e Markman hanno argomentato che “somiglianze” e “analogie” sono il frutto dei

medesimi processi, applicati a differenti livelli di realtà. La somiglianza può essere intesa come il

confronto tra le caratteristiche di due oggetti: quindi come “allineamento” tra le caratteristiche

degli oggetti. L’analogia consiste anch’essa in un allineamento, che però privilegia le relazioni,

invece delle caratteristiche superficiali. La valutazione di somiglianze strutturali impone un carico

di memoria maggiore di quella basata su somiglianze superficiali.

La forza di un’analogia:

i criteri di forza di un’analogia sono i seguenti:

1)le relazioni poste in corrispondenza hanno argomenti anch’essi in corrispondenza (criterio della

connettività parallela)

2)ogni elemento in una struttura è allineabile a uno e uno solo degli elementi nell’altra struttura

(criterio della biunivocità)

3)l’analogia si basa principalmente su allineamenti di relazioni, piuttosto che di componenti

superficialmente identiche (criterio del focus sulle relazioni)

4)l’analogia coinvolge sistemi altamente interconnessi da relazioni interne; l’analogia coinvolge

relazioni di ordine superiore al primo (criterio della sistematicità)

Teoria pragmatica dell’analogia:

secondo questa teoria, nel cercare una sorgente di analogia tra gli innumerevoli concetti

disponibili in memoria, le persone provano a soddisfare in parallelo tre requisiti:

1)Somiglianza superficiale: l’analogia è tanto più visibile quanto più i comportamenti del dominio

sorgente sono simili ai componenti del dominio bersaglio

2)Somiglianza strutturale: l’analogia è tanto più visibile quanto maggiore è la somiglianza

strutturale tra dominio sorgente e bersaglio

3)Somiglianza di obiettivi: l’analogia è tanto più visibile quanto più gli obiettivi conseguiti nel

dominio sorgente sono simili a quelli da conseguire nel dominio bersaglio

Questi tre requisiti sono vincoli flessibili, che il sistema prende in considerazione parallelamente.

L’importanza relativa dei tre tipi di somiglianza può variare con l’età degli individui: i bambini

molto piccoli tendono a fare analogie basate soprattutto su somiglianze superficiali. Solo

successivamente avverrebbe un passaggio a privilegiare somiglianze strutturali e di obiettivi.

Dalle analogie agli schemi di ragionamento:

per Holyoak lo sviluppo e l’uso di un’analogia può risolversi nell’apprendimento di uno schema di

ragionamento astratto, che può essere flessibilmente applicato a contesti strutturalmente simili,

ma superficialmente dissimili da quelli in cui lo schema è stato acquisito. L’aver stabilito una prima

analogia tra due domini di conoscenza permette di estendere l’analogia con maggiore facilità ad

altri domini. Le prime analogie astraggono uno schema, o mappa concettuale, libero da vincoli di

contenuto. Può quindi essere applicato a qualsiasi contenuto, purché con struttura simile (schemi

dominio-specifici). Cheng e Holyoak svilupparono questa proposta nella teoria degli schemi

pragmatici di ragionamento. L’acquisizione di numerosi schemi è la caratteristica fondamentale

che distingue la prestazione di un esperto da quella di un non esperto.

L’esperto:

l’esperto è caratterizzato da vaste conoscenze precedenti in un particolare dominio. Delle

conoscenze precedenti, finora conosciamo due risvolti:

-possono avere un effetto negativo, nella misura in cui determinano fissità, meccanizzazione del

pensiero e mental set

-possono avere un effetto positivo, nella misura in cui gli schemi favoriscono la rapida soluzione di

problemi

Ciò che sembra accumunare gli esperti di diverse aree sono poche caratteristiche non legate a

specifici tratti individuali:

-vaste conoscenze facilmente accessibili, accumulate per esperienza nell’arco di molti anni di

attività, e sedimentate in schemi dominio-specifici

-maggior ricorso all’attivazione automatica di schemi (pensiero implicito)

-il risparmio di risorse cognitive consentito dal pensiero implicito permette agli esperti di dedicare

più tempo e risorse ad approfondimenti analitici della situazione, se necessari (pensiero esplicito)

Chase e Simon ipotizzarono che gli esperti giocatori di scacchi erano tali perché possedevano una

gran quantità di configurazioni di pezzi note depositate in memoria a lungo termine (chunks). I

giocatori esperti avrebbero acquisito degli schemi (templates), in grado di connettere tra oro in

modo sensato molti pezzi di una configurazione su una scacchiera. Le incredibili prestazione di

gioco dei maestri di scacchi si possono ricondurre, non a particolari doti individuali, ma

all’esperienza, che ha depositato nelle loro memorie. La stessa conclusione sembra discendere dai

numerosi studi sull’expertise medica. La principale distinzione tra gli stili di ragionamento di un

medico esperto e di uno non esperto è che il primo sembra avvalersi in misura maggiore di

processi impliciti e automatici (categorizzando in base a somiglianze invece che avvalendosi di

regole), mentre il secondo più di processi espliciti e analitici (categorizzando in base a regole

invece che avvalendosi di somiglianze).

Risolvere problemi deduttivi

Risolvere problemi deduttivi:

se l’induzione gioca un ruolo importante nell’impianto logico del problem solving, è la deduzione

che ne definisce la struttura. Nei problemi a struttura deduttiva, per risolvere basta raggiungere

una conclusione che segua logicamente dalle premesse. La deduzione ha quindi un ruolo

fondamentale nella pianificazione del comportamento. I problemi deduttivi devono essere ben

definiti: le premesse devono essere chiare nel loro significato, ed è necessario che il solutore

assuma che siano vere. Portare a compimento correttamente un processo deduttivo richiede una

di due capacità (o entrambe):

-dal punto di vista semantico, la capacità di rappresentare correttamente tutte le possibilità

previste dalle premesse, ed escludere quelle incompatibili tra loro

-dal punto di vista sintattico, la capacità di applicare correttamente tutte le regole inferenziali

necessarie e sufficienti a implementare in modo completo e coerente un qualche tipo di logica, e

di astenersi dall’applicare schemi fallaci

I sillogismi con connettivi proposizionali:

Possiamo identificare due processi coinvolti nel ragionamento deduttivo spontaneo: uno ad

approccio sintattico, la teoria della logica mentale; l’altro ad approccio semantico, la teoria dei

modelli mentali. Entrambi gli approcci cercano di delineare quali siano le competenze logiche

elementari della mente umana, quindi costituiscono entrambe delle logiche mentali. Il primo

approccio cerca di individuare quali regole sintattiche di inferenza siano o meno facilmente

disponibili al ragionamento spontaneo; il secondo si chiede in base a quali principi le

rappresentazioni di significato fatte dalla nostra mente vadano a differenziarsi da quelle prescritte

dalla logica.

Teoria della logica mentale:

questa teoria implementa una versione psicologica del calcolo naturale, scomponendo il

ragionamento in due tipi: routine di ragionamento diretto e routine di ragionamento indiretto.

La prima si basa su alcuni circuiti logici (innati) in grado di implementare automaticamente e senza

sforzo alcune regole inferenziali. La seconda, invece, non è automatica: la sua attivazione richiede

una decisione consapevole da parte dell’individuo. Questi schemi sono appresi.

I ragionamenti che dipendono solo da schemi diretti sono facili e automatici; anche loro però,

hanno un lieve grado di difficoltà, che dipende dal numero di schemi coinvolti e dalla disponibilità

degli schemi. Le inferenze che richiedono schemi indiretti sono più difficili; richiedono che alcuni

schemi di ragionamento indiretto siano stati appresi; questi schemi devono attivarsi. Ogni schema

indiretto richiede, per essere svolto, l’applicazione di schemi indiretti.

Teoria dei modelli mentali:

un assunto fondamentale di questa teoria è che un modello mentale costituisce un isomorfismo

alla struttura di ciò che rappresenta. Il nocciolo della competenza logica umana può essere basato,

invece che su regole sintattiche, sull’abilità di rappresentare mentalmente insiemi di possibilità. La

versione attuale di questa teoria assume che il significato di ogni premessa con connettivi

verofunzionali sia rappresentato in mente da una semplificazione della corrispondente tavola di

verità. Ogni modello mentale è iconico, cioè è un isomorfismo alla struttura del corrispondente

significato (principio di iconicità). Ogni modello rappresenta una possibilità in cui la premessa è

vera (principio di possibilità). Una rappresentazione completamente esplicita, è la descrizione in

forma disgiuntiva normale della corrispondente tavola di verità.

Nella rappresentazione iniziale, si rappresentano esplicitamente solo gli asserti dichiarati veri nella

premessa (principio di verità), e nel numero minore possibile (principio di economicità/dei modelli

impliciti). In questo modo la premessa verrebbe a essere rappresentata dai modelli mentali.

Questa rappresentazione iniziale è il vero e proprio modello mentale della premessa. Una volta

costruiti i modelli mentali del significato delle premesse (fase di comprensione), il ragionamento

consiste nell’integrarli (fase di integrazione). La conclusione è una descrizione del modello con il

requisito di essere parsimoniosa e nuova. Alla fase di produzione della conclusione iniziale segue

una fase iterativa di ricerca di controesempi/elaborazione dei modelli impliciti.

Secondo questo approccio, la difficoltà di un’inferenza dipende: dal numero dei modelli che è

necessario rappresentare per trarla e dalla necessità o meno di intraprendere il tentativo di

rendere esplicite possibilità inizialmente non considerate.

Sillogismi categorici:

secondo i sillogismi categorici o aristotelici, da una premessa che esprime una regola generale,

attraverso una seconda premessa che esprime un caso specifico, si arriva a una necessaria

conclusione specifica. Esso si compone inoltre, di due premesse e una conclusione. È valido se la

conclusione è necessariamente vera alla luce delle premesse. Premesse e conclusioni sono

proposizioni quantificate in uno di quattro possibili modi:

-Universali Affermative (A) – “Tutti gli A sono B”

-Universali Negative (E) – “Nessun A è B”

-Particolari Affermative (I) – “Alcuni A sono B”

-Particolari Negative (O) – “Alcuni A non sono B”

I termini del sillogismo sono gli argomenti delle proposizioni. I termini che compaiono in una sola

delle due premesse sono detti estremi (A e C); il termine che compare in ciascuna delle due

premesse è il termine medio (B).

La conclusione del sillogismo deve stabilire una relazione quantificata tra i termini estremi delle

premesse, senza menzionare il termine medio. La conclusione deve essere valida: la sua validità

dipende dalla forma, non dal contenuto.

La figura di un sillogismo consiste nell’ordine dei termini nelle premesse.

Ai sillogismi categorici si applicano quattro fasi di ragionamento:

1)Comprensione delle premesse, attraverso la costruzione di un modello di ciascuna. (Si

costruisce una rappresentazione mentale isomorfa alla struttura della premessa)

2)Integrazione dei modelli che rappresentano le due premesse, per costruire un primo modello di

problema. (I modelli precedentemente costruiti sono integrati. Il risultato è il primo modello del

problema)

3)Estrazione della conclusione iniziale: descrizione non ridondante del primo modello del

problema

4)Eventuale ricerca iterativa di controesempi/modelli alternativi del problema inizialmente

rimasti impliciti

Teoria dell’effetto atmosfera:

proposta da Woodworth e Sells, consiste nel risolvere un sillogismo aristotelico e rispondere

affidandosi a caratteristiche superficiali delle premesse. Il modo delle due premesse produce

un’atmosfera generale del sillogismo, che suggerisce il modo della conclusione. Le due regole

euristiche che producono l’atmosfera del sillogismo sono:

1)Se almeno una delle due premesse è particolare, la conclusione suggerita è particolare,

altrimenti è universale

2)Se almeno una delle due premesse è negativa, la conclusione suggerita è negativa, altrimenti è

affermativa

Euristica del matching:

Wetherick e Gilhooly hanno ipotizzato un meccanismo euristico simile all’effetto atmosfera, ma in

grado di adattarsi un po’ meglio ai risultati empirici: le persone preferiscono produrre una

conclusione che contenga uno dei quantificatori presenti nelle premesse. Nel complesso, questa

euristica del matching (“corrispondenza”) emula in larga misura le predizioni dell’effetto

atmosfera, con maggiore precisione rispetto ai dati empirici.

Sillogismo lineare:

un sillogismo lineare è un’inferenza basata su relazioni che godono di proprietà extralogiche ben

definite (per esempio la transitività). Una loro forma particolare, i sillogismi spaziali, si avvale di

relazioni tra posizioni fisiche; si possono produrre anche sillogismi temporali.

Gran parte delle proposte teoriche volte a spiegare il ragionamento su problemi lineari adotta un

approccio semantico. I sillogismi determinati, che ammettono un unico ordinamento dei termini

generano meno errori e risposte più rapide, dei sillogismi indeterminati, che ammettono due

ordinamenti dei termini.

Le persone cercano di costruire una rappresentazione univoca delle relazioni descritte: una

rappresentazione che richieda un solo modello mentale. Talvolta, per costruire una

rappresentazione univoca di un sillogismo indeterminato occorre inserire nel modello un assunto

arbitrario, che può generare errori.

Gli effetti delle conoscenze precedenti nella soluzione di problemi deduttivi:

di fronte a problemi per i quali disponiamo di vaste conoscenze precedenti, spesso preferiamo non

consumare tempo e risorse cognitive, e ci affidiamo a uno stile di pensiero riproduttivo. L’influenza

delle conoscenze precedenti sulla soluzione di problemi deduttivi è stata illustrata da due effetti: il

belief bias (“errore sistematico dovuto alle conoscenze”), e l’attivazione di schemi di regole

apprese dominio-specifiche.

Belief bias:

bias (errore sistematico): a parità di validità, una conclusione sillogistica è più facilmente accettata

se l’individuo la ritiene vera, mentre è accettata con maggiore difficoltà se l’individuo la ritiene

falsa. La risposta è influenzata dalla credibilità delle conclusioni. Il belief bias si manifesta

soprattutto su sillogismi invalidi. Una differenza così marcata tra sillogismi validi e invalidi è stata

tuttavia registrata solo in compiti di valutazione (quando si chiede di valutare una conclusione

offerta dallo sperimentatore); in compiti di produzione (quando i partecipanti sono liberi di

generare la loro conclusione a partire da premesse) il belief bias ha effetto sia sui sillogismi che

ammettono conclusioni valide sia su quelli che non ne ammettono.

La spiegazione più appropriata del belief bias è di natura semantica: la disponibilità di conoscenze

precedenti relative alla conclusione “blocca” la quarta fase del ragionamento (la ricerca di

controesempi).

L’attivazione di regole dominio-specifiche:

le conoscenze precedenti e l’expertise si declinano come schemi di regole acquisite depositate in

memoria a lungo termine. Quando sono disponibili schemi del genere, il ragionamento è

semplificato: da produttivo, diventa in gran parte riproduttivo. Altri importati risultati sono

scaturiti da numerosi studi sul ragionamento con condizionali deontici, che si sono avvalsi di

versioni deontiche del compito di selezione di Wason.

I condizionali deontici esprimono norme di comportamento. Un condizionale deontico non è

verofunzionale: il fatto che sia vero o falso non dipende dalla verità o falsità del suo antecedente e

del suo conseguente. Quindi, un condizionale deontico potrà essere violato, o rispettato, da

determinati comportamenti, ma non “falsificato”.

La prima versione deontica del compito di selezione fu utilizzata da Johnson-Laird e Legrenzi. Al

posto delle quattro carte erano presentate quattro buste: una chiusa e una aperta, e altre due che

mostravano il dorso, con un francobollo da 50 o 40 lire. La regola che accompagnava le buste era:

“Se una busta è chiusa, allora deve avere un francobollo da 50 lire”. I partecipanti dovevano

indicare le buste da controllare per stabilire se la regola era stata o meno seguita. Strutturalmente,

il compito è identico al compito di selezione: la busta chiusa afferma l’antecedente (p), quella

aperta lo nega (¬p), la busta con il francobollo da 50 lire afferma il conseguente (q), quella con il

francobollo da 40 lire lo nega (¬q). In questa versione, la percentuale di scelte corrette delle carte

p e ¬q salì dal tipico 10% del compito di selezione astratto standard, all’85%. Cheng e Holyoak

sostennero che la causa della facilitazione non era la familiarità con le regole deontiche specifiche

utilizzate nei compiti, quanto piuttosto la familiarità con regole dello stesso tipo: le persone,

incontrano diversi esempi di condizionali deontici, e stabiliscono analogie tra i vari esempi

incontrati. Gli schemi pragmatici di ragionamento consentono di estendere le analogie a nuovi

problemi superficialmente diversi, ma strutturalmente simili: gli schemi si comportano come

insiemi di regole inferenziali applicabili solo a determinate situazioni, quindi regole dominio-

specifiche. Per Cheng e Holyoak gli schemi pragmatici sono descrivibili come insiemi di regole

associative, dette anche regole di produzione.

Il linguaggio

Introduzione

Linguaggio:

è la facoltà che ci permette di usare una lingua a fini comunicativi. Sul piano biologico è una delle

forme di trasmissione e di scambio di informazioni che pervadono il mondo vivente. In quanto

apparato simbolico, è parte di un complesso sistema di comunicazione composto da più livelli

integrati. La competenza comunicativa di un adulto è costituita dalla conoscenza del linguaggio e

delle due regole di funzionamento, e da altre abilità comunicative e sociali. Il linguaggio simbolico

sembra essere tipico degli esseri umani. Psicolinguistica= area di studio che si chiede come il

linguaggio sia rappresentato e implementato nella mente umana.

Le basi biologiche del linguaggio

Afasia:

Broca descrisse il caso di un paziente, con una lesione nella parte infero-posteriore del lobo

frontale sinistro (area di Broca, area 44 e 45) incapace di articolare il linguaggio.

Wernicke osservò pazienti caratterizzati da un danno alla parte posteriore della corteccia

temporale sinistra (area di Wernicke, area 22), incapaci di comprendere il linguaggio, conservando

la capacità di parlare fluentemente.

L’emisfero sinistro è coinvolto principalmente nella abilità fonologiche, morfologiche, sintattiche e

in parte semantiche. Contiene le arre maggiormente interessate al linguaggio.

L’emisfero destro, coinvolto maggiormente in compiti di elaborazione spaziale e percettiva,

contribuisce all’elaborazione degli aspetti paralinguistici.

Il lessico mentale

Lessico mentale:


ACQUISTATO

1 volte

PAGINE

45

PESO

1.02 MB

PUBBLICATO

10 mesi fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
A.A.: 2018-2019

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Eleonor23 di informazioni apprese con la frequenza delle lezioni di Psicologia generale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Milano Bicocca - Unimib o del prof Reverberi Carlo.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Psicologia generale

Riassunto esame Psicologia generale, docente Ricciardelli, libro consigliato Psicologia generale, Paolo Cherubini
Appunto
Riassunto esame Psicologia generale, prof. Bricolo e Ricciardelli, libro consigliato Psicologia generale, Cherubini
Appunto
Glossario esame Psicologia Generale 2, prof. Reverberi, libro consigliato Psicologia Generale, Cherubini
Appunto
Psicologia generale 2, Implicatura conversazionale
Appunto