Anteprima
Vedrai una selezione di 4 pagine su 11
Errori, Euristiche e bias delle persone  Pag. 1 Errori, Euristiche e bias delle persone  Pag. 2
Anteprima di 4 pagg. su 11.
Scarica il documento per vederlo tutto.
Errori, Euristiche e bias delle persone  Pag. 6
Anteprima di 4 pagg. su 11.
Scarica il documento per vederlo tutto.
Errori, Euristiche e bias delle persone  Pag. 11
1 su 11
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

STEREOTIPO CAUSALE

il concetto di stereotipo causale, un'idea secondo cui tendiamo a interpretare gli eventi in base a

narrazioni causali, anche quando non esiste una reale relazione di causa-effetto. Il punto centrale è che

il nostro modo di ragionare non si basa sempre su logiche probabilistiche rigorose, ma su intuizioni e

schemi mentali che ci portano a costruire storie per spiegare i fenomeni.

Il problema del taxi e la soluzione bayesiana

Viene menzionato un problema classico di probabilità, noto come problema del taxi, che ha una

soluzione basata sulla statistica bayesiana. Secondo questa soluzione, la probabilità corretta sarebbe

del 41,3%, ma le persone spesso commettono un errore nel valutarla. Questo errore è appunto uno

stereotipo causale: invece di applicare rigorosamente la teoria delle probabilità, tendiamo a cercare

una storia che "abbia senso" per noi.

Ad esempio, nel problema, si potrebbe pensare che la testimonianza di una persona sia più rilevante

rispetto ai dati statistici sulla distribuzione dei taxi di diversi colori in città. Tuttavia, se

considerassimo solo i numeri senza lasciarci influenzare dalla narrazione, dovremmo partire dalla

probabilità generale della presenza di taxi di un certo colore e poi correggerla in base alla

testimonianza.

L'influenza delle informazioni individuali vs. generali

Il testo sottolinea che le informazioni individuali influenzano di più rispetto a quelle generali.

Questo è un fenomeno psicologico ben noto: un singolo caso, vicino a noi emotivamente o

geograficamente, ci colpisce molto più di una statistica generale.

Ad esempio:

●​ Una tragedia accaduta nella nostra comunità ci sembra più significativa di un evento simile

avvenuto lontano.

●​ Se sentiamo di un effetto collaterale grave a un vaccino, tendiamo a focalizzarci su quel caso

specifico invece di considerare i dati generali che mostrano un basso rischio complessivo.

Questo fenomeno spiega perché siamo più influenzati dalle storie personali che dalle statistiche: il

nostro cervello è più propenso a costruire significati attraverso narrazioni piuttosto che attraverso

numeri.

Il problema della deduzione dal generale al particolare

Un'altra idea chiave è che le persone tendono a inferire il generale dal particolare, anziché il

contrario (che sarebbe il metodo logico più corretto). Questa osservazione deriva da ricerche di Nisbet

e Borgida, secondo cui siamo più propensi a generalizzare da un singolo caso che non a partire da

dati generali per arrivare a una conclusione su un caso specifico.

Per esempio:

●​ Se un incidente è avvenuto con un taxi di un certo colore, tendiamo a ritenere che quel colore

sia più pericoloso, anche se i dati dicono il contrario.

●​ Se un evento raro, come una reazione avversa a un farmaco, colpisce una persona che

conosciamo, ci convinciamo che quel farmaco sia molto rischioso, anche se le statistiche

dimostrano che è sicuro nella stragrande maggioranza dei casi.

Questa modalità di pensiero è legata al fatto che il nostro cervello lavora meglio con storie che con

dati astratti: troviamo più semplice ricordare e interpretare eventi concreti piuttosto che ragionare

sulle probabilità.

Conclusione

Il concetto di stereotipo causale spiega perché spesso sbagliamo nell'interpretare le probabilità e le

relazioni causa-effetto: la nostra mente cerca storie coerenti invece di analizzare i dati in modo

oggettivo. Questo porta a errori come:

●​ Ignorare le informazioni statistiche a favore di aneddoti.

●​ Sopravvalutare eventi vicini a noi emotivamente.

●​ Generalizzare da singoli casi invece di partire da principi generali.

Questi errori sono profondamente radicati nel nostro modo di pensare e influenzano molte decisioni,

dalla valutazione del rischio all'opinione su eventi sociali e politici.

COME PRENDIAMO LE DECISIONI

il modello dei due sistemi di pensiero sviluppato dallo psicologo Daniel Kahneman nel suo libro

Pensieri lenti e pensieri veloci. Kahneman ha ricevuto il Premio Nobel per l’economia grazie ai suoi

studi sull’economia comportamentale, una disciplina che ha rivoluzionato il modo in cui

comprendiamo le decisioni umane.

I due sistemi di pensiero

Il modello di Kahneman suddivide il nostro cervello in due sistemi principali che guidano il processo

decisionale:

1.​ Sistema 1:​

○​ È veloce, intuitivo e automatico.

○​ Opera attraverso associazioni immediate e spesso inconsapevoli.

○​ È emotivo e motivante, quindi ci aiuta a prendere decisioni rapide senza troppa fatica.

○​ È la fonte della creatività e dell’intuizione, ma anche degli errori di valutazione.

○​ Produce soluzioni immediate, ma non sempre verificate.

2.​ Sistema 2:​

○​ È più lento, analitico e razionale.

○​ Richiede uno sforzo consapevole per essere attivato.

○​ È deduttivo e logico, quindi utile per decisioni complesse.

○​ È più costoso in termini di energia mentale, motivo per cui tendiamo a usarlo di

meno.

○​ Ha il compito di controllare e validare le intuizioni del sistema 1, evitando errori.

Interazione tra i due sistemi

L’efficacia delle nostre decisioni dipende dall’equilibrio tra questi due sistemi. Se ci affidiamo troppo

al sistema 1, rischiamo di commettere errori perché le sue conclusioni non sono sempre accurate.

D’altra parte, un uso eccessivo del sistema 2 può bloccare la creatività e rendere il processo

decisionale troppo lento e faticoso.

In pratica:

●​ Il sistema 1 prevale quando il sistema 2 è pigro o inattivo. Questo accade quando siamo di

buon umore, ci fidiamo delle nostre intuizioni o siamo esposti ripetutamente a certe

informazioni (effetto familiarità).

●​ Il sistema 2 entra in azione quando dobbiamo prendere decisioni importanti, quando siamo

motivati a riflettere o quando siamo di cattivo umore e quindi più critici verso il mondo

esterno.

L’innovazione di Kahneman

Un aspetto fondamentale del modello di Kahneman è che entrambi i sistemi operano nella corteccia

prefrontale, un’area del cervello tipicamente umana legata alle funzioni cognitive avanzate. Questo

significa che, pur essendo distinti nei loro ruoli, i due sistemi interagiscono costantemente e il sistema

2 ha il compito di monitorare il sistema 1 per correggere eventuali errori.

L’obiettivo è quindi imparare a bilanciare i due sistemi, sfruttando la rapidità del sistema 1 ma senza

trascurare l’analisi critica del sistema 2. Questo equilibrio ci aiuta a prendere decisioni migliori nella

vita quotidiana, evitando gli errori di valutazione e migliorando la nostra capacità di giudizio.

SOLUZIONI ERRATE

1. L’intuizione e le soluzioni errate

L’intuizione è il nostro modo veloce di risolvere problemi, ma spesso porta a errori perché si basa:

●​ Sulle esperienze passate: Se un’esperienza si ripete più volte, tendiamo a considerarla

automaticamente vera.

●​ Sul priming: Le idee che riceviamo da altri (ad esempio dagli stereotipi culturali) influenzano

il nostro pensiero senza che ce ne rendiamo conto. Anche chi non è razzista può avere

pregiudizi latenti, perché cresciuto in una cultura in cui certi bias esistono. Tuttavia,

esponendosi a esperienze e contenuti opposti (es. discorsi di Martin Luther King), è possibile

ridurre questo priming.

2. La fluidità cognitiva e le illusioni

La nostra mente preferisce informazioni semplici e familiari, e questo ci porta a errori:

●​ Più un’informazione è facile da capire, più la percepiamo come vera.

●​ La ripetizione di un’idea ce la fa sembrare reale anche se è falsa.

●​ Confondiamo ricordo e verità: ciò che ricordiamo bene ci sembra più vero, anche se non lo

è.

3. Il predominio del sistema 1 sul sistema 2

Secondo Daniel Kahneman, la nostra mente ha due sistemi di pensiero:

●​ Sistema 1 (intuitivo e veloce): Si basa su associazioni rapide ed è soggetto a errori.

●​ Sistema 2 (razionale e lento): Richiede più sforzo ma è più accurato.

Il sistema 1 domina perché ci fa risparmiare energia mentale, anche se spesso porta a conclusioni

errate.

4. Bias cognitivi ed errori comuni

Alcuni degli errori più frequenti che facciamo a causa del sistema 1:

●​ Bias di conferma: Cerchiamo solo le informazioni che confermano le nostre convinzioni e

ignoriamo quelle contrarie. Se chiediamo “Stai bene oggi?” pensiamo agli aspetti positivi,

mentre con “Non va bene oggi?” ci focalizziamo su quelli negativi.​

●​ What You See Is All There Is (WYSIATI): Pensiamo che la realtà sia solo ciò che vediamo

e non cerchiamo altre informazioni, portandoci a conclusioni sbagliate.​

●​ Eccesso di associazione e computazione: Il nostro cervello collega fatti che in realtà non

sono legati tra loro, portandoci a creare connessioni sbagliate e a prendere decisioni su basi

errate.​

5. L’effetto alone

L’ordine delle informazioni influisce sulle nostre valutazioni. Se di una persona leggiamo prima le

caratteristiche positive e poi quelle negative, la giudicheremo meglio rispetto a se avvenisse il

contrario. Questo principio spiega perché la prima impressione è così potente e difficile da correggere.

6. Sostituire una domanda difficile con una più facile

Quando ci troviamo di fronte a una domanda complessa, la nostra mente la riformula in una più

semplice senza che ce ne accorgiamo. Ad esempio:

●​ Se ci chiedono “Quanto doneresti per salvare una specie a rischio?”, non sappiamo

rispondere.

●​ Ma se vediamo un’immagine di un delfino morente e poi ci fanno la stessa domanda, la nostra

risposta si baserà sull’emozione provata per il delfino, e non su una valutazione razionale del

problema.

Conclusione

Il nostro cervello è costruito per risparmiare energia e prendere decisioni rapide, ma questo lo rende

vulnerabile a errori. Essere consapevoli di questi meccanismi (bias di conferma, effetto alone,

priming, ecc.) è fondamentale per migliorare il nostro pensiero critico e prendere decisioni più

accurate.

LA LEGGE DEI PICCOLI NUMERI

La legge dei piccoli numeri è un concetto statistico che evidenzia come i risultati di campioni molto

piccoli possano essere fuorvianti e portare a conclusioni errate. Il problema principale è che, con

pochi dati a disposizione, i valori estremi risultano più probabili rispetto a campioni più grandi,

rendendo difficile individuare un trend reale.

Esempio dello studio sul cancro ai reni

Lo studio

Dettagli
Publisher
A.A. 2024-2025
11 pagine
SSD Scienze economiche e statistiche SECS-P/10 Organizzazione aziendale

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Ubziabinwxb di informazioni apprese con la frequenza delle lezioni di Economia e organizzazione aziendale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università telematica Guglielmo Marconi di Roma o del prof Petrocelli Michele.