Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
3.3 IL FUNZIONAMENTO DEI DUE SISTEMI
Quando si presenta davanti a un soggetto un evento che richieda una
valutazione e successiva decisione, interviene il sistema 1. Esso è
automatico, non si può controllarlo. Il sistema 1 elabora
un’interpretazione all’evento e la offre al sistema 2; quest’ultimo deve
decidere se accettarla oppure se rifiutarla e intervenire. Essendo faticoso
l’uso del sistema 2, esso interverrà solo in rari casi. La logica è di
minimizzazione dello sforzo mentale. Il più delle volte questo apparato
funziona bene: per le decisioni semplici ci si affida a modelli semplici
anche se irrazionali, mentre per le decisioni difficili subentra il sistema 2.
Ci sono però delle criticità nel rapporto tra i due sistemi, come i casi di
conflitto. Si vedano le seguenti immagini.
Figura 12
Fonte: www.focus.it 50
Nell’immagine è stata proposta l’illusione di Hebbinghaus . La prima cosa
che si pensa è che i due cerchi arancio siano diversi, che il primo sia più
50 Hermann Hebbinghauss (1850-1909), psicologo e filosofo tedesco. 29
piccolo del secondo. Tuttavia confrontandoli si vede che essi siano uguali.
Il problema è che nonostante questa consapevolezza, permane comunque
l’idea che il primo cerchio sia più piccolo del secondo. Si tratta di un
esempio di conflitto tra i due sistemi. Esso avviene perché
l’interpretazione che offre il sistema 1 è molto convincente e anche
perché il sistema 2 è pigro, dunque restìo a intervenire. I due sistemi
evocano, a parere di chi scrive, l’immagine di un bambino vivace, laborioso
e frettoloso con quella di un anziano lento, pigro e metodico.
Proseguendo il discorso sulle criticità di questo apparato decisionale,
occorre evidenziare gli errori interpretativi che può compiere il sistema 1.
Errori che se non corretti dal sistema 2 degenerano in errori nel processo
decisionale. Occorre una precisazione prima di proseguire. Gli errori
interpretativi del sistema 1 non necessariamente portano a decisioni
sbagliate. Quella che si sta criticando ora è il processo decisionale e non la
decisione stessa. Prendere una decisione in maniera irrazionale non
significa che essa sarà sicuramente sbagliata. Vale anche il discorso
opposto: prendere una decisione in maniera razionale non significa
necessariamente che essa sarà la decisione giusta. Ad esempio, se un
ragazzo deve scegliere a quale facoltà universitaria iscriversi, può scegliere
quella che ha scelto il suo amico (decisione irrazionale) oppure valutare
con attenzione le sue capacità e poi scegliere (decisione razionale).
Tuttavia la scelta giusta potrebbe anche essere la prima. Risulta
opportuno sottolineare che una decisione razionale dovrebbe avere più
probabilità di portare a decisioni giuste.
3.4 IL MECCANISMO ASSOCIATIVO DEL SISTEMA 1
Prima di trattare più nello specifico i dettagli circa l’irrazionalità del
processo decisionale del sistema 1, occorrono delle precisazioni altrimenti
ciò che seguirà potrebbe non essere chiaro. Si introduce quindi il
meccanismo associativo del sistema 1. Dati due segni, il sistema 1 inventa
un legame credibile che li unisce. Il primo che parlò di questo meccanismo
51
fu David Hume nel 1748 nella sua opera “Ricerca sull’intelletto umano”.
Egli spiega i tre principi dell’associazione: somiglianza, contiguità nel
tempo e nello spazio e causalità. L’ultimo è il più importante, perché tutte
le storie che il sistema 1 inventa presentano un nesso di causalità. Se
esiste questo nesso, il sistema 2 approverà con più facilità questa
51 Filosofo e storico scozzese (1711-1776). 30
interpretazione, data la primordiale avversione alla casualità del genere
52
umano. Questa preferenza è stata individuata anche da Albert Michotte
nel 1945 nella sua opera “La perception de la causalité”.
Per giungere a una conclusione che sia il più credibile possibile (nesso di
causalità al massimo livello), il sistema 1 non considera tutti gli elementi di
una situazione, ma solo quelli più utili. Questo opportunismo è noto con
l’acronimo WYSIATI (What you see is all there is) che significa “quello che
vedi è tutto quello che c’è”. Ciò può portare a gravi conseguenze in quanto
si prendono decisioni in maniera inconsapevole. Inoltre una storia creata
in questo modo può portare il razionale sistema 2 a non opporre
53
resistenza. Questo aspetto è stato rilevato anche da Daniel Gilbert nel
1991 nel suo articolo “How mental systems believe”.
3.5 EURISTICHE E BIAS
Il sistema 1 opera con mezzi irrazionali: essi sono le euristiche, che
possono essere definite come delle “scorciatoie mentali” attraverso le
quali il sistema 1 giunge a una decisione. Tale meccanismo è
particolarmente efficiente, poiché riesce a giungere a una conclusione in
tempi e sforzi praticamente nulli. Se per ogni minima decisione infatti
occorresse concentrarsi sempre al massimo allora si riuscirebbe a
compiere ben poche scelte nell’arco di una giornata. Le euristiche
risolvono il problema applicando dei sofisticati modelli mentali che si sono
raffinati nel corso del tempo tramite l’esperienza. La reiterazione di una
certa procedura ha portato all’ottimizzazione della stessa, in termini di
tempo e sforzo decisionale. Esistono però delle situazioni in cui le
euristiche possono portare a errori sistematici, detti bias. Essi sono dei
giudizi erronei che quindi portano i soggetti che li sperimentano a
compiere decisioni sbagliate. Le euristiche infatti sono strumenti potenti
ma devono essere usate con cautela: questo delicato compito spetta al
sistema 2. Si prosegue ora spiegando nel dettaglio alcune tipologie di
euristiche e i relativi bias a cui possono condurre, tramite l’articolo
“Judgement under uncertainty: heuristics and biases” scritto da Daniel
54
Kahneman e Amos Tversky nel 1974.
52 Psicologo sperimentale belga (1881-1965).
53 Professore di psicologia presso l’università di Harvard.
54 Psicologo israeliano (1937-1996), avrebbe condiviso il premio Nobel con il suo collega Daniel
Kahneman, se non fosse prematuramente defunto. 31
3.6 EURISTICA DELLA RAPPRESENTIVITA’
Essa rappresenta la probabilità che un oggetto appartenga a una certa
classe. L’esempio tipico è quello di Steve, che si riporta.
Steve è una persona molto timida che tende a stare in disparte. È sempre pronto ad
aiutare gli altri, ma mostra scarso interesse per il mondo e per le persone che gli
stanno intorno. Steve è tranquillo, remissivo e ha bisogno che tutto sia sempre chiaro e
.
preciso, mostrando una passione per i dettagli Steve è un bibliotecario o un avvocato?
Leggendo la descrizione la prima cosa a cui si pensa è certamente il
bibliotecario, poiché Steve si rifà completamente al relativo stereotipo.
Questa è una conclusione del sistema 1. Il sistema 2 invece, si chiederebbe
“Quanti avvocati e quanti bibliotecari ci sono nella zona dove abita
Steve?”. Non esiste una risposta giusta al quesito, ciò che conta è
mostrare come il sistema 1 utilizzi l’euristica della rappresentatività.
Questa euristica può portare a diversi bias, il primo che si presenta è
quello dell’insensibilità alla probabilità a priori. Significa che le persone
decidono senza considerare le probabilità fornite: l’importante è che la
storia inventata sia credibile. Si riporta un esempio tratto dal libro
“Pensieri lenti e veloci”.
In una città operano due società di taxi, quella Blu e quella Verde, così denominate dai
colori della carrozzeria dei rispettivi veicoli. Una notte un taxi rimane coinvolto in un
incidente stradale. I dati a disposizione per indovinare di che colore è il taxi coinvolto
nell’incidente sono i seguenti: In questa città l’85 % dei taxi è Verde e il rimanente è
Blu. Un testimone identifica il taxi coinvolto nell’incidente come un taxi Blu. Durante il
processo il giudice verifica l’abilità del testimone di distinguere tra taxi Blu e Verdi in
condizioni normali di visibilità. Dalla prova, in cui viene presentato un campione
costituito da taxi Blu per metà e per metà da taxi Verdi emerge che il testimone è in
grado di identificare correttamente il colore dei taxi nell’80% dei casi mentre li
confonde nel 20%. Qual è la probabilità che il taxi coinvolto nell’incidente sia blu?
In questo dilemma è molto forte la tentazione del sistema 1 di considerare
con un’altissima probabilità che il testimone abbia ragione. Infatti, la
maggior parte delle persone sottoposte a questo dilemma si orientano su
questa conclusione. Il sistema 1 fa in modo che la probabilità iniziale (la
popolazione dei taxi) venga ignorata. Si risolve ora il quesito applicando il
55
teorema di Thomas Bayes , che si utilizza per calcolare la probabilità di
55 Matematico e filosofo britannico (1702-1761). 32
una causa che ha scatenato un certo evento. La causa è in questo caso il
taxi blu e l’evento è l’incidente. Secondo il teorema, occorre valutare la
probabilità a priori con la testimonianza del testimone. Formalmente :
()( ∖ )
( ∖ ) = ()( ∖ ) + ()( ∖ )
La probabilità condizionata alla testimonianza che il taxi sia blu è uguale
alla probabilità che il taxi sia blu diviso lo spazio di eventi (che è formato
56
da due sole alternative). La probabilità è di circa 41%, dunque è più
ragionevole supporre che il taxi sia verde.
Un’altra conseguenza dell’euristica della rappresentatività è la legge dei
piccoli numeri, in contrapposizione a quella dei grandi numeri. La legge dei
57
grandi numeri è stata formulata da Jakob Bernoulli (detta anche teorema
di Bernoulli). Essa descrive il comportamento della media di variabili
→ ∞.
casuali quando In particolare il teorema afferma che, scelto un
campione sufficientemente grande, si può essere ragionevolmente sicuri
che la media di questo campione sia vicina (o uguale) a quella vera. Ad
esempio lanciando una moneta non truccata si sa che la probabilità di
ottenere testa è del 50%. Tuttavia eseguendo pochi lanci questa regola
potrebbe non essere rispettata: basti considerare il caso es