Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
P(H
0 1T
- 1
9
0 0 .
non = =
.
9
"(y .
. .
1
malato 0 .
%
g PCT-IHY
/H-)
P
) 0 9
9
P(H 15
- 0
- .
=
= . .
.
L’aggiornamento della prior probability avviene con un processo logico-matematico
rigoroso e permette di incorporare nuova informazione nel calcolo della probabilità.
Il Teorema di Bayes è tipicamente formulato come la regola per andare da P(A|B) a
P(B|A), cosiddetti problemi di probabilità inversa.
Nell’esempio medico, il problema di probabilità inversa consiste nell’andare da
P(T+|H+)(informazione sull’accuratezza del test data la condizione di salute della
persona) a P(H+|T +)(informazione sulla salute della persona dato l’esito del test).
(|)()
Teorema: siano A e B due eventi, il Teorema di Bayes afferma che P(B|A) = ()
Ricordiamo che per definizione di probabilità condizionata (regola moltiplicativa
della probabilità): P(A∩B)= P(A|B)P(B)= P(B|A)P(A)
Se P(A) non fosse noto ma P(A∩B) e P(A∩ ) fossero noti, il teorema potrebbe essere
(|)()
enunciato come P(B|A) = (equivalente)
(∩) + (∩)
In generale se {E1,..., EK } è una partizione di S, P(A)= P(A∩ )+...+P(A∩ ).
1
esempio Revisione scritture contabili
In base alla sua esperienza, un revisore dei conti sa che il 15% delle scritture contabili
presenta degli errori. Tra tutti i saldi errati il 60% era un valore anomalo rispetto ai
dati storici (il rimanente 40% era errato ma il saldo non era anomalo). Tra tutti i saldi
contabili (corretti e non) il 20% presentava saldi anomali. anche
v
Dato che il revisore trova un saldo anomalo, qual è la probabilità che sia un errore?
Definiamo A={valore anomalo} e B={saldo errato}. Sappiamo che P(A)=0.20,
P(B)=0.15, P(A|B)=0.60 (probabilità che siano errati). Usando il Teorema di Bayes
(|)() 0.60×0.15
P(B|A)= = = 0.45 dalla prior P(B)=0.15 alla posterior P(B|A)=0.45;
→
() 0.20
P(B|A)≠P(B), quindi A e B non sono indipendenti. anomalo
se
dato
la
di
supponendo che
trovare contabile
invece probabilità
voler sia
un
errati
ed
anomali
contabili
dati
{
=?
P(A1B) AlB
Con =
↳ P(A) 09
0
P(BIA) 2
45 0
0 =
= .
. . .
. 09
15 0
6 0
0
P(B) =
P(AIB) .
= .
.
. .
CAP 5
Variabile aleatoria (o variabile casuale): variabile che assume/descrive valori
numerici in corrispondenza ai risultati di un esperimento aleatorio.
Molti fenomeni di interesse possono essere descritti numericamente: es. Vendite
mensili di cioccolato in Svizzera, n° chiamate ad un callcenter ogni minuto.
E` cruciale distinguere tra variabile aleatoria che esiste prima di osservare l’esito
dell’esperimento e la sua realizzazione che osserviamo dopo aver effettuato
l’esperimento. es. Prima di lanciare un dado, la variabile aleatoria può assumere
valori 1, 2, 3, 4, 5, 6. Dopo aver lanciato il dado, la V.A. si realizza e osserviamo 6.
Dal tipo di fenomeno di interesse che vogliamo descrivere distinguiamo:
1. Variabile aleatoria discreta: assume un numero finito o infinito numerabile di
valori reali (realizzazioni). es. Lancio del dado {1, 2, 3, 4, 5, 6}
2. Variabile aleatoria continua: assume qualunque valore in un intervallo dei
numeri reali, le realizzazioni sono es. Tempo di attesa ad un call center [0, ∞)
Consideriamo una V.A. come discreta quando è importante assegnare una
probabilità a ogni singolo risultato; tutte le altre continue.
La distribuzione di probabilità di una variabile aleatoria discreta X rappresenta le
probabilità di tutti i possibili valori che X può assumere, P(X = x), al variare dei
possibili valori presi dalla V.A. X. (realizzazione)
Indichiamo con X indica una variabile aleatoria discreta (prima dell’esito
dell’esperimento) e con x la sua realizzazione (dopo l’esito dell’esprimento).
La funzione di probabilità, P(x), di una variabile aleatoria discreta X è
P(x) = P(X = x), per ogni valore di x. (non solo per i valori che X può assumere)
se x = 6, P(6) = P(X = 6)
esempio: Dado speciale
Consideriamo un dado speciale (o truccato) con distribuzione di probabilità:
Quindi, ad esempio, P(6) = P(X = 6) = 0.002, prima di lanciare il dado.
Se il dado non fosse stato truccato, P(X = x)=1/6=0.167 per ogni x.
Rappresenta la “massa” di probabilità nei punti x=1, x=2, x=3, x = 4, x = 5, x = 6.
La distribuzione di probabilità, P(x), di una variabile aleatoria discreta X deve
soddisfare due proprietà caratterizzanti:
1) 0 ≤ P(x) ≤ 1 per ogni valore x.
2) La somma delle singole probabilità deve essere uguale a 1, P(x)=1
∑
quindi la sommatoria si estende a tutte le possibili realizzazioni x di X.
Altre rappresentazioni equivalenti di sommatoria P( ) = P( )
∑ ∑
=1
n.b. Se una funzione P(x) non soddisfa anche solo una di queste due proprietà, allora
non è una distribuzione di probabilità.
Nell’esempio del dado speciale, le due proprietà fondamentali di P(x) sono
soddisfatte: Spazio campionario {1, 2, 3, 4, 5, 6},
1) 0 P(x) 1 per come abbiamo definito P(x).
L
-
-
2) {1}, {2}, {3}, {4}, {5}, {6} sono gli eventi elementari, mutuamente esclusivi e
collettivamente esaustivi (partizione dello spazio campionario). In altri termini, si
realizza uno e uno solo degli eventi elementari. (solo una faccia del dado)
Sappiamo che se due eventi A e B sono mutuamente esclusivi (A∩B = Ø), la
probabilità che si verifichi o uno o l’altro è P(A∪B) = P(A) + P(B). Quindi,
P({1}∪{2}∪{3}∪{4}∪{5}∪{6})=P(x=1)+P(x=2)+P(x=3)+P(x=4)+P(X=5)+P(x=6)=
∑
P(x)=1
Funzione di ripartizione F(x0), di una variabile aleatoria X esprime la probabilità che
) ≤
la realizzazione di X non superi il valore x0, F( = P(X ).
0 0
≤
Dato che l’evento “X ”, possiamo scriverlo come unione di tutti gli eventi
0
≤ ≤
elementari tali che “X ”, abbiamo F(x0) = P(X ) = P(X = x),
∑
0 0 ≤
0
F( ) esiste per ogni valore di , non solo per i valori che X può assumere.
0 0
Esempio: dado speciale con sei facce {1, 2, 3, 4, 5, 6}
e
·
F(x) esiste per ogni x anche se X è una variabile aleatoria discreta che può assumere
solo 6 valori.
Le due proprietà fondamentali della distribuzione di probabilità inducono due
proprietà caratterizzanti della funzione di ripartizione F(x):
1) 0 ≤ F(x) ≤ 1 per ogni valore x.
2) Se x1 e x2 sono due valori tali che x1 < x2, allora
F(x1) ≤ F(x2)
Limiti interessanti della funzione di ripartizione, utili
per disegnare una funzione di ripartizione:
F(x)=0, F(x)=1
lim lim
→ →
−∞ −∞
Vediamo ora il legame fondamentale tra probabilità della variabile aleatoria (che
esiste prima di osservare i dati) e frequenze relative (calcolate dopo aver osservato i
dati).
Probabilità e frequenze relative
Le probabilità delle possibili realizzazioni della variabile aleatoria influenzano/
determinano i risultati degli esperimenti e descrivono, insieme alla variabile stessa,
l’esperimento aleatorio prima di osservarne il risultato (analisi ex-ante). Una volta
osservata la realizzazione della V.A. che presenta un numero/dato, non c'è più nulla
di aleatorio e vanno calcolate le frequenze relative che riassumono l’informazione
nei dati (analisi ex-post, statistica descrittiva). Le frequenze relative dei risultati
convergono alle probabilità dei risultati quando il numero di ripetizioni
dell’esperimento aumenta. Questo fenomeno è alla base dell’interpretazione
frequentista della prob. ed è una manifestazione della Legge dei Grandi Numeri che
vale per ‘qualsiasi’ esperimento aleatorio (e tipi di variabili), quando n→∞.
Valore atteso: (o media), E(X), di una variabile aleatoria discreta X è
E(X) = x P(x), dove la sommatoria è estesa a tutti i valori che X può assumere, E(X)
∑
M =
è un numero costante (non quantità aleatoria) ed una proprietà di P(x) e invece
a
P(X=x) è la probabilità che la realizzazione di X sia x.
La distribuzione di probabilità fornisce tutte le informazioni sulle proprietà di una
variabile aleatoria. Tuttavia, il valore atteso è una misura di centralità, dà
un'informazione più sintetica sulla ‘posizione’ della distribuzione di probabilità di X.
Intuitivamente, E(X) è il valore medio di X che ci aspettiamo di osservare ripetendo
l’esperimento un gran numero di volte, prima di effettuarli.
esempio: Typo nei libri di testo (errore di battitura)
La variabile aleatoria X descrive il numero di typo per pagina nei libri economico-
aziendale ed ha la seguente distribuzione di probabilità:
Il valore atteso è E(X)=0 × 0.81 + 1 × 0.17 + 2 × 0.02 = 0.21
Quindi, prima di leggere i libri, ci aspettiamo di trovare 0.21 typo per pagina,
ovvero 21 typo ogni 100 pagine.
Più in generale se ho una V.A. X e la sua distribuzione
di probabilità, P(X=x) per ogni realizzazione di x, posso
calcolare E[g(x)] dove g è una qualunque funzione
dai reali R ai reali R: R R x g(x)
→ →
| | | |
Per esempio E[ax+b]=? in questo caso g(x) = ax+b,
(ax+b) P(x=X) = ax P(X=x) + b P(X=x)
∑ ∑ ∑
· · ·
= a x P(X=x) + b P(X=x) = aE(X) +1b, riscritto:
∑ ∑
·
4. Linearità del valore atteso: E(aX+b) = a E(X) + b, se a=0 E(b)=b, se b=0 E(aX)=a EX
· ·
5. Additività: E(aX+bY)=a EX+b EY; con a,b R e x, y variabili aleatorie
∊
· ·
Deviazioni dal valore atteso
Il valore atteso E(X), è indicabile anche come µ = P(x) ed essendo una misura di
∑ ·
centralità, in valore atteso, le deviazioni (o scarti) di X da µ sono zero: Infatti
E(X-µ)= (x-µ) P(x)= x P(x) - µ x P(x)= µ-µ= 0; µ è una costante e P(x)= 1.
∑
∑ · ∑ · ∑ · ·
esempio dado speciale