Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
A
eventi elementari che soddisfano la condizione dell’evento A e N è il numero complessivo degli eventi elementari
dello spazio campionario.
Formula per la determinazione del numero di combinazioni: il processo di conteggio può essere generalizzato usando
la seguente formula per calcolare il numero di combinazioni di n oggetti presi k alla volta (combinazioni di n oggetti di
( )!
⁄
= ( ) = ! ! − ( )
classe k): , dove viene chiamato coefficiente binomiale
Interpretazione frequentista della probabilità: secondo l’interpretazione frequentista, la probabilità è il limite della
() =
proporzione di volte in cui l’evento A si verifica in un numero molto elevato, n, di ripetizioni di un esperimento
⁄
, dove n è il numero di volte in cui A si è verificato ed n è il numero totale di ripetizioni dell’esperimento. La
A
probabilità è il limite per n molto grande (tendente a infinito).
Interpretazione soggettiva della probabilità: secondo l’interpretazione soggettiva, la probabilità esprime il livello
individuale di fiducia dl verificarsi di un certo evento. Le probabilità soggettive sono usate in alcuni processi decisionali
di tipo gestionale.
Assiomi della probabilità: sia S lo spazio campionario di un esperimento casuale, siano O gli eventi elementari e dia A
i
un generico evento. Per ciascun evento A dello spazio campionario S si assume che P(A) sia sempre definita e che si
abbiano i seguenti assiomi della probabilità: 0 ≤ () ≤ 1;
1. Se A è un qualunque evento dello spazio campionario S
() ∑
= ( )
2. Se A è un evento di S allora , dove la nozione indica che l’unione e la sommatoria si
estendono a tutti gli eventi elementari di A.
3. P(S)=1 ̅
Regola dell’evento complementare: sia A un evento e il suo complementare. La regola dell’evento complementare
(̅) = 1 − ().
afferma che
Regola additiva della probabilità: siano A e B due eventi, usando la regola additiva della probabilità, la probabilità
( ) () ()
∪ = + − ( ∩ ).
della loro unione è
Probabilità condizionata: siano A e B due eventi, la probabilità condizionata dell’evento A, sapendo che B si è
(|) (|) (|)
⁄
= ( ∩ ) () . =
verificato, è identificata del simbolo e si ricava come Allo stesso modo
⁄
( ∩ ) () .
Regola moltiplicativa della probabilità: siano A e B due eventi, usando la regola moltiplicativa della probabilità (o
regolare della probabilità composta), la probabilità della loro intersezione può essere derivata dalla probabilità
( ) (| )() ( ) (|)().
∩ = ∩ =
condizionata come e allo stesso modo ( ∩
Indipendenza statistica: siano A e B due eventi, questi sono detti statisticamente indipendenti se e solo se
) ()(). (|) () (|)
= = = ().
Dalla regola moltiplicativa segue anche che Più in generale, gli
( ) ( )(
∩ ∩∙∙∙∩ = ) ∙∙∙
eventi E , E , ..., E sono statisticamente mutuamente indipendenti allora
1 2 k 1 2 1 2
( ).
Probabilità congiunte e probabilità marginali: nel contesto delle probabilità bivariate, le probabilità delle intersezioni
( ∩ ), sono chiamate probabilità congiunte. Le probabilità per i singoli eventi P(A ) o P(B ), sono dette probabilità
i j
marginali.
Eventi indipendenti: siano A e B una coppia di eventi, ognuno ottenuto dell’unione di eventi mutuamente esclusivi e
collettivamente esaustivi indicati con A , A ,…,A e B , B , …, B . Se ogni evento A è statisticamente indipendenti da
1 2 h 1 2 k i
ogni evento Bj, allora A e B sono eventi indipendenti.
Odds: gli Odds in favore di un particolare evento sono dati dal rapporto tra la probabilità dell’evento e la probabilità
(̅)
() ⁄ .
dell’evento complementare. Gli Odds in favore dell’evento A sono quindi
Overinvolvement ratio: la probabilità dell’evento A condizionata dall’evento B , divisa per la probabilità di A
1 1 1
( ) ( )
| ⁄ |
condizionata dall’evento B , viene definita overinvolvement ratio . Un overinvolvement ratio
2 1 1 1 2
maggiore di 1 implica che l’evento A aumenta il rapporto degli Odds condizionati in favore di B .
1 1 (|) =
Teorema di Bayes: siano A e B due eventi, il Teorema di Bayes afferma che
(|)() () (|) (|)()
⁄ ⁄
= () . Più in generale, siano K eventi E , E , ..., E mutuamente esclusivi
1 2 k
e collettivamente esaustivi e sia A un qualunque altro evento. La probabilità condizionata di E dato A, può essere
k ( |) =
espressa nel seguente modo
(| )( () (| )( (| )( ) (| )( +(| )( ( )
⁄ ⁄
) = ) + ) +∙∙∙ ) =
dove
1 1 2 2
( ) ( ) ( ) (| )( ) (| )( ) (| )( ).
∩ + ∩ +∙∙∙∙ ∩ = + +∙∙∙ + I passi risolutivi per il
1 2 1 1 2 2
teorema di Bayes sono i seguenti:
1. Definizione del sottoinsieme di eventi relativi al problema;
2. Definizione delle probabilità per gli eventi considerati al punto (1);
3. Calcolo delle probabilità degli eventi complementari;
4. Applicazione del teorema di Bayes per calcolare la probabilità necessarie alla soluzione del problema.
Capitolo 5
Variabile aleatoria (o variabile casuale): è una variabile che assume valori numerici in corrispondenza ai risultati di un
esperimento aleatorio.
Variabile aleatoria discreta: una variabile aleatoria è una variabile aleatoria discreta se può assumere al più un
insieme numerabile di valori.
Variabile aleatoria continua: una variabile aleatoria è una variabile aleatoria continua se può assumere un qualunque
valore in un intervallo.
Funzione di probabilità: la funzione di probabilità P(x), di una variabile aleatoria discreta X esprime la probabilità che X
( ) ( ),
= = .
assuma il valore x, come funzione di x. Cioè, Si usa l’espressione funzione di
probabilità per indicare la distribuzione di probabilità, seguendo la pratica comune di usare queste espressioni in
modo intercambiabile.
Proprietà della funzione di probabilità di una variabile aleatoria discreta: sia X una varabile aleatoria discreta con
funzione di probabilità P(x), allora
1. 0≤P(x)≤1 per ogni valore di x; ( )
∑ = 1
2. La somma delle singole probabilità deve dare 1, cioè dove la notazione indica che la sommatoria
si estende a tutte le possibili realizzazioni x di X.
Funzione di ripartizione: la funzione di ripartizione F(x ), per una variabile aleatoria X, esprime la probabilità che X non
0
( ) ( ),
= ≤ − ∞ ≤ ≤ +∞.
superi il valore x come funzione di x . Cioè,
0 0 0 0 0
Proprietà della funzione di ripartizione di una variabile aleatoria discreta: sia X una variabile aleatoria discreta con
funzione di ripartizione F(x ). Si può dimostrare che
0
1. 0≤F(x )≤1 per ogni x ;
0 0
2. Se x e x sono due variabili tali che x <x , allora F(x )<F(x ).
1 2 1 2 1 2
Relazione tra la funzione di ripartizione e la funzione di probabilità: sia X una variabile aleatoria con funzione di
( ) ∑
= ()
probabilità P(x) e funzione di ripartizione F(x ). Si può allora dimostrare che , dove la notazione
0 0 ≤ 0
implica che la sommatoria si estende a tutti i possibili valori di x che sono minori o uguali a x .
0
Valore atteso di una variabile aleatoria discreta: il valore atteso E(X) di una variabile aleatoria discreta X è definito
() ∑
= = ()
come , dove la notazione indica che la sommatoria si estende a tutti i possibili valori di x. Il
valore atteso di una variabile aleatoria è anche chiamato media.
Varianza e scarto quadratico medio di una variabile aleatoria discreta: sia X una variabile aleatoria discreta, il valore
2 2
2 ∑
= ( − ) () .
atteso degli scarti al quadrato della media (X-μ) è chiamata varianza ed è calcolato come La
2 2 2
( )
∑
= −
varianza di una variabile aleatoria discreta X può essere anche espressa come . Lo scarto
quadratico medio (o deviazione standard) σ è la radice quadrata con segno positivo della varianza.
x
Valore atteso delle funzioni di una variabile aleatoria discreta: sia X una variabile aleatoria discreta con funzione di
[()] [()]
=
probabilità P(x) e sia g(X) una qualunque funzione di X, allora il suo valore atteso , è definito come
( )()
∑ .
Proprietà delle trasformazioni lineari di una variabile aleatoria: sia X una variabile aleatoria con media μ e varianza
x
x2
σ e siano a e b due costanti assegnate. Si definisca la nuova variabile aleatoria Y come a+bX. La media e la varianza di
2 2 2 ||
= + = =
Y sono . Lo scarto quadratico medio di Y allora è .
Media e varianza di particolari trasformazioni lineari: 2
() ()
= = 0.
a) Sia b=0 nella trasformazione lineare W=a+bX. Allora W=a (per ogni costante a), con
Se una variabile aleatoria assume sempre il valore a (variabile degenere), avrà media a e varianza 0.
2 2 2
() ()
= =
b) Sia a=0 nella trasformazione lineare W=a+bX. Allora W=bX con .
⁄
= + , = − =
Media e varianza di una variabile standardizzat