Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
∪ B
A B A b
Assiomatica (Kolmogorov 1933): Kolmogorov diede un'impostazione assiomatica alla teoria della
probabilità.
Definì pertanto tre assiomi:
1) Ad ogni evento A corrisponde una probabilità P(A), che soddisfa la seguente disuguaglianza: 0
0 PeA 1 (Positività)
2) La probabilità dell’evento certo e = 1 (Certezza)
ni=1
3) (⋃ A )=∑ P( A )
P i i
6 Probabilità totale
Più eventi A,B e C si dicono incompatibili (mutuamente escludentesi) quando il verificarsi di uno
esclude il verificarsi degli altri. Dati A e B due eventi incompatibili di probabilità P(A) e P(B), la
probabilità di realizzazione di uno o dell’altro evento è uguale alla somma delle due probabilità dei due
eventi: (principio delle probabilità totali)
PA B PA PBA B PA B PA PBA PA B PA PBB
B Insieme vuoto
Se gli eventi A e B non sono mutuamente escludentesi (eventi compatibili (A B , la probabilità
B , la probabilità Insieme vuoto
che si verificarsi l’uno o l’altro evento è:
PA B PA PBA B PA B PA PBA PA B PA PBB PA B PA PBA B
B Insieme vuoto B
7 Probabilità condizionata
Dato uno spazio campionario Ω e due eventi A e B compatibili fra di loro, si suppone che il secondo
evento (B) sia quello condizionante e si vuole conoscere la probabilità del verificarsi di A.
P(A|B) = A B PA PBA B / P(B) con P(B) > 0
B
Analogamente, la probabilità condizionata di B dato che si è verificato A è:
P(B|A) = A B PA PBA B / P(A) con P(A) > 0
B
8 Probabilità composta
Dalla probabilità condizionata si deduce che, dati due eventi A e B, la probabilità del contemporaneo
verificarsi di A e di B, in altri termini la probabilità dell’evento intersezione è pari a:
PA B PA PBA B PA B PA PBA PA B PA PBB| A PA B PA PBB PA B PA PBA| B
B Insieme vuoto Insieme vuoto
Nel caso in cui esista indipendenza, ossia il verificarsi di un evento non altera la probabilità del
verificarsi dell’altro evento, allora:
PA B PA PBA| B PA B PA PBA PA B PA PBB| A PA B PA PBB
Insieme vuoto Insieme vuoto
Pertanto la seguente espressione, che esprime la probabilità del contemporaneo verificarsi dei due
eventi:
PA B PA PBA B PA B PA PBAPA B PA PBB| A PA B PA PBBPA B PA PBA| B
B Insieme vuoto Insieme vuoto
diviene:
P(A B) = P(A)P(B)
B
9 Teorema della probabilità assoluta
Siano H1,....,Hn eventi mutalmente incompatibili che costituiscono una partizione di .
E
Per ogni A Ω si ha:
P(A) = P(Hi) P(A|Hi)
(i=1 n) (xi – x)2 Semplice
CAPITOLO 14 “VARIABILI CASUALI”
1 Definizione di variabile casuale
Si consideri un esperimento casuale E con uno spazio campionario e sia Y lo spazio degli eventi.
Sia X una funzione che assegni un numero reale X(A) ad ogni evento, allora X(.) è chiamata variabile
casuale (v.c).
I valori di una v.c. sono incerti e di conseguenza una v.c. X è sempre accompagnata dalla sua funzione
di probabilità P(X) che esprime la probabilità con la quale la v.c. X può assumere i suoi diversi valori.
Le variabili casuali possono essere:
Discrete: se la v.c. assume un numero finito o un’infinità numerabile di valori;
Continue: è una variabile che può assumere tutti i valori appartenenti ad un intervallo (a,b).
Le v.c. sono indicate con lettere maiuscole (X) ed i valori assunti da X con lettere minuscole (x).
2 Variabile casuale discreta
Lo spazio campionario associato ad un esperimento casuale è finito o infinito numerabile.
Una v.c discreta è definita dal seguente prospetto:
Valori di X [x1,...,xi,...,xn]
Probabilità [p1,...,pi,...,pn]
ni=1
P (X = xi) = p ∑ pi = 1
i
L’insieme delle coppie (xi e pi) con i=1,…,n è detta distribuzione di probabilità di X. La funzione pi
definisce la funzione di probabilità della v.c. X.
Essa soddisfa le seguenti condizioni:
1. pi ≥ 0 per ogni i=1,…,n (positività)
ni=1
2. ∑ pi = 1 (certezza)
Esempio: si lancino 2 dadi e si definisca la v.c. X come somma dei punti ottenuti dai 2 dadi.
Eventi v.c. X pi
1 1 2 0.03
1 2 3 0.06
2 1
1 3 4 0.08
2 2
3 1
1 4 5 0.11
2 3
3 2
4 1
Così via fino a 12
Totale 1
pi = numero di combinazioni che esce la variabile / numero di combinazioni totali
In questo caso il numero di combinazioni totali è 36.
Graficamente sarà rappresentato attraverso un istogramma dove sulle x avremo la v.c. e sulle ordinate la
pi
In alcuni casi può essere utile trovare la probabilità che una v.c. X assuma valori uguali o inferiori a xi e
si utilizza la seguente formula:
P (X ≤ xi)=∑ pi (indicata con F(x))
xi≤X
Ovvero la probabilità che la v.c X assuma valori uguali o inferiori a xi
2 Variabile casuale continua
Lo spazio campionario associato ad un esperimento casuale è infinito o finito non numerabile.
Formalmente una v.c. continua che assume valori in un certo intervallo R esteso anche a tutto l’asse
reale R, è definita se esiste una funzione f(x) tale che per ogni (a,b) R si abbia:
R si abbia:
∈ R
b
P (a ≤ X ≤ b) = ∫ f(x)dx per ogni (a,b) R
a
La funzione f(x) viene chiamata funzione di densità di probabilità della v.c. X (f.d.p) se e solo se:
1) f ex 0 Positività
0 Positività
2) f(x)dx = 1 Certezza
3 Indici di sintesi della variabile casuale: valore atteso
μ ni=1
Valore Atteso (Caso discreto): E(X) = = ∑ xipi
Valore Atteso (Caso continuo): E(X) = x * f(x)dx
4 Indici di sintesi della variabile casuale: proprietà del valore
atteso
Le proprietà del valore atteso
Se a è una costante reale: E(aX) = aE(X)
Se a è una costante reale: E(a+X) = a + E(X)
Se X e Y sono due v.c. E(X+Y) = E(X)+ E(Y)
Se a e b sono costanti reale E(aX + bY) = aE(X) + bE(Y)
2 2 2
Se a è una costante reale E((aX) ) = a E(X )
5 Indici di sintesi della variabile casuale: varianza
2 ni=1 2 2
La varianza del caso discreto: Var(X)=ρ = ∑ xi * pi – [E(X)]
2
La varianza del caso continuo: Var(X)= [x - E(X)] f(x)dx
6 Indici di sintesi della variabile casuale: proprietà della
varianza
Le proprietà della varianza
Se X è una v.c. a e b sono due costanti reali allora:
2
Var (aX + b) = a Var (X)
Se X e Y sono due v.c. ed a e b sono due numeri reali allora:
2 2
Var (aX ± bY) = a Var (X)+ b Var (Y) ± 2ab∙Cov (X, Y)
Dove:
Cov (X, Y) = {[X – E(X)][Y - E(Y)]}
CAPITOLO 15 “PRINCIPALI DISTRIBUZIONI DI
PROBABILITÀ”
1 Distribuzioni di probabilità discrete
La maggior parte dei fenomeni statistici possono essere descritti da un numero di modelli probabilistici
o distribuzioni di probabilità.
1.Distribuzione uniforme discreta
Definizione: Una v.c. X che assume valori in un insieme formato dai primi n numeri interi segue una
distribuzione uniforme discreta se la sua funzione di probabilità è data:
P (X = x ) = 1 / n i=1,....,n
i
X assume un numero finito di valori.Tutti gli eventi hanno uguale probabilità di verificarsi (1/n).
Valgono inoltre le seguenti condizioni:
P (X = x ) = 1 / n ≥ 0
i
ni=1
∑ P(X = x ) = n * (1 / n) = 0
i
La v.c. uniforme non presenta moda ed è simmetrica intorno alla media.
Tenendo conto che:
ni=1
∑ x = n(n+1) / 2
i
E che:
ni=1 i2
∑ x = n(n+1)(2n+1) / 6
Valore atteso:
E(x) = (n+1) / 2
Varianza: 2
Var(X) = (n –1) / 12
2.Distribuzione di Bernoulli
Una v.c. X ha distribuzione di Bernoulli con parametro p (compreso nell’intervallo [0,1] se e soltanto se
la sua distribuzione di probabilità è data:
x 1-x
P (X = x) = p (1-p) x = 0,1 0 ≤ p ≤ 1
La distribuzione di Bernoulli è associata ad un esperimento casuale i cui risultati sono classificati in due
categorie (successo o insuccesso; si o no; vero o falso, ecc.) assegnando valori 1 (successo) e 0
(insuccesso) rispettivamente con probabilità p e q (q=1-p)
Caratteristiche: E(X) = p V(X) = pq
La distribuzione di Bernoulli è un modello matematico che consente di calcolare la probabilità di
successo di eventi, a patto che si verificano le seguenti condizioni:
•Solo due risultati incompatibili sono presenti
•Si conosce la probabilità p di uno di questi risultati.
3.Distribuzione Binomiale
Una v.c. ha una distribuzione binomiale con parametri n (numero intero positivo) e p (compreso
nell’intervallo 0 , 1 ) se e soltanto se la sua distribuzione di probabilità è data da:
nx x n-x
P(X = x) = ( ) p (1-p) x=1,2,...,n X ≈ B(n,p)
Inoltre.
E (X) = np Var (X) = npq la distribuzione binomiale è la somma di n v.c. indipendenti di bernoulli.
Il suo coefficiente binomiale sarà:
nx nx
C = ( ) = n! / (n-x)! x! numero di casi in cui si presentano x successi in n prove
Esempio:
n = 10
x = 6
610
C = 10! / (10-6)! 6! = (10*9*8*7*6*5*4*3*2*1) / 4*3*2*1*6*5*4*3*2*1 = 210
Condizioni di applicazione della distribuzione binomiale:
• Eventi dicotomici E1, E2(si, no; difettoso, no difettoso; ecc.)
• Prob(Ei) di successo in una singola prova è p, ed è costante in tutte le prove
• L’esperimento è ripetuto un numero fissato n (finito) di volte, nelle stesse condizioni ed ogni prova è
indipendente dalle altre.
Esempio
Un ragazzo partecipa ad un concorso la cui prova è un test a risposte multiple. Vengono presentate 10
domande con 3