Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Variabili Aleatorie
Sia dato un esperimento con esito incerto e sia Ω l'insieme dei possibili risultati; al volere sperimentare non è interessante sapere il preciso risultato sperimentato ω ∈ Ω ma piuttosto già interesa sapere quanto vale un numero X che descriva o rieassuma il risultato sperimentale → voglio sapere X(ω)
Esempio
Lancio una moneta 2 volteΩ = {TT, TC, CT, CC}Alto, sperimentale interessa la va. X="# totale di testeX | {TC} = 1 X | {TT} = 2
La variabile aleatoria X è una funzioneX: Ω → R
- dominio
- codominio
Im X : {0, 1, 2} → valori aggiunti della funzione
Esempio
Lancio 2 dadiΩ = n° elem: 36
Mi interessa X = somma 2 numeri usciti; X : Ω → R Im X : {2, ..., 12}
Esempio
Lancio ripetutamente una moneta; definisco la v.a. Y: = n° del lancio in cui esce T per la prima volta
Ω = insieme delle possibilità sequenza (lunghezza infinita)
- CTTC... → 2
- TCTTTC... → 1
- CCCTC → 4
Y: Ω → R
Im Y: {1, 2, 3, ...}
Esempio
Scelgo un italiano a caso; mi interessa v.a. Z: = altezza della persona
Ω = insieme di tutti gli italiani
|Ω| = 60 milioni
- R
- 1.70 m
- 1.65 m
Z: R → [30 cm; 2 metri]
Logica della definizione rigorosa
Per avere svariate nuove v.a. dobbiamo poter calcolare la prob. di alcuni insiemi che ci interessano, ad esempio:
- P(X ≤ x ∈ A), P(X ≤ t), P(X ≤ θ), etc: ci interessa calcolare P(X ∈ B)
∀ B ⊆ R. Per far questo occorre che {X ∈ B} sia un evento della σ-Algebra.
Def Rigorosa
Dato uno spazio di prob. (Ω, Y, P), una v.a. X è una funzione X: Ω → R, t.c. ∀ V ⊆ R, deve valere che ∀ x ∈ B {ω ∈ Ω: X(ω) ∈ B} ∈ Y
Def alternativa rigorosa
Dato uno spazio di prob. (Ω, Y, P), una v.a. X è una funzione X: Ω → R t.c. ∀ t ∈ R, ∀ x ∈ B {ω ∈ Ω: X(ω) ≤ t} ∈ Y
X è una v.a. se posso calcolare P(X ≤ t) = FX(t), ∀ t ∈ R
Esempio
Lancio una moneta 2 volte; trovare la densità e la f.d. della v.a. "X: differenza tra n° di T e n. di C"
X: Ω → R
Im X: {-2, 0, 2}
P(X = 0) = P({TC, CT}) = 2/4
P(X = 2) = P(TT) = 1/4
P(X = -2) = P(CC) = 1/4
Fx(t) = P(X ≤ t), t ∈ R
- t < -2: 0
- -2 ≤ t < 0: 1/4
- 0 ≤ t < 2: 3/4
- t ≥ 2: 1
Esempio
Sia X una v.a. con la seguente f.d.
- t < 0: 0
- 0 ≤ t < π: 1/5
- π ≤ t < 2π: 2/5
- t ≥ 2π: 1
Guardando i punti di salto capisco i valori della v.a. X → Im X: {0, π, 2π}
Le masse di probabilità sono segnali ai salti.
- P(X = 0) = 1/5
- P(X = π) = 2/5 - 1/5 = 1/5
- P(X = 2π) = 1 - 3/5 = 2/5
Come faccio a calcolare il valore atteso di \( y = g(x) \)?
I modo:
Faccio la media ponderata di \( y_1, \ldots, y_m \) assumendo come pesi le loro probabilità:
\( p(y_j) = p(y_j \vert y=y_j) = \frac{p(y_j \cap X=x_1)}{p(y_j)} + \ldots + \frac{p(y_j \cap X=x_n)}{p(y_j)} \)
ma devo conoscere (aver calcolato) la dist. di \( Y \)
II modo:
Punto i valori \( x_i : g(x_i) = y_j \) e faccio la media ponderata con le probabilità
\( p(X=x_i \vert X=x_j) \) \(\cdots\) \( p(X=x_n) \)
Proposizione
(dimostriamo l’equivalenza dei due modi)
Sia \( X \) una v.a. discreta. Il valore atteso di \( y = g(x) \), se X è variabile finita, lo puoi calcolare in 2 modi equivalenti:
- \( E(y) = \sum_{j=1}^{m} y_j \cdot p(y=y_j) \)
- \( \sum_{i=1}^{n} g(x_i) \cdot p(X=x_i) \)
Dim
\( \Im X = \{ x_1, \ldots, x_n \} \)
\( \Im y = \{ y_1, \ldots, y_m \} \)
Parto dal secondo membro ed arrivo al primo membro
\( \sum_{i=1}^{n} g(x_i) \cdot P(X=x_i) = \sum_{x_i = 1} x: g(x_i)=g_1 + \sum_{xi=1} x: g(xi)=g_2 + \ldots + \sum_{xi=1} x: g(xi)=g_m \)
\( = y_1 \cdot \sum_{xi=1} x: g(xi)=g1 \) \( \cdots \) \( + y_m \cdot \sum_{xi=1} x: g(xi)=g_m \)
\( = y_1 \cdot P(Y=y_1) + \ldots + y_m \cdot P(Y=y_m) \)
\( = \sum_{j=1}^{m} y_j \cdot P(Y=y_j) \)
Proposizione
Var(aX + θ) = a2Var(X)
La varianza non è un operatore lineare.
La varianza è invariante per traslazione.
Dim
Definisco Yα = aX + θ, per definizione:
Var(Y) = E[(Y - E(Y))2]
= E[(aX + θ - E(aX + θ))2]
= E[(aX + θ - aE(X) - θ)2]
= E[(a(X - E(X)))2]
= a2E[(X - E(X))2]
= a2Var(X)
Esercizio
P(X = 1) = 2/3
P(X = 2) = 1/3
Calcoliamo E(1 - 2X) e Var(1 - 2X)
Svolgimento
E(1 - 2X) = 1 - 2E(X) = 1 - 2 Σ k.P(X = k) = 1 - 2[1.2/3 + 2.1/3] = 1 - 8/3 = - 5/3
Var(1 - 2X) = 4Var(X)
= 4(E(X2) - (E(X))2)
= 4(Σ k2P(X = k)) - 16/9
= 4[1.2/3 + 22.1/3] - 16/9 = 4[2.16/9] = 8/9
Calcoliamo:
E[-X] = -E(X) = -5/3
Var[-X] = Var(X) = 2/9
Esperimenti Bernoulliani
Sono esperimenti costituiti da una sequenza di prove bernoulliane, ovvero di prove che godono delle seguenti proprietà:
- Ogni prova può avere 2 possibili esiti (li chiamiamo successo ed insuccesso)
- I risultati delle varie prove sono indipendenti
- La probabilità di successo è la stessa per tutte le prove (chiamiamo p la prob. di successo e 1 - p la prob. di insuccesso)
Esempio
- Ripetuti lanci di una moneta
- Successo = Testa → p = 1/2
- Insuccesso = Insuccesso → 1 - p = 1/2
- Ripetute estrazioni con reimmissione da un'urna con 3 palline bianche e 1 pallina rossa
- Successo = Esce bianca → p = 3/4
- Insuccesso = Esce rossa → 1 - p = 1/4
- Ripetuti lanci di un dado
- Successo = "Esce 1"
- Insuccesso = "Esce ≠ 4"
Problema 1
Si effettua una sequenza di n prove bernoulliane. Qual è la prob. che, su n prove, si ottengano in tutto k successi?
Esempio
Lancio una moneta 5 volte. Qual è la prob. che in tutto esca 3 volte Testa?
Diciamo che Prob(Testa) = p
P(3T e 2C) = p
P(3T e 2C) = p^3(1-p)^2
P(3T e 2C) = C(5,3)p^3(1-p)^2 = 5! / 3!2! = 10
Esercizio
T ~ geom(p)
P(18 ≤ T ≤ 26) = P(T ≥ 18) - P(T ≥ 26)
= p(T > 17) - p(T > 26)
= (1 - p)17 - (1 - p)26
Def. Rigorosa
Uno va. X è detta ass. continua se esiste una funzione ƒ a valori non negativi tale che la funzione di ripartizione di X è data da:
FX(t) = P(X ≤ t) = ∫-∞tƒ(u)du
Proprietà Affinché ƒ sia una densità
- ƒ non negativa, cioè ƒ(x) ≥ 0 ∀ x
- ∫-∞+∞ƒ(x)dx = 1
Oss. 1
La definizione rigorosa tratta la funzione di ripartizione. Da essa si possono ricavare le probabilità degli intervalli limitati.
P(a ≤ X ≤ b) = FX(b) - FX(a) = ∫abƒudu = ∫-∞bƒudu - ∫-∞aƒudu = ∫abƒudu
Oss. 2
Riflessione sul termine "densità": la ƒX non rappresenta la prob. del punto x; è solo la funzione che integra su un intervallo ti dà la prob. dell'intervallo.
Oss. 3
Mentre con le va. discrete ƒX è la densità, con va. assolutamente continue sarebbe più corretto dire che ƒX è una densità.