Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Probabilità
- Spazio degli eventi o spazio campionario = l'insieme di tutti i possibili risultati delle misure (S)
- Evento elementare = ogni singolo risultato
- Evento ⊆ S
Fenomeni aleatori
Ripetibili N volte e imprevedibili singolarmente ma c'è un modello prevedibile e regolare a lungo termine.
La variabile casuale può assumere i valori che si possono verificare in un evento.
- Sono dette discrete se assumono un insieme numerabile di valori (dado, moneta etc)
- Sono dette continue se assumono un insieme non numerabile di valori
Il nostro problema è definire la probabilità che la variabile continua o aleatoria assuma un determinato valore → si crea una distribuzione di probabilità.
Definizione classica di probabilità
Rapporto tra eventi favorevoli e numero totale di casi possibili. Però questa def tiene conto che tutti i risultati sono equiprobabili.
Def. Empirica di Probabilità:
È la perc. racc. dopo un numero elevato di esperimenti.
P(E) = limN→∞ f(E) = limN→∞ n/N
Def. Assiomatica di Probabilità:
P(A) = prop. di A definito su S (A ⊆ S) soddisfa:
- ∀ A ⊆ S → P(A) ≥ 0
- P(S) = 1
- ∀ A, B ⊆ S e A ∩ B = ∅ → P(A ∪ B) = P(A) + P(B)
(Eventi disgiunti o mutuamente esclusivi)
P(S) = P(A ∪ Ā) → P(Ā) = 1 - P(A)
P(A ∪ ∅) = P(A)
Se A ∩ B ≠ ∅ → P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
Quindi in generale: P(A ∪ B) ≤ P(A) + P(B)
Eventi Indipendenti
P(A ∩ B) = P(A) ∙ P(B)
2 eventi disgiunti non sono mai indipendenti. Testa e croce sono disgiunti perché si escludono a vicenda e non sono indipendenti perché l'uno condiziona l'altro. Mettere il primo lancio è indipendente dal secondo perché in nessun
INVECE CONSIDERIAMO IL MOMENTO CENTRALE DI DIVERSI ORDINI:
DI ORDINE 1:
m1 = i=1n ∑ (Ki - <K>) P(Ki) = i=1n ∑ Ki P(Ki) - ∑ <K> P(Ki)
= <K> - <K> ∑ P(Ki) = 0
PER LA COND. DI NORMA. VALE 1
DI ORDINE 2:
m2 = i=1n ∑ (Ki - <K>)2 P(Ki) =
= i=1n ∑ Ki2 P(Ki) - ∑ 2Ki <K> P(Ki) + ∑ <K>2 P(Ki)
= <K2> - 2 <K> i=1n ∑ Ki P(Ki) + <K>2 ∑ P(Ki)
= <K2> - 2 <K>2 + <K>2 = <K2> - <K>2
IL MOMENTO CENTRALE DI ORDINE 2 È LA VARIANZA DELLA DISTRIBUZIONE DI PROBABILITÀ
Distribuzione Gaussiana o Normale
Gμ,σ(x) = 1/σ√2π e-(x-μ)2/2σ2
Si incontra facilmente nel mondo reale, descrive gli errori casuali nelle misure esperim. Per n molto elevato, molte distrib. tendono alla gaussiana (teor. centrale nel limite)
x = variabile aleatoria continua def. tra -∞ e +∞
μ = parametro che caratterizza la posizione della funzione
σ = parametro che caratterizza la larghezza della funzione
Proprietà:
- Il massimo si raggiunge per x=μ
- È simmetrica rispetto a x=μ (picco)
- Moda, media e mediana coincidono
- La skewness = 0
- La kurtosis = 0
- La sua "larghezza" è data da σ
- È asintotica all’asse x sia a dx che a sn.
Invece σ è il parametro caratteristico della gaussiana e corrisponde alla "larghezza"
Significato di M e σ:
I 2 parametri che determinano una gaussiana M e σ hanno un significato importante
M = è il valore di aspettazione
σ = è la varianza.
FWHM:
La Full Width at Half Maximum è un'altra misura della larghezza, molto usata da noi astronomi
Prendiamo una gaussiana con M = 0
G(x̂) = 1/2 G(0) = 1/2σ√2π e-x̂2/2σ2 = 1/2σ√2π →
F.W.H.M = 2x̂ dove x̂ è il valore dove G va la metà del picco
G(x̂) = 1/2 G(0) → 1/σ√2π e-x̂2/2σ2 = 1/2σ√2π →
e-x̂2/2σ2 = 1/2 → -x̂2/2σ2 = ln(1/2) → x̂ = σ√2 ln 2
FWHM = 2·x̂ ≈ 2.354σ
Se abbiamo m oggetti allora abbiamo:
- m modi differenti di selezionare il primo oggetto
- m-1 modi per il secondo
- ...
- m-K+1 modi per il K-esimo oggetto
Dm,K = m × (m-1) × (m-2) × ... × (m-K+1)
Dm,K = m!/(m-K)!
Nelle disposizioni l'ordine è importante: AB è diverso da BA.
Permutazioni:
Pm = numero di modi di ordinare m oggetti differenti
Pm = Dm,m = m!/(m-m)! = m!/0! = m!
Formula di Stirling:
Utile per calcolare approssimando il fattoriale:
n! ≈ nⁿe⁻ⁿ√2πn
Più n è alto e meno si commette errore.
Combinazioni:
Numero di modi differenti di combinare m oggetti in classi di K oggetti senza tenere conto dell'ordine.
All'aumentare del parametro m, la distribuzione binomiale tende asintoticamente alla distrib. normale.
Aumentando il numero di tentativi:
Bm,p(K) m→∞ → Gμ,σ(x) con μ = mp var. aleat. continua var. aleat. discreta σ = √mpq
Al crescere di α, P(K) diventa + simmetrica e "a campana" esattamente come la binomiale all'aumentare di N, con p fisato
Kurtosis della distrib. di Poisson
m⁴ / σ⁴ - 3 = 1 / α
All'aumentare del parametro α la distrib. di Poisson tende asintoticamente alla gaussiana
Pα(K) α→∞ G(μ,σ)(x)
var. aleat.discreta
var. aleat.continua
Per α → ∞ la poissoniana tende a una gaussiana con μ = N e σ = √N