Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Probabilità
U: popolazione di individui (numero intero)
U = { 1, 2, ..., N }
Esempio:
Popolazione italiana, devo conoscere chi è favorevole ad una certa legge, dovrei chiedere ad ogni individuo.
- # = numero
- G = % persone favorevoli
- N
Chiedere a tutti costa, per cui bisogna individuare un sottoinsieme ⇒ campione (c)
U = { 1, 2, 3, ..., N } c = { μ₁, μ₂, ..., μₙ } n = 1000
Al campione si sottopone la domanda ottenendo: Pn = # favorevoli nel campione / # persone nel campione (m) = 0.52
Si può dire che è la maggior parte?
- Il campionamento è casuale, in particolare è casuale semplice, ovvero che dà a tutti gli individui la stessa % di estrazione.
L'errore assoluto misura essette da (Pn - G). Questo valore | Pn - G | deve essere più piccolo di un certo ε = 0,01 |Pn - G | ≤ ε = 0,01
Non sappiamo quanto sia, perciò non possiamo parametrarlo o ε.
Soluzione → Misura della probabilità (P) Calcolare che la disequaglianza sia vera attraverso il livello di confidenza: P ( | Pn - G | < ε ) = 0,95
- Si applica su insiemi probabili che Pn sia < ε
0,95: 95% = distanze statistiche dalla legge italiana ε ≈ 1 / √m = 0,03 = 3% con m = 1000 *
L'errore assoluto risulta 3%.
52% ± 3% varia tra 49% e 55%, quel 49% dice che non la maggior parte della popolazione è favorevole considerando un errore assoluto del 3%.
PASSAGGIO DA POPOLAZIONE O CAMPIONE = INFERENZA
avere una popolazione che paga il prezzo dell'errore. Si cerca sempre di commettere l'errore minore.
- 100% - 0.5% = 6 % di INCERTEZZA
- m/Σ * se non vogliamo m = 0,01 dobbiamo considerare m = 10000
- Si comprende un errore dell' 1%
Per comprendere la realtà utilizziamo la STATISTICA INFERENZIALE
CONCEZIONE CLASSICA
+ maturò nel '600 (Pascal e Fermat) La probabilità di un evento qualunque fatto sia probabilizzato. (E) Si può calcolare.
- ESEMPIO → La possibilità che esca testa in un momento regolare.
- P(E) = #casi favorevoli a E/#casi possibili (devono essere equiprobabili)
- P(testa) = 1/2
- P(5) = 1/6
- DADO a 6 FACCE
SI APPLICA SOLO A CERTE CONDIZIONI QUANDO È EQUIPROBABILE
CONCEZIONE FREQUENTISTA
+ maturò nel 800 potrà che esca TESTA in un momento qualsiasi. Casi possibili sono 2 ma non è detto che siano equiprobabili.
- SUCCESSO = TESTA
- INSUCCESSO = CROCE
- #successi = p(successo)
- #prove ripetute
All'aumentare delle prove tende a stabilizzarsi al successo. Il difetto che il numero delle prode è limitato (la grande differenza a che ciò
è sfarpata nel corso dell'esperimento.
Al crescere del numero delle prove il successo si avvicina al 50%.
SI APPLICA SOLO CON PROVE RIPETUTE
CONCEZIONE ASSIOMATICA
Ω = insieme universo
A Ω B C Ω
- A = Ω / [Ω ω ε Ω ω ∉ A] & A = ciò fuori da A
- A∩B = [w ε Ω, w ε A, w ε B]
- A/B = [w ε Ω, w ε A, w ∉ B]
- B/A = [w ε Ω, w ε B, w ∉ A]
- A = w ε A ∩ B = [w ε A∪B]
A∪B = B ∩ A
Misure di probabilità
- Indipendenza di eventi
- A, B, C
A ⊥ B ⟺ P(A ∩ B) = P(A) P(B)
- Indipendenza
- Incorrelazione
- X ⊥ Y ⟺ cov(X,Y) = 0 ⟺ X ⊥ Y
(⊥ forte di ⊥)
Esempio. 2 lanci di una moneta regolare (0=TESTA, 1=CROCE)
Ω = {0,0, 0,1, 1,0, 1,1} β= 1/4 P(A) = #A/#Ω
C1 = croce al primo lancio
C2 = croce al secondo lancio
C1 = {1,0, 1,1} P(C1) = #C1/#Ω = 2/4 = 1/2
C2 = {0,1, 1,1} P(C2) = #C2/#Ω = 2/4 = 1/2
C1 e C2 sono indipendenti?
C1 ∩ C2 = {1,1} P(C1 ∩ C2) = # (C1 ∩ C2)/#Ω = 1/4 = P(C1) P(C2)
un solo elemento in comune
P(C1 ∩ C2) = P(C1) P(C2)
C1 e C2 sono indipendenti
- Probabilità condizionata
P(B)>0
P(A|B) = L'evento B si è verificato certamente. Calcoliamo la P(A) in relazione al fatto che B si è verificato.
dato B
Assumiamo B come Ω
P(A|B)=c P(A ∩ B) → P(A|B) deve essere proporzionale alla intersezione A∩B
P(B|B) = 1
(Ω, B, P) A, B ∈ B
P(A|B) = P(A|B̄) ⟹ A⊥B̄
P(A|B) = P(A∩B)
P(B)
P(A̅|B) = P(A) - P(A∩B)
1 - P(B)
[1 - P(B)] P(A∩B) = P(B)[P(A) - P(A∩B)]
P(A∩B) - P(A∩B)P(B) = P(B)P(A) - P(A∩B)P(B)
P(A∩B) = P(B)P(A)
A⊥B
A⊥B̄ ⟹ P(A̅) - P(A̅|B)
P(A⊥B̄) = P(A̅) - P(A̅|B)
P(A̅|B) = P(A)
A⊥B ⇔ A⊥B̄
U = {1, 2, ..., m}
U = m
Cmk = {S ⊂ U | S = k}
mCmk =
mCm0 =
m/(m-k) · k! → m/(m - 0) · 0! = m/m · 0! = 1
(m/k) + (m/k+1) · m/(m-k) · k!
m/(m-k+1) · (k+1)! → m/(m-k) · (k+1)! · (m-k)/(m-k)
m/m · 0! = 1
(m/k) + (m/k+1) = m/(m-k) · k!
m/(m-k+1) · (k+1)! =
mk × k + m - x
(m+1)/(m - x) · (m+1 - k) · (k+1) =
(m+1)(k+1)
Formula di Stifel:
(mm) (kk+1) (m+1)/(mk+1) = (m+1)/(k+1)
X ~ Bernoulli (Θ)
si distribuisce
Se la v.c. X è DISCRETA:
VALOR MEDIO o VALORE ATTESO (E)
E(Pf(X))
una qualsiasi trasformazione h di X
E(Pf(X)) = ∑ x ∈ S