Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
CAPITOLO 1: INTRODUZIONE ALLA PROBABILITÀ
CONCETTI DI BASE
- ESPERIMENTO: processo che genera risultati ben definiti
- SPAZIO CAMPIONARIO (S): insieme di tutti i possibili risultati sperimentali (punto campionario)
REGOLE DEL CONTEGGIO
- PER ESPERIMENTI IN PIÙ PASSI (k passi):
- cardinalità N = n1n2...nk dove ni è il numero dei risultati possibili al passo i
- COMBINAZIONI: consente di calcolare il numero di risultati sperimentali quando si esprime l'importanza nella selezione di n oggetti da un insieme di N oggetti
- coefficiente binomiale CNn = NCn = N! / (n!(N-n)!)
- PERMUTAZIONI: consento di calcolare il numero di risultati sperimentali quando n oggetti sono selezionati da un insieme di N oggetti in cui l'ordine della selezione è importante
- PNn = n! (N) = N! / (N-n)!
ASSEGNAZIONE DELLA PROBABILITÀ
- CONDIZIONI DI BASE x l'assegnazione di probabilità:
- P(E) ∊ [0,1]
- ∑ P(Ei) = 1
- METODO CLASSICO: i risultati sperimentali sono equiprobabili
- CASI FAVOREVOLI / CASI POSSIBILI
EVENTI E LA LORO PROBABILITÀ
- E = evento: insieme di punti campionari.
- P(E) = probabilità di un evento: somma delle probabilità dei punti campionari che costituiscono l'evento
RELAZIONI DI BASE DELLA PROBABILITÀ
- A⊆S P(A) = P(Ac) + P(A) = 1
- P(Ac) = 1 - P(A)
- LEGGE DELLA SOMMA: P(A∪B) = P(A) + P(B) - P(A∩B)
- (*se A∩B=∅ allora P(A∪B)=P(A)+P(B) e A e B sono detti eventi disgiunti o mutuamente esclusivi)
Probabilità Condizionata
P(A∩B) - probabilità congiuntaP(A), P(B) - probabilità marginaliP(A|B) - probabilità condizionata = P(A∩B) / P(B)
da cui nasce la legge del prodotto: P(A∩B) = P(A|B) * P(B) = P(B|A) * P(A)
Se P(A|B) = P(A) diremo che A e B sono eventi indipendentiperché l'indipendenza è simmetrica OPPURE P(B|A) = P(B)
dalla stessa legge del prodotto per eventi indipendenti èP(A∩B) = P(A) * P(B)
Formula di Bayes- Probabilità a priori
- Nuove informazioni
- Teorema di Bayes
- Probabilità a posteriori
Esempio: Impresa manifatturiera che riceve materiali da 2 fornitoriA₁: evento che una parte di materiale provenga dal fornitore 1A₂: evento che una parte di materiale provenga dal fornitore 2P(A₁) = 65% | probabilità a prioriP(A₂) = 35%
La qualità del materiale varia a seconda del fornitoreG: evento che una parte di materiale sia buonaNG: evento che una parte di materiale sia cattivaP(G|A₁) = 98%P(G|A₂) = 95%P(NG|A₁) = 2%P(NG|A₂) = 5%
Vogliamo distribuire o rifiutare eventualmente anche quando consideriamo il prodotto:
P(A₁∩G) = P(A₁) * P(G|A₁) = 0,65 * 0,98 = 0,637
P(A₁∩NG) = P(A₁) * P(NG|A₁) = 0,65 * 0,02 = 0,013
P(A₂∩G) = P(A₂) * P(G|A₂) = 0,35 * 0,95 = 0,3325
P(A₂∩NG) = P(A₂) * P(NG|A₂) = 0,35 * 0,05 = 0,0175
Valori la probabilità che data l'informazione che una parteprovenga da fornitore 1 è quale che essaprovenga dal fornitore 2?
Siamo cercando le probabilità a posteriori P(A₁|B) e P(A₂|B).dalla legge della probabilità totale ora sappiamo cheP(A|B) = P(A∩B) / P(B) è dalla regola del prodotto
P(B) = P(A₁∩B) + P(A₂∩B); per teorema delle probabilità totali.
Da qui introduciamo il Teorema di BayesP(A₁|B) = P(A₁) * P(B|A₁)/ Σi P(B|A) * P(Ai)
In generale:
P(Ai|B) = P(Ai) * P(B|Ai) /Σi P(B|Aj) * P(Aj)
Metodo utilizzato per calcolarela probabilità a posteriori
CAPITOLO 6: DISTRIBUZIONE DI PROBABILITÀ CONTINUA
VARIABILI CASUALI CONTINUE
è una variabile casuale che può assumere qualsiasi valore numerico in un intervallo o in un insieme, gli intervalli rappresentano eventi casuali, i valori continui.
DISITNZIONE TRA V.C. DISCRETE E V.C. CONTINUE
- Nelle variabili casuali continue non parliamo di funzione di probabilità bensì f(x)=funzione di densità.
- Funzione di densità: prob. Che la variabile casuale continua assuma qualsiasi valore in un determinato intervallo.
- S ⊂ R -> S non è più discreto ma è un sottoinsieme di R.
- P(X = x) = 0 = probabilità che la v.c. assuma un particolare valore è sempre 0.
- L'area sotto f(x) in S è pari a 1.
1) VARIABILE CASUALE UNIFORME
Si ha una distribuzione di probabilità uniforme se ogni intervallo di uguale lunghezza è ugualmente probabile.
-> Le probabilità è proporzionale alla lunghezza dell'intervallo.
[X ∈ S = [Xm, XM] ⊂ R I = (x1, x2]
Xm x XM
f(x)=1/(XM-Xm) per Xm≤ X ≤ XM
0 aumenta
- L'area A (al di sotto del grafico di f(x)) compresa tra x1 e x2 rappresenta la probabilità che una variabile casuale continua assuma un valore entro l'intervallo I = (x1, x2).
E(x)= XM + XM / 2
ESEMPIO: (Tempo che intercorre tra un'operazione di vendita su eBay e la successiva)
Var(X): (XM - Xm)2 /12
2) VARIABILE CASUALE GAUSSIANA
F(x)=1/(σ√2π) e-(x-μ)2/2σ2
dove: μ = media σ = deviazione standard
π =3,14159 e = 2,71828
- μ è il valore attorno al quale la distribuzione è simmetrica media P(x1)=P(x1)=0,5
- d è il valore che la distanza la media dal punto di flesso determina quanto la curva è piatta e larga
Distribuzione Campionaria di p
La distribuzione campionaria di p è la distribuzione di tutte le v.a. possibili di p.
Valore atteso
E(p) = p dove E(p) valore atteso di p p = proporzione della popolazione
Deviazione standard (dp)
Popolazione finita:
In generale:
Forma
Approssimazione alla gaussiana per n ≥ 30
- La formula per il calcolo di p° data da x/n dove x è il numero di successi nel campione
Esempio
Calcolo della probabilità di errore e di dipendenza da n.
n = 10
0.1; 0.2; 0.3; 0.4; 0.5; 0.6; 0.7; 0.8; 0.9; 1
P(|p° - p| ≥ 0.1) = ?
* P(0.2, 0.4) U P(0.7, 0.6)
* la somma dei successi può essere vista come una binomiale V ~ bin (n; ½)
NOTA BENE: se aumenta n, la probabilità di errore diminuisce
Dimensione campionaria per contenere l’errore entro una determinata probabilità
Esempio (k)
n = 100 P(|p° - p| > 0.2) = 0.456
CAPITOLO 9: I TEST D'IPOTESI
CHE COSA SONO I TEST STATISTICI
- prove sperimentali di un'ipotesi di interesse definita prima dell'inizio dell'esperimento
- prove sperimentali con una componente casuale dell'ipotesi di interesse
- i risultati dei test sono aleatori
IPOTESI NULLA (H0): ipotesi che si esclude
IPOTESI ALTERNATIVA/DI INTERESSE (H1/HA): opposto di ciò che indica H0
H0 e H1 sono complementari
IPOTESI PER I TEST A 1 CODA (per μ)
- H0: μ ≥ μ0 vs H1: μ < μ0 | ipotesi composte
- H0: μ ≤ μ0 vs H1: μ > μ0 |
IPOTESI PER I TEST A 2 CODE (per μ)
H0: μ = μ0 vs H1: μ ≠ μ0 → ipotesi semplici
ESEMPIO 1 (★)
Un'azienda vuole implementare un nuovo sistema di carburazione per aumentare i km/l e con il vecchio sistema si facevano mediamente 15 km/l.
DATI: Xi: variabile casuale che indica i km/lμ = E[Xi]H1: μ > 15 vs H0: μ ≤ 15
RISOLUZIONI
- se i dati campionari evidenziano μ > 15 almeno che è poco verosimile e che H1 non veda
- se i dati campionari risultano poco verosimili avendo assunto μ = 15 allora H0 è falsa ed è vera H1
ERRORE DI I E DI II TIPO
H0 VERA H1 VERA SI ACCETTA H0 CONCLUSIONE CORRETTA ERRORE DI II SPECIE SI ACCETTA H1 ERRORE DI I SPECIE CONCLUSIONE CORRETTA- ERRORE DI I SPECIE: P(errore I tipo) = α
- ERRORE DI II SPECIE: P(errore II tipo) = β