vuoi
o PayPal
tutte le volte che vuoi
Metodi matematici
- Statistica descrittiva = descrizione e sintesi dei dati (media, mediana, moda, deviazione standard)
- Statistica inferenziale = tecniche per inferire estrarre conclusioni dai dati osservati.
Definizione classica (Laplace)
La probabilità di un evento E è il rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti ugualmente possibili.
P(E) = numero casi favorevoli a E/numero casi possibili
Definizione frequentistica (Von Mises)
La probabilità di un evento E è il limite della frequenza relativa alle prove in cui l'evento si verifica, quando il numero delle prove tende ad infinito: P(E) = limn→∞ (n(E)/n)
Definizione soggettivista (De Finetti, Savage)
La probabilità soggettiva di un evento E è una misura del grado di fiducia che l'individuo ha nel verificarsi dell’evento E.
Per rendere la definizione operativa è necessario pensare P(E) come la somma che si scommetterebbe su E, per vincere 1 se E si verifica, 0 se non si verifica.
Definizione assiomatica (Kolmogorov)
Un elemento comune alle tre definizioni: l'aspetto matematico. Nelle 3 definizioni, P(E) è:
- 0 ≤ P(E) ≤ 1, se E è l'evento certo, P(E) = 1
- P(E∪F) = P(E) + P(F) se E e F sono due eventi disgiunti, altrimenti P(E∪F) = P(E) + P(F) - P(E∩F) proprietà di additività
Spazio campionario S = insieme di tutti i possibili esiti dell'esperimento. Evento E = sottoinsieme dello spazio campionario S
∅ = evento impossibile, S = evento certo.
Dati due eventi E e F, si possono definire:
- E∪F unione: si verifica se almeno uno tra E e F (o entrambi), contiene i risultati che sono in E o in F
- E∩F intersezione: si verifica se si verificano E e F, contiene i risultati che sono contemporaneamente in E e in F
- E' evento complementare a E: si verifica se E non si verifica, non si verifica E se non si verifica E
- E⊂F: E contiene e uniti i risultati che sono in E ma non in F
Da moderna teoria della Probabilità si fonda sull'importanza assiomatica:
- Proprietà algebriche
- Commutativa E∪F = F∪E, E∩F = F∩E
- Associativa E∪(F∪G) = (E∪F)∪G e E∩(F∩G) = (E∩F)∩G
- Distributiva E∪(F∩G) = (E∪F)∩(F∪G)
- Legge di De Morgan
- (∪E) = ∩E', (∩E) = ∪E
Definizione Assiomatica di Probabilità
Dati uno spazio campionario S e una famiglia di eventi E, una misura di probabilità P è una funzione che soddisfa i seguenti assiomi:
(i) P (A) ≥ 0
(ii) P (S) = 1
(iii) Siano (Ei)i∈I una successione di eventi a due a due incompatibili allora P(⋃ i∈I Ei)= ∑ i∈I P(Ei)[additività numerabile]
In particolare, da (iii) segue che
P⋃(Ei) = P(E1) + P(E2)+···+P(En)(additività finita)dim se E1 ∩ E2 ··· ∩ En = ∅
P(A ∪ B) = P(A) + P(B) se A ∩ B = ∅
P(E ∪ F) =P(E) + P(F) - P(E ∩ F)
Sapendo che P(F ∩ E˜) = P(F ∩ Ec) = P(F) − P(F ∩ E)=> P(F) − P(F ∩ E) = P(F ∩ Ec)
P(E ∪ F) = P(E) + P(F) − P(E ∩ F)
P(¬P(E)) = P(¬E) quindi P(E ∩ F) = P(E) + P(F) − P(F ∩ E)
La generalizzazione della somma a un numero n di eventi si chiama principio di inclusione-esclusione
Esempio:Da uno studio risulta che il 10% degli studenti della LSE suonano un strumento nel tempo libero, il 20% pratica sport, il 5% studia una lingua straniera. Inoltre, il 5% suona e pratica sport, il 3% suona e studia una lingua e il 2% studia una lingua e pratica sport. L’1% fa le tre cose. Scegliendo a caso uno studente della LSE, si calcoli la probabilità che
- faccia almeno una di queste attività;
- non ne faccia alcuna;
- studi una lingua o suoni uno strumento ma non pratichi sport.
1) P(M U F U L) = P(M) + P(F) + P(L) − P(M ∩ F) − P(M ∩ L) − P(F ∩ L) + P(M∩L∩F);
2) P(Ec) = P(S) − P(E) = 1 − P(M U F U L) = 1 − 0,26 = 0,74
3) P(M U L − F) = P(M U L) − P((M U L) ∩ F)
Come si calcolano? M ∪ (U ∪ L) ∩ F = ∅ incompatibili
P(M U L − F) = P(M U L) − P(F ∩ (M U L) = P(M U L − F)
P(M U L − F) = 0,26 − 0,02 = 0,24
Probabilità uniforme
Se S è uno spazio campionario assomma finito, # (S)=N e S={s1, s2, s3, e gli N eventi elementari sono equiprobabili, allora
P(A) = #A/#S
Esempi:
- Qual è la probabilità che lanciando due dadi si ottenga 7 sommando i due risultati?
- Qual è la probabilità che lanciando tre dadi il risultato più basso sia 1?
Due dadi eguali vengono lanciati ripetutamente. Qual è la probabilità che il risultato “somma 5” arrivi prima di “somma 7”?
Un’urna contiene n palline di cui una è speciale. Si fanno k estrazioni senza remissione. Qual è la probabilità di aver estratto la pallina speciale?
Poker: Una mano di poker è formata da 5 carte scelte dallo 52 del mazzo di carte francesi. Calcolare la probabilità di avere i seguenti “servizi”:
- scala (reale/simple);
- colore;
- trolley;
- full;
- coppia doppia.
Indipendenza
Due eventi E e F si dicono indipendenti se la realizzazione di uno non modifica la probabilità del verificarsi dell'altro, e se P(F)≠0, E è indipendente da F se P(E|F)=P(E)
Gli eventi E ed F sono indipendenti se P(E∩F)=P(E)P(F)
- L'indipendenza tra due eventi è una relazione simmetrica!
- Non ci permette di includere il caso di due eventi tra loro incompatibili
- Quando E e F sono indipendenti, anche i loro complementi lo sono
Attenzione a non scambiare incompatibilità con indipendenza!
Tre eventi E, F, G sono indipendenti se P(E∩F∩G)=P(E)P(F)P(G)
P(E∩F)=P(E)P(F) P(F∩G)=P(F)P(G) P(G∩F)=P(G)P(F)
- NON sono sufficienti a garantire l'indipendenza dei 3 eventi.
Generalizzando n eventi E1, En si ha la seguente
DEF Gli eventi E1 E2 En si dicono indipendenti se per ogni K ∈ {2, ..., n} e per ogni scelta di {i1, ik} si ha P(Ei1 ∩ Ei2 ∩ Eik) = ∏ P(Ei), i ∈ {i1, ik}
Indipendenza condizionale
DEF Sia F un evento non trascurabile. E1, E2 sono indipendenti condizionalmente a F se per ogni K ∈ {2, ..., n} e per ogni scelta {i1, ..., ik} → P(Ei ∩ Ek | F) = ∏ P(Ei | F)
Indipendenza rispetto P(•|F)
Geometrica
In una successione di prove indipendenti, ognuna con probabilità di successo p, siamo interessati alla prova in cui si realizza il primo successo ⇒ la v.a. X che indica la prova del primo successo assume valori {1, 2,...} p(X = k) = P(1 successo alla k-esima prova) = p(1-p)k-1.
La variabile geometrica di parametro p, X~Ge(p) p∈(0,1) è una v.a. discreta che assume valori {1, 2,...} funzione di densità p(k) = p(1-p)k-1, k ∈ N.
E(X) = 1∕p Var(X) = 1-p∕p2
Ora, da un’urna con N palline, di cui m bianche e N-m nere, se ne scelgono n a caso, senza riposizione. m ‘palline bianche estratte’.
Def. La variabile ipergeometrica X, di parametri N, n, m X~IG(N, n, m) con m≤N, n≤N è una v.a. discreta che assume i valori X = {max(0, n-(N-m)), ..., min(n, m)}
con p(k) = (mk)(N-mn-k)∕(Nn) funzione di densità. E(X) = np Var(X) = np(1-p)(1 - n-1∕N-1).
Supponendo che n e N siano molto grandi rispetto a n, si può pensare che l’estrazione senza riposizione non sia molto diversa da quella con riposizione. Si può dimostrare che l’ipergeometrica può essere ben approssimata dalla binomiale di parametri p = m/n e n.
Funzione generatrice dei momenti
Def. La funzione generatrice dei momenti (F.g.m.) di una v.a. X per t ∈ ℝ, è definita come ϕX(t) = E[etX] = ∑ etkpX(x). ϕX(0) = 1
da f.g.m. identifica di distribuzione della X. Il momento k-esimo di X si trova calcolando la derivata k-esima della f.g.m e valutandola in t=0. (ϕX(0) = E(Xk).
Se esistono, si possono calcolare E(X) = ϕ'X(0) e Var(X) = ϕ''X(0) - (ϕ'X(0))2.
*se esiste per -h