Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
CALCOLO DELLE
PROBABILITÀ E
STATISTICA
Indice
- INTRODUZIONE ............................................ pag. 1
- IMPOSTAZIONE ASSIOMATICA ........ pag. 4
- VARIABILI ALEATORIE ......................... pag. 15
- DISTRIBUZIONI DI PROBABILITÀ ...... pag. 23
- STATISTICA INFERENZIALE .............. pag. 45
1. INTRODUZIONE
Lo sviluppo delle teorie sul calcolo delle probabilità fin dall'800 con Pascal, Welles e Laplace, assimilabile al gioco d’azzardo.
La più recente delle teorie, neanche quella che approfondiremo leggermente, è la concezione assiomatica di probabilità.
Prime di affrontare la parte, riassumiamo le precedenti.
1.1 CONCEZIONE CLASSICA
La definizione classica di probabilità la attribuiamo a Laplace che la esprimeva così:
- La probabilità P(E) di un evento E è il rapporto tra i casi favorevoli e realizzazioni di equiprobabilità tra i casi.
È chiaro che %g1; ogni caso, inoltre %g1', %g0.
Le proprietà del calcolo di probabilità [RE], sarà RES.
È sempre un valore %g0; se w = 0
- se w = 0 allora P(E) = 0 ed E si dice evento impossibile
- se w = u, allora P(E) = 1 ed E si dice evento certo
Alla base di questo concezione ci si chieda se ciascuno caso OSS sia equiprobabile; solo se si rispettano %g0, oss. si equiparano le occasioni.
Esempio
Abbiamo un mazzo di 40 carte, estraiamo una carta, qual è la probabilità che sia figura?
Ci sono 10 possibili casi di cui 12 sono favorevoli all’evento “esce figura”, quindi:
- P(E) = 12 / 40
1.2 CONCEZIONE FREQUENTISTA (O STATISTICA)
Questa concezione nasce dall'osservazione empirica che, contro percentuale, su un numero di prove super> test, ed i vari eventi, si precisi, uno si verifica con la frequenza descritta con la concezione classica.
In base all'insieme Ω, potremmo definire l'insieme 2(Ω) come l'insieme delle parti, il calcolo delle probabilità, se tale insieme rispetta caratteristiche seguenti:
- ∅, Ω ∈ 2(Ω)
- A ∈ 2(Ω) → Ac ∈ 2(Ω)
- se {An}n ∈ ℕ, unione successiva di eventi (An), allora (∪iAn) ∈ 2(Ω)
Allora oltre ad essere l'insieme degli eventi di Ω (l'oggetto degli eventi) e si indica con il simbolo 𝔸.
Esempio
Nel lancio di una moneta Ω = {θ, T} 2(Ω) = {∅, {θ}, {T}, Ω}
dove ∅ significa testa e "croce", se usi due → A = {∅, T} ∈ 2(Ω) → Ac = Ω \ {∅} = {T} ∈ 2(Ω) è vera → {An = ∅, An+1 = T}, {A1 = ∅} → (An) ∈ 2(Ω)
quindi 2((Ω)) è un σ-algebra
Definiamo ora cos'è la funzione di probabilità: Dato uno spazio campionario ω, e sia 𝔸2(Ω), la funzione P: 𝔸 → ℝ è una funzione di probabilità se:
- P(Ω) = 1
- P(A) ∈ 𝔸 ≥ 0
- se {An} è una successione di elementi di 𝔸 a due luci disgiunte, ossia se (n ∈ ℕ, f ∈ ℕ) = (Ai ∩ Aj = ∅), allora P(∪i∈ℕ Ai) = ∑i∈ℕ P(Ai)
Dagli assiomi equivoci derivano alcune proprietà basiche. Le probabilità due che capiteranno per completare:
P(∅) = 0 cì con l'evento relativo all'insieme vuoto ha probabilità nulla.
Dimostrazione
Sappiamo che:
- Ω = ℚ ∪ Ωc = Ω \ ∅
- P(Ω) = P(∅) + P(Ωc), ma P(Ω) ¬ = P(∅)
cioè ∅ ≠ P(∅)
composte, che
nCk pk (1-p)n-k
sia la probabilità che l'esperimento riesca k volte;
se quest'ultimo non disponesse che possono
essere solo che il più essere successi credi
già il primo più il fresco; il consideryazione dei l'uso
(nk) pk (1-p)n-k
Esempio
Fila una scatola ci sono 20 pezzi di cui 5 difettosi.
Effettuiamo due estrazioni successive, a
sostituazione; qual è la probabilità che:
- il primo pezzo sia difettoso;
- il secondo pezzo è difettoso;
calibiamo 5 pezzi siano difettosi.
Più una f = 5⁄20 = 1, 1-p= 15⁄20
quindi, nel primo caso, la 15⁄20
sta
(5⁄6) p(1-p) = (15⁄20) = 5⁄225
non secondo disloc, il problema è causato dove
esist di
E1 = 5 sono solo 3 i pezzi difettosi,
E2 = ci sono 4 pezzi difettosi.
quindi:
P(E) = P(E1) + P(E2) = (5⁄3) (5⁄20) (15⁄20) + (4⁄20) (5⁄15)
=43⁄225
2.3.2 PROBABILITÀ TOTALE
Poco fa, abbiamo detto un particolare
Θi Bi di A di un evento A è la probabilità di\xa0
A essendo duo
P(A) = Σi P(A ∩ Bi)
più offacciamo questo visto solo prodotto terramosi,
possiamo scrivere dicolo come
P(A) = Σi P(Bi) P(A | Bi)
2.4 TEOREMA DI BASES
Vediamo il "vongivauroku, girà isis
P(A ∩ B) = P(A) P(B | A) + P(B) P(A | B)
3. Variabili Aleatorie
Nel calcolo delle probabilità un concetto molto importante è quello di variabile aleatoria.
Alcune di esse costituiscono modelli teorici applicati ad eventi reali.
Esse variano perché un esperimento restituisce risultati casuali e variabili, come per esempio:
- il numero di auto che passano su un casello autostradale,
- la durata della vita personale,
- il numero di interazioni dei clienti in un'azienda.
Una conoscenza di tutto ciò nota quale sarebbe la base assunta da queste variabili; in realtà, non possiamo, in base alle condizioni date, costruire dei modelli che ci descrivano il comportamento che ha in generale quell'evento.
Esempio
Si lancia 3 volte una moneta; si vuole capire il comportamento dell'evento "esce 2 volte testa".
Se si lancia l'evento può verificare 0, 1, 2, 3 volte, quindi le variabili che costruiamo assumono i valori 0, 1, 2, 3; mentre, tramite i possibili casi 8 in base a questo, possiamo costruire le seguenti tabelle:
- Valori - Probabilità
- 5 - 1/8
- 3 - 3/8
- 2 - 3/8
- 1 - 1/8
Quindi si definisce variabile aleatoria un variabile che può assumere diverse determinazioni in dipendenza del verificarsi di eventi legati che costituiscono particolari dello spazio campionario Ω.
Una variabile aleatoria può anche essere vista come una funzione che associa ad ogni valore che può assumere la probabilità che quel valore sia assunto, cioè come X = {x₁, x₂, …, xₖ}.