Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
E E E E =
1 2 1 2
–
P(E P(E ) + P(E ) P(E
1 1 2 1 P(E ) + P(E )
1 2
E ) E )
2 2 –
P(E ) P(E E )
1 1 2
–
P(E E ) P(E )
1 2 1
–
P(E ) P(E ) se E E
1 2 2 1
E ed E E ed E
1 2 1 2
dipendenti indipendenti
≠
P(E | E ) P(E | E ) =
1 2 1 2
P(E ) P(E )
1 1
≠
P(E | E ) P(E | E ) =
2 1 2 1
P(E ) P(E )
2 2
P(E )P(E |E )
1 2 1
P(E
1 = P(E )P P (E )P(E ) 0
2 1 2
E )
2 (E |E )
1 2 Tabella 8.1
cioè se il verificarsi dell’uno non influisce
Se due eventi sono indipendenti,
sulla probabilità di verificarsi dell’altro, la probabilità della loro intersezione
(gli eventi si avverano entrambi) è uguale al prodotto delle loro rispettive
∩
probabilità: P(E E ) = P(E )P(E ).
1 2 1 2
Se due eventi sono incompatibili, cioè se non possono verificarsi
contemporaneamente, la probabilità della loro unione (o si avvera un evento
l’altro)
o si avvera è uguale alla somma delle loro rispettive probabilità: P(E
1
∪ E ) = P(E ) + P(E ).
2 1 2
La misura della probabilità
Si possono dare le seguenti definizioni di misura della probabilità.
Definizione classica dell’esperimento
Se si conoscono le regole aleatorio, la misura discende
dall’applicazione degli assiomi del calcolo delle probabilità a quelle regole.
dell’evento
In queste situazioni, la probabilità è data dal rapporto tra il
numero di casi favorevoli all’evento e il numero dei casi possibili, qualora
siano tutti ugualmente possibili.
Alla regola generale si possono apportare numerosissime varianti, ma il
percorso è rigorosamente deduttivo.
Gli esempi classici vengono dai giochi di sorte: dadi, monete, urne.
Data una moneta ideale e simmetrica con le tradizionali facce Testa e
Croce, e immaginando che il lancio della moneta si realizzi sempre su T o C,
segue che: P(T) = P(C) = 1/2 = 0,5.
Allo stesso modo, il lancio di un dado simmetrico, che in ogni faccia ha
rispettivamente i punti da 1 a 6, configura un esperimento aleatorio in cui tutti
…
i punti da 1 a 6 hanno la stessa probabilità di avverarsi: P(1) = = P(6).
Sia un’urna composta da 10 palline identiche tranne che per il colore, così
4 bianche, 5 rosse. Da un’estrazione puramente casuale
differenziate: 1 nera,
si deduce che:
P(Bianca) = 1/10 = 0,1; P(Nera) = 4/10 = 0,4; P(Rossa) = 5/10 = 0,5
Vale ancora P(Bianca) + P(Nera) + P(Rossa) = 1.
I possibili criteri di estrazione di palline con etichette diverse da una o più
urne sono gli strumenti più efficaci per costruire campioni statistici.
Definizione frequentista
Nell’uso corrente e nella ricerca scientifica, la probabilità di un evento è
l’evento
stimata dalla frequenza relativa con cui stesso compare in un
campione molto ampio di osservazioni.
La frequenza relativa dell’evento in una distribuzione statistica si assume
dell’evento.
quindi come stima della probabilità incognita
Dato un campione di 10.000 neonati, rispettivamente di 5.100 Maschi e 4.900
Femmine, tenendo conto della frequenza relativa dei neonati, distinti per
sesso, la probabilità di ciascun sesso alla nascita sia così definita: P(M) =
5.100/10.000 = 0,51 e P(F) = 4.900/10.000 = 0,49.
La frequenza relativa è una buona stima della probabilità incognita solo se il
campione delle osservazioni è sufficientemente ampio da assicurare una
tendenziale stabilità della frequenza al crescere delle osservazioni.
Definizione su scommessa
Dati due eventi contrapposti, A e B, si immagini di scommettere
sull’avverarsi di A contro B impegnando una posta s (perdita certa), a fronte
di una vincita S (incerta).
Il rapporto (odds) tra la puntata s e la vincita S di A contro B misura la fiducia
che lo scommettitore ideale ha dell’avverarsi rispettivamente di A e B: P(A) =
s/S.
Se lo scommettitore è disposto a scommettere 100 su A per ricevere 400 nel
caso in cui A si avvera (e ovviamente a perdere 100 nel caso in cui A non si
avvera), la probabilità vale P(A) = 100/400 = 0,25. Ne segue che P(B) = 0,75.
La scommessa di A contro B è di 1 a 3.
Probabilità condizionate
probabilità dell’avverarsi di
Dati due eventi A e B, la A se si è avverato B,
cioè la probabilità di A condizionato a B, , è uguale alla probabilità
dell’intersezione A B (ovvero simmetricamente B A):
quindi
Se A e B sono tra loro indipendenti e , quindi:
Teorema di Bayes , …, , …
Dato un insieme esaustivo di ipotesi tra loro indipendenti, H H H ,
1 i n
), …, ), …,
con probabilità rispettive P(H P(H P(H ) e dato un evento E con
1 i n
P(E) > 0, la probabilità di una qualunque ipotesi H , condizionata
i
all’avverarsi di E, è: 1, 2, …,
per i = n
Il teorema esposto, denominato teorema di Bayes, definisce banalmente la
probabilità di un evento condizionato, ed è noto in Statistica come teorema
della probabilità delle cause dati gli effetti, o teorema delle ipotesi data
un’evidenza sperimentale o osservativa.
Variabili casuali e distribuzioni teoriche di
probabilità
Una variabile casuale (v.c.) o variabile aleatoria X è una variabile che può
assumere valori diversi, detti determinazioni della v.c., in dipendenza del
verificarsi di eventi aleatori. Una v.c. è una funzione dello spazio S che
associa a ciascuno degli eventi , costituenti una partizione di S, un valore
reale x , e che trasforma, quindi, lo spazio campione in un insieme di numeri
i
reali.
Una v.c. è generalmente indicata con le lettere maiuscole X, Y e Z, mentre i
valori che essa assume sono indicati con le corrispondenti lettere minuscole
x, y e z.
Se a ciascuno degli eventi elementari dello spazio campione si fa
corrispondere un numero reale si definisce una v.c., mentre se a ciascuno dei
dell’evento
possibili valori della v.c. si associa la probabilità corrispondente
si definisce la distribuzione di probabilità della v.c.
Variabili casuali discrete e variabili casuali continue
Nella teoria delle variabili casuali si opera una distinzione a seconda dello
spazio campionario su cui la v.c. è definita.
1. Variabili casuali discrete
Se la v.c. è definita su uno spazio campionario S discreto, si dice v.c.
discreta; in altri termini, essa può assumere valori in un insieme discreto
, …,
(finito o numerabile) di numeri reali: x , x x , ... in corrispondenza di
1 2 n
…,
altrettanti eventi E E E incompatibili e complementari, la cui
…,
1, 2, n, …, , …
probabilità di verificarsi sia p p p
1, 2, n
Considerato che gli eventi sono incompatibili e complementari risulta che
= 1.
A una v.c. discreta è associata una distribuzione di probabilità, rappresentata
dall’insieme delle modalità che la variabile può assumere, a ciascuna delle
quali è associata la relativa probabilità. , …, , … si dice
La distribuzione delle probabilità p , p p funzione di
1 2 n
probabilità della v.c. X. In altri termini, la funzione di probabilità della v.c.
discreta X è la funzione P(X) che associa a ognuno dei valori possibili x , x ,
1 2
…, … …, …:
x , della v.c. discreta X la corrispondente probabilità p , p , p ,
n 1 2 n
...
La funzione di probabilità è tale che:
1. Non assume mai valori negativi; in simboli: , per i = 1, 2, ...
2. La somma di tutte le probabilità è 1; in simboli: .
Si dice funzione di ripartizione F(x) della v.c. X la funzione così definita:
∈
≤
F(x) = P(X x) R
La funzione di ripartizione associa, quindi, a ogni numero reale x la
0
probabilità che la v.c. X assuma un valore non superiore a x .
0
2. Variabili casuali continue
Se la v.c. è definita su uno spazio campionario S continuo, si dice v.c.
continua; in altri termini, essa può assumere valori compresi in un intervallo
reale limitato o illimitato I. Alla v.c. X è associata una funzione y = f(x) detta
densità di probabilità che gode delle seguenti proprietà:
≥ 0
1. f(x)
2. = 1 ≤ ≤
= P(c X d) con (c; d) I
Pertanto, non è possibile calcolare la probabilità che la v.c. assuma un certo
valore, ma solo la probabilità che essa assuma valori compresi in un certo
intervallo.
La funzione di ripartizione y = F(x) di una v.c. continua (x; f(x)) è una
funzione reale di una variabile reale così definita:
≤
F(x) = = P(X x)
Graficamente, la funzione di ripartizione di una v.c. continua è rappresentata
da una curva non decrescente.
Valore medio e varianza di una variabile casuale
Data una variabile casuale X con P(X = x) = f(x), si possono definire:
la media aritmetica di X, detta anche valore atteso
per variabili discrete
per variabili continue
la varianza per variabili discrete
per variabili continue
Esempio
Lanciamo una moneta simmetrica due volte e associamo a Testa il
punteggio x = 1 e a Croce il punteggio x = 0. Qual è la distribuzione di
probabilità dei possibili risultati?
In due lanci (tra loro indipendenti) si può avverare:
TT con probabilità P(T)P(T) = 0,5 × 0,5 = 0,25
TC con probabilità P(T)P(C) = 0,5 × 0,5 = 0,25
CT con probabilità P(C)P(T) = 0,5 × 0,5 = 0,25
CC con probabilità P(C)P(C) = 0,5 × 0,5 = 0,25
Se TC e CT sono equivalenti e scambiabili, andando a sostituire le
modalità 0 e 1, la variabile casuale x somma dei punti è:
1 + 1 = 2 con P(2) = 0,25
1 + 0 = 0 + 1 = 1 con P(1) = 0,50
0 + 0 = 0 con P(0) = 0,25
Il valore atteso è E(X) = 2 × 0,25 + 1 × 0,50 + 0 × 0,25 = 1.
2 2 2
La varianza è V(X) = 2 × 0,25 + 1 × 0,50 + 0 × 0,25 = 1,5.
La variabile casuale binomiale
La variabile casuale binomiale B(n, p) descrive il numero X di risultati
(successo: x = 1; insuccesso: x = 0) ottenuti in una serie di n prove aleatorie
–
indipendenti, con P(x = 1) = p e P(x = 0) = 1 p:
dove è il numero di combinazioni di n elementi a x a x. –
La v.c. binomiale ha valore atteso E(X) = np e varianza V(X) = np(1 p).
La variabile casuale di Poisson
La variabile casuale di Poisson o “legge degli eventi rari” P(l) descrive un
esperimento aleatorio in cui si con