Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
INDICE V DI CRAMER:
Cramer ha proposto di normalizzare l’indice rapportandolo al suo valore massimo:
φ 2 φ 2
V = min [(H-1) (K-1)]
INDICE LAMBDA:
Un indice asimmetrico utile per analizzare la dipendenza è l’indice lambda. Questo indice si basa sull’analisi del miglioramento
h
∑ (n – n )
della previsione del carattere Y, data la modalità del carattere X. E = im
2 i. i
i=1 h
∑ n – n
im
E - E i .m
1 2 i=1
n è la frequenza della moda della riga i-esima. L’indice lambda è dato dal rapporto = =
λ
im E n-n.m
i 1
Proprietà dell’indice lambda:
- 0 ≤ ≤ 1
λ
- = 0 se e solo se la conoscenza di una modalità di riga non è di nessun aiuto nel prevedere la modalità del
λ
carattere di colonna. 9
- = 1 se e solo se la conoscenza di una modalità di riga specifica completamente la modalità di colonna, in altre
λ
parole se ogni riga della tabella contiene al massimo una sola frequenza ≠ 0.
- Se X e Y sono indipendenti, allora = 0, ma non è vero il contrario.
λ Capitolo 8
Probabilità: concetti base
Concetti primitivi
I concetti primitivi rappresentano le nozioni originarie e intuitive su cui viene costruita successivamente tutta la teoria.
Nella geometria, per esempio, il punto e la retta sono concetti primitivi. Se si considera l’esempio del lancio del dado in
questa situazione compaiono tre entità di concetti fondamentali:
- la prova o esperimento aleatorio è un esperimento che ha due o più possibili risultati e in cui c’è un
certo grado di incertezza su quale di questi risultati si presenterà.
- l’evento si distingue in due tipi:
- evento elementare si intende uno dei risultati possibili delle prove
- evento non-elementare
- la probabilità
Il legame logico-formale tra queste entità è schematizzato nella seguente proposizione.
In una data prova, l’evento E si verifica con la probabilità P(E).
Es nel lancio di un dato la faccia contrassegnata dal numero 5 (E = 5) si presenta con probabilità P(E = 5) = 1/6.
La probabilità è un numero compreso tra 0 e 1 che misura il grado di incertezza sul verificarsi di un evento.
Eventi e algebra degli eventi
Con il verificarsi di una prova non si possono considerare tutti gli eventi elementi ω l’insieme di tutti gli eventi è
1
indicato con E. È conveniente introdurre una collezione di eventi E = {E , E , …, E } tutti sottoinsiemi di ) la cui struttura
1 2 p
matematica è quella di un’algebra di Boole.
POSTULATO 1 gli eventi formano un’algebra di Boole.
In questa struttura matematica sono definite le operazioni fondamentali:
1. La negazione di un evento A, ossia Ā (l’evento A non si verifica)
2. L’intersezione tra due eventi A e B, ossia A B (si verifica sia l’evento A che l’evento B)
∩
3. L’unione tra due eventi A e B, ossia A B (si verifica o l’evento A o l’evento B)
∪
È utile definire due eventi importanti:
- L’evento impossibile è definito come A Ā = Ø
∩
- L’evento certo che si verifica sempre perché contiene tutti i possibili risultati dell’esperimento Ø = ).
Due eventi A e B si dicono incompatibili se A B= Ø
∩
I postulati
Ad una generica prova è associato uno spazio campionario ) e ad esso una collezione di eventi la cui struttura
matematica è quella dell’algebra di Boole.
La probabilità è una funzione di insieme che associa a ogni evento E E un numero reale, la probablità sarà indicata con
∈
1
P(E ).
i
POSTULATO 2: P(A) ≥ 0
POSTULATO 3: P(") = 1
POSTULATO 4: [A B= Ø]⇒[P(A B) = P(A) + P(B)]
∩ ∪ 10
Misura della probabilità approccio classico
A partire dai postulati definiti è possibile definire in maniera intuitiva una misura della probabilità che si adatta in cui
gli eventi elementari sono perfettamente noti, in numero finito e equipossibili
La probabilità è data dal rapporto tra il numero dei casi favorevoli all’evento e il numero di casi possibili purché essi
n. di casi favorevoli
siano tutti ugualmente possibili P(E) = n. di casi possibili
Probabilità condizionate e indipendenza
In alcune situazioni si vuole valutare la probabilità di un evento sapendo che si è già verificato un altro evento a esso
collegato (vedi esempio pag. 204). Per un caso di probabilità condizionata la formula è:
n. di casi favorevoli ad (A B)
∩
P(A|B) = n. di casi possibili a B
P(A B)
∩
P(A|B) = con P(B) > 0
P (B)
.
P(A B) = P(B) P(A|B)
∩ P(B A)
∩ .
Se P(A|B) = P(A) e P(B|A) = P(B) allora si ricava che P(B|A) = = P(B) P(B A) = P(B) P(A)
⇒ ∩
P (A)
Capitolo 9
Variabili casuali e distribuzione di probabilità
Variabili casuali (aleatorie)
La variabile casuale (aleatoria, stocastica) X è una funzione definita sullo spazio campionario ) che associa a ogni
risultato elementare in un unico numero reale. Si devono distinguere due tipi di variabili casuali:
ω i
- discreta può assumere un insieme discreto (numerabili) di numeri reali
- continua può assumere tutti i valori compresi in un intervallo reale.
Variabili casuali discrete
Con le variabili casuali discrete si trova facilmente la distribuzione di probabilità (vedi es. pag. 219). Cosi in generale si
può indicare con P(X = x ) la probabilità che la v. c. X assuma il valore x . Cosi si definisce la funzione di probabilità di
i i
una variabile casuale discreta X associa a ognuno dei possibili valori x la corrispondente probabilità P(X = x ). Dalla
i i
definizione discendono due evidenti proprietà:
n
∑P(x ) = 1 P(x ) ≥ 0
i i
i=1
Data una v. c. discreta X, la funzione che fa corrispondere ai valori x le probabilità cumulate P(X ≤ x)viene detta funzione
di ripartizione ed è indicata con: F(x) = P(X ≤ x) = ∑P(X = w) (vedi es. pag. 220)
w≤x
Variabili casuali continue
Si suppone per esempio che la v.c. X possa assumere tutti i valori dell’intervallo reale [0;1] e che assuma ciascun valore
con la stessa probabilità (diversa da 0): comunque si fissi tale probabilità si ha che la somma delle probabilità è infinita.
Piuttosto che assegnare una misura di probabilità ai singoli valori, possiamo assegnare una misura di probabilità a tutti i
possibili intervalli sull’asse reale. A tale scopo so introduce la funzione di densità (è la funzione matematica f(x) per cui
l’area sottesa alla funzione, corrispondente a un certo intervallo, è uguale alla probabilità che X assuma un valore in
b
∫
quell’intervallo P(A ≤ X ≤ b) = f(x) dx
a 11
Proprietà delle funzioni di densità
1. una funzione di densità non può mai assumere valori negativi, ossia f(x) ≥ 0; ciò assicura che la probabilità che
X cada in un qualsiasi intervallo sia non negativa +∞
∫
2. l’area totale sottesa alla funzione è uguale a 1 ossia f(x) dx = 1
-∞
3. la probabilità che la v.c. X assuma un particolare valore dell’intervallo è 0. Ciò è dovuto al fatto che un singolo
valore corrisponde a un in intervallo di ampiezza 0, quindi la corrispondente area è anch’essa 0. Questo per
esempio implica che non ha influenza l’inclusione, nel calcolo della probabilità degli estremi dell’intervallo,
ossia: P(a ≤ X ≤ b) = P(a < X <b)
Data una v.c. continua X, la funzione che fa corrispondere ai valori x le probabilità cumulate P(X ≤ x) viene detta
funzione di ripartizione e indicata con: x
∫
F(x) = P(X ≤ x) = f(w) dw
-∞
Valore atteso e varianza di una variabile casuale
Spesso si è interessati a conoscere il valore medio che un variabile casuale può assumere in un gran numero di prove.
Tale valore viene chiamato valore atteso o speranza matematica:
E(X) = ∑x P(x ) se la v.c. è discreta
i i
i
+∞
∫
E(X) = x f(x) dx se la v.c. è continua
-∞
Però la media fornisce solo la dimensione del fenomeno descritto dalla v.c. ma non fornisce nessuna informazione sulla
sua variabilità. Per la variabilità si usa la varianza, per spiegare la varianza di una v.c. X dobbiamo innanzitutto spiegare
come calcolare il valore atteso della funzione della v.c. X, Y = g(X), che per definizione è dato da E(Y) = ∑y P(y ) nel caso
i i
i
+∞
∫
discreto e in quello continuo è data da E(Y) = y f(y) dy. Queste formule presumono la previa conoscenza di P(y ) e di
i
-∞
f(y), tuttavia questo diventa superfluo perché per il calcolo del valore atteso si può utilizzare direttamente la funzione di
probabilità o di densità infatti si dimostra che se la v.c. X è discreta E(Y) = ∑y P(y ) = ∑g(x )P(x ) mentre se è continua E(Y)
i i i i
i i
+∞ +∞
∫ ∫
= y f(y) dy = g(x) f(x) dx (vedi es pag 226)
-∞ -∞
La varianza V(X) di una v.c. X è definita da
V(X) = ∑ (x – E(X)) p(x )
2
i i
i
+∞
∫
V(X) = (x – E(X)) f(x)dx
2
-∞
La radice quadrata della varianza di una v.c. X viene chiamata deviazione standard di X ed è indicata con:
SD(X) = V(X) 12
Variabili casuali standardizzate e teorema di Chebyshev
I valori standardizzati esprimono la distanza tra le osservazioni e la media in termini di deviazione standard. Se X è una
variabile casuale con valore atteso E(X) e deviazione standard SD(X), allora:
X - E(X)
Y = con E(Y) = 0 e V(Y) = 1
SD(X)
È una variabile casuale standardizzata.
Il teorema (o diseguaglianza) di Cebyshev (vedi cap 4)
Siano X una v.c. e k un valore reale positivo, allora vale la seguente diseguaglianza:
1
.
P(|X – E(X)|≥k SD(X))≤ k 2
Questo teorema previene la probabilità che che X assuma valori distanti dalla media più di k deviazioni standard e al più
1/k .
2
Distribuzione di Bernoulli e binomiale
Si consideri una prova nella quale ha interesse solo verificare se un certo evento si è meno verificato. Tale variabile
casuale viene detta v.c. di Bernoulli. Una v.c. di Bernoulli, indicata con X∼, può assumere il valore 1 con probabilità * e
il valore 0 con probabilità 1 – *; la sua funzione