Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
N
∑ ¿
i=1
¿
√ 2
σ σ
= = ¿
√
Lo scarto quadratico medio campionario, s, è:
i−¿ x
́
x
¿
¿
2
¿
¿
¿
n
∑ ¿
i=1
¿
√ 2
s= s = ¿
√
Chebychev determinò, per ogni insieme di dati, indipendentemente dalla forma della distribuzione,
degli intervalli che contengono una percentuale minima di osservazioni.
Disuguaglianza di Chebychev: per ogni popolazione con media µ, scarto quadratico medio σ e
˃
k 1, la percentuale di osservazioni che appartengono all’intervallo (µ - kσ ; µ + kσ) è:
1
almeno 100(1− ) %
2
k
dove k rappresenta il fattore moltiplicativo dello scarto quadratico medio.
La disuguaglianza di Chebychev si usa quando si conoscono media e varianza e si vuole
conoscere la distribuzione. I passaggi sono i seguenti:
x
́
-σ σ : moltiplico per k il σ
x
́
-kσ kσ : moltiplico per k il σ
x x x
́ ́ ́
-kσ+ kσ+ 1
1−
x
́ ± 2kσ → non inferiore a 2
k
Regola empirica (68%, 95% o 99,73%): Per molte popolazioni di grandi dimensioni, la regola
empirica fornisce una valutazione della percentuale approssimativa di osservazioni il cui
scostamento, in più o in meno dalla media, è pari al massimo a una, due o tre volte lo scarto
quadratico medio:
• Approssimativamente il 68% delle osservazioni sono nell’intervallo µ ± 1σ;
• Approssimativamente il 95% delle osservazioni sono nell’intervallo µ ± 2σ;
• Quasi tutte le osservazioni (99,73%) sono nell’intervallo µ ± 3σ.
Per eliminare la distorsione che si crea quando si confrontano le variabilità di diverse realtà, dove
una è molto più piccola dell’altra, si può fare ricorso alla grandezza percentuale di seguito
espressa.
Il coefficiente di variazione, CV, è una misura di variabilità relativa che esprime lo scarto
quadratico medio come una percentuale della media (purché la media non sia nulla). Esso è dato
come: σ
CV × 100
= μ ≠0
con
μ
∣ ∣
Il coefficiente di variazione campionario è:
s
CV × 100 ́
= X ≠ 0
con
́
X
∣ ∣
Esistono poi strumenti numerici per descrivere una relazione lineare e misurarne la direzione: la
covarianza e il coefficiente di correlazione lineare.
La covarianza, Cov, è una misura della relazione lineare tra due variabili. Un valore positivo indica
una relazione diretta e un valore negativo indica una relazione inversa. Essa è data come:
N
∑ x y
( −μ )( −μ )
i x i y
i=1
Cov X , Y
( )=σ =
xy N
La covarianza campionaria è:
n
∑ x x y y
( −́ )( − ́ )
i i
i=1
Cov X , Y
( )=s =
xy n−1
Il valore così trovato dipende dall’unità di misura, il che lo rende un indice inadeguato per valutare
l’intensità della relazione lineare tra due variabili. Per questo si utilizza il seguente.
Il coefficiente di correlazione lineare è calcolato dividendo la covarianza per il prodotto degli
scarti quadratici medi delle due variabili. Esso è dato come:
Cov X , Y
( )
ρ= σ σ
x y
Il coefficiente di correlazione lineare campionario è:
Cov X , Y
( )
r= s s
x y
dove s e s sono gli scarti quadratici medi campionari delle due variabili. Un’utile regola pratica
x y
afferma che si può assumere l’esistenza di una relazione lineare se:
2
r
∣ ∣
> √ n
Il valore del coefficiente di correlazione lineare varia tra -1 e +1. Quanto più r è vicino a +1, tanto
più i punti che rappresentano le osservazioni sono vicini a una retta crescente, che indica una
relazione lineare positiva. Quanto più r è vicina a +1, tanto più i punti che rappresentano le
osservazioni sono vicini a una retta decrescente, che indica una relazione lineare negativa.
Quando r=0, non c’è alcuna relazione lineare tra x e y, ma non necessariamente ciò implica la
mancanza di un qualsiasi tipo di relazione.
Finora abbiamo visto che le relazioni tra due variabili possono essere descritte usando dati
campionari. In alcuni casi è però richiesto di rintracciare una specifica relazione funzionale. In molti
di questi casi possiamo approssimare adeguatamente l’auspicata relazione funzionale con
l’equazione lineare:
Y β X
=β +
0 1
dove Y è la variabile dipendente, X è la variabile indipendente, β è l’ordinata all’origine e β è la
0 1
pendenza della retta, ossia la variazione di Y per ogni variazione unitaria di X.
I coefficienti vengono di solito stimati grazie al metodo dei minimi quadrati. In questo modo si
riesce a tracciare una retta che rappresenta la migliore retta interpolante.
Graficamente si noteranno i punti al di sopra e al di sotto della retta. La distanza di ciascun punto
osservato (x , y ) dalla retta viene definita residuo e indicata con e . L’obiettivo è quindi quello di
i i i
poter scegliere l’equazione lineare in modo da minimizzare una certa funzione dei residui, sia
positivi che negativi.
Il metodo dei minimi quadrati determina b e b , stime di β e β , in modo da minimizzare la somma
0 1 0 1
dei quadrati dei residui.
Metodo dei minimi quadrati: la retta ottenuta con il metodo dei minimi quadrati, basata su dati
campionari, è detta retta di regressione ed è data da:
y b x
̂ =b +
0 1
s
Cov , Y
(X ) y
b = =r
1 2 s
s x
x b y x
= ́ −b ́
0 1
CAPITOLO 4
Nella maggior parte dei casi in cui è richiesta una decisione in situazione di incertezza è
necessario ricorrere al calcolo delle probabilità.
Un esperimento aleatorio (o esperimento casuale) è un processo che porta a due o più risultati
senza che si possa prevedere quale di questi si realizzerà.
I possibili risultati di un esperimento aleatorio sono chiamati eventi elementari e l’insieme degli
eventi elementari è chiamato spazio campionario.
Un evento è un qualsiasi sottoinsieme di eventi elementari di uno spazio campionario. Un evento
si verifica quando il risultato dell’esperimento aleatorio è uno degli eventi elementari che lo
costituiscono. L’evento impossibile rappresenta l’assenza di eventi elementari. L’evento certo è
rappresentato da tutti gli eventi elementari contenuti nello spazio campionario.
Intersezione di eventi: siano A e B due eventi dello stesso spazio campionario S. La loro
intersezione, indicata con A∩B, è l’insieme di tutti gli eventi elementari di S che appartengono sia
ad A sia a B. L’intersezione A∩B si verifica se e solo se si verificano sia A sia B. Si userà il termine
probabilità congiunta di A e B per indicare la probabilità dell’intersezione di A e B.
Se A e B non hanno in comune alcun evento elementare, sono detti mutuamente esclusi, e la
loro intersezione A∩B è l’evento impossibile.
Unione di eventi: siano A e B due eventi dello spazio campionario S. La loro unione, indicata con
A∪B, è l’insieme di tutti gli eventi elementari di S che appartengono ad almeno uno dei due eventi.
Quindi l’unione A∪B si verifica se e solo se A o B o entrambi si verificano.
Se l’unione di più eventi copre l’intero spazio campionario S, si dice che gli eventi sono
collettivamente esaustivi.
Evento complementare: sia A un evento dello spazio campionario S. L’insieme degli eventi
elementari appartenenti a S ma non ad A viene detto evento complementare di A e indicato con
́
A .
Abbiamo bisogno di sviluppare una struttura per calcolare e trasformare numericamente le
probabilità. Per fare questo si devono stabilire tre assiomi che le probabilità dovranno soddisfare.
Assiomi della probabilità: sia S lo spazio campionario di un esperimento aleatorio, siano O gli
i
eventi elementari e sia A un generico evento. Per ciascun evento A dello spazio campionario S si
assume che P(A) sia sempre definita e che si abbiano i seguenti assiomi della probabilità:
0 ≤ P( A) ≤ 1
• Se A è un qualunque evento dello spazio campionario S:
∑
P A A P O
( )=P ( ) ( )
∪O =
i i
• Se A è un evento di S: A
dove la notazione indica che l’unione e la sommatoria si estendono a tutti gli eventi
elementari di A
P S
( )=1
•
Svilupperemo ora alcune importanti regole per il calcolo delle probabilità di eventi composti.
́
A
Regola dell’evento complementare: sia A un evento e il suo complementare. La regola
dell’evento complementare afferma che:
́
P A A)
( )=1−P(
Regola additiva: siano A e B due eventi. Usando la regola additiva della probabilità, la probabilità
della loro unione è:
P A B A P B A ∩ B)
( ) ( )+ ( )−P(
∪ =P
Regola moltiplicativa: siano A e B due eventi. Usando la regola moltiplicativa delle probabilità (o
regola della probabilità composta), la probabilità della loro intersezione può essere derivata dalla
probabilità condizionata come:
P A ∩ B A B P( B)
∣
( ) ( )
=P
P A ∩ B B A P( A)
∣
( ) ( )
=P
Supponiamo di essere interessati alla probabilità di A, sapendo che B si è verificato. Il problema
può essere affrontato usando il concetto di probabilità condizionata (o subordinata). L’idea di base
è che la probabilità del verificarsi di un evento, spesso, dipende dal fatto che altri eventi si siano o
meno verificati.
Probabilità condizionata: siano A e B due eventi. La probabilità condizionata dell’evento A,
sapendo che l’evento B si è verificato, è identificata dal simbolo P(A|B) e si ricava come:
P A ∩ B
( )
∣
P A B P B
( )= ( ) >0
con
P B
( )
P A ∩ B
( )
∣
P B A P A 0
( )= ( )>
con
P A
( )
L’indipendenza statistica (o indipendenza stocastica) è un caso speciale nel quale la probabilità
condizionata di A dato B è uguale alla probabilità non condizionata di A, cioè P(A|B) = P(A).
- Risolvere un problema di matematica
- Riassumere un testo
- Tradurre una frase
- E molto altro ancora...
Per termini, condizioni e privacy, visita la relativa pagina.