Anteprima
Vedrai una selezione di 10 pagine su 43
Statistica - statistica per ingegneria Pag. 1 Statistica - statistica per ingegneria Pag. 2
Anteprima di 10 pagg. su 43.
Scarica il documento per vederlo tutto.
Statistica - statistica per ingegneria Pag. 6
Anteprima di 10 pagg. su 43.
Scarica il documento per vederlo tutto.
Statistica - statistica per ingegneria Pag. 11
Anteprima di 10 pagg. su 43.
Scarica il documento per vederlo tutto.
Statistica - statistica per ingegneria Pag. 16
Anteprima di 10 pagg. su 43.
Scarica il documento per vederlo tutto.
Statistica - statistica per ingegneria Pag. 21
Anteprima di 10 pagg. su 43.
Scarica il documento per vederlo tutto.
Statistica - statistica per ingegneria Pag. 26
Anteprima di 10 pagg. su 43.
Scarica il documento per vederlo tutto.
Statistica - statistica per ingegneria Pag. 31
Anteprima di 10 pagg. su 43.
Scarica il documento per vederlo tutto.
Statistica - statistica per ingegneria Pag. 36
Anteprima di 10 pagg. su 43.
Scarica il documento per vederlo tutto.
Statistica - statistica per ingegneria Pag. 41
1 su 43
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

P P

P

∼ N ∼ N µ , σ

X , σ Y X Y i

i i i i

i i i

i

3.7.1 Normale standard

Una gaussiana con media 0 e varianza 1 (quindi simmetrica rispetto all’asse verticale) risulta essere

particolarmente comoda per fare i conti, perciò viene chiamata “normale standard” Z:

(0, 1)

Z ∼ N

La sua funzione di ripartizione (t) viene chiamata Φ(t) e sono disponibili tabelle che riportano i suoi

F Z

valori (sensatamente utili).

Dalla simmetria della normale standard deriva anche la proprietà per cui:

Φ(−t) = 1 Φ(t) =

− ≥ t)

P(Z

16 3.7. DISTRIBUZIONE NORMALE (CONTINUA)

Per esempio, nel valutare 0, 75), si dovrà cercare la casella che unisce la riga dello 0, 7 con la

P(Z

colonna dello 0, 05 (trovando 0, 77337).

3.7.2 Processo di standardizzazione

Non sempre si ha a che fare con variabili aleatorie distribuite come la normale standard, in questi casi si

può procedere a “standardizzarle”.

Partendo dalla normale standard si ha (tramite l’applicazione di un funzionale) che = + porta

Z Y σZ µ

ad avere (µ, ) , perciò è possibile anche procedere al contrario:

2

∼ N

Y σ

data una V.A. (µ, )

2

∼ N

X σ

− − −

X µ t µ t µ

= ... poi tabelle...

≤ ≤ ≡ Z≤

t)

P(X P P

σ σ σ 17

CAPITOLO 3. DISTRIBUZIONI ALEATORIE NOTEVOLI

Φ: = Φ(z)

z)

3.7.3 Tabella della P(Z

Z ≡ N ≥

(0, 1): ) =

z β

3.7.4 Quantili della P(Z β

18 4

TLC

4.1 Combinazioni lineari di variabili aleatorie

Le variabili aleatorie si dicono “indipendenti” se

n X

i \ Y

=

∈ ∈ ∀E ⊆

X E X E

P P R

i i i i i

i i

La dicitura “iid” rappresenta V.A. indipendenti identicamente distribuite (anche i parametri delle

distribuzioni devono essere gli stessi).

Se si hanno V.A. indipendenti e si chiamano ] = ] = , definendo la combinazione

2

X µ , σ

E[X V[X

i i i i i

n

lineare = ( il primo termine sarà il coefficiente ) si avrà che:

P

Y C X C

i i 0

i=0 ] = + + + ] = + +

2 2 2 2

C C µ . . . C µ C σ . . . C σ

E[Y V[Y

n n

0 1 1 n n

1 1

Se si hanno due V.A. non indipendenti , e su costruisce = + , si avrà:

X X Y X X

1 2 1 2

] = + ] = ] + ] + 2 ] ]E[X ]

µ µ X

E[Y V[Y V[X V[X E[X E[X

1 2 1 2 1 2 1 2

Si definisce quindi la “covarianza” come cov(X ) = ] ]E[X ] (se le V.A. fossero

, X X

E[X E[X

1 2 1 2 1 2

indipendenti allora ] ] , come mostrato di seguito).

Q Q

X

E[ E[X

i i

i i  (x) :

 S −→

f A

 R

X i

 i

date =⇒

(y) =

 S −→

f B

 R

Y j

 j

ZZ

] = (x)yf (y)

xf dx dy

E[XY X Y

S S

×

A B

i j

i j

X

Z Z

X

= (x) (y)

xf dx yf dy

X Y

A A

i j

i j

= ]

E[X] E[Y 19

CAPITOLO 4. TLC

In generale se le V.A. sono indipendenti la loro covarianza è nulla, però non è detto che ad una covarianza

nulla corrisponda l’indipendenza delle V.A. (se si tratta di gaussiane invece è vero).

La covarianza può assumere un ampio spettro di valori, così si definisce la “correlazione”:

cov(X )

, X

1 2

cor(X ) = [−1; 1]

, X

1 2 ]V[X ]

p

V[X

1 2

• se cor 0 le V.A. sono direttamente correlate;

>

• se cor 0 le V.A. sono inversamente correlate;

<

• più 1 e più le V.A. sono correlate;

|cor| →

• se = 1 le V.A. si dicono “perfettamente correlate” e perciò una è esprimibile come combinazione

|cor|

lineare dell’altra.

Per una generica combinazione lineare di V.A. si ha allora:

Y n

X X

] = + + + 2 cov(X )

2 2 2 2

C σ . . . C σ C C , X

V[Y i j i j

n n

1 1 i=1 j<i

n n

( la sommatoria corrisponde a ).

P P P

i=1 j<i j<i

4.2 Teorema del limite centrale

Date V.A. iid, definendo ] = e ] = , il TLC afferma che ( per ma

2 → ∞,

X , . . . , X µ σ n

E[X V[X

i n i i

solitamente si accetta 30 ):

n > 2

σ

∼ N

X µ, n

n

X 2

∼ N

X nµ, nσ

i

i=1 −

X µ

√ ∼Z

σ/ n

Casi notevoli di applicazione del TLC sono:

1. se 5 ( quindi anche 5 ) allora (µ = = ;

2

− B(n, ∼ N −

np > np(1 p) > p) np, σ np(1 p))

2. se 10 allora (µ = = .

2

P(λ) ∼ N

λ > λ, σ λ)

20 4.2. TEOREMA DEL LIMITE CENTRALE

4.2.1 Correzione di continuità

Approssimando una V.A. discreta con una V.A. continua (tramite il TLC) è possibile che quest’ultima

contempli valori che la prima non poteva assumere, perciò (nel caso in cui la V.A. discreta di partenza

assumesse valori interi) si ricorre ad una “correzione”:

denotando con la V.A. trasformata con il TLC:

X̃ • = 0.5 + 0.5)

≈ −

t) < X̃ < t

P(X P(t

• + 0.5)

> t) X̃ > t

P(X P(

• 0.5)

≈ −

< t) X̃ < t

P(X P(

• 0.5)

≥ ≈ ≥ −

t) X̃ t

P(X P(

• + 0.5)

≤ ≈ ≤

t) X̃ t

P(X P( 21

5

Statistica descrittiva

La statistica descrittiva fornisce dei valori utili basandosi sulle osservazioni, ossia sul campione (una parte

casuale di popolazione che è stata misurata).

5.1 Indici descrittivi

• Media campionaria: 1 X

=

x x i

n i

• Varianza campionaria: 1

1 n

X X

= =

= (x 2 2

2 2

· · ·

− −

x) x

s x

i

1 1 1

i

− − −

n n n

i i

la varianza dell’intera popolazione sarebbe invece = (x .

2 2

P −

σ x) /n

i

i

• Deviazione standard campionaria: = 2

s s

• Covarianza campionaria: 1 X

cov = (x −

− x)(y y)

i i

1

n i

• Correlazione campionaria: cov

cor = s s

x y

• Quantile (o percentile) ( di ordine ) :

α

: #{x #{x (1

≤ } ≥ ∧ ≥ } ≥ −

q q α n q α) n

α i α i α

• Quartili: (primo quartile) , (secondo quartile o mediana) , (terzo quartile).

q q q

0,25 0,5 0,75

• Range: min(x ); max(x ) oppure max(x ) min(x )

i i i i

• Range interquartile: IQR = −

q q

0,75 0,25 22 5.2. BOXPLOT

5.2 Boxplot

La “scatola” del box-plot parte da e arriva a (contiene perciò il 50% delle osservazioni), indicando

q q

0,25 0,75

(con una riga) la mediana .

q 0,5

I “baffi” del box-plot si estendono nell’intervallo 1.5 IQR; + 1.5 IQR , anche se in alcune

q q

0,25 0,75

rappresentazioni si fermano all’ultima osservazione dell’intervallo presente nel campione.

Le osservazioni del campione che eccedono l’intervallo dei baffi sono detti “outliers” ma sono comunque

graficati per completezza.

5.3 Scatterplot

Lo scatter-plot riporta in un grafico le osservazioni di due differenti campioni.

Se il coefficiente di correlazione è prossimo ad 1 e più lo scatter-plot sarà simile ad una retta. 23

6

Stima parametrica

Si definisce “statistica” un generico funzionale del campione casuale di V.A. (tutte iid).

6.1 Stima puntuale

Dato un parametro la statistica che si utilizza per stimarlo viene detta “stimatore” e si indica con (

Θ̂

θ

che è quindi un funzionale delle V.A. incognite Θ̂ = Θ̂(X ) ); l’effettiva “stima” del parametro

, . . . , X θ

n

1

si indica con ed è lo stimatore calcolato nelle osservazioni del campione, quindi = Θ̂(x ) .

θ̂ θ̂ , . . . , x n

1

I parametri per cui si predilige uno stimatore rispetto ad un altro sono la distorsione e l’errore quadratico

medio (mean squared error):

• la distorsione rappresenta la “mira” dello stimatore, cioè se esso è indirizzato verso il giusto valore;

• l’errore quadratico medio rappresenta la “precisione” dello stimatore, cioè se mediamente esso si

avvicina al suo valore target. 24 6.2. STIMA INTERVALLARE

6.1.1 Distorsione

Per uno stimatore Θ̂ del parametro , si definisce la sua distorsione come:

θ bias[Θ̂] = E[Θ̂] − θ

uno stimatore è “non distorto” se bias[Θ̂] = 0 o, alternativamente, se E[Θ̂] .

≡ θ

6.1.2 Errore quadratico medio

Per uno stimatore Θ̂ del parametro , si definisce il suo errore quadratico medio come:

θ

MSE [Θ̂] = (Θ̂ = = V[Θ̂] + bias [Θ̂]

2

2

− · · ·

θ)

E

6.1.3 Efficienza relativa

L’efficienza relativa relaziona gli errori quadratici medi di due stimatori, infatti l’efficienza dello stimatore

Θ̂ rispetto allo stimatore Θ̂ si calcola come:

1 2 MSE[Θ̂ ]

2

ER[Θ̂ Θ̂ ] =

,

1 2 MSE[Θ̂ ]

1

6.1.4 Stimatori notevoli

Per ragioni puramente pratiche è frequente la necessità di stimare il valore atteso o la varianza di una

certa V.A. , perciò è bene ricordarsi che i “migliori” stimatori sono:

• per il valore atteso Θ̂ =

X

E[X]

• per la varianza Θ̂ = oppure (rispettivamente se si ha a disposizione un campione

n−1

2 2

S S

V[X] n

di osservazioni o le osservazioni di tutta la popolazione, la formula infatti è una correzione sui gradi

di libertà).

6.2 Stima intervallare

Lo stimatore intervallare per il parametro con “livello di confidenza” 1 è un intervallo del tipo

θ, α

[L ; ] (lower e upper) tale per cui ) = 1 (solitamente si utilizzano valori piccoli di

≤ ≤ &

Dettagli
Publisher
A.A. 2024-2025
43 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher LorenzoTovs di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Milano o del prof Masci Chiara.