Estratto del documento

N N N

X X X

− − − (10)

ε (z̄) = [α(x x̄) + β(y ȳ) + γ γ] = (αε (x̄) + βε (

t̄)) = 0 ,

z,i i i x,i y,i

i=1 i=1 i=1 1 di 2

dove abbiamo usato il fatto che la somma degli scarti dalla media è nulla. Per la varianza di che chiamia-

Z,

N

1 2

P

mo , troviamo invece un risultato per nulla banale

S = ε (z̄)

zz z,i

i=1

N N N N

1 1

X X X

2 2

2 − − − − −

S = ε (z̄) = [α(x x̄) + β(y ȳ) + γ γ] = [α(x x̄) + β(y ȳ]

zz z,i i i i i

N N

i=1 i=1 i=1 (11)

N N N

2

2 β 2αβ

α X X X

2 2

ε (x̄) + ε (ȳ) + ε (x̄)ε (ȳ) .

= x,i y,i x,i y,i

N N N

i=1 i=1 i=1 N

1

2 2

P

Nell’ultima espressione riconosciamo che il primo termine è uguale ad , dove è

α S S = ε (x̄)

xx xx x,i

i=1

N

N

1 2

2 P

la varianza di il secondo termineè uguale ad , dove è la varianza di ; il terzo

ε (ȳ)

X; β S S = Y

y,i

yy yy i=1

N

ed ultimo termine è qualcosa di nuovo: definiamo la di ed come

covarianza X Y

N N

1 1

X X − − (12)

S = S = [ε (x̄) ε (ȳ)] = [(x x̄) (y ȳ)] .

xy yx x,i y,i i i

N N

i=1 i=1

In questi termini riscriviamo il risultato di (11) come segue

2 2 (13)

S = α S + β S + 2αβ S .

zz xx yy xy

1.3 Correlazione (cenni)

A questo punto vale la pena ricordare che gli scarti sono sia positivi che negativi al variare dell’indice

ε (x̄) i;

x,i

infatti, la loro somma su fa zero. Lo stesso vale per gli scarti Se il valore di ciascuna misura di

i ε (ȳ).

y,i

è indipendente dal valore delle , allora anche il prodotto assumerà, al variare di tanto

x y ε (x̄) ε (ȳ) i,

i i x,i y,i

valori positivi che negativi. Se questo è il caso, la media dei valori che come si vede dalla

ε (x̄) ε (ȳ),

x,i y,i

definizione (12) è precisamente la covarianza , andrà a zero. In questo caso parliamo di grandezze non

S

xy

Più in generale, definiamo la tra ed come

correlate. correlazione X Y

S

xy (14)

.

ρ =

xy p S S

xx yy

La correlazione è un numero “puro”: nella formula precedente le unità di misura si cancellano. Si mostra

−1 ≤ ≤ ≈

che vale sempre Come abbiamo visto, quando diciamo che le grandezze non sono

ρ 1. ρ 0

xy xy

≈ ≈ −1

correlate. Quando diciamo che le variabili sono e quando diciamo che

fortemente correlate,

ρ +1 ρ

xy xy

sono Un esempio di due variabili correlate è dato l’età e l’altezza di un bambino. Un

fortemente anti-correlate.

esempio di variabili anti-correlate è dato dalla massa muscolare e dalla massa grassa di una persona.

1.4 Propagazione dell’errore per la somma di due grandezze non correlate

Tornando alla formula per la covarianza (12), nel caso in cui ed possiamo semplificarla

non siano correlate

X Y

come segue: 2 2 (quantità non correlate) (15)

S = α S + β S , ,

zz xx yy

e sempre in questo caso possiamo scrivere per l’errore

q 2 2 2 2 (quantità non correlate) (16)

µ = α µ + β µ , .

z x y

1.5 Combinazioni lineari di più grandezze

Non è difficile estendere quanto discusso sopra per mostrare che, nel caso della somma di grandezze

M

vale che se

X , X , . . . X

1 2 M · · · (17)

Z = α X + α X + + α X + γ ,

1 1 2 2 M M

allora · · · (18)

z̄ = α x̄ + α x̄ + + α x̄ + γ ,

1 1 2 2 M M

e q 2 21 2 22 2 2 (19)

µ = α µ + α µ + . . . α µ ,

z 1 2 M M

dove ancora una volta l’ultima formula vale per variabili non correlate. 2 di 2

1.6 Errore della media

Un caso particolare degno di nota è quello della media di grandezze indipendenti ed identicamente

M

distribuite (cioè che hanno in particolare lo stesso errore In questo caso la media è data da

µ).

1

· · · (20)

X + X + + X ,

Z = 1 2 M

M · · ·

che è un caso particolare di (17) con e Assumendo che gli errori abbiano

α = α = = α = 1/M γ = 0.

1 2 M

· · ·

lo stesso valore troviamo

µ = µ = = µ = µ,

1 2 M r 1 µ

2 (21)

µ = M µ = ,

z 2

M M

cosa che mostra quantitativamente come l’errore della media di grandezze diminuisce al crescere di .

M M

Questo giustifica la nostra assunzione che, per grande , la media converge al valore vero—osservazione che

M

abbiamo usato, tra l’altro, nella discussione dell’eq. (8).

1.7 Media pesata

È anche interessante il caso in cui si voglia fare la media di misure con errori non

x , x , . . . x µ , µ , . . . µ

1 2 M 1 2 M

necessariamente uguali tra loro. In questo caso, è intuitivo che sia opportuno dare “maggior peso” alle misure

con errore più piccolo rispetto a quelle con errore più grande. Questa intuizione puó essere resa precisa.

Introduciamo la di grandezze come

media pesata M x , x , . . . x

1 2 M

M M

X X

con (22)

x̄ = α x , α = 1 .

pes. i i i

i=1 i=1 · · ·

Questa è chiaramente una generalizzazione del caso simmetrico dove . L’errore

α = α = = α = 1/M

1 2 M

sulla media pesata è dato dall’eq. (19). Qual è la scelta dei pesi che rende questo errore mimimo?

α , . . . α

1 M

Vediamo come rispondere a questa domanda per In questo caso, abbiamo semplicemente

M = 2. q 21 22

2 2

− − (23)

α µ

x̄ = α x + (1 α) x , µ = + (1 α) µ .

pes. pes.

1 2

Perché l’errore sia minimo deve essere 2

d µ

d µ pes.

pes. (24)

= 0 , > 0 .

2

dα dα

2

In pratica, per fare i conti è possibile richiedere che sia minimo, in quanto è chiaro che la varianza

S = µ

pes pes

è minima se e solo se l’errore è minimo. Questo semplifica un po’ le manipolazioni algebriche. Troviamo per la

prima equazione 21 22

− − (25)

α µ (1 α) µ = 0

mentre la derivata seconda è sempre positiva, indipendemente da Troviamo quindi

α.

−2 −2

µ µ

1 2

− (26)

α = , 1 α = .

−2 −2 −2 −2

µ + µ µ + µ

1 2 1 2

Come atteso, il peso è tanto più grande quanto più l’errore è piccolo (anzi, più precisamente quanto più la

varianza è piccola). Per variabili si dimostra che i pesi sono

M −2

µ

i (27)

α = ,

i −2 −2

· · ·

µ + + µ

1 M

la cui somma vale effettivamente uno, come deve essere.

1.8 Breve parentesi matematica: funzioni di più variabili

Consideriamo una funzione (non necessariamente lineare) che dipedende da due variabili e .

f (X, Y ) X Y

Accettiamo senza dimostrazione il fatto che, per una funzione sufficientemente regolare, fissati due punti x 0

ed , vale

y

0 ∂f (X, Y ) ∂f (X, Y ))

− −

f (X, Y ) =f (x , y ) + (X x ) + (Y y )

0 0 0 0

∂X ∂Y

(x ,y ) (x ,y )

0 0 0 0

2

1 ∂ f (X, Y ) (28)

2

− altri termini quadratici

+ + +

(X x )

0 2

2! ∂X (x ,y )

0 0

termini cubici, quartici, etc.

+ , 3 di 2

|X − | |Y − |,

quando le distanze tra il punto ed e tra il punto ed , cioé e sono sufficientemente

X x Y y x y

0 0 0 0

piccole. In questa formula le espressioni ∂ ∂ (29)

, ,

∂X ∂Y

rappresentano le “derivate parziali” rispetto alle variabili ed . La trattazione matematica delle derivate

X Y

parziali va oltre lo scopo di questo corso. Per quanto ci riguarda, intendiamo per derivata parziale rispetto a X

della funzione la derivata fatta rispetto trattando come un parametro costante.

alla sola variabile

f (X, Y ) X, Y

L’espressione ∂f (X, Y ) (30)

∂X (x ,y )

0 0

ha il significato di “fare la derivata rispetto a trattando come costante, e valutare il risultato per

X, Y X = x 0

e . A titolo di esempio consideriamo la funzione

Y = y

0 X (31)

f (X, Y ) = .

Y

In questo caso abbiamo 1 1 X x

∂f (X, Y ) ∂f (X, Y ) 0

− − (32)

= = = = .

, 2

2

∂X Y y ∂Y Y y

(x ,y ) (x ,y ) (x ,y ) (x ,y )

0

0 0 0 0 0 0 0 0 0

1.9 Variabili legate non linearmente

Torniamo ora al caso dell’eq. (4) dove è una funzione non necessariamente lineare. Consideriamo ora

f (X, Y )

il caso in cui scegliamo come valori ed proprio i valori medi e Assumiamo che i valori medi e

x y x̄ ȳ. x̄ ȳ

0 0

siano molto vicini ai valori veri ed . In questo caso, non solo possiamo usare la formula (28), ma vale

X Y

anche l’approssimazione ∂f (X, Y ) ∂f (X, Y )

≈ − − (33)

f (X, Y ) f (x̄, ȳ) + (X x̄) + (Y ȳ) .

∂X ∂Y

(x̄,ȳ) (x̄,ȳ) 2

|X − |X −

Nel compiere questa approssimazione abbiamo usato il fatto che, siccome è piccolo, allora

x̄| x̄| /2!

n n

|X − |Y −

è ancor più piccolo, e ancora di più lo sono i vari termini del tipo nonché i termini con

x̄| /n!, ȳ| /n!.

Riscriviamo la relazione precedente come ∂f (X, Y ) ∂f (X, Y )

− ≈ − − (34)

Z f (x̄, ȳ) (X x̄) α + (Y ȳ) β , α = , β = ,

∂X ∂Y

(x̄,ȳ) (x̄,ȳ)

dove abbiamo usato che per i valori veri vale Questa relazione è precisamente della forma (8).

Z = f (X, Y ).

Questo non è sorprendente: in pratica, abbiamo preso la relazione non-lineare (4), e la abbiamo espansa al

≈ ≈

primo ordine (tenendo cioè solo i termini lineari), cosa lecita fintantoché e . Ora che abbiamo a

x̄ X ȳ Y

che fare con una relazione lineare, possiamo applicare le formule derivate precedentemente. In particolare

dall’eq. (16) segue, per quantità non correlate,

s 2 2

∂f (X, Y ) ∂f (X, Y )

q 2 2 2 2 2 2 (35)

µ = α &mic

Anteprima
Vedrai una selezione di 3 pagine su 6
Appunti laboratorio Fisica 1 Pag. 1 Appunti laboratorio Fisica 1 Pag. 2
Anteprima di 3 pagg. su 6.
Scarica il documento per vederlo tutto.
Appunti laboratorio Fisica 1 Pag. 6
1 su 6
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze fisiche FIS/01 Fisica sperimentale

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher DrSLivo22 di informazioni apprese con la frequenza delle lezioni di Fisica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Padova o del prof Gasparini Ugo.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community