vuoi
o PayPal
tutte le volte che vuoi
Abbiamo diversi tipi di errore dovuti a diverse cause:
- Errori di tipo casuale o accidentale, essi influiscono sul risultato della misura in modo casuale,
per renderci conto di quanto vale questa incertezza dobbiamo ripetere la misura più volte.
- Errori di tipo sistematico, essi sono legati al processo di misurazione ad esempio ad una
taratura imperfetta dello strumento. A differenza dell’errore casuale quest’errore può essere
evitato, ed influisce sulla misura in una sola direzione.
- Errore dovuto alla sensibilità dello strumento.
Per eliminare l’errore casuale, considerando la misura esatta x , ripetiamo la misura N volte
0
( N>>1), e osserviamo che le misure si distribuiscono sopra e sotto il valore x che vogliamo
0
determinare, notiamo inoltre che il numero di misure che si trovano sopra x e sotto x sono circa
0 0
uguali, allora data “δ ” la semi ampiezza dell’intervallo dove ricadono le misure possiamo dire
x
±
che il risultato è x δ , ove la misura è affetta da soli errori casuale e x è una qualsiasi
i x i
misurazione.
Nel caso generale δ sarà dato da δ = max (epsilon,errori casuali, errori sistematici).
x x
La migliore stima del valore della misura che possiamo dare è il valor medio delle misure (1/N Σ
per i che va da 1 a N di x ), se N>>0 le differenze tra x -x tendono a cancellarsi tra loro, questa
i i 0
differenza è detta scarto, questo ci fa capire che il valore medio è meno affetto dall’incertezza da
errori casuali rispetto ad altri.
La migliore stima dell’incertezza su ciascuna misura è data dallo scarto quadratico medio.
(vedi teoria delle distribuzioni: se io prendo un qualsiasi risultato delle misurazioni, esiste il 68%
di probabilità che la misura che sto cercando ricada nell’intervallo xi +- sigma x (ossia lo scarto
quadratico medio) per essere più precisi prendiamo il valor medio delle misure fatte)
In cosa consiste la misura di una grandezza? Supponiamo di avere una grandezza fisica x, ciò a
cui noi siamo interessati è il valore x che ne rappresenta la misura in opportune unità, ora
0
abbiamo compreso che questo valore x non lo potremo mai determinare con precisione assoluta,
0
il meglio che possiamo fare è determinare un intervallo di valori all’interno del quale è
particolarmente probabile che si trovi il valore x che cerchiamo. Questo intervallo è scritto come
0
± ±
x δ ( migliore stima incertezza).
i x
Quanto detto finora vale per la misurazione di grandezze fondamentali, vediamo adesso come
effettuare la misura di una grandezza derivata. Esse non si misurano direttamente, si misurano le
grandezze fondamentali da cui essa dipende e attraverso la dipendenza funzionale che la
definisce si ricava la misura della grandezza stessa.
Supponiamo di avere una grandezza F(x), dato che x è affetta da incertezza, anche F sarà
affetta da incertezza, noi vogliamo vedere come l’errore si propaga da x a F.
±
Supponiamo di misurare x e di ottenere x δ , quello che noi sappiamo è che il valore x ha
i x 0
una buona probabilità di ricadere in questo intervallo, a noi interessa determinare F(x ) ma non
0
possiamo determinarlo con certezza, tuttavia è ragionevole pensare che il valore della grandezza
derivata abbia buona probabilità di ricadere nell’intervallo definito dai valori di F agli estremi
dell’intervallo della grandezza x: F(x - δ ) ——— F(x + δ ).
i x i x
Se x è la migliore stima che abbiamo del valore x , allora è ragionevole pensare che F(x )
i 0 i
che chiameremo F sia la migliore stima della grandezza F(x ).
i 0
Domanda base alla Teoria della propagazione degli errori è: nota l’incertezza sulle variabili
indipendenti, come facciamo a determinare l’incertezza sulle variabili derivate?
| |
Assumendo che δF può essere scritto come F(x + δ ) - F(x ) , poiché è necessario che delta F sia
i x i
positiva, per valutare l’ incertezza calcoliamo il rapporto δF/δx :
otteniamo cosi un rapporto incrementale, ossia una derivata.
Perché il Valore assoluto?
Nel primo la caso la curva è crescente, quindi la differenza tra
F(x + δ ) - F(x ) è positiva.
i x i
Nel secondo caso la curva è decrescente, quindi la differenza tra
F(x + δ ) - F(x ) è negativa, ciò va in contraddizione con quanto detto
i x i
in precedenze, è quindi opportuno aggiungere il valore assoluto.
Quindi il limite per δ che tende a zero del rapporto incrementale definisce la derivata della
x
funzione F nel punto x e lo si descrive col simbolo dF/dx. Geometricamente questo è il coefficiente
i
angolare della retta tangente la funzione nel punto x .
i
Se noi potessimo mandare δ a zero, il limite per δ tendente a zero di δF/δ sarà uguale al valore
x x x
assoluto di dF/dx calcolato nel punto x .
i
Ma δ non può essere azzerato poiché esso rappresenta l’incertezza e l’incertezza non può mai
x
essere eliminata, quello che possiamo fare è rendere la nostra misurazione sempre più precisa in
maniera tale da ridurre quello che si chiama errore relativo, cioè il rapporto tra l’incertezza su x e la
migliore stima che abbiamo su x. L’errore relativo misura la precisione della misura fatta di x, più
esso è piccolo più è precisa la misura.
Assumiamo che δ sia molto piccolo, riducendo ulteriormente δ ci
x x
accorciamo che il valore di questo rapporto non varia più
sensibilmente, possiamo concludere che se δ è molto piccolo
x
questo rapporto ha gia assunto il suo valor limite, quindi se δ è
x
piccolo possiamo pensare che δ /δ abbia già raggiunto il suo
F x
valor limite, quindi sia ben approssimabile con la derivata:
Successivamente moltiplicando
ambo i membri per δ otteniamo:
x
Questa è la formula che ci da la propagazione dell’incertezza dalla variabile indipendente, la
grandezza fondamentale, alla variabile dipendente, la grandezza derivata. ±
Quindi, riassumendo, se il risultato della misura della variabile indipendente è x δ , e voglio
i x
determinare una grandezza derivata F in funzione di x ( F(x) ), la migliore stima di questa
grandezza sarà il valore di F calcolato nella migliore stima del valore di x e l’incertezza δ sarà
x
data dalla formula appena indicata.
±
avremo quindi F(x ) δ dove
i x
In molte situazioni però quello che succede è che ci troviamo a determinare la misura di una
grandezza che dipende da più di una grandezza fondamentale.
Supponiamo di voler misurare il volume di un parallelepipedo, tale volume si calcola effettuando
tre misure indipendenti di tre diverse grandezze: V(l ,l ,l ) = l x l x l
1 2 3 1 2 3
avremo : ± δ
l l
i1 1
± δ ± δV
l l e vogliamo determinare V
i2 2 i
± δ
l l
i3 3
Chiaramente la migliore stima che abbiamo del volume (V ) sarà data dalla migliore stima che
i
abbiamo degli spigoli (l , l , l ): V = V (l , l , l ) = l x l x l
i1 i2 i3 i i1 i2 i3 i1 i2 i3
Quello che vogliamo valutare adesso è come calcolare l’incertezza sul volume in funzione delle
tre grandezze fondamentali dalle quali esso dipende.
Scriviamo il problema in maniera generale:
Supponiamo di avere una grandezza derivata definita da diverse grandezze fondamentali:
± ± ±
F(x,y,z,…) x δ ; y δ ; z δ
i x i y i z
Abbiamo visto che se la grandezza derivata dipende da una sola grandezza fondamentale noi
scriveremo che la misura è uguale ad un intervallo centrato nella migliore stima che abbiamo di
±
F più o meno una certa semiampiezza δF, ossia: F δF
i i
Naturalmente la migliore stima che abbiamo di F, F sarà data dalla migliore stima che abbiamo
i
delle grandezze fondamentali che la definiscono cioè : F = F (x , y , z ,…)
i i i i
Come abbiamo imparato precedentemente sappiamo che
qualora la grandezza derivata dipendesse da una sola
grandezza fondamentale avremo che:
Quello che adesso andremo a fare è una generalizzazione di tale formula, nel caso in cui la
funzione non dipenda più da una sola variabile, ma da più variabili., più grandezze che noi
misuriamo indipendentemente.
Cosa rappresenta la derivata? rappresenta come varia la funzione al variare delle sue variabili,
che in questo caso sono tre.
Ci possiamo chiedere se io prendo una delle variabili e la faccio variare di poco, e se tengo tutte
le altre variabili fisse, di quanto varia la nostra funzione?
±
x : x ———> x δ
i i x
y = y i
z = z i ±
La variazione di F sarà: F(x δ , y , z ,…) - F(x , y , z ,…), poichè cambio solo il valore di x e
i x i i i i i
mantengo le altre variabili costanti. Se voglio calcolare la rapidità con cui F varia, devo
rapportare questa variazione alla variazione della corrispondente variabile:
±
F(x δ , y , z ,…) - F(x , y , z ,…)
i x i i i i i
δ
x
Questo mi dirà quanto rapidamente varia F se vario solo la variabile x, quindi divido per δ .
x
Se δ è piccolo o diminuisce progressivamente, anche la corrispondente variazione di F
x
diminuirà.
Posso pensare di mandare δ a zero, e vediamo a cosa tenderà questo rapporto:
x
calcolo ±
lim F(x δ , y , z ,…) - F(x , y , z ,…) = ∂F (se la funzione è abbastanza regolare)
i x i i i i i (xi,yi,zi,…)
δx—> 0 δ ∂x
x
Ossia la derivata parziale della funzione, dove varia soltanto x e le altre variabili fungono da
“ spettatrici”.
Posso fare il medesimo calcolo anche al variare della sola variabile y, oppure x otterrò
rispettivamente
±
lim F(y δ , x , z ,…) - F(x , y , z ,…) = ∂F (se la funzione è abbastanza regolare)
i y i i i i i (xi,yi,zi,…)
δy—> 0 δ ∂y
y
±
lim F(z δ , y , x ,…) - F(x , y , z ,…) = ∂F (se la funzione è abbastanza regolare)
i z i i i i i (xi,yi,zi,…)
δz—> 0 δ ∂z
z
Quindi, come si può notare, la definizione è molto simile a qu