vuoi
o PayPal
tutte le volte che vuoi
STATISTICA
Classi di errori sperimentali e la loro origine
L’errore quantifica il grado di non conoscenza, cioè l’incertezza da cui è affetta, inevitabilmente, ogni misura: nessuna
quantità fisica può essere misurata con esattezza. Ripetendo più volte la stessa misura spesso si ottengono valori
prossimi, ma diversi tra loro. Capendo però le incertezze e le loro cause, cercare di ridurre gli errori il più possibile.
La cause principali degli errori sperimentali sono:
Strumentali: malfunzionamenti nella strumentazione, errori nella calibrazione delle apparecchiature,
- esecuzione delle misure in condizioni non appropriate.
Di metodo: derivano dal comportamento chimico o fisico non ideale dei reagenti o delle reazioni durante
- l’analisi. Es. lentezza o incompletezza di alcune reazioni, instabilità di alcune specie, reazioni secondarie che
interferiscono con quella principale.
Personali: dovuti all’operatore a cui viene richiesta una valutazione soggettiva (lettura di una scala o
- osservazione di un cambiamento di colore).
Le classi di errori sperimentali principali sono riassumibili in:
Errore casuale (o indeterminato)
- Errore sistematico (o determinato)
- Errore grossolano
-
L’errrore sistematico è unidirezionale e fisso per una serie di misure ripetute effettuate nelle stesse condizioni
sperimentali. Almeno in linea di principio, esso può essere corretto (con correzioni teoriche, calibrazione dello strumento,
uso di standard o di un bianco, ecc.). La caratteristica di questi errori è di avere sempre lo stesso segno (cioè
sovrastimano o sottostimano sempre la misura). L’errore sistematico altera la misura in una direzione, producendo una
deviazione da quello che è il valore reale.
L’errore sistematico può essere diviso in
Errore sistematico costante: il valore dell’errore è costante e non dipende dalla quantità misurata
- Errore sistematico proporzionale: aumenta o diminuisce in proporzione alla quantità misurati.
- Gli errori sistematici possono anche essere composti, cioè somma di errori sistematici costanti e proporzionali.
-
L’errore casuale (o indeterminato) è l’errore associato ad una misura derivante dalle limitazioni naturali insite nelle
misure fisiche. Esso può assumere valori positivi o negativi e non può essere eliminato. Il suo effetto sul risultato di una
misura può essere però valutato in quanto l’errore casuale può essere studiato mediante un approccio di tipo statistico.
L’errore casuale complessivo in una misura è determinato dall’accumularsi di una serie di errori estremamente piccoli
dovuti a molte cause non controllabili e nella maggior parte dei casi non identificabili singolarmente.
La loro somma determina però una fluttuazione (variazione casuale) dei valori misurati in una serie di replicati intorno al
loro valore medio.
Con l’aumento del numero degli errori considerati si passa da una distribuzione discontinua ed approssimata
(istogramma) ad una curva indistinguibile da una vera e propria curva gaussiana (popolazione degli errori casuali).
Quando la variazione è dovuta all’errore casuale, i valori tendono a disporsi attorno al valore medio secondo un
andamento a campana, detto curva gaussiana o curva normale dell’errore.
Gli errori casuali sono inevitabili ma possono essere ridotti ripetendo la misura molte volte. L’errore casuale può essere
interpretato come dispersione dei valori misurati attorno al valore reale.
L’errore grossolano deriva da occasionali errori macroscopici compiuti durante la procedura analitica e non è trattabile
in modo sistematico. Spesso è molto evidente ed esistono criteri statistici per stabilire se un dato apparentemente
aberrante all’interno di una serie di misure (“outlier”) sia dovuto o meno ad un errore di questo tipo.
Correzione dell'errore sistematico
Gli errori sistematici strumentali e quelli dovuti alle interferenze della matrice sono corretti utilizzando opportune
tecniche di calibrazione.
Gli errori sistematici personali possono essere minimizzati attraverso il controllo delle operazioni effettuate e la
scelta del metodo analitico.
Gli errori sistematici di metodo sono i più difficili da rivelare in quanto per la loro individuazione è necessario
conoscere il valore “vero” del risultato dell’analisi, ad esempio:
utilizzando un materiale standard di riferimento
- utilizzando due metodi analitici indipendenti
-
In assenza di materiali standard di riferimento adeguati, è possibile confrontare i risultati ottenuti mediante il metodo in
esame con quelli ricavati dall’analisi dello stesso campione con un differente metodo analitico. I due metodi dovrebbero
essere il quanto più possibile diversi fra di loro in modo da evitare che uno stesso fattore possa influenzare entrambe le
analisi.
Precisione e accuratezza
La precisione descrive la riproducibilità delle misure, cioè la vicinanza dei risultati che sono stati ottenuti tutti nello
stesso modo. Generalmente, la precisione di una misura è determinata con una semplice ripetizione della misura. Tre
termini vengono utilizzati per descrivere la precisione di una serie di dati replicati: la deviazione standard, la varianza, e
il coefficiente di deviazione. Tutti questi termini sono una funzione della deviazione dei dati dalla media = d =
i
| |
−x́
x i x́ μ
Gli statistici trovano utile discriminare fra una media del campione e una media della popolazione . La
prima è la media di un campione limitato estratto da una popolazione di dati, definita quando il numero di replicati N è
un numero piccolo. Al contrario, la media della popolazione è la vera media, definita con l’aggiunta che N sia così grande
da tendere all’infinito. In assenza di errore sistematico, la media della popolazione è anche il valore vero delle quantità
x́ μ
misurate. La probabile differenza tra e diminuisce rapidamente con l’aumentare del numero delle misure
che formano il campione; di solito quando N raggiunge i valori da 20 a 30, questa differenza è trascurabile.
N N
∑ ∑
x x
i i
i=1 i=1
x́= quando N è piccolo μ= quando N → ∞
N N σ
La deviazione standard della popolazione è una misura della precisione di una popolazione di dati dove N è il
s
numero di dati replicati che compongono la popolazione. Mentre la deviazione standard del campione
σ
differisce dalla perché utilizza la media del campione, e perché N viene sostituito dal numero di gradi di libertà (N-
s
1). Se non venisse usata questa sostituzione, la calcolata sarebbe in media minore della vera deviazione standard
σ cioè avrebbe una tendenza (bias) all’errore negativo. Con N-1 viene sottratto il vincolo al numero di replicati
perché usiamo la media invece del valore vero. N-1 è il numero di risultati indipendenti che rientrano nel calcolo della
deviazione standard.
√ √
N N
∑ ∑
2 2
( −μ) (x −
x x́)
i i
i=1 i=1
=
σ s= −1
N N
La varianza è il quadrato della deviazione standard. La deviazione standard ha le stesse unità di misura dei dati, mentre
la variazna ha le unità dei dati al quadrato. Gli scienziati tendono ad usar la deviazione standard più che la variazna
come unità di precisione perché è più facile correlare la precisione di una misura alla misura stessa se entrambe hanno
le stesse unità di misura.
N
∑ 2
( − )
x x́
i
2 i=1
=
s N−1
La deviazione standard relativa moltiplicata per 100% viene definita come il coefficiente di variazione (CV). In
genere viene preferito in quanto permette di avere una indicazione diretta dell’importanza dell’incertezza rispetto al
valore della misura.
s
=
CV × 100 %
x́
La deviazione standard, calcolata su un gruppo di N misure, assolve bene il compito di incertezza da associare alla
singola misura della grandezza in esame, mentre per quello che riguarda l'incertezza sulla media si ricorre alla
deviazione standard sulla media s . Utilizzando questa nuova grandezza come incertezza da associare alla media di
m
N misure, abbiamo in realtà fatto un piccolo assunto. Abbiamo cioè supposto che le singole misure effettuate si siano
distribuite seguendo la distribuzione di Gauss (assunto peraltro assai fondato) e di conseguenza abbiamo considerato la
deviazione standard più come incertezza sulle singole misure che sulla media di quest'ultime.
s
=
s m √ N
L’accuratezza indica la vicinanza della misura al suo valor vero o accettato come vero ed è espressa dall’errore.
L’accuratezza misura l’accordo fra un risultato ed il suo valore vero, mentre la precisione descrive l’accordo fra parecchi
risultati che sono stati misurati nello stesso modo. La precisione è determinata semplicemente replicando una misura.
D’altra parte, l’accuratezza non può essere determinata esattamente perché il valore vero di una quantità non può mai
essere noto con esattezza. Invece deve essere usato un valore accettato. L’accuratezza è espressa in termini assoluti o
relativi.
L’errore assoluto E nella misura di una quantità è lo scarto tra la media dei replicati trovata e il valore vero.
L’errore relativo E è una quantità più utile dell’errore assoluto perché permette di avere maggiori informazioni,
r
indicando direttamente l’importanza dell’errore.
E
−x =
E= x́ E ×100 %
vero r x vero
Test T di Student e intervallo di fiducia
Spesso è necessario stabilire se un dato sperimentale ed un dato teorico (ad esempio il volume misurato e il volume
teorico nella taratura della vetreria) o due dati sperimentali differiscano fra di loro in modo significativo.
Si deve valutare se la differenza osservata sia effetto di un errore di tipo casuale (dovuto al fatto che si stanno
confrontando risultati ottenuti su due diversi campioni appartenenti alla stessa popolazione) o di tipo sistematico
(dovuto al fatto che si stanno confrontando dati appartenenti a due popolazioni diverse).
Esiste una serie di test statistici (definiti test statistici di significatività) che permettono di stabilire se le differenze
osservate sono, ad un certo livello di fiducia, dovute ad errori sistematici.
Questi test si basano fondamentalmente sullo stesso principio, ovvero sul calcolo mediante opportune formule di un
parametro statistico a partire dai dati sperimentali.
Questo parametro verr&agra