vuoi
o PayPal
tutte le volte che vuoi
N
∑ x
i
campione di dati. La media del campione è , mentre la media della popolazione in
i=1
x́= N
assenza di errori sistematici coincide con il valore vero. Il valore z ci permette di generalizzare le
2
−z / 2
(x−μ) e
z= y=
nostre curve: . A questo punto l’equazione della curva gaussiana sarà .
√
σ σ 2 π
Le incertezze piccole sono osservate molto più spesso rispetto alle grandi. Utilizzando la funzione z
si può andare a dividere la gaussiana in diverse regioni. Nella regione centrale si vanno a
posizionare circa il 68% dei dati, se si allarga l'intervallo si posizionano il 95% dei dati, e se si
allarga ulteriormente sappiamo che si posizionano il 99% dei dati. Sappiamo che sigma è relativa
alla popolazione, ma abbiamo detto che non analizziamo mai la popolazione: la σ del campione è S.
x ´¿
−
x i ¿
2
¿
¿ . Al denominatore troviamo i gradi di libertà, ossia il numero di variabili indipendenti che
¿
N
∑ ¿
=1
i ¿ ¿
S= √ 2
rientrano nel calcolo della deviazione standard. La varianza del campione equivale a .
S
Trattamento e valutazione di dati statistici
L'intervallo di fiducia attorno ad una media sperimentale è l'intervallo di valori entro il quale ci si
aspetta di trovare con una certa probabilità la media m della popolazione. Le linee di confine
dell'intervallo sono chiamate limiti di fiducia. L'ampiezza dell'intervallo di fiducia è correlata alla
stima della deviazione standard del campione in relazione alla deviazione standard della
popolazione. Nel caso ideale x medio tende a µ, per far sì che questo la deviazione standard deve
essere molto piccole e il numero di misure molto grande.
L'analisi statistica consente il giudizio critico nei confronti dei dati sperimentali e la verifica delle
ipotesi per sviluppare modelli per descrivere i risultati sperimentali. Il test che riguarda la
popolazione è lo z test, ma il primo test che prendiamo in riferimento è il t test. Questo ci permette
di valutare se il nostro set di dati si avvicina al valore noto (cioè quello di µ). I test di verifica
vengono utilizzati per determinare se i risultati di tali esperimenti avvalorano il modello. Se i
risultati sperimentali non sono di conferma al modello, esso non viene considerato corretto e viene
elaborata una nuova ipotesi. Se invece viene trovato un accordo, il modello teorico costituisce la
base per ulteriori esperimenti. L'ipotesi viene detta nulla, in cui si assume che le quantità numeriche
che si stanno confrontando siano uguali. L'ipotesi non è nulla nel 5%. L'ipotesi alternativa
rappresenta quel 5% in cui l’ipotesi nulla non è valida.
Nel t test e quindi nello z test si va a verificare quanto il set di dati ottenuti è simile al valore esatto.
Nel 95% dell'intervallo di fiducia è valida l’ipotesi nulla, mentre nel 5% dell'intervallo di fiducia è
valida l’ipotesi alternativa. Il t test e lo z test possono essere applicati anche a due set di dati
sperimentali. Chiaramente i due set presentano delle differenze l'un l'altro. Se sono diversi di poco
possono essere confrontabili, mentre se sono molto diversi vuol dire che sono affetti da errore
sistematico. La differenza tra i due set è detta bias. Questa differenza può essere più o meno grande
in base ai metodi analitici adottati. La deviazione standard tra i due set deve essere simile.
Per fare questo test necessitiamo di due set di dati con le caratteristiche citate prima. Per essere certi
x 1 ´¿
−
x i ¿
x 2 ´
− ¿
x j ¿
2
¿ +…
che le due deviazioni standard danno un contributo, calcoliamo la s cumulata . Nel
¿
¿
¿
¿
¿
N
∑ ¿
=1
i ¿ = ¿
s √
cumulata
confronto tra le medie si va a valutare, oltre che alla media, anche la varianza. Il test statistico si
−x́
x́ 1 2
t= √ +
basa su N N . Se il valore assoluto del test statistico è inferiore rispetto al valore
1 2
s cumulata N N
1 2
critico l’ipotesi nulla è accettata.
La scelta dell'intervallo di fiducia può portare a due tipi di errori: di tipo I o di tipo II. L'errore di
tipo I accade quando Ho è scartata sebbene essa sia vera, falso negativo. L'errore di tipo II accade
quando Ho è accettata mentre in realtà è falsa, falso positivo. Il confronto tra i due set può essere
fatto andando a confrontare le varianze: si chiama test f. Tutto ciò detto per t e z test vale anche per
il test f. Il confronto di più gruppi rispetto alle varianze si chiama anova. Questi metodi utilizzano
un singolo test per determinare se esiste oppure no, una differenza tra le medie di popolazione
invece di utilizzare confronti a coppia. L'ipotesi nulla Ho considera l'uguaglianza tra le diverse
medie. L'ipotesi alternativa Ha considera che almeno due valori di una media siano diversi.
La domanda che viene posta può essere scomposta in fattore, livelli e risposta. Il nostro fattore è la
variabile indipendente, mentre la risposta è la variabile dipendente.
Nell'anova, quando Ho è vera la variazione tra le medie dei gruppi è simile alla variazione
all'interno dei gruppi. Quando Ho è falsa la variazione tra le medie dei gruppi è più grande della
variazione all'interno dei gruppi. Il test statistico che viene usato per l'anova di solito è il test f. Se il
valore di F è alto rispetto al valore critico si scarta la Ho a favore dell'ipotesi alternativa. Il test
anova può essere fatto a singolo fattore, in questo caso si va a considerare il valore medio
complessivo ossia la media di tutti i dati. Per calcolare il rapporto della varianza per il test F
bisogna identificare le somme dei quadrati dovuti al fattore (SQF) (fa riferimento alla dispersione
totale) e la somma dei quadrati dovuta agli errori (SQE) (fa riferimento alla dispersione all'interno
di tutti i gruppi). Per tenere conto di questi due contributi, li si vanno a sommare ottenendo così la
somma totale di quadrati (SQT). I metodi dell'anova si basano sull'assunzione di uguaglianza di
varianza, ossia si assume che le varianze delle popolazioni siano identiche. Questa assunzione è
verificata dal test Hartley. Le varianze sono uguali quando il valore più grande di s non dovrebbe
3
essere più grande di due volte il valore più piccolo di . I gradi di libertà per SQF è I-1, mentre
s
MQF
F=
per SQE è N-1. Il valore di F equivale a . Cioè la media della somma dei quadrati del
MQE
fattore fratto la media della somma dei quadrati dell'errore. I risultati differenti possono essere
paragonati tramite un altro test, per determinare la minima cifra significativa.
L'analisi qualitativa rivela l’identità degli elementi e dei composti in un campione. L'analisi
quantitativa indica la quantità di ciascuna sostanza in un campione. Gli analiti sono i componenti di
un campione che devono essere determinati.
Analisi quantitativa
È importante scegliere il metodo analitico giusto. Il metodo che viene scelto di solito è frutto di un
compromesso tra l'accuratezza richiesta, il tempo e il denaro disponibile per l’analisi. Bisogna
anche considerare il numero dei campioni da analizzare: molti campioni consentono la calibrazione
degli strumenti e dell'attrezzatura, come pure la preparazione di soluzioni standard. È necessario
anche tenere conto della complessità del campione e il numero dei componenti: se il campione è
semplice anche l’analisi sarà abbastanza semplice. Tuttavia il più delle volte i campioni sono
abbastanza complessi. La quantità di campione può essere presente in diverse concentrazioni
(grammi, milligrammi, microgrammi). Quando ci troviamo nella parte degli ultramicro non si parla
più di concentrazione, bensì di tracce. Se l’analita analizzato, all'interno della matrice, è presente in
grosse quantità si dice che è il principale. Un problema generale delle analisi di tracce è che
l’affidabilità dei risultati solitamente diminuisce drammaticamente con la diminuzione del livello
dell'analita.
L'effetto matrice è dato dalla presenza dei tanti componenti che interferiscono con l’analisi. Quando
dobbiamo effettuare un'analisi, uno dei primi step è il campionamento. Il campionamento è il
processo di ottenimento di una frazione rappresentativa. Le conclusioni sono poi estese ad una
quantità di materiale di gran lunga maggiore, mediante l'analisi statistica. Il campionamento riduce
la dimensione della popolazione: gli elementi del campione sono rappresentativi della popolazione.
Si parte dal campione grossolano, cioè l'insieme delle unità di campionamento. Questo viene ridotto
e reso omogeneo fino a diventare campione da laboratorio. Gli errori dovuti al cattivo
campionamento non sono controllabili e sono tendenzialmente trattati separatamente da tutte le altre
fonti di incertezza. Il campionamento dei gas viene fatto tramite dei particolari metodi ( un
sacchetto di campionamento aperto e riempito con il gas oppure possono essere intrappolati in un
liquido o assorbiti dalla superficie di un solido). I campioni di metalli e leghe sono ottenuti
mediante macchine segatrici. In generale si deve campionare il materiale solido anche all'interno.
Ma quanto campione bisogna prelevare per l’analisi? In generale il numero di campioni dipende
dall'intervallo di fiducia richiesto per il valore medio e dalla deviazione standard relativa desiderata
per il metodo.
La calibrazione determina la relazione (lineare) tra la risposta analitica e la concentrazione
dell'analita. Questa relazione è calcolata mediante l'uso di standard chimici. Gli standard utilizzati
sono preparati esternamente al campione da analizzare. Per ridurre le interferenze di altri
componenti della matrice del campione, chiamati concomitanti, si utilizzano gli standard della
soluzione dell'analita. Alcune procedure analitiche confrontano una proprietà dell'analita con quella
di uno standard per verificare se la proprietà da testare sia uguale o molto simile a quella dello
standard: questa procedura è chiamata confronto nullo. Nella calibrazione con standard esterno si
prepara una serie di soluzioni standard separatamente dal campione. Gli standard vengono usati per
defi