Anteprima
Vedrai una selezione di 8 pagine su 31
Statistica e analisi del segnale - Chimica analitica Pag. 1 Statistica e analisi del segnale - Chimica analitica Pag. 2
Anteprima di 8 pagg. su 31.
Scarica il documento per vederlo tutto.
Statistica e analisi del segnale - Chimica analitica Pag. 6
Anteprima di 8 pagg. su 31.
Scarica il documento per vederlo tutto.
Statistica e analisi del segnale - Chimica analitica Pag. 11
Anteprima di 8 pagg. su 31.
Scarica il documento per vederlo tutto.
Statistica e analisi del segnale - Chimica analitica Pag. 16
Anteprima di 8 pagg. su 31.
Scarica il documento per vederlo tutto.
Statistica e analisi del segnale - Chimica analitica Pag. 21
Anteprima di 8 pagg. su 31.
Scarica il documento per vederlo tutto.
Statistica e analisi del segnale - Chimica analitica Pag. 26
Anteprima di 8 pagg. su 31.
Scarica il documento per vederlo tutto.
Statistica e analisi del segnale - Chimica analitica Pag. 31
1 su 31
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

La varianza della media

N N( )2 σδm 1∑ ∑2 2 2 x= = =σ σ σm xi 2δ x NNi=1 i=1iLa varianza della media è uguale alla varianza della variabile x di partenza diviso N che è ilnumero di termini. Più repliche faccio, più l’errore associato alla media diminuisce perché dividoper un numero maggiore. Si ha una tendenza alla regolarità quando aumento il numero direpliche e stimo meglio il valore vero della popolazione.Questo ci consente di definire un intervallo di fiducia rispetto ad una media. Si ottienel’intervallo di μ intorno alla media misurata m:σ σ<m−z μ< m+ zp p√ √N NQuesto intervallo di fiducia è più stretto rispetto a quello della x perché la deviazione standarddella media è più piccola di un fattore √N rispetto a quella della x. Più aumento il numero direpliche che concorrono al calcolo della media, più diminuisco

L'ampiezza dell'intervallo di fiducia. L'istogramma della varianza segue un andamento asimmetrico quindi anche la distribuzione di probabilità avrà questo andamento. La distribuzione della varianza è una distribuzione di tipo chi-quadro (Χ )2 . Le distribuzioni chi quadro sono considerabili come una sommatoria di un numero di variabili Z indipendenti tra di loro:

( )−μv x∑ i i2 2 2 2=Z + +…+ =X Z Z1 2 v 2σi=1 1 2

Da ogni serie di 5 risultati dell'esperimento base abbiamo una varianza s che è la misura sperimentale di σ . La stima della varianza s e la sua distribuzione dipendono dal numero N di valori che sono stati utilizzati per il calcolo, incidono molto di più rispetto alla media. La variabile standardizzata corrispondente è una variabile chi-quadri che riesce ad eliminare la dipendenza dalla varianza di popolazione σ ma non quella di N:

2s v2 =X v = N-12σ

Queste

con una varianza teorica nota. Questo test si chiama test F. Il test F confronta due varianze, una sperimentale e una teorica, e determina se le due varianze sono statisticamente significativamente diverse. Il risultato del test F è un valore p, che indica la probabilità che le due varianze siano diverse. Se il valore p è inferiore a un certo livello di significatività (solitamente 0.05), si può concludere che le due varianze sono significativamente diverse.

Con una determinata varianza di popolazione. Distribuzione t di Student fu inventata da William S. Gosset. Si rese conto che la distribuzione z non era appropriata ad descrivere le distribuzioni di dati caratterizzate da una bassa numerosità di campioni statistici. I test davano dei risultati non corretti che portavano a scartare dei prodotti che in realtà erano corretti. Cercò di studiare più approfonditamente la statistica e creò una nuova distribuzione che venne pubblicata nell'articolo "the probable error of a mean".

Con scarsa numerosità si intende un numero di osservazioni inferiori a 30. La distribuzione di Student è correlata con la distribuzione z che ci permette di ottenere degli intervalli di fiducia per una x o una media solo se è nota la σ della popolazione con un certo grado di accuratezza. Per avere un certo grado di accuratezza della σ dobbiamo avere un numero molto elevato di ripetizioni.

σ viene stimata mediante s del campione statistico equando abbiamo pochi dati, oltre all’incertezza sulla x, dobbiamo aggiungere l’incertezza di s. La variabile introdotta da Student è identica alla trasformata z ma al denominatore abbiamo s che indica l’incertezza nella stima del parametro. L’incertezza è tanto più grande quanto è più basso il numero di ripetizioni che io sto considerando. Questo errore non indipendente dal numero di ripetizioni.

−μxt= s

Per meno di 30 ripetizioni devo applicare la variabile t. Non esiste una sola t di Student ma ne esistono tante quante sono le ripetizioni possibili o i gradi di libertà. La t di Student si può calcolare anche su una media dove al denominatore metteremo la deviazione standard della media: m−μt= √/s

Esistono tante distribuzioni di Student quanti sono i gradi di libertà. Hanno sempre la forma di una distribuzione normale centrata sullo zero.

La distribuzione z di discosta da queste distribuzioni nelle code che sono più basse e nella parte centrale che è più alta. La distribuzione t con un grado di libertà è quella che si discosta di più dalla z. Man mano che aumentano i gradi di libertà ci avviciniamo alla distribuzione z. Le differenze importanti sono al centro e nella parte laterale. Nella parte laterale si vanno ad identificare le probabilità di significato e i valori critici. È molto diverso utilizzare la z o la t quando vado ad individuare un valore critico se il numero di gradi di libertà è piccolo ed è proprio per questo che Student inventò la distribuzione t. Questa discrepanza diminuisce quando aumenta il numero di gradi di libertà. Se confrontiamo la distribuzione z con una t vediamo che l'intervallo di fiducia per la distribuzione t è molto più ampio rispetto a quello della z. Se uso la t andrò ad

accettare come buoni più valori rispetto al test z. Se non viene precisato, la percentuale di fiducia viene presa con significato bilaterale. Dalla distribuzione t di Student si possono definire gli intervalli di fiducia, la forma è uguale a quelli della z. non utilizzo il valore critico della z ma quello della t: s < m - t μ < m + tp p √ √N Ns/√N è la deviazione standard della media quindi N è il numero di repliche. Quando vado sulla tabella della t di Student devo usare i gradi di libertà quindi N-1. Il valore vero che sto stimando è compreso, con una probabilità p%, in un intervallo attorno a sC=C ± t valore medio da me determinato ± ampiezza dell’intervallo di fiducia → p √ N Questo è il modo in cui si riportano i risultati di un’analisi chimica.

Distribuzione F di Fischer Fischer visse a cavallo tra l’800 e il 900, fu interpellato da Student per avere un parere sui suoi studi.

Fischer è un riferimento per la statistica infatti gli statistici dividono la statistica in 3 ere: prima, durante e dopo Fischer. Molti metodi statistici avanzati che vengono utilizzati hanno le radici nei lavori di Fischer.

La variabile F di Fischer è definita come rapporto fra due stime indipendenti della stessa varianza di popolazione. Si presuppone che le due varianze derivano dalla stessa popolazione e si fa il rapporto proprio per vedere la differenza. Derivano da due campioni statistici diversi e si presuppone che questi derivino dalla stessa popolazione.

Nel caso ideale queste due stime sono perfette e sarebbero identiche tra di loro, rispecchierebbero perfettamente la variabile di popolazione. Nel caso ideale il rapporto vale 1.

Nella realtà sperimentale questo rapporto non vale praticamente mai 1. Al denominatore si mette sempre la varianza maggiore e questo fa si che il rapporto, nei casi non ideali, sarà maggiore di 1.

Abbiamo una variabile random

X con distribuzione normale ed effettuiamo due serie di determinazioni quindi estraiamo due campioni statistici. Nella prima serie estraggo 12 campioni, ciascuno costituito da 3 determinazioni e calcolo la prima stima S con gradi di libertà = 2. La seconda serie è definita da 5 determinazioni quindi avremo gradi di libertà = 4 e calcoliamo la varianza S. Quindi S e S sono due misure sperimentali della stessa varianza di popolazione ma sono indipendenti tra loro perché sono state ottenute con ripetizioni diverse.

Le stime che otteniamo sono sperimentali quindi le curve sono tante possibili. I gradi di libertà cambiano al numeratore e al denominatore. Si riportano sempre prima i gradi di libertà del numeratore e poi quelli del denominatore. Le curve F di Fischer possono variare al variare di entrambi i gradi di libertà quindi ne sono tante. Mettendo la varianza maggiore al numeratore, il rapporto F sarà sempre maggiore di 1 e questo.

corrisponde a guardare solamente un significato unilaterale destro. Si guarda solo la coda di destra. Le curve, all'aumentare dei gradi di libertà, tendono a diventare simmetriche. Il grafico si può confondere con le curve chi quadro ma nella didascalia vengono indicati due gradi di libertà (quello del numeratore e quello del denominatore). Se al numeratore diminuiscono molto i gradi di libertà, le curve tendono a degenerare. Aumentando i gradi di libertà del denominatore, la F tende ad una chi quadro perché la S tende alla σ. I valori della F di Fischer si trovano in tabelle e in vari software. Abbiamo tante tabelle quanti sono i livelli di fiducia. Nelle tabelle abbiamo 2 entrate: abbiamo i gradi di libertà del numeratore (v1) e i gradi di libertà del denominatore (v2). Test di significato I test di significato servono per valutare la probabilità di significato. Il significato può essere bilaterale o unilaterale.petto al significato critico, si può concludere che il dato è compatibile con la popolazione di riferimento. Al contrario, se il significato è maggiore rispetto al significato critico, si può concludere che il dato è anomalo e proviene da una popolazione diversa. Per fare un esempio pratico, supponiamo di avere un campione di 100 persone e di voler valutare se la percentuale di persone con occhi azzurri è significativamente diversa dalla percentuale di persone con occhi verdi nella popolazione generale. Facciamo l'analisi e otteniamo che nel nostro campione il 20% delle persone ha occhi azzurri. Fissiamo il livello di significato critico al 5%. Calcoliamo il significato della nostra determinazione e lo confrontiamo con il significato critico. Se il significato della nostra determinazione è inferiore al 5%, possiamo concludere che la percentuale di persone con occhi azzurri nel nostro campione è compatibile con la percentuale nella popolazione generale. Se invece il significato della nostra determinazione è superiore al 5%, possiamo concludere che la percentuale di persone con occhi azzurri nel nostro campione è anomala e proviene da una popolazione diversa. In conclusione, i test di significato sono utilizzati per valutare se un dato è compatibile o anomalo rispetto a una popolazione di riferimento.
Dettagli
Publisher
A.A. 2019-2020
31 pagine
3 download
SSD Scienze chimiche CHIM/01 Chimica analitica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Francesca_I di informazioni apprese con la frequenza delle lezioni di Chimica analitica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi di Genova o del prof Oliveri Paolo.