Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Probabilità e proprietà elementari
Eesclusivi, se m di questi possiede una caratteristica (evento), probabilità che da m/N si verifichi l'evento E è data Probabilità come frequenza relativa basata sulla possibilità di contare il numero delle ripetizioni.
Se un processo si ripete un gran numero di volte e se un certo evento con caratteristica E si verifica volte, la probabilità di E sarà approssimativamente m/n uguale a P(E).
Probabilità soggettiva misura il grado di fiducia che un dato individuo ripone nel verificarsi di determinati eventi in base alle proprie conoscenze. Questo concetto non si basa sulla ripetibilità di un dato processo, si può valutare la probabilità di un evento che può verificarsi una sola volta.
Proprietà elementari delle probabilità:
- la probabilità di un evento E che si indica con P(E) è un numero sempre positivo
- è compreso tra 0 e 1
- Se E è un evento certo la probabilità di E è 1
La probabilità di E è P(E) = 1
Se E è un evento impossibile P(E) = 0
Dato un processo sperimentale che genera n risultati (eventi) disgiunti, A1, A2, A3 … An, la probabilità di un evento Ai è un numero non negativo: p(Ai) > 0.
La somma delle probabilità di tutti gli eventi possibili mutuamente esclusivi è uguale a 1: P(A1) + p(A2) … + p(An) = 1
Eventi mutuamente esclusivi (disgiunti)
Due eventi A e B sono mutuamente esclusivi se l'occorrenza dell'uno esclude l'altro.
Sono eventi disgiunti.
La somma delle probabilità di tutti gli eventi possibili, mutuamente esclusivi, è uguale ad uno.
Esempi: acidosi e alcalosi respiratoria se si trova in una condizione patologica non si può simultaneamente avere anche l'altra
Se due eventi A e B sono mutuamente esclusivi allora la probabilità che si verifichi uno dei due eventi (P o A) sarà P(B ∪ A) = P(A) + P(B) secondo la legge
della–sommaDati due venti A e B non mutuamente esclusivi la probabilità che si verifichi l’eventoA o l’evento B èU ℤP(A B) = P(A) + P(B) – P(B A)
Se due eventi sono indipendenti allora la probabilità è data dal prodotto dellaℤprobabilità di A per la probabilità di B, secondo la legge del prodotto. P(B A) =P(A) + P(B)
Due eventi sono incompatibili quando non possono avvenire contemporaneamente.Bisogna fare solo la somma delle probabilità semplici dei due eventi.
Due eventi sono compatibili se c’è anche una sola possibilità che possano avvenirecontemporaneamente. Si fa la somma delle probabilità semplici dei due eventi etogliere la probabilità che essi avvengano insieme.
Due eventi A e B sono condizionati se il verificarsi di A dipende da B o viceversa. Sideve moltiplicare tutte le singole probabilità semplici di ogni evento della serie. Pag.24Talvolta tutti i possibili
risultati possono essere un sottoinsieme del totale, quindi se AeB sono il risultato di un esperimento può accadere che il verificarsi dell'evento B sia modificato dal fatto che si sia verificato l'evento A, quindi l'evento B è condizionato da e la probabilità che si verifichi l'evento B condizionata dalla probabilità dell'evento A. DISTRIBUZIONE NORMALE O GAUSSIANA Le variabili, oltre che qualitative e quantitative, possono essere: - Statistiche: è un carattere quantitativo osservato su una data popolazione; dipende dalla frequenza. - Casuale: è un carattere quantitativo osservato su un soggetto solo scelto a caso; dipende dalle leggi della probabilità. Se da un istogramma unisco il punto medio del lato superiore di ogni singola barra ottengo una linea spezzata che può diventare una curva, un grafico continuo che delimita un'area, detta funzione di densità di probabilità. Caratteristiche delladensità di probabilità: F(x) > 0
P (a<X<b) = area sottesa alla f(x) tra due vettori a e b
La variabile casuale continua è un carattere quantitativo continuo osservato su un fenomeno casuale. Assume valori in un intervallo di numeri reali
Esempio: Y = pressione sistolica di un soggetto, ci aspettiamo un certo valore
Per la distribuzione normale:
- prendiamo una grandezza di cui viene rilevata infinite volte la misura
- otteniamo un insieme di misure tutte diverse fra di loro, più o meno costate dal valore medio
- escludendo errori sistematici è presumibile che gli scarti dal valore medio, uguali ma di segno opposto, abbiano la stessa probabilità di verificarsi - quanto più grandi sono gli scarti meno frequente sia loro riscontro, Pag.25
La curva di gauss è detta curva normale proprio perché le misure più frequenti sono quelle considerate normali (normali = sono quelli più frequenti e non associati alla malattia).
Possiamo attribuire un comportamento del genere a una variabile biologica di una popolazione. Gauss e Laplace hanno formulato una legge probabilistica che è espressa proprio da una funzione matematica il cui tracciato è una curva detta curva di gauss, che ci consente di prevedere, di stimare il valore dell'ordinata per ogni valore nell'ascissa.- Tipicamente è un grafico a forma di campana con le due branche pari e simmetriche
- Essendo simmetrica, media, moda e mediana coincidono
- La deviazione standard, che mi dice quante larga la curva, mi definisce la dispersione dei valori, come si allarga la distribuzione attorno alla media
- L'area sottesa su tutta la comunità è 100%
- A causa dell'asimmetria rispetto alla media avrò a destra il 50% delle osservazioni e a sinistra l'altro 50%
- C'è una diminuzione dell'addensamento man mano che ci si allontana dal valore medio
- La media individua la posizione della
curva sull' asse delle ascisse, variando lamedia la curva si sposta
● la deviazione standard da informazioni su come i valori sono distribuiti,concentrati intorno alla media
Proprietà della curva di Gauss:le curve di densità di probabilità hanno delle proprietà fisse
sotto la curva tutta la densità totale è uguale ad 1.l'area totale uguale uno
tra due punti qualunque, sulle ascisse X, l'area che sottende questi punti è uguale alla probabilità che possa presentarsi quel valore in quell'intervallo
l'area sotto la curva tra due punti qualunque , X1 e X2, è la probabilità che la variabile casuale assuma un valore nell'intervallo tra essi compreso
Si definisce invece distribuzione z (gaussiana standardizzata) quella distribuzione che non è altro che una curva di gauss portata con la media sull'asse delle ascisse.
Le curve di densità di probabilità hanno
proprietà fisse: - l'area totale sotto la curva di densità è uguale a 1 - l'area sotto la curva tra 2 punti qualunque x1 e x2, è la probabilità che la variabile casuale assuma un valore nell'intervallo tra essi compreso
Pag.26
Esempio: supponiamo di eseguire un gran numero di titolazioni di una soluzione di glucosio con concentrazione = 90 mg/dl e riporto nel grafico le frequenze relative dei valori ottenuti (x) con le prime 20, 40 ... 5120 misure.
All'aumentare del numero di misure, i valori tendono ad accentrarsi intorno alla loro media e l'istogramma assume una forma a campana, sempre più regolare che può essere approssimata con una funzione reale nota come funzione di Gauss o funzione normale.
Per definire una distribuzione standard serve la media e la deviazione standard (μ).
LEGGE DEI 3 SIGMA: è utilizzata per ricordare la percentuale di valori che si trovano all'interno di una banda intorno alla media.
Una distribuzione normale con un'ampiezza di due, quattro e sei deviazioni standard; rispettivamente il 68%, 95% e 99% dei valori si trovano all'interno di una, due o tre deviazioni standard della media.
INFERENZA STATISTICA - LA DISTRIBUZIONE CAMPIONARIA
Premessa: qualità del campione
La qualità di tutte le analisi e procedure statistiche dipende proprio dalla qualità del campione (Pag.27). Se il campione non è rappresentativo, l'analisi dei dati e le relative conclusioni saranno di poco significato casuale. Per ottenere un campione rappresentativo è necessario introdurre l'anello di processo di campionamento.
Se consideriamo una popolazione in cui una variabile sia presente con un determinato valore medio e una determinata deviazione standard. Se da tale popolazione si estrae un campione, nel quale si ripete la determinazione di tale variabile, il risultato campionario (media più o meno deviazione standard) sarà evidentemente
Ogni volta diverso da quello reale, comportando ogni campionamento una quota di perdita di informazione rispetto alla popolazione generale (errore di campionamento); e lievi differenze esisteranno anche tra medie e deviazioni standard di tutti i possibili campioni estratti da quella popolazione. Tra le rilevazioni effettuate sul campione e l'effettiva situazione della popolazione rispetto al dato rilevato, esiste uno scarto (termine statistico per indicare la differenza) detto errore campionario che è tanto più grande quanto minore è la fedeltà del campione e la sua numerosità.
I campionamenti possono essere:
- Probabilistici se tutte le unità hanno la stessa probabilità di essere incluse nel campione
- Non probabilistici per indagini localizzate su poche unità territoriali o per ricerche in cui l'inclusione di alcune unità di rilevazione condiziona la validità dell'intera indagine.
Distribuzione
campionariaPer s'intende l'insieme dei valori che essa può assumere estraendo più campioni di uguale dimensione dalla popolazione. Per ogni distribuzione campionaria si può definire la media, la varianza e si può dare una rappresentazione grafica. La media e la deviazione standard calcolate sul campione sono STIME della Media e della variazione standard della popolazione.
distribuzione standard delle medieLa è la distribuzione campionaria più importante. Supponiamo di estrarre dalla popolazione un campione casuale e di calcolare la media ẋ del campione. Se ripetiamo ora un numero di volte N questa operazione, avremo una distribuzione delle medie degli n campioni.