Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

I risultati di un esperimento si dicono eventi, che rappresenta uno dei casi che può presentarsi con

certe probabilità.

Un evento può essere semplice o composto (il risultato è aggregato di possibili risultati).

Due eventi si dicono compatibili se hanno qualche risultato in comune, altrimenti si dicono

incompatibili o disgiunti.

Un evento si dice certo quando si verificherà sicuramente, impossibile quando non può verificarsi.

L’insieme dei possibili risultati si dice spazio campione S, mentre il singolo risultato si dice punto

campione. intersezione di A e B

Dati 2 eventi A e B definiti su S: l’ ∩ B) è l’evento

(A costituito dai punti di S

∈ ∩

che ad A e a B. S = {1, 2, 3, 4, 5, 6}; A = {1}; B = {1, 3, 5}; per cui A B = {1}.

unione di A e B

L’ è l’evento costituito dai punti di S che

(A B) ad A o a B:

S = {1, 2, 3, 4, 5, 6}; A = {1}; B = {1, 3, 5}; per cui A B = {1, 3, 5}.

è la frequenza relativa con cui l’evento si verifica

La Probabilità di un evento in una lunga serie di

prove ripetute sotto condizioni simili.

E’ necessario assegnare un valore di probabilità a ogni punto dello spazio campione S.

Ogni assegnazione di probabilità ai punti di uno spazio campione si dice matematicamente

accettabile se verifica le seguenti condizioni:

− ogni % è un n° non negativo.

− la somma delle % di tutti i punti dello spazio campione è uguale a 1.

Gli Assiomi della probabilità sono:

 sia E un esperimento, S lo spazio campione associato ad E, A un evento. Ad ogni evento A

associamo un n° reale P(A), cioè la probabilità che l’evento A si verifichi, tale che:

− ≤ ≤

la P che > si verifichi sia compresa tra 0 e 1, cioè 0 P(A) 1.

− la somma delle P di tutti i punti S è = 1, cioè P(S) = 1.

− se A e B sono 2 eventi che non hanno punti in comune, avremo: P(A B) = P(A) + P(B), per cui

A e B sono incompatibili o disgiunti.

La P che l’evento non si verifichi, è data da 1, che è la P dell’evento certo,

evento complementare,

meno la P che si verifichi A: P(Ã) = 1 P(A).

Due eventi si dicono mutuamente esclusivi quando non possono verificarsi insieme: il verificarsi

di un evento implica il verificarsi di un altro evento (nel lancio della monetina il verificarsi della

testa esclude quello della croce).

Per gli eventi mutuamente esclusivi vale il principio della somma: se A e B sono due eventi

mutuamente esclusivi si ha che P(A B) = P(A) + P(B).

Se invece gli eventi A e B sono compatibili, cioè hanno elementi in comune, abbiamo:

– ∩

P(A B) = P(A) + P(B) P(A B).

Probabilità Condizionata e Principio del Prodotto

Siano A e B due eventi dipendenti, cioè due eventi tali che la P del verificarsi di A dipende dal

cioè la P che si verifichi l’evento B

verificarsi di B, si parla di probabilità condizionate P(A/B)

dato che l’evento A si è già verificato.

Per il principio del prodotto delle P si ha che: la P che 2 eventi A e B si verifichino

∩ B) = P(B/A) × P(A), eventi dipendenti, dove B è l’evento condizionato e

congiuntamente è: P(A

A è l’evento condizionante.

Per cui dati 2 eventi dipendenti, condizionati, applicando il principio del prodotto si ha che:

P(B/A) __P(A B)_

= P (A)

Due eventi A e B si dicono indipendenti se il verificarsi di A non implica il verificarsi di B.

In questo caso: P(B/A) = P(B) e il principio del prodotto è P(A B) = P(A) × P(B). 4

Teorema di Bayes

Il Teorema di Bayes deriva dalle regole del prodotto e della somma, e dalla nozione di P

condizionate.

Se l’evento B si presenta solo se si verifica uno degli eventi A1, A2....An, a 2 a 2 incompatibili,

allora: P(A1/B) ________P(B/A1)P(A1)________

= P(B/A1)P(A1) + (P(B/A2)P(A2)

Cioè prendiamo 2 eventi A1 e A2 mutuamente esclusivi e scriviamo:

P(A1 ∩ B)

P(A1/B) = P(B/A1)P(A1)

=

P(B) P(B)

∩ ∩ ∩ ∩

Poiché B = (B A1) (B A2), allora P(B) = P(B A1) + P(B A2)

per cui: P(B) = P(B/A1)P(A1) + P(B/A2)P(A2)

e in definitiva: P(A1/B) ________P(B/A1)P(A1)______

=

P(B/A1)P(A1) + P(B/A2)P(A2)

Il teorema di Bayes può essere applicato alla diagnosi automatica: gli eventi A1.......An

esclusive e l’evento B corrisponde ad un particolare

corrispondono a diagnosi mutuamente

complesso di sintomi o risultati di laboratorio, per cui la P(A1/B) è la probabilità del verificarsi

della i-esima diagnosi dato che il pz presenta i sintomi B.

Ad esempio:

− persona malata A1.

− persona sana A2.

− test +, pz malato B/A1.

− test +, pz sano B/A2.

Qual è la P di avere una persona malata dato che il test è + P(A1/B):

P(A1/B) ________P(B/A1)P(A1)______ (teorema delle P totali)

=

P(B/A1)P(A1) + P(B/A2)P(A2)

P(A1 ∩ B)

P(A1/B) = P(B)

dove: P(A1 B) = P(B/A1)P(A1)

per cui: P(A1/B) P(B/A1)P(A1)

= P(B)

P(B) = P(B/A1)P(A1) + P(B/A2)P(A2)

P(A1/B) ________P(B/A1)P(A1)______

=

P(B/A1)P(A1) + (P(B/A2)P(A2)

Distribuzione di Probabilità

variabile casuale o aleatoria

Se X è una , cioè una variabile i cui valori sono il risultato di fattori

casuali e quindi può assumere uno qualunque dei valori di un insieme finito o infinito di individui e,

se indichiamo i suoi valori con x1, x2.....xn ad ogni valore di xi associamo un numero detto

probabilità di xi: p(xi) = f(xi) = P(x = xi), dove p(xi) o f(xi) è la distribuzione di probabilità di xi

che deve soddisfare le seguenti condizioni: p(xi) = f(xi) ≥ 0; Σp(xi) = Σf(xi) = 1.

Abbiamo vari tipi di distribuzioni di probabilità: binomiale, Poisson, Gauss...

distribuzione di probabilità

La è detta Binomiale o di Bernoulli quando una prova di un

esperimento può assumere solo 2 risultati mutuamente esclusivi: vero/falso, vivo/morto,

sano/malato, uomo/donna. 5

La formula che caratterizza la distribuzione di Bernoulli o Binomiale è:

( ) x n-x x n-x

p(x) = f(x) = × p q ___n!___ p q

= x!(n-x)!

dove: p = probabilità di successo o dell’evento favorevole.

q = 1 p = probabilità di insuccesso.

n = n° di prove. ( )

x = n° di eventi favorevoli; o! = 1; .

( ) è il coefficiente binomiale;

– –

n! = n(n 1)(n 2).....3 × 2 × 1.

Le condizioni che si devono verificare affinché un processo possa essere considerato di Bernoulli,

sono che:

− ogni prova assume uno di 2 possibili risultati mutuamente esclusivi, denotati per convenzione con

1 cioè successo, 0 cioè insuccesso o fallimento.

− la probabilità di successo è denotata con p e rimane costante in ogni prova; la probabilità di

insuccesso o fallimento è denotata con q = 1 p.

− le prove sono tra loro indipendenti, cioè il risultato di una particolare prova non è affetto dal

di un’altra prova.

risultato

La distribuzione binomiale è indicata con B(n,p) e per tale distribuzione abbiamo:

 media: μ = np.

 2

σ –

varianza: = npq = np(1 p).

 √

2

σ = √ √

deviazione standard: = =

La distribuzione di probabilità di Poisson deve soddisfare le seguenti condizioni:

− gli eventi sono indipendenti: il verificarsi di un evento in un intervallo di tempo o spazio non

influenza la probabilità di verificarsi di un secondo evento nello stesso intervallo di tempo o spazio.

− la probabilità di un evento in un dato intervallo di tempo infinitamente piccolo è proporzionale

alla lunghezza dell’intervallo.

− in una parte dell’intervallo infinitamente piccola la probabilità che più di un evento si verifichi è

trascurabile.

Quindi se x è una variabile casuale con distribuzione di Poisson, la sua funzione di distribuzione di

-λ x

× λ

probabilità è data da: p(x) f(x) _e

= = x!

dove e = base esponenziale = 2,718.

x = 0 ÷ (numero dei successi nel tempo considerato).

λ = parametro,

distribuzione di Poisson la media (μ) e la varianza (σ) coincidono e sono pari al parametro λ.

Nella

distribuzioni di Bernoulli e Poisson discrete normale o di Gauss

Le sono di tipo , mentre quella è

continua

.

Se le distribuzioni discrete sono molto grandi queste diventano distribuzioni continue e sono

sostituite dalla distribuzione di Gauss (approssimate ad una Gauss).

Distribuzione Normale o di Gauss

La è caratterizzata dalla Curva di Probabilità (che è la

classica curva a campana). 6

2

L’area sotto la curva – μ)

è = 1 ed è data dalla formula: f(x) __ 1___ exp [-1/2 (x ]

= σ√ σ

cioè la distribuzione di Gauss è definita su tutto l’asse reale.

dove: ,

σ = deviazione standard; μ = media; = 3.14.

Le caratteristiche della curva di Gauss sono che:

− è simmetrica intorno al valore medio μ.

− la media μ, la mediana Me e la moda coincidono.

− l’area totale sotto la curva corrisponde al 100% delle osservazioni e quindi la funzione di Gauss è

una distribuzione di probabilità: Area =

− la distribuzione di Gauss è determinata dai parametri μ e σ.

Se si cambia il valore di μ si ha lo spostamento della curva lungo l’asse x, mentre se si cambia il

valore di σ si ha una variazione nel picco della curva.

si ottiene per μ = 0 e σ = 1:

La distribuzione normale standardizzata 2

p(z) = f(z) = __1__ exp (-z /2) ,

N (μ, σ)

X .

Abbiamo le tavole che ci consentono di determinare l’area sotto la curva compresa tra due punti z1

e z2, dove z (asse x) è la variabile che ci consente di trasformare la distribuzione di variabile x in

distribuzione standard.

Quindi ogni variabile X casuale può essere standardizzata mediante la trasformazione:

– μ

X Z x

= σ

In particolare, il teorema del limite centrale dice che per n = e sotto altre condizioni, qualsiasi

distribuzione si può approssimare a una Gauss. → e p → ½, può essere approssimata

Ad esempio, la distribuzione binomiale B(n,p) per n a una

Gauss. Inferenza Statistica stima dei valori

Quando si lavora su un campione di una popolazione si fa un processo di .

2

Le stime, cioè i valori di un campione, sono indicate con le lettere latine e S , cioè media e

varianza.

Invece, i veri valori per una popolazione, riguardanti la media e la varianza, sono denotati con le

2

lettere greche μ e σ .

Per trovare la stima adatta del parametro incognito si ricorre ad uno strumento detto stimatore.

Quindi la stima è il risultato numerico della media, lo stimatore è la formula matematica che ci

consente di trovare la media, cioè la stima dei dati di un campione.

Quindi lo stimatore è la funzione dei dati campionari. stima della massima

Ci sono alcuni metodi di stima dei parametri incogniti, fra cui il metodo di

verosimiglianza che significa massimizzare la funzione di verosimiglianza e cioè trovare i parametri

che la rendono più verosimile. 7

stima puntuale

Possiamo fare una distinzione tra che fornisce un unico valore del parametro

intervallo di confidenza

incognito e .

verifica delle ipotesi test statistici

Successivamente si passa alla mediante che consentono di fare

decisioni statistiche cliniche

e .

L’interferenza statistica è il processo per mezzo del quale dai risultati osservati in un campione si

possono trarre conclusioni riguardanti la popolazione.

Criteri per valutare le stime puntuali

Vediamo quali sono i : θ (E di θ

def.: una stima di un parametro incognito si dice corretta o non distorta se E( ) =

stimato) cioè il valore atteso della stima del parametro è uguale al valore incognito del parametro.

sono 2 stime non distorte del parametro θ, si dice che

def: se e è più efficiente di , se

1 2 1 2

2 2

– θ) – θ)

ha la varianza minore di : E( < E( .

1 2 1 2 | |

è una stima consistente di θ se:

def.: si dice che

cioè all’> di n, dimensione del campione, la sua distribuzione tende ad avere la media uguale al

θ tende ad essere nulla.

parametro incognito e dispersione nulla. La P che si discosti da

Stima a Intervalli di Confidenza

procedura della stima mediante l’intervallo

La di confidenza consiste nella determinazione, sulla

scorta delle informazioni campionarie, di 2 valori cioè L1 limite inferiore ed L2 limite superiore, in

modo tale che: P(L1 ≤ θ ≤ L2) = 1 – α, con 0 < α < 1, – α è

dove: L1 < L2 sono variabili casuali in quanto funzione degli n elementi campionari e 1

l’intervallo di confidenza generalmente pari a 0.95, 0.90, 0.999, mentre α è il livello di

significatività. 2

Costruiamo l’intervallo di confidenza per una media μ con varianza σ nota. 2

la media stimata del campione, μ la media effettiva della popolazione e σ

Indichiamo con la

varianza calcolata per la popolazione.

Abbiamo che: P(L1 ≤ μ ≤ L2) = 1 – α.

una variabile casuale X di Gauss che segue una distribuzione normale con μ

Consideriamo

2 2

incognita e σ N (μ, σ

nota: X /n)

2 2

dove σ /n è la varianza della media campionaria (che coincide con S originaria).

– μ

Standardizziamo la Gauss: _


PAGINE

22

PESO

623.70 KB

AUTORE

kalamaj

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti di Statistica con particolare interesse ai seguenti argomenti: statistica inferenziale, popolazione obiettivo, popolazione campionata, campione, induzione statistica, variabili, tecniche di campionamento, scale di misura, distribuzione di frequenza, mediana, moda e misura di dispersione, deviazione standard.


DETTAGLI
Corso di laurea: Corso di laurea magistrale in medicina e chirurgia (a ciclo unico - 6 anni)
SSD:
Università: Foggia - Unifg
A.A.: 2012-2013

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher kalamaj di informazioni apprese con la frequenza delle lezioni di Statistica Medica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Foggia - Unifg o del prof Cocca Donatella.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica medica

Statistica - Esercitazione
Esercitazione
Statistica medica - statistica inferenziale - Dispensa
Dispensa
Statistica - tavole statistiche - Dispensa
Dispensa
Statistica - gruppi statistici - Dispensa
Dispensa