Anteprima
Vedrai una selezione di 14 pagine su 63
Appunti Statistica 1 Pag. 1 Appunti Statistica 1 Pag. 2
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 6
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 11
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 16
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 21
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 26
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 31
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 36
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 41
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 46
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 51
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 56
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Appunti Statistica 1 Pag. 61
1 su 63
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

P(H

0 1T

- 1

9

0 0 .

non = =

.

9

"(y .

. .

1

malato 0 .

%

g PCT-IHY

/H-)

P

) 0 9

9

P(H 15

- 0

- .

=

= . .

.

L’aggiornamento della prior probability avviene con un processo logico-matematico

rigoroso e permette di incorporare nuova informazione nel calcolo della probabilità.

Il Teorema di Bayes è tipicamente formulato come la regola per andare da P(A|B) a

P(B|A), cosiddetti problemi di probabilità inversa.

Nell’esempio medico, il problema di probabilità inversa consiste nell’andare da

P(T+|H+)(informazione sull’accuratezza del test data la condizione di salute della

persona) a P(H+|T +)(informazione sulla salute della persona dato l’esito del test).

(|)()

Teorema: siano A e B due eventi, il Teorema di Bayes afferma che P(B|A) = ()

Ricordiamo che per definizione di probabilità condizionata (regola moltiplicativa

della probabilità): P(A∩B)= P(A|B)P(B)= P(B|A)P(A)

Se P(A) non fosse noto ma P(A∩B) e P(A∩ ) fossero noti, il teorema potrebbe essere

(|)()

enunciato come P(B|A) = (equivalente)

(∩) + (∩)

In generale se {E1,..., EK } è una partizione di S, P(A)= P(A∩ )+...+P(A∩ ).

1

esempio Revisione scritture contabili

In base alla sua esperienza, un revisore dei conti sa che il 15% delle scritture contabili

presenta degli errori. Tra tutti i saldi errati il 60% era un valore anomalo rispetto ai

dati storici (il rimanente 40% era errato ma il saldo non era anomalo). Tra tutti i saldi

contabili (corretti e non) il 20% presentava saldi anomali. anche

v

Dato che il revisore trova un saldo anomalo, qual è la probabilità che sia un errore?

Definiamo A={valore anomalo} e B={saldo errato}. Sappiamo che P(A)=0.20,

P(B)=0.15, P(A|B)=0.60 (probabilità che siano errati). Usando il Teorema di Bayes

(|)() 0.60×0.15

P(B|A)= = = 0.45 dalla prior P(B)=0.15 alla posterior P(B|A)=0.45;

() 0.20

P(B|A)≠P(B), quindi A e B non sono indipendenti. anomalo

se

dato

la

di

supponendo che

trovare contabile

invece probabilità

voler sia

un

errati

ed

anomali

contabili

dati

{

=?

P(A1B) AlB

Con =

↳ P(A) 09

0

P(BIA) 2

45 0

0 =

= .

. . .

. 09

15 0

6 0

0

P(B) =

P(AIB) .

= .

.

. .

CAP 5

Variabile aleatoria (o variabile casuale): variabile che assume/descrive valori

numerici in corrispondenza ai risultati di un esperimento aleatorio.

Molti fenomeni di interesse possono essere descritti numericamente: es. Vendite

mensili di cioccolato in Svizzera, n° chiamate ad un callcenter ogni minuto.

E` cruciale distinguere tra variabile aleatoria che esiste prima di osservare l’esito

dell’esperimento e la sua realizzazione che osserviamo dopo aver effettuato

l’esperimento. es. Prima di lanciare un dado, la variabile aleatoria può assumere

valori 1, 2, 3, 4, 5, 6. Dopo aver lanciato il dado, la V.A. si realizza e osserviamo 6.

Dal tipo di fenomeno di interesse che vogliamo descrivere distinguiamo:

1. Variabile aleatoria discreta: assume un numero finito o infinito numerabile di

valori reali (realizzazioni). es. Lancio del dado {1, 2, 3, 4, 5, 6}

2. Variabile aleatoria continua: assume qualunque valore in un intervallo dei

numeri reali, le realizzazioni sono es. Tempo di attesa ad un call center [0, ∞)

Consideriamo una V.A. come discreta quando è importante assegnare una

probabilità a ogni singolo risultato; tutte le altre continue.

La distribuzione di probabilità di una variabile aleatoria discreta X rappresenta le

probabilità di tutti i possibili valori che X può assumere, P(X = x), al variare dei

possibili valori presi dalla V.A. X. (realizzazione)

Indichiamo con X indica una variabile aleatoria discreta (prima dell’esito

dell’esperimento) e con x la sua realizzazione (dopo l’esito dell’esprimento).

La funzione di probabilità, P(x), di una variabile aleatoria discreta X è

P(x) = P(X = x), per ogni valore di x. (non solo per i valori che X può assumere)

se x = 6, P(6) = P(X = 6)

esempio: Dado speciale

Consideriamo un dado speciale (o truccato) con distribuzione di probabilità:

Quindi, ad esempio, P(6) = P(X = 6) = 0.002, prima di lanciare il dado.

Se il dado non fosse stato truccato, P(X = x)=1/6=0.167 per ogni x.

Rappresenta la “massa” di probabilità nei punti x=1, x=2, x=3, x = 4, x = 5, x = 6.

La distribuzione di probabilità, P(x), di una variabile aleatoria discreta X deve

soddisfare due proprietà caratterizzanti:

1) 0 ≤ P(x) ≤ 1 per ogni valore x.

2) La somma delle singole probabilità deve essere uguale a 1, P(x)=1

quindi la sommatoria si estende a tutte le possibili realizzazioni x di X.

Altre rappresentazioni equivalenti di sommatoria P( ) = P( )

∑ ∑

=1

n.b. Se una funzione P(x) non soddisfa anche solo una di queste due proprietà, allora

non è una distribuzione di probabilità.

Nell’esempio del dado speciale, le due proprietà fondamentali di P(x) sono

soddisfatte: Spazio campionario {1, 2, 3, 4, 5, 6},

1) 0 P(x) 1 per come abbiamo definito P(x).

L

-

-

2) {1}, {2}, {3}, {4}, {5}, {6} sono gli eventi elementari, mutuamente esclusivi e

collettivamente esaustivi (partizione dello spazio campionario). In altri termini, si

realizza uno e uno solo degli eventi elementari. (solo una faccia del dado)

Sappiamo che se due eventi A e B sono mutuamente esclusivi (A∩B = Ø), la

probabilità che si verifichi o uno o l’altro è P(A∪B) = P(A) + P(B). Quindi,

P({1}∪{2}∪{3}∪{4}∪{5}∪{6})=P(x=1)+P(x=2)+P(x=3)+P(x=4)+P(X=5)+P(x=6)=

P(x)=1

Funzione di ripartizione F(x0), di una variabile aleatoria X esprime la probabilità che

) ≤

la realizzazione di X non superi il valore x0, F( = P(X ).

0 0

Dato che l’evento “X ”, possiamo scriverlo come unione di tutti gli eventi

0

≤ ≤

elementari tali che “X ”, abbiamo F(x0) = P(X ) = P(X = x),

0 0 ≤

0

F( ) esiste per ogni valore di , non solo per i valori che X può assumere.

0 0

Esempio: dado speciale con sei facce {1, 2, 3, 4, 5, 6}

e

·

F(x) esiste per ogni x anche se X è una variabile aleatoria discreta che può assumere

solo 6 valori.

Le due proprietà fondamentali della distribuzione di probabilità inducono due

proprietà caratterizzanti della funzione di ripartizione F(x):

1) 0 ≤ F(x) ≤ 1 per ogni valore x.

2) Se x1 e x2 sono due valori tali che x1 < x2, allora

F(x1) ≤ F(x2)

Limiti interessanti della funzione di ripartizione, utili

per disegnare una funzione di ripartizione:

F(x)=0, F(x)=1

lim lim

→ →

−∞ −∞

Vediamo ora il legame fondamentale tra probabilità della variabile aleatoria (che

esiste prima di osservare i dati) e frequenze relative (calcolate dopo aver osservato i

dati).

Probabilità e frequenze relative

Le probabilità delle possibili realizzazioni della variabile aleatoria influenzano/

determinano i risultati degli esperimenti e descrivono, insieme alla variabile stessa,

l’esperimento aleatorio prima di osservarne il risultato (analisi ex-ante). Una volta

osservata la realizzazione della V.A. che presenta un numero/dato, non c'è più nulla

di aleatorio e vanno calcolate le frequenze relative che riassumono l’informazione

nei dati (analisi ex-post, statistica descrittiva). Le frequenze relative dei risultati

convergono alle probabilità dei risultati quando il numero di ripetizioni

dell’esperimento aumenta. Questo fenomeno è alla base dell’interpretazione

frequentista della prob. ed è una manifestazione della Legge dei Grandi Numeri che

vale per ‘qualsiasi’ esperimento aleatorio (e tipi di variabili), quando n→∞.

Valore atteso: (o media), E(X), di una variabile aleatoria discreta X è

E(X) = x P(x), dove la sommatoria è estesa a tutti i valori che X può assumere, E(X)

M =

è un numero costante (non quantità aleatoria) ed una proprietà di P(x) e invece

a

P(X=x) è la probabilità che la realizzazione di X sia x.

La distribuzione di probabilità fornisce tutte le informazioni sulle proprietà di una

variabile aleatoria. Tuttavia, il valore atteso è una misura di centralità, dà

un'informazione più sintetica sulla ‘posizione’ della distribuzione di probabilità di X.

Intuitivamente, E(X) è il valore medio di X che ci aspettiamo di osservare ripetendo

l’esperimento un gran numero di volte, prima di effettuarli.

esempio: Typo nei libri di testo (errore di battitura)

La variabile aleatoria X descrive il numero di typo per pagina nei libri economico-

aziendale ed ha la seguente distribuzione di probabilità:

Il valore atteso è E(X)=0 × 0.81 + 1 × 0.17 + 2 × 0.02 = 0.21

Quindi, prima di leggere i libri, ci aspettiamo di trovare 0.21 typo per pagina,

ovvero 21 typo ogni 100 pagine.

Più in generale se ho una V.A. X e la sua distribuzione

di probabilità, P(X=x) per ogni realizzazione di x, posso

calcolare E[g(x)] dove g è una qualunque funzione

dai reali R ai reali R: R R x g(x)

→ →

| | | |

Per esempio E[ax+b]=? in questo caso g(x) = ax+b,

(ax+b) P(x=X) = ax P(X=x) + b P(X=x)

∑ ∑ ∑

· · ·

= a x P(X=x) + b P(X=x) = aE(X) +1b, riscritto:

∑ ∑

·

4. Linearità del valore atteso: E(aX+b) = a E(X) + b, se a=0 E(b)=b, se b=0 E(aX)=a EX

· ·

5. Additività: E(aX+bY)=a EX+b EY; con a,b R e x, y variabili aleatorie

· ·

Deviazioni dal valore atteso

Il valore atteso E(X), è indicabile anche come µ = P(x) ed essendo una misura di

∑ ·

centralità, in valore atteso, le deviazioni (o scarti) di X da µ sono zero: Infatti

E(X-µ)= (x-µ) P(x)= x P(x) - µ x P(x)= µ-µ= 0; µ è una costante e P(x)= 1.

∑ · ∑ · ∑ · ·

esempio dado speciale

Dettagli
Publisher
A.A. 2024-2025
63 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher nomammt1 di informazioni apprese con la frequenza delle lezioni di Statistica 1 e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università della Svizzera italiana - Usi o del prof Mancini Andrea.