Anteprima
Vedrai una selezione di 9 pagine su 40
Statistica industriale Pag. 1 Statistica industriale Pag. 2
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Statistica industriale Pag. 6
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Statistica industriale Pag. 11
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Statistica industriale Pag. 16
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Statistica industriale Pag. 21
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Statistica industriale Pag. 26
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Statistica industriale Pag. 31
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Statistica industriale Pag. 36
1 su 40
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

QUINDI

Deviazione standard, coefficiente di variazione e differenza

interquartile

• La deviazione standard `e un modo per esprimere la variabilità nella stessa unità di misura

dei dati

• Il coefficiente di variazione `e un modo per esprimere la variabilità in modo indipendente

dall’unità di misura

• La differenza interquartile `e una misura di variabilità robusta

Insiemi di dati bivariati

Su ciascuna unità statistica può essere rilevata più di una variabile. Se le variabili sono due, si parla

di dati bivariati. Strumenti utili a sintetizzare questa tipologia di dati sono:

- Distribuzioni di frequenza doppia;

- Diagrammi a dispersione.

Dati bivariati: covarianza

Il grafico a dispersione ci permette di dare una risposta a domande come

- A valori grandi della prima variabile corrispondono valori grandi della seconda?

- O corrispondono valori piccoli?

Una risposta quantitativa a queste domande `e data dalla covarianza:

Dato un campione bivariato (xi , yi ), per i = 1, ..., n, la covarianza campionaria `e definita come

segue:

Covarianza > 0

- Cov(x,y) > 0: dipendenza lineare positiva

Covarianza < 0

- Cov(x,y) < 0: dipendenza lineare negativa

Covarianza = 0

- Cov(x,y) = 0: assenza di dipendenza lineare

Indice di correlazione

Dato un campione bivariato (xi , yi ), per i = 1, ..., n, la correlazione campionaria `e definita come

segue:

• −1 ≤ r ≤ 1;

• r = 1 in caso di perfetta relazione lineare positiva;

• r = −1 in caso di perfetta relazione lineare negativa.

Calcolo delle probabilità

• Consideriamo situazioni di incertezza:

sulla veridicità di una proposizione

o o sugli esiti di un esperimento aleatorio.

o

• Possiamo non sapere se la proposizione sia vera o falsa (non conosciamo se la situazione

descritta si `e realizzata o si realizzerà), o come l’esperienza aleatoria si materializzerà:

Domani sarà bel tempo (V/F);

o Il signor X `e il padre del bambino Y (V/F);

o Quale sarà numero di schede video prodotte entro oggi ({0,1,...});

o Il risultato di una misura ([0,∞] oppure [0,max]) oppure [min,max]).

o

Eventi elementari e spazio campionario

• Un evento `e un possibile esito di un’esperienza aleatoria.

• Un evento elementare `e un possibile esito della esperienza aleatoria non esprimibile

attraverso altri esiti che non lo comprendano oppure esprimibile solo attraverso esiti che lo

comprendono

o Esperimento aleatorio: Lancio del dado

Evento: Esce un numero pari

o Evento elementare: Esce 2

• Ω `e lo spazio delle eventi (risultati), anche detto spazio campionario, cioè l’insieme di

tutti i possibili risultati di un esperimento aleatorio.

• Se Ω `e inteso come unione logica degli eventi elementari che lo compongono `e detto

evento certo.

• = `e la negazione dell’evento certo ed `e detto evento impossibile.

Spazio campionario

• Gli eventi elementari che compongono lo spazio campionario sono esaustivi e

mutuamente esclusivi.

• La cardinalità di Ω può essere

Finita - Ω = {V,F};

o Infinita numerabile - Ω = {0, 1, 2, ...};

o ∈

Infinita non numerabile - Ω = [a,b). a,b R

o

• Se l’esperimento aleatorio viene ripetuto k volte nelle stesse condizioni, lo spazio

campionario complessivo `e dato dal prodotto cartesiano:

Eventi complessi

• Un evento complesso `e un sottoinsieme dello spazio degli eventi Ω.

• Consideriamo ad esempio

Esperimento aleatorio: Lancio di un dado a 6 facce

o Eventi elementari: posso definire 6 eventi elementari,

o ω1, ω2, ω3, ω4, ω5, ω6.

Spazio degli eventi: Ω = {ω1, ω2, ω3, ω4, ω5, ω6}.

o

• Un evento complesso `e un evento esprimibile usando eventi elementari

Evento complesso: Esce un numero pari, Epari = {ω2, ω4, ω6} Ω.

o

• A partire dallo spazio dei risultati, una σ algebra `e l’insieme di tutte le possibili unioni e

∅.

intersezioni degli elementi dello spazio degli eventi elementari, aggiungendo Ω e

Unione, intersezione e negazione di eventi

Siano E e F due eventi relativi a due esperienze aleatorie

• Unione: G = E F si verifica se almeno uno dei due eventi E o F si realizza;

• Intersezione: G = E ∩ F si verifica se ambedue gli eventi si realizzano;

• Negazione: si verifica se non si verifica E .

Un evento E e la sua negazione sono detti mutuamente esclusivi.

o Ovviamente la loro ∩ `e l’evento impossibile ovvero

o

Unione, intersezione e negazione di eventi

• Tre eventi {A,B,C} si dicono mutuamente esclusivi se

A∩B=∅ A∩C=∅, B∩C=∅, A∩B∩C=∅

• L’unione di n eventi E1, E2, ..., En si indica con

• L’intersezione di n eventi E1, E2, ..., En si indica con E1 ∩E2 ∩...∩En oppure

Diagramma di Venn

I diagrammi di Venn danno una rappresentazione grafica degli eventi e delle loro relazioni.

• Lo spazio degli eventi `e rappresentato da un grande rettangolo;

• Gli eventi sono rappresentati da cerchi o curve chiuse (es. E e F).

Esempio

Siano

Ω := {1,2,3,4,5,6,7}, E := {1,3,5,7}, F := {7,4,6},

G := {1, 4}.

Algebra degli eventi: alcune proprietà

• Proprietà commutative:

E∪F=F∪E;

o E∩F=F∩E.

o

• Proprietà associative:

(E∪F)∪G=E∪(F∪G);

o E∩F)∩G=E∩(F∩G).

o

• Proprietà distributive:

∪F)∩G

(E = (E ∩G)∪(F ∩G);

o ∪G)∩(F ∪G).

(E ∩F)∪G = (E

o

Leggi di De Morgan

Probabilità di eventi

Gli eventi possono essere conosciuti come:

• Certi/ Impossibili oppure

• Incerti, per cui attribuisco alla proposizione e alla sua negazione un grado di fiducia: la

probabilità.

Un esperimento aleatorio genera un evento con una certa probabilità.

La probabilità `e una misura, la misura dell’incertezza di eventi.

Interpretazioni del concetto di probabilità e probabilità di eventi

complessi

• Interpretazione empirica: la probabilità di un evento `e considerata una proprietà

dell’esperienza aleatoria stessa. Essa può essere determinata ripetendo più volte

l’esperimento.

• Interpretazione soggettiva: la probabilità di un evento esprime il livello di fiducia riposto nel

verificarsi dell’evento ed `e determinata dalla conoscenza delle circostanze in cui si

(realizzerà / `e realizzato) l’evento.

Il calcolo della probabilità ci consente di determinare la probabilità di eventi complessi e le sue

regole prescindono dalla interpretazione adottata.

Assiomi di Kolmogorov

Alcune proprietà della probabilità

Dagli assiomi di Kolmogorov si possono dedurre altre proprietà della probabilità.

AD ESEMPIO:

Le probabilità, come determinarle?

E= “osservo la faccia superiore nel lancio di un dado a 6 facce”

Ω = {E1,E2,...,E6} E5= Uscita del 5

Valuta la probabilità che nel prossimo lancio l’evento E5 si realizzi disponendo delle seguenti

informazioni:

1. Il dado `e un dado standard comprato per 50 centesimi al tabaccaio

2. Il dado `e stato comprato per 50 euro da Trucchi e Giochi (T&G) e sul foglietto leggo che

con alta probabilità il dado truccato produrrà un 5

3. Il dado `e stato comprato per 50 euro da T&G e sul foglietto ho letto che con alta probabilità

il dado truccato produrrà un certo numero che ora non ricordo!!

Domande

• Possibile che lo stesso evento riceva 3 valori diversi di probabilità?

• C’`e qualcosa che manca nelle scritture?

Le probabilità e il loro background

• Definiamo I lo stato di informazione nel quale stiamo operando

• A rigore non `e MAI corretto scrivere P(E), ma dovremmo sempre scrivere P(E|I)

• Spesso si scrive semplicemente P(E) sottintendendo ciò che c’`e nel background di

informazione I.

• Negli esempi precedenti, evidentemente, I conta (in realtà conta sempre!)

Eventi osservabili e non osservabili

Alcuni eventi sono osservabili e talvolta sono osservati, e altri, per un difetto “cronico” di

conoscenza non lo sono mai.

• Gli eventi osservati sono chiamati dati;

• Gli eventi non osservabili rimangono non osservati e quindi incerti ma l’incertezza sulla

loro realizzazione `e in genere modificata dai dati disponibili, sempre che ci sia una

dipendenza fra ciò che osservo e ciò che rimane non osservato.

Eventi non osservati

• Eventi non osservati ma potenzialmente osservabili sono:

le statistiche di una intera popolazione;

o i dati mancanti in una rilevazione (c.d. dato missing);

o eventi che si verificheranno in futuro.

o

• Eventi non osservabili che rimarranno sempre tali sono:

• congetture sui meccanismi (teorie) che regolano l’incertezza e che si sostanziano in

modelli;

• i parametri che regolano i modelli probabilistici.

Probabilità condizionate: esempio

• Supponiamo di tirare due dadi ottenendo esito (i,j). Qual `e la probabilità che la somma i + j

sia 8 sapendo (condizionatamente al fatto) che l’esito del lancio del primo dado `e i = 3?

Gli esiti possibili sono solo 6. Uno di essi `e 8. La probabilità `e 1/6.

Teorema delle probabilità condizionate

• Come includere nella probabilità di H l’informazione che E si `e realizzato?

• Come calcolare

Teorema delle probabilità condizionate

ovvero il rapporto fra:

• La probabilità che ambedue E ed H si realizzino.

• La probabilità che si realizzi E qualsiasi sia H.

P(H|E) è la probabilità di realizzazione di H essendosi ristretto lo spazio degli eventi a ΩE .

Congiunte tramite fattorizzazione di condizionate

• Non sempre `e facile valutare P(E,H) (≡P(E∩H))

• Dal Th. delle prob. condizionate, moltiplicando entrambi i membri per P(E) deriva che

• Una congiunta fra due eventi si può però sempre scomporre in due modi

• La scomposizione likelihood x prior `e utile perché:

1) spesso `e facile valutare la probabilità di un evento osservabile al variare di ipotesi

o rilevanti

2) `e possibile stabilire le probabilità di “partenza” di H.

o

Fattorizzazione generale di probabilità congiunte

• Consideriamo H e alcune differenti evidenze E1, . . . , En

• Nel caso le

Dettagli
Publisher
A.A. 2024-2025
40 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher priami2002 di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Firenze o del prof Tardella Fabio.