vuoi
o PayPal
tutte le volte che vuoi
Statistica Descrittiva
Proprietà della media aritmetica
E(X) =
1. La somma degli scarti tra ciascuna modalità xi e la media aritmetica μx è nulla cioè:
(xi - μx)ni = 0
Dimostrazione
Applicando le proprietà dell'operatore "sommatoria"
Σ(xi - μx)ni = Σxini - μxΣni = nμx - μxn = 0
2. La somma dei quadrati degli scarti tra ciascuna modalità xi e una costante arbitraria a ∈ R, cioè:
φ(a)= Σ(xi - a)2ni
è minima per a = μx
Dimostrazione:
Innanzitutto la funzione φ(a) è, per definizione, una parabola con concavità rivolta verso l'alto; pertanto il suo unico punto di minimo si determina annullando la sua derivata prima. Per trovare la derivata prima:
d/da φ(a) = d/da Σ(xi - a)2ni = Σ2(xi - a)(-1)ni = -2 Σ(xi - a)ni
Quindi, ponendo la derivata prima uguale a 0 si ottiene:
Σ(xi - a)ni, che può essere scomposto: Σxini - aΣni, ovvero:
Σ(xini) - a Σni = 0 → Σ(xini) = a Σni
a = μx
Osservazione:
Si vedrà che φ(a = μx) fornisce una misura della dispersione dei dati, ovvero della variabilità della variabile V.S. X.
3) LA MEDIA ARITMETICA SODDISFA LA CONDIZIONE DI CAUCHY (INTERNALITÀ):
x1 ≤ μk ≤ xk
DIMOSTRAZIONE:
PER DEFINIZIONE x1 ≤ xi ≤ xk ∀i. MOLTIPLICANDO TUTTI I TERMINI PER LA COSTANTE POSITIVA fi, LA DISUGUAGLIANZA RIMANE INVARIATA.
x1fi ≤ xifi ≤ xkfi. SOMMANDO RISPETTO ALL'INDICE i CIASCUN TERMINE:
x1 ∑i=1k fi ≤ ∑i=1k xifi ≤ xk ∑i=1k fi, SI OTTIENE
x1 ≤ μk ≤ xk □
4) LA MEDIA DELLA TRASFORMATA LINEARE DI UNA VARIABILE STATISTICA CORRISPONDE ALLA TRASFORMATA LINEARE DELLA SUA MEDIA. OVVERO DATA LA V.S. X E LA TRASFORMATA LINEARE y = a + bx, CON a,b ∈ R, SI HA
μy = a + bμx.
DIMOSTRAZIONE:
È SUFFICIENTE APPLICARE LA DEF. DI MEDIA ALLA NUOVA V.S. y:
μy = ∑i=1k (a + bxi) fi = ∑i=1k [a fi + bxi fi] = a ∑i=1k fi + b ∑i=1k xi fi = a + bμx □
OSSERVAZIONE:
QUESTA PROPRIETÀ APPENA DIMOSTRATA CONSENTE DI AFFERMARE CHE L'OPERATORE E[.], CHE APPLICATO A UNA V.S. NE RESTITUISCE LA MEDIA, È UN "OPERATORE LINEARE", NEL SENSO CHE SE APPLICATO A UNA TRASFORMATA LINEARE DI UNA V.S. FORNISCE LA TRASFORMATA LINEARE DELLA MEDIA ARITMETICA DELLA VARIABILE STATISTICA OGGETTO DELLA TRASFORMAZIONE LINEARE.
p.2
PROPRIETÀ DELLA COVARIANZA
Cov[X,Y] = 1⁄n Σni=1 (xi - μx)(yi - μy) = 1⁄n Σni=1 Σmj=1 (xi - μx)(yi - μy)/(n-1)
1) LA COVARIANZA È SIMMETRICA NEGLI ARGOMENTI
Cov[X,Y] = Cov[Y,X]
2) LA COVARIANZA PUÒ ESSERE ESPRESSA COME DIFFERENZA TRA DUE VALORI MEDI
Cov[X,Y] = E[XY] - E[X]E[Y]
DIMOSTRAZIONE
DALLA DEFINIZIONE DI "COVARIANZA" ("MEDIA ARITMETICA DEL PRODOTTO DEGLI SCARTI FRA LE DUE COMPONENTI DELLA V.S. DOPPIA E LE LORO RESPECTIVE MEDIE"):
Cov[X,Y] = E[(X-E[X])(Y-E[Y])] = E[XY - XE[Y] - YE[X] + E[X]E[Y]] = E[XY] - E[X]E[Y] - E[Y]E[X] + E[X]E[Y] = E[XY] - E[X]E[Y] - E[Y]E[X] + E[X]E[Y] = E[XY] - E[X]E[Y] ▤
3) LA COVARIANZA AMMETTE SEMPRE LA RELAZIONE
|Cov[X,Y]| = √Var[X]Var[Y]
DIMOSTRAZIONE
1⁄n Σ i=1...n (xi-μi)(yi-μi))2NI1 - CHE È SEMPRE MAGGIORE DI ZERO PER OGNI t e r in QUANTO SOMMA DI QUANTITÀ POSITIVE E SVILUPPANDO IL QUADRATO CHE C'È ALL'INTERNO RISULTA:
φ(t) = t2(yj - yi))n1 + 2t 1⁄n Σ i=1...n Σ j=1...m ( yi - yi))-nTJ 2t 1⁄n(yi - μj))(yi - μx > < 0/p>
OUVERO:
φ(t) = 2t Var[Y] ± 2t Cov(X, Y) + VX(T) 0
CHE È UNA PARABOLA AI VALORI SEMPRE MAGGLIORI DI ZERO 0 (UGUALI), CON LA CONCAVITTÀ RIVOLTA VERSO L'ALTO E NON AMMETTE RADICI REALI DISTINTE. PERTANTO LA DISCRIMINANTE È MINORE/O UGALE A ZERO (Δ ≤ 0)
4 Cov(x,y)2 = 4 V[x]v[y][e[x] ≤ 0 =→ Cov[x,y]2 ≤ V[x]v[y][x], [ Cov(x,y)]≤√[V[Y]v[x]*
[ Cov(x,y)] ≤ √[v[y]*)][x]
DALL'ULTIMA DIMOSTRAZIONE RICAVANDO IL "COEFFICIENTE DI CORRELAZIONE LINEARE" (p) UTILE NEL CALICOLO DELLA "REGRESSIONE LINEARE" CON VALORI FRA ± 1
Cov(X,Y)]/ σ√x,y, (V3[σx*y](v)più]
rig(quasi[equ&ultiv[X][e [Y])]/mi[va = e 4
[PROPERTIES OF COVARIANCE] 0
Varianza di Regressione
V[Y-Ŷ] = 1/n Σ(yi - ŷi)2
È lo scarto al quadrato fra valori osservati e valori teorici, ovvero i residui di regressione. Rappresenta quindi una misura di bontà di adattamento della retta di regressione ai valori osservati.
-
La varianza di Y (V[Y]) è composta da varianza dei residui di regressione + la varianza del modello di regressione.
V[Y] = V[Y-Ŷ] + V[Ŷ -E[Y]]
Dimostrazione
Ricordando che Y = E[Y] + (Y-Ŷ) + (Ŷ-E[Y])
V[Y] = E[(Y-Ŷ) + (Ŷ-E[Y])] = E[(Y-Ŷ) + E[(Ŷ-E[Y])] = E[(Y - E[Y])2] = V[Y]
Nota: quindi V[Y-Ŷ] ≤ V[Y], quindi V[Y-Ŷ]/V[Y] sarà compreso fra 0, 1. Da cui:
R2 (coef. di determinazione) = 1 - V[Y-Ŷ] / V[Y] → misura normalizzata di bontà d'adattamento.
Ottenibile per la proprietà a) anche così:
R2 = V[Ŷ - E[Y]] / V[Y]
Nel caso in cui si adotti come modello la retta, esso coincide con il quadrato di correlazione lineare ρ *
-
La varianza dei residui della retta di regressione è proporzionale alla varianza di Y tramite il fattore (1 - ρ2)
V[Y-Ŷ] = V[Y] (1 - ρ2)
* R2 = λ V[Ŷ] / V[Y] ma siccome per la proprietà z) V[Y-Ŷ] = V[Y] (1-ρ2)
R2 = 1 - V[Y] (1 - ρ2)2 / V[Y] = 1 - (1 - ρ2) = ρ2
P. A