vuoi
o PayPal
tutte le volte che vuoi
II METODO più MATEMATICO
Definire il calcolo delle componenti principali come un problema di massimo vincolo. In effetti, noi vogliamo:
mass (aitΣx a) con ait = 1
Risoluzione Problema: Lagrange,
Soluzione: {Σx - lI} a1 = 0
det|Σx - lI| = 0
Polinomio Caratteristico di Σx
L’autovalore l con segno.
Per massimizzare si sceglie l’autovalore massimo e quindi a1 con l’autovalore di Σx associato
- La seconda componente principale y2 = Xa2, deve essere ortogonale alla prima y1 = Xa1. Dove:
- a1tΣx a2 = 0
a1t a2 = 0 quindi vincolo ci annuncia che:
cov(y1,y2) = t (a1Σx a) + t (a1 a2t Σx)
Risoluzione Problema: Lagrange
- Ricordo che: ∂/∂a1 (aiΣx a) = (Σx + Σx) a1
- ∂/∂a1 (a1 - 1) t a1
Metodo
Si opera attraverso i residui; abbiamo detto che:
- si possono costruire Σx e calcolare autovalori e autovettori; a primi; quindi la 1a componente (con la X parte del metodo precedente).
- Costruiamo la matrice dei residui: ΣX - Xa1α autovalore massimo.
- Da una prova estrarre la 2a componente.
In generale: σh = max ασX = Σi, j λi aij ai[al quadrato], h = 2, ..., H
Σai2 = 1
Proprietà Componenti Principali
1. Le L componenti X1,...XL hanno varianza b2Y1, λ1, b2Y2, λ2, ..., b2YL, λL, poi ai primi L Più grandi autovalori λ Σ. Questo deriva dalla:
Scomposizione Spettrale ΣX = BΛBT → bi = Var(Xα) combinazione lineare di xi Σai colonne di matrice B
= aiγBΛBT xα
= aiγBΛbα xα
2. Possiamo riscrivere la varianza totale di Σx; infatti la varianza totale di X è uguale alla varianza totale di Y quando H = J.
tΣX(X) = tΣX(BΛBT) = tX(BΛ) Σj=1 λj Σj=1 Σbij; tX(ΣY)
Quota:
|tΣX(Σ)
|tX2(X)
minimizza la parte di varianza totale di X spiegata dalle prime H componenti principali
∠tΣ(x)(Σ) = varianza totale spiegata dalla x del componente principale
3. Le prime H componenti principali determinano una matrice di varianza e covarianza ΣXγ = BΛBT; ΣH λiaij = Σ [xh, i, λij]
che approssima la migliore approssimazione di rango H in, in termine di minimi quadrati. Hanno minorizza lΣx.x
Analisi Fattoriale
Parte dalla considerazione che posso vedere le componenti come fattori che mi permettono di
Ricostruire i dati osservati, che ipotizziamo centrati (oppure li centriamo)
Modello:
x = μ + A y + e
Predice i dati osservati attraverso un numero ridotto di fattori
Modello forma riga:
Xi - μi = A (yi ei)
- j-dimensioni centrate
- A una j-dimensioni
Ipotesi:
- E (ei) = 0 - Non commetto errori sistematici
- E (yi) = 0 - Fattori centrati
- Cov (ei) = Ψe = diag (ψ1 ,..., ψj) - Stima una diagonale => gli errori sono incorrelati
- Cov (yi) = Σy = I - Fattori standardizzati
- Cov (ei , yi) = 0 - Errori e fattori incorrelati!
Struttura matrice di covarianza di xi:
Σx = Cov (xi) = Cov (Agi + ei)
- A Cov(yi, ei) = 0
In termini compatti possiamo scrivere
- Σx = (1/n) X'JX = (1/n) (YA' + EJ)'J(YA' + EJ) =
- A [(1/n) Y'JY] A' + A [(1/n) Y'JE] + E [(1/n) JYA'] + E [(1/n) JEJ]E =
- = A ΣY A' + A EJE A' Σe + A' ψj
- essendo AΣye = 0 e ΣΣy ei = 0
Varianza variabile i:
Var (xij) = aj a' + ψj - j: i =,..., j
- Varianza comune
- Varianza specifica
- Comunalità:
- Varianza comune totale variabile:
ANALISI COMPONENTI PRINCIPALI
Idea: Si parte dalla matrice dei dati X (che ha J variabili quantitative e grazie all’ACP avviene una riduzione in H matrici composta da H combinazioni lineari delle J variabili).
Componenti: Combinazioni lineari (sintesi) delle informazioni contenute nelle variabili originali.
- Combinazione data dalle J colonne (variabili) e da dei pesi
- Positivo = c'è concordanza tra la variabile numerica e la componente.
- Negativo
- Nullo
Cosa succede in termini di varianza se moltiplico una costante per una variabile?
La varianza diventa pari a quella precedente moltiplicata per il coefficiente al quadrato:
- ↓ Diminuzione if coeff ↓
- ↑ Incremento if coeff ↑
si mettono dei vincoli, le varianze dei pesi siano confrontate anche con altri prendono nuove combinazioni in cui la somma dei quadrati dei pesi è pari a 1.