vuoi
o PayPal
tutte le volte che vuoi
Stima dei Minimi Quadrati Pesati del Modello di Classificazione
Una prima osservazione che facciamo è:
E(xi) = Xiu, Vi = 1,..., N
Idea: Se abbiamo una popolazione eterogenea avremo una media X che fa riferimento a quella popolazione. Consideriamone un cluster K, avremo una certa media.
Var(xi) = Σ x, Vi = 1,..., N
Modello eteroschedastico: Media diversa e elevata
Obiettivo: Minimizzare ∥ X - UX ∥w2 = Σi,k αik wik ∥xi - uxm ∥w ...
Vincoli:
- Σik αik = 1, Vi = 1,..., N
- Σi: i ∈ Gl αik ∈ ...
Ottimizzazione:
Σik αik ...
Pu risolvere il problema devo utilizzare un ALGORITMO A COORDINATE DISCENDENTI
COME FUNZIONA?
Io ho una funzione obiettivo a PIÙ VARIABILI; fisso tutte le variabili del problema da sto minimizzando -1-1 variabile e trovo il minimo della funzione obiettivo per quella variabile. Una volta trovato tele minimo la funzione obiettivo nel suo insieme DECRESE.
Dopo punto in avanti la variabile e faccio la stessa operazioni. Alla fine ricalcolo il valore della funzione obiettivo e lo CONFRONTO con il valore precedente della P. obiettivo, ovvero quello dell’inizio del processo. Se la differenza = Σ e grande a piacere, allora continuiamo a fare queste operazioni, cambiando nuovamente I. valore di paragone.
Quando l’algoritmo si ferma non e’ assicurato che quel valore sia di OTTIMO GLOBALE perché non è un problema polinomiale.
Però se lo facciamo 10 volte e per 9 volte troviamo lo stesso valore allora posso esso soddisfatto.
Algoritmo K-medie
- Inizializzazione da fare 5 volte per i.-5-; prendo un punto 3 arbitraria (senza icaso int_ rifetta onda nel insieme 3) calcolo -g-.
- Step 1: Aggiornamento di U per i° 1 centroid φ; per (in d)p Χ.
- Step 2: Aggiornamento do X media per tutti i punti ut (inserisci) f/m per tutti & punti di tyre +0 (calcolato) C (Campionatura opportuna) campionatura casuale atray.
- Regali: si calcola il valore di f (per ogni iterazione nel (p un dei punti di arbitrario, a piacere arbitraria, piccola a piacere) e calcolo ogni valor
Alla fine di momento di attività per gli step 1 e 2. Diventando, a minima -1- e multipli tele iterazioni f(x) non cresce. L’algoritmo si ferma se per g (Valori lil non è pennuto a w a/dalo U a midar w di candomo altro).
Quando ho finito tutti n. mezzo il tempo e stoppo sulla il documento del branch.
Sto dividendo quel é il volere *** di PIÙ VICINO alla distinzioni che sono fornitè delle mini
MEDI STATISTICA di in corrono un cluster.
SOLUZIONE DI|| U -( __ ) X**-:|| La soluzione do dos dello con una misure e caso c fisico awesys diposina proiettato
Amavo la X e ru una diverente -0-
x-e razeramento o di module cruciale.
✏️ Stiamo MINIMIZANDO ||y-(l -X )** ||βT
Nota
Se ma di D il la matrici restitute perentuitifo porcelain:
X=u _ul
Matrici astratta
X XV X=(u* )- V X
K-MEDIE FUZZY
La soluzione di questo problema si ottiene con un algoritmo di minimi quadrati alternati.
Algoritmo K-medie fuzzy
InizializzazioneA partire da un insieme casuale di centroidi.
Step 1: Aggiornamento di Uper i parametri attuali,k=1,...,K
Step 2: Aggiornamento centroidiRegola di arrestoSi calcola la funzione f(U,M0) per gli attuali vettoriUj Quando i tale aggiornamenti hanno ridotto considerevolmente (più di una costante arbitraria, placcia o piacere) il valore della funzione f(U,M) esse aggiornati una volta ancora eseguo gli del step 1, 2.Diversamente, il processo si ritiene abbia raggiunto la convergenza.
Programma Matlab: Fuzzy C-means[Xm, UOtt]=fcm(X, K, options);
- Input
- X matrice dei dati (n x J),
- K numero dei clusters,
- Options (1) esponente (default 2)
- Output Ottimo (tra gli starting random)
- U vettore di classificazione ottima
- Xm matrice dei centroidi
- Fxd=load(’fcmdata.dat’);
- fcm (load(’fcmdata2.dat’),2,’o’);
- [Xm,U,obj]=fcm(X,2);
- π1, π2, ..., πK, πK = stima
- Σk=1KπK= 1
- Assunzioni Distribuzionali
- Xi | V = vi ~ Nj (μj, Σi)
- Uguale a identità di lunghezza unitaria.
- Distribuzioni gaussiane multivariate testo scritto che combina & (quelle dei componenti)
- maxA(K)Σ Vik ln Nj(μk, Σj) = Σ Vik lnσ
Mk = XiVik
Annacriani prendente con la P.A. postenori tende a multiplizzare
shiftamento di una liberazione che avvicina ma non allontana le due osservazioni
Σk = NXi-μiVik
Σi = Identità distribuzione violazione state convergenza multinormalità
Caso eteroschedastico. Ogni cluster ha uno sua struttura di varianza e covarianza
KNΣΣK=1K Vik
Non varia a seconda del cluster caso omoschedastico
Caso isotropico
Erno ha prova della diagonarità come vector S.Q
Esempio calcola -means fuzzy
figure
plotObjF(U); title(’Valori Funzione Obiettivo ’); xlabel(’Iterazioni ’);ylabel(’Valori Funzione Obiettivo’)MiuUi= 0 := max(U);
figure
line(find(fcmdata(find(U==1),1)),fcmdata(find(U==:2),3),...line(find(fcmdata(find(U==2),1)),fcmdata(find(U==2),2),’linestyle ’,’none’,’marker ’, xl’,’color’,hold onplot(center(:,1),center(2),’linestyle ’, ’o’,’markerSize’,’lineWidth’,3);
ALTRI CRITERI
Marriott, 1982
Table 1. Clustering criteria and changesCriterionChange 1. 2. 3. 4. 5. 6. 7. 2logLoglog, log α t log(di);I primi tre criteri sono basati su una analysis multivariata della varianza (Friedman & Rubin, 1967)Tutti e tre tendono a definire clusters di forma simile e di dimensione uguale.Il quarto e quinto criterio sono basati su una diversa funzione di W.(, )... Poichè non assumo una forma semplice essi dispongono loro evitano di forzare i clusters ad avere forma simile.Gli ultimi due criteri (Symon, 1981) sono modifiche del secondo e quarto e evitano di forzare i cluster ad avere forma simile.
GAUSSIAN MIXTURE MODEL
La popolazione è composta da ● sottopopolazioni
In notazione
Assumiamo un chartale c
segnale con K
PROBLEMA:
πK ≥ 0; ∑k=1KπK = 1
Vi≥ 0; l = 1(8 π
Probabilità a posteriori
Ricordiamo la distribuzione multinomiale
P(xi|μi,Σi) = [2π]-m/2|Σi|-1/2
Exp{1⁄2 Σi Xi (xi-μj)}
Distanza di Mahalanobis
Nel caso σ ovvero Σk = matrix identity
la distanza diventa Euclidea e avviciniamoci al K-means come metodo
Stime di diversi vettori:
Sappiamo che l'algoritmo ha due step1 optamento, maximizationCalcoliamo & P.A postenori
Parametri della distribuzione tenute
Come?