Anteprima
Vedrai una selezione di 5 pagine su 19
Appunti statistica multivariata parte 2 Pag. 1 Appunti statistica multivariata parte 2 Pag. 2
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Appunti statistica multivariata parte 2 Pag. 6
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Appunti statistica multivariata parte 2 Pag. 11
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Appunti statistica multivariata parte 2 Pag. 16
1 su 19
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Stima dei Minimi Quadrati Pesati del Modello di Classificazione

Una prima osservazione che facciamo è:

E(xi) = Xiu, Vi = 1,..., N

Idea: Se abbiamo una popolazione eterogenea avremo una media X che fa riferimento a quella popolazione. Consideriamone un cluster K, avremo una certa media.

Var(xi) = Σ x, Vi = 1,..., N

Modello eteroschedastico: Media diversa e elevata

Obiettivo: Minimizzare ∥ X - UX ∥w2 = Σi,k αik wik ∥xi - uxmw ...

Vincoli:

  1. Σik αik = 1, Vi = 1,..., N
  2. Σi: i ∈ Gl αik ∈ ...

Ottimizzazione:

Σik αik ...

Pu risolvere il problema devo utilizzare un ALGORITMO A COORDINATE DISCENDENTI

COME FUNZIONA?

Io ho una funzione obiettivo a PIÙ VARIABILI; fisso tutte le variabili del problema da sto minimizzando -1-1 variabile e trovo il minimo della funzione obiettivo per quella variabile. Una volta trovato tele minimo la funzione obiettivo nel suo insieme DECRESE.

Dopo punto in avanti la variabile e faccio la stessa operazioni. Alla fine ricalcolo il valore della funzione obiettivo e lo CONFRONTO con il valore precedente della P. obiettivo, ovvero quello dell’inizio del processo. Se la differenza = Σ e grande a piacere, allora continuiamo a fare queste operazioni, cambiando nuovamente I. valore di paragone.

Quando l’algoritmo si ferma non e’ assicurato che quel valore sia di OTTIMO GLOBALE perché non è un problema polinomiale.

Però se lo facciamo 10 volte e per 9 volte troviamo lo stesso valore allora posso esso soddisfatto.

Algoritmo K-medie

  • Inizializzazione da fare 5 volte per i.-5-; prendo un punto 3 arbitraria (senza icaso int_ rifetta onda nel insieme 3) calcolo -g-.
  • Step 1: Aggiornamento di U per i° 1 centroid φ; per (in d)p   Χ.
  • Step 2: Aggiornamento do X media per tutti i punti ut (inserisci) f/m per tutti & punti di tyre +0 (calcolato) C (Campionatura opportuna) campionatura casuale atray.
  • Regali: si calcola il valore di f (per ogni iterazione nel (p un dei punti di arbitrario, a piacere arbitraria, piccola a piacere) e calcolo ogni valor

Alla fine di momento di attività per gli step 1 e 2. Diventando, a minima -1- e multipli tele iterazioni f(x) non cresce. L’algoritmo si ferma se per g (Valori lil non è pennuto a w a/dalo U a midar w di candomo altro).

Quando ho finito tutti n. mezzo il tempo e   stoppo sulla il documento del branch.

Sto dividendo quel é il volere *** di PIÙ VICINO alla distinzioni che sono fornitè delle mini

MEDI STATISTICA di  in corrono un cluster.

SOLUZIONE DI|| U -( __ ) X**-:|| La soluzione do dos dello con una misure e caso c fisico awesys diposina proiettato

Amavo la X e ru una diverente -0-

x-e razeramento o di module cruciale.

✏️ Stiamo MINIMIZANDO ||y-(l -X )** ||βT

Nota

Se ma di D il la matrici restitute perentuitifo porcelain:

X=u _ul

Matrici astratta

X XV X=(u* )- V X

K-MEDIE FUZZY

La soluzione di questo problema si ottiene con un algoritmo di minimi quadrati alternati.

Algoritmo K-medie fuzzy

Inizializzazione

A partire da un insieme casuale di centroidi.

Step 1: Aggiornamento di U

per i parametri attuali,k=1,...,K

Step 2: Aggiornamento centroidiRegola di arresto

Si calcola la funzione f(U,M0) per gli attuali vettoriUj Quando i tale aggiornamenti hanno ridotto considerevolmente (più di una costante arbitraria, placcia o piacere) il valore della funzione f(U,M) esse aggiornati una volta ancora eseguo gli del step 1, 2.Diversamente, il processo si ritiene abbia raggiunto la convergenza.

Programma Matlab: Fuzzy C-means

[Xm, UOtt]=fcm(X, K, options);

  • Input
  • X matrice dei dati (n x J),
  • K numero dei clusters,
  • Options (1) esponente (default 2)
  • Output Ottimo (tra gli starting random)
  • U vettore di classificazione ottima
  • Xm matrice dei centroidi
  • Esempio calcola -means fuzzy

    • Fxd=load(’fcmdata.dat’);
    • fcm (load(’fcmdata2.dat’),2,’o’);
    • [Xm,U,obj]=fcm(X,2);

    figure

    plotObjF(U); title(’Valori Funzione Obiettivo ’); xlabel(’Iterazioni ’);ylabel(’Valori Funzione Obiettivo’)

    MiuUi= 0 := max(U);

    figure

    line(find(fcmdata(find(U==1),1)),fcmdata(find(U==:2),3),...line(find(fcmdata(find(U==2),1)),fcmdata(find(U==2),2),’linestyle ’,’none’,’marker ’, xl’,’color’,hold on

    plot(center(:,1),center(2),’linestyle ’, ’o’,’markerSize’,’lineWidth’,3);

    ALTRI CRITERI

    Marriott, 1982

    Table 1. Clustering criteria and changesCriterionChange 1.   2.   3.   4.   5.   6.   7. 2logLoglog, log α t log(di);

    I primi tre criteri sono basati su una analysis multivariata della varianza (Friedman & Rubin, 1967)Tutti e tre tendono a definire clusters di forma simile e di dimensione uguale.Il quarto e quinto criterio sono basati su una diversa funzione di W.(, )... Poichè non assumo una forma semplice essi dispongono loro evitano di forzare i clusters ad avere forma simile.Gli ultimi due criteri (Symon, 1981) sono modifiche del secondo e quarto e evitano di forzare i cluster ad avere forma simile.

    GAUSSIAN MIXTURE MODEL

    La popolazione è composta da ● sottopopolazioni

    In notazione

    • π1, π2, ..., πK, πK = stima
    • Σk=1KπK= 1
    • Assunzioni Distribuzionali
    • Xi | V = vi ~ Njj, Σi)

    Assumiamo un chartale c

    segnale con K

    1. Uguale a identità di lunghezza unitaria.
    2. Distribuzioni gaussiane multivariate testo scritto che combina & (quelle dei componenti)

    PROBLEMA:

    • maxA(K)Σ Vik ln Njk, Σj) = Σ Vik lnσ

    πK ≥ 0; ∑k=1KπK = 1

    Vi≥ 0; l = 1(8 π

    Probabilità a posteriori

    Ricordiamo la distribuzione multinomiale

    P(xiii) = [2π]-m/2i|-1/2

    Exp{1⁄2 Σi Xi (xij)}

    Distanza di Mahalanobis

    Nel caso σ ovvero Σk = matrix identity

    la distanza diventa Euclidea e avviciniamoci al K-means come metodo

    Stime di diversi vettori:

    Sappiamo che l'algoritmo ha due step1 optamento, maximizationCalcoliamo & P.A postenori

    Parametri della distribuzione tenute

    Come?

    1. Mk = XiVik

      Annacriani prendente con la P.A. postenori tende a multiplizzare

      shiftamento di una liberazione che avvicina ma non allontana le due osservazioni

    2. Σk = NXi-μiVik

      Σi = Identità distribuzione violazione state convergenza multinormalità

      Caso eteroschedastico. Ogni cluster ha uno sua struttura di varianza e covarianza

    3. KNΣΣK=1K Vik

      Non varia a seconda del cluster caso omoschedastico

    4. Caso isotropico

      Erno ha prova della diagonarità come vector S.Q

Dettagli
Publisher
A.A. 2021-2022
19 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher miha21 di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma La Sapienza o del prof Vichi Maurizio.