Che materia stai cercando?

Intelligenza Artificiale Appunti scolastici Premium

Appunti di Intelligenza Artificiale.
Nello specifico gli argomenti trattati sono i seguenti: Il contest consiste nella costruzione e nell’addestramento di un classificatore che riesca a discriminare campioni che appartengono alle seguenti classi...ecc.

Esame di Intelligenza Artificiale docente Prof. R. Teti

Anteprima

ESTRATTO DOCUMENTO

NOTA1: Il fatto che in ogni caso l’errore vada a zero e ci si stabilizzi supponiamo sia dato dal fatto

che TTS e TS siano molto simili come distribuzione. Infatti, anche andando a variare di molto il

numero di epoche (anche di vari ordini di grandezze) non si verifica overtraining cioè l'errore

commesso sul TTS è sempre di 0%.

NOTA2: facendo riferimento alla figura 8 (cioè rete di 12 features con 25 neruoni), il fatto che

l’errore su TS sia ancora a 0.181 alla dodicesima epoca (mentre, ad esempio, nella prima è già 0) è

poco rilevante perché dipende dal seed del partitioning. Infatti cambiando il seed si può arrivare a 0:

ciò che interessa a noi non è tanto confrontare chi arriva per prima a zero, ma chi ci si accosta in

maniera più veloce sul TTS.

NOTA3: In figura 5, sul ramo inferiore, abbiamo inserito lo JavaSnippet tra lo Scorer e il Predictor

per valutare l’accuratezza tenendo già conto degli errori di classificazione dovuti al rigetto, come da

semantica del problema; se togliessimo lo JavaSnippet le percentuali di errore sarebbero,

ovviamente, leggermente più basse.

Adesso non ci resta che settare il numero di epoche: abbiamo deciso di scegliere questo parametro

effettuando diverse cross-validation al variare del numero di epoche per avere dei risultati

statisticamente più significativi. I risultati sono riassunti tabellarmente nella figura sottostante:

11

Figura 12

Dai risultati in tabella, abbiamo deciso di addestrare la rete con un numero di epoche pari a 15 che

da un lato ci da’ un errore risultante dalla cross-validation pari a 0.145 (quindi più che accettabile) e

dall’altro riteniamo che ci copra dal rischio di overtraining; infatti guardando la figura 8 si può

vedere che a 15 epoche il TTS ha da poco raggiunto un errore percentuale pari a 0% e il fatto che ci

si stabilizzi supponiamo sia dato dal fatto che TTS e TS sono molto simili tra loro e che per questo

l’effetto dell’overtraining non sia visibile con un numero limitato di epoche.

Andando a visualizzare graficamente la rete neurale con tali parametri definitivi si è anche visto che

l'errore commesso per epoca è di circa 0,05%, una soglia accettabile per non rischiare un'eccessiva

specializzazione. 12 Appendice

Capitolo

A

4

Si noti che anche la suddivisione scelta in 80% per il TS e 20% per il TTS è la migliore tra quelle

provate: questo perché andando a diminuire la percentuale di campioni per il TS è necessario un

numero maggiore di epoche per un addestramento migliore.

VALUTAZIONE DEL COSTO DI CLASSIFICAZIONE

La valutazione del costo di classificazione viene effettuata con la tecnica MRC spiegataci in classe

e in particolare questa è stata implementata tramite il nodo Cost.

Per ricavare la stima del costo di classificazione abbiamo effettuato diverse esecuzioni senza

specificare i seed dello shuffle e del partitioner sul ramo TTS della rete finale, quindi resettando

ogni volta i nodi dallo shuffle in poi. I risultati ottenuti sono i seguenti:

Come costo di classificazione da fornire pensiamo sia ragionevole fornire una media dei costi

ottenuti nella tabella di sopra e quindi il COSTO STIMATO = 0.007

SPUNTI DI RIFLESSIONE

Dopo aver eseguito i test per la valutazione dei costi si è verificato un caso "strano": l'errore di

classificazione più frequente, eccetto i casi di rigetto, è una misprediction di un campione WT per

13

YQA, in particolare dei campioni con RowID pari a 190 o 191 (trovati tramite un doppio filtraggio

sull'attributo Class con il valore WT e sull'attributo Winner con il valore YQA).

Per risolvere questa misprediction, lasciando invariate le caratteristiche principali della rete finale,

abbiamo provato a trovare un insieme di features che discriminasse meglio le due classi. Per fare

ciò abbiamo costruito una rete che filtri dapprima i campioni delle due classi e successivamente su

tale set abbiamo effettuato una selezione delle features discriminanti.

Applicando un Evaluator di tipo Wrapper Subset Eval e un algoritmo di ricerca di tipo Rank

Search è stata individuata la feature Haral7. Prima di etichettarla come definitiva si è visto

graficamente come tale features fosse mutuamente indipendente dalle singole features già

selezionate (ma ciò non vuol dire che non possa essere indipendente da una qualsiasi loro

combinazione). Ad esempio il grafico corrispondente alle features Haral7 e Haral244 è il seguente:

14

con solo le due classi WT e YQA

15

con tutte le classi

16

mentre, ad esempio, il grafico corrispondente alle features Haral7 e Haral163, che invece sono

altamente correlate, è il seguente con solo le due classi WT e YQA

17

con tutte le classi

18


PAGINE

19

PESO

765.08 KB

AUTORE

Sara F

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in ingegneria informatica
SSD:
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Sara F di informazioni apprese con la frequenza delle lezioni di Intelligenza Artificiale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Napoli Federico II - Unina o del prof Teti Roberto.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Intelligenza artificiale

Intelligenza Artificiale – Incertezza e reti di Bayes
Dispensa
Intelligenza Artificiale - completo
Appunto
Intelligenza Artificiale - tesina
Appunto
Dataset - slide
Appunto