Università degli Studi di Napoli “Federico II”
Facoltà di Ingegneria
Corso di Laurea Specialistica in Ingegneria Informatica
Elaborato di Intelligenza Artificiale
Pietro Luise matr. 885/404
Roberto Nardone matr. 885/394
Dario Socci matr. 885/520
Indice
- Abstract
- Obiettivo
- Features selection
- Dimensionamento rete
- Valutazione del costo di classificazione
- Spunti di riflessione
Abstract
Il contest consiste nella costruzione e nell’addestramento di un classificatore che riesca a discriminare campioni che appartengono alle seguenti classi:
- WT: Dna originale
- YMA, YNA, YQA, Y488A, 502stop: sequenze amminoacidiche (mutazioni indotte rispetto al WT).
Ciascun campione è caratterizzato da un insieme di tipi di features:
- Haral. Features: features di tipo tessiturale.
- Inv. Mom.: i momenti invarianti che rappresentano la forma della cellula. Vengono detti invarianti perché non mutano il loro valore al variare della posizione dell'immagine.
- UCE Q.ty: il volume della quantità di proteina in ogni cellula.
- Volume: il volume della cellula.
Obiettivo
Ogni vettore di features rappresenta una cellula alla quale deve essere assegnata una classe di appartenenza. L'obiettivo è minimizzare il costo del sistema di classificazione tenendo conto di una particolare matrice dei costi fornitaci.
Questa documentazione può essere vista come divisa in due parti: la prima parte consiste nell'esposizione di tutte le operazioni effettuate durante il processo di feature selection, mentre la seconda parte descrive le scelte effettuate nella configurazione del classificatore.
Non ci soffermeremo a fondo sugli aspetti di configurazione banali dei blocchi del software Knime per dare più spazio all’esposizione delle scelte progettuali che abbiamo preso durante il dimensionamento della rete.
Features selection
La features selection è il processo che consiste nella scelta, a partire da un insieme di features più o meno vasto, di un sottoinsieme del gruppo di features iniziali che però conservi un potere discriminante tra i vari campioni soddisfacente.
Allo scopo di poter estrapolare diversi gruppi di features per un successivo confronto, abbiamo utilizzato il blocco AttributeSelectedClassifier che ci permette di far variare sia le strategie di ricerca con cui ci si muove all’interno dello spazio di ricerca per la composizione dei gruppi, sia gli evaluators per la valutazione del potere discriminante dei gruppi di features.
Nella seguente tabella sono riportate le combinazioni “evaluator, search” utilizzate da noi all’interno del blocco suddetto e i gruppi di features risultanti.
Figura 1
Si riporta una spiegazione degli Evaluators:
- Cfs Subset Eval: valuta la capacità di discriminazione di un sottoinsieme di attributi considerando l’abilità predittiva di ogni attributo unitamente al loro grado di ridondanza (ad esempio consente di capire se l’aggiunta di un altro attributo non aggiunge informazione). I sottoinsiemi di attributi aventi un’elevata correlazione con la classe di appartenenza e una bassa intercorrelazione sono quelli che saranno selezionati.
- Wrapper Subset Eval: effettua la selezione delle features utilizzando dei wrapper, ossia si va...
-
Intelligenza Artificiale
-
Intelligenza Artificiale
-
Intelligenza artificiale
-
Intelligenza artificiale e intelligenza umana