Anteprima
Vedrai una selezione di 3 pagine su 6
Formulario Di Machine learning for Big Data Pag. 1 Formulario Di Machine learning for Big Data Pag. 2
Anteprima di 3 pagg. su 6.
Scarica il documento per vederlo tutto.
Formulario Di Machine learning for Big Data Pag. 6
1 su 6
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Incrementare il termine di regolarizzazione

Analisi Testuale

TF-IDF: rappresenta un testo utilizzando dei numeri

:

:

One-hot vector: ogni parola è un vettore lungo quanto il vocabolario, con tutti i campi a 0 tranne quello riferito

alla parola stessa

Performance classificatore

Accuracy: sintetizza le informazioni della confusion matrix +

= + + +

Precision : ci dice tra le osservazioni positive rilevate quante sono giuste. Valori giusti predetti a 1 / tutti i valori

predetti a 1

= +

Recall: quanto il sistema è stato bravo a riconoscere tutti i volti che sono passati. Valori giusti predetti a 1 / tutti i

valori che dovrebbero valere 1

= +

F-score: media armonica fra precision e recall P∗R

F − score = 2 ∙ P +

Reti neurali →

Unisce tante logistic regression utilizza formule della logistic regression.

Calcolare z da dare in pasto alla sigmoide function = +

• Sigmoid Function: 1

( )

ℎ . . = ( + ) = () =

, 1 −

1 +

• Funzione di costo (

Cost (h ( x) , y) − ln( h x))

=

Se y = 1 : θ θ (

Cost (h ( x) , y) = − ln( 1 − h x))

Se y= 0 : θ θ

• () (ℎ

= )

Matrice dei pesi

()

= (° − 1 ° − 1 )

• () () (−1)

(ℎ

= ):

Matrice del Bias posso guardare anche la dimensione di

() (°

= ° + 1)

• Funzioni di attivazione:

o [−0,5; 0,5]

Sigmoid function: restituisce 0 o 1 , aggiornamento dei pesi solo se

Problemi di binary classification

o ReLu: utilizzata nei layer intermedi , uccide i valori negativi

0 ≤ 0

() = { > 0

o Softmax Layer: ultimo layer , per problem multiclasse. Mi permette di ottenere un vettore di valori

[0,1] che mi indica la probabilità di ogni classe.

▪ Usa la funzione di costo cross entropy:

() () (1) (1) (2) (2) () ()

= − ∑( ∗ ln(ℎ ( )) ) = −( ∗ ln(ℎ ( )) + ∗ ln(ℎ ( )) + ⋯ + ∗ ln(ℎ ( )))

, , , ,

=1

SVM

Utilizza la logistic regression: T

∶ θ + θ x + θ x = 0 g (θ x) = 0.5

tale che

0 1 1 2 2

• T

=1 θ + θ x̂ + θ x̂ ≥ 0 g (θ x) > 0.5

se quindi

0 1 1 2 2

• T

=0 θ + θ x̂ + θ x̂ ≤ 0 g x) < 0.5

se quindi

0 1 1 2 2

Equazioni dei margini:

+ = 1 : margine superiore

+ = 0 : decision boundary

+ = −1: margine inferiore

Vettore perpendicolare al decision boundary:

Distanza fra due margini :

2

‖‖ =

Funzione di costo di svm:

, 2

SVM con Kernel gaussiano

Similarità tra un punto x e un landmark:

Vale 0 se sono lontani

Vale 1 se sono vicini 2 2

(1) (1)

(1) ( − ) +( − )

2

‖−‖ 1 2 2

1

1 1 = = exp (− ) = exp (− )

(1)

= ( ) = ( ) 1

2 2

(1) 2 2

2

2

Dettagli
A.A. 2022-2023
6 pagine
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher mariaelenazuliani di informazioni apprese con la frequenza delle lezioni di Machine learning e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Udine o del prof Serra Giuseppe.