Anteprima
Vedrai una selezione di 10 pagine su 44
Appunti - Artificial neural network and deep learning Pag. 1 Appunti - Artificial neural network and deep learning Pag. 2
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Appunti - Artificial neural network and deep learning Pag. 6
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Appunti - Artificial neural network and deep learning Pag. 11
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Appunti - Artificial neural network and deep learning Pag. 16
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Appunti - Artificial neural network and deep learning Pag. 21
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Appunti - Artificial neural network and deep learning Pag. 26
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Appunti - Artificial neural network and deep learning Pag. 31
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Appunti - Artificial neural network and deep learning Pag. 36
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Appunti - Artificial neural network and deep learning Pag. 41
1 su 44
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Uall pixels in U in the input images I.Spatial filter is a transformation with the following characteristics:

- the location of the output doesn’t change

- The operation is repeated for each pixel

- T can be linear or noLinear transformation can be written as:

and we can consider weights as an image, or a filter w that entirely defines the operation

We define Correlation among a filter w and an image l the following operation

4.2 Linear Classifier

Dimensionality prevents us from using a deep NN as those seen so far. A 1-layer NN to classify images is a feasible but poor solution. We can use a fully connected network where w is the weight associated i,jth th to the i neuron of the input when computing the j output neuron

Note that we “define” an output node for each class of the classifierth We can arrange weights in a matrix W, then the score of the i class is given by the product: s = W[i,:]*x +bi input i This is equal to a linear classifier K(x) = Wx + b W[i,:] can be seen as a