Anteprima
Vedrai una selezione di 5 pagine su 16
Dimostrazioni Deep Learning Pag. 1 Dimostrazioni Deep Learning Pag. 2
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Dimostrazioni Deep Learning Pag. 6
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Dimostrazioni Deep Learning Pag. 11
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Dimostrazioni Deep Learning Pag. 16
1 su 16
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Dimostrazione Adjoint.

Ip. divw(gi) = 1/2 ∑ √wij (gi - gj)

(∇wg)ii = √wij ⋅ (gi - gj)

wg)i = ∑ wi,j∈E ⋅ (gi - gj)

Th. (divw (∇wg))(xi) = (Δwg)(xi)

Sostituiamo le formule della divergenza:

(divw (∇wg)) (xi) =

= 1/2 ∑ √w(xi,xj) (∇wg(xi,xj) - ∇wg(xj,xi))

Sostituiamo le formule del gradiente:

= 1/2(i,j)∈E √w(xi,xj) (√w(xi,xj) (g(xi) - g(xj)) - w(xi,xj) (g(xj) - g(xi)))

Allora:

Con:

Tesi Dimostrata

Esempio Gradient Descent DNN

Consideriamo una rete neurale a tre strati. Semplifichiamo ogni strato con un singolo neurone, tenendo presente che ragioneremo con una matrice W di parametri piuttosto che con un singolo vettore.

  • x: INPUT;
  • wi: matrice parametri i-esimo layer;
  • hi: OUTPUT i-esimo layer;
  • o: OUTPUT FINALE.

Per la risoluzione del problema di ottimizzazione:

argminθ (L(θ; x; y) + λ Ω(θ))

DATA TERM (Loss) REGULARIZATION TERM

Supponiamo non ci sia Regolarizzazione ed utilizziamo il metodo del GRADIENT DESCENT per il calcolo del minimi:

θnew = θold - μ ∂L(θ; x; y) / ∂θold

Dobbiamo saper calcolare queste derivate per ogni set di parametri

Essendo θ composto da più set di parametri, uno per ogni layer, per il calcolo della derivata...

Dimostrazione ELBO

Dettagli
Publisher
A.A. 2023-2024
16 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/05 Sistemi di elaborazione delle informazioni

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher CristianoM7 di informazioni apprese con la frequenza delle lezioni di Machine learning & deep learning e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Modena e Reggio Emilia o del prof Calderara Simone.