Anteprima
Vedrai una selezione di 5 pagine su 19
Dimostrazioni ML Pag. 1 Dimostrazioni ML Pag. 2
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Dimostrazioni ML Pag. 6
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Dimostrazioni ML Pag. 11
Anteprima di 5 pagg. su 19.
Scarica il documento per vederlo tutto.
Dimostrazioni ML Pag. 16
1 su 19
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Dimostrazione Cross-Entropy

Ip. P, Q distribuzioni di probabilità

H(P, Q) Cross-Entropy

H(P, Q) = H(P) + KL(P||Q)

  • H(P) Entropia della distr. P
  • KL(P||Q) KL-Divergence

Th. H(P, Q) = - ∫ P(x) log(Q(x)) dx

Dalla teoria sappiamo che:

  • H(P) = ∫ P(x) log(1/P(x)) dx = -∫ P(x) log(P(x)) dx
  • KL(P||Q) = ∫ P(x) log(P(x)/Q(x)) dx

Partendo da H(P, Q) = H(P) + KL(P||Q), si ha:

- ∫ P(x) log(P(x)) dx + ∫ P(x) log(P(x)/Q(x)) dx =

= -∫ P(x) log(P(x)) dx + ∫ P(x) log(P(x)) dx - ∫ P(x) log(Q(x)) dx =

H(P, Q) = - ∫ P(x) log(Q(x)) dx

H(P, Q) = - x P(x) log2 (Q(x)) x DISCRETI

Tesi Dimostrata

2)

Cioè;

\[\sum_{i=1}^{N}\left(-\frac{1}{2}\frac{1}{2\pi\sigma^2}\right)\left(\frac{(x_i - \mu)^2}{2}\right)\left(-\frac{1}{(\sigma^2)^2}\right) = 0\]

\[\sum_{i=1}^{N} -\frac{1}{2\sigma^2} - \frac{(x_i - \mu)^2}{2(\sigma^2)^2} = 0\]

\[\sum_{i=1}^{N} -\frac{1}{2\sigma^2}\left(1 + \frac{(x_i - \mu)^2}{\sigma^2}\right) = 0\]

\[\frac{1}{2\sigma^2} \sum_{i=1}^{N} -\sigma^2 + \frac{(x_i - \mu)^2}{\sigma^2} = 0\]

\[\sum_{i=1}^{N} (x_i - \mu)^2 = \sigma^2 \cdot N\]

\[\sigma^2 = \frac{1}{N}\sum_{i=1}^{N} (x_i - \mu)^2\]

L(Θ,D) = DΣ yi (wTx + b) + log (1 + ewTx + b)

Tesi

Dimostrato

Si modella il problema utilizzando i moltiplicatori di Lagrange:

L(x, λ) = g(x) - ∑ λi hi(x) , λi ≥ 0

Come si evince, i vincoli sono stati “incorporati” nelle F.O.

Inoltre deve valere:

  • Dato xi, se h(xi) > 0, allora λi = 0. Il vincolo è detto INATTIVO.
  • Dato xi, se h(xi) = 0, allora λi > 0. Il vincolo è detto ATTIVO.

In entrambi i casi, la soluzione x* si può calcolare come:

∇g(x) - ∑ λi ∇hi(x) = 0

Ossia con la classica derivazione.

Possiamo riassumere queste condizioni con le KKT:

  1. ∇g(x*) + ∑ λi hi(x*) = 0
  2. h(x*) ≤ 0
  3. λi ≥ 0
  4. λi hi(x) = 0, ∀i
Dettagli
Publisher
A.A. 2023-2024
19 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/05 Sistemi di elaborazione delle informazioni

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher CristianoM7 di informazioni apprese con la frequenza delle lezioni di Machine learning & deep learning e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Modena e Reggio Emilia o del prof Calderara Simone.