Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Il gradiente è dove metto le derivate parziali
presa f(x1, ..., xn), ∇f(x) = [δf(x)⁄δx1, ..., δf(x)⁄δxn]̂
L'hessiano ∇2f(x) = [δ2f(x)⁄δx1δx1, ..., δ2f(x)⁄δx1δxn; δ2f(x)⁄δxnδx1, ..., δ2f(x)⁄δxnδxn]
una funzione è differenziabile se è possibile farne le derivate
Teorema 1:
(dim sul quaderno) min f(x) x ∈ S , f(x) convesso, S convesso 1) preso x* minimo locale è anche minimo globale 2) l’insieme delle soluzioni ottime X* è convesso (cioè possono esserci 3 casi: 1 sola, soluzione è unica, 3 infinite soluzioni)
Insieme convesso:
S convesso se ∀x, y ∈ S il segmento [x, y] ∈ S
convessità stretta della funzione implica che se la soluzione ottima esiste, è unica
x ∈ S , f(x) convesso, S convesso
Funzione convessa:
presi 2 punti ∀x, y ∈ S e il segmento [x, y] = λx + (1 - λ)y, ∀λ ∈ [0,1] (diverse combinazioni di A danno diversi punti su segmento) f(x) convessa se f[λx + (1 - λ)y] ≤ λf(x) + (1 - λ)f(y) Cioè se prendo un punto sul segmento, la funzione in quel punto sta sotto il segmento unendo la funzione nel punto x e la funzione nel punto y f(x) è concava se -f(x) è convessa
Norma
è una funzione che prende un vettore x ∈ Rn e mi da un numero: x ∈ Rn → ‖x‖ mi permette di definire la distanza tra 2 punti: d(x, y) = ‖x - y‖ gode di alcune proprietà: ‖x‖ > 0 ∀x ∈ Rn ‖x‖ = 0 ⇔ x = 0 (tutte le componenti =0) ‖λx‖ = |λ| ‖x‖ ∀x, y ∈ Rn
Cercheremo di risolvere problemi del tipo min f(x) x ∈ S ⊆ Rn Una soluzione è un punto di minimo globale x* ∈ S : f(x*) ≤ f(x), ∀x ∈ S
f(x) continua se limx→x0 f(x) = f(limx→x0 x)
f(x) ∈ C1 funzioni continuante derivabili se f(x + d) ?⃗ f(x) a meno di un resto che va a zero al crescere di d f(x) ∈ C2 funzioni doppiamente continuante derivabili se f(x + d) ≅ f(x) + ∇f(x)̂ᵀd + 1⁄2 dᵀ∇2f(x)d
B(x0, ρ) = {x ∈ Rn : ‖x - x0‖ < ρ}
x* ∈ S è un minimo locale se
t.c f(x*) ≤ f(x) ∀x ∈ S ∩ B(x*, ρ) con ρ > 0
Minimo locale se dici isolated se f(x*) < f(x)
non sempre esiste
Se minore stretto f(x*) < f(x)
Allora la soluzione x* è unica
Formula generale della norma:
‖x‖p = (∑i=1n|xi|p)1⁄p Le norme più usate sono:
norma 1 p = 1, ‖x‖1 = ∑i=1n|xi| d1(v, w) = ‖v - w‖1 = ∑i=1n|vi - wi|
norma euclidea p = 2, ‖x‖2 = √∑i=1n|xi|2 d(v, w) = ‖v - w‖ = √∑i=1n|vi - wi|2
norma infinito p = ∞, ‖x‖∞ = maxi=1...n|xi| d∞(v, w) = ‖v - w‖∞ = maxi=1...n|vi - wi|
(Disuguaglianza triangolare: La lunghezza di un lato del triangolo < della somma degli altri 2)
se vuoi la distanza tra 2 punti ma con ostacoli
la norma euclidea non ha senso la norma 1 vale 5 la norma lagrangiana vale 3
Se V ha dimensione finita, tutte le norme sono EQUIVALENTI
cioè comunque si fissino due norme ‖‖.‖‖a e ‖‖.‖‖b, esistono due costanti C1 e C2 tale che C1‖v‖b ≤ ‖v‖a ≤ C2‖v‖b ∀v ∈ V Le distanze indotte dalle norme sono equivalenti
Convessità
come dire se una funzione è convessa
f(x) convessa, f(x) ∈ C1 → ∀x, y ∈ Rⁿ si ha f(y) ≥ f(x) + ∇f(x)(y-x)
Fare il gradiente vuol dire fare la tg, se la funzione è convessa la tg sta sempre al di sotto della funzione
f(x) convessa, f(x) ∈ C2 ⇔ ∇2f(x) ≽ 0, ∀x ∈ S
L’hessiano calcolato in un qualsiasi punto è semidefinito positivo
basta trovare un punto in cui l’hessiano è <0 per dire che la funzione non è convessa
Condizione necessaria affinché una funzione sia strettamente convessa è che ∇2f(x) > 0, ∀x ∈ S
Se la funzione è quadratica, ovvero:
q(x) = 1/2xTQx + cTx + c
∇q(x) = Qx + c ∇2q(x) = Q
L’hessiano non dipende dal punto quindi la condizione diventa anche sufficiente, Q ≻ 0
come dire se un insieme è convesso
Un insieme ammissibile è definito come l’intersezione di + vincoli, ogni vincolo è una funzione, se tutte le funzioni sono convesse ⇒ anche l’insieme sarà convesso
Teo 2: (dim sul quaderno)
gi(x)convexse ⇒ S = {gi(x) ≤ 0}convex
OSS:
- Intersezione di insiemi convessi è ancora convessa
- Vincolo di uguaglianza e convesso e vincolo lineare: g(x) = cTx + d ⇒ ∇g(x) = 0,
- vincolo sia concavo che convesso ∑iαifi(x) se αi ≥ 0, fi(x) convessa
- f(x) = max {fi(x)} con fi(x) convesse è convessa
Semidefinita positiva ≽
Q ∈ Rnxn
Q = QT ⇒ yTQy ≥ 0, ∀y ∈ Rⁿ
Q ≠ 0
Definita positiva ≻
Q ∈ Rnxn
Q = QT ⇒ yTQy > 0, ∀y ∈ Rⁿ
Q > 0
3. Concetto matrice diagonale dominante:
se qii ≥ ∑nj=1|qij| ⇒ Q ≽ 0
se qii = 0,∃qij ≠ 0 ⇒ Q ≠ 0
2. Criterio dei minori di Nord-Ovest
Q = \(\begin{bmatrix} a & b \\ d & e \end{bmatrix}\) >0 se:
a > 0, det \(\begin{bmatrix} a & b \\ d & e \end{bmatrix}\) > 0, det Q > 0
Q ≽ 0 se tutti i minori hanno determinante ≥ 0
1. Guardo gli autovalori:
Q ≽ 0 ⇔ λi ≥ 0, ∀i = 1 ... n
Q ≻ 0 ⇔ λi > 0, ∀i = 1 ... n
λ ∈ R è autovalore se ∃ autovettore ui: Qui = λui, ∀i = 1 ... n
λ ∈ R sono le soluzioni dell’eq:
det(Q - λI) = 0
SE NELL'ENUNCIATO RIMUOVO LA COMPATTEZZA DELL'INSIEME
Sto risolvendo un problema min f(x), f ∈ C1,
uso il metodo xk+1 = xk + αkdk
dk ≠ 0 se ∇f(xk) ≠ 0
Ho le stesse ipotesi
CONCLUSIONI:
- ∃ indice v t. c. xv ∈ Ω (convergenza finita)
- Oppure
- L'algoritmo genera una successione infinita {xk} t. c.:
- limk→∞ f(xk) = −∞ (problema non ha soluzione)
- Oppure f(xk) è limitata inferiormente e in questo caso:
- {f(xk)} converge
- limk→∞ ∇f(xk) = 0 (convergenza forte)
- Ogni eventuale punto di accumulazione x̄ di {xk} ∈ L0 e soddisfa la condizione ∇f(x̄) = 0 (non è però garantita l’esistenza dei punti di accumulazione)
INIZIO:
sto risolvendo un problema min f(x), f ∈ C1,
uso il metodo xk+1 = xk + αkdk
L(x0) ∈ ℝn, {x | f(x) ≤ f(x0)} compatto
dk ≠ 0 se ∇f(xk) ≠ 0
Teo: C.S. di convergenza globale
CONCLUSIONI:
- ∃ indice v t. c. xv ∈ Ω (convergenza finita)
- Oppure
- L’algoritmo genera una successione infinita {xk} t. c.:
- a) xk ∈ L0 ∀k e {xk} ammette punti di accumulazione
- b) {f(xk)} converge (la successione dei valori della funzione)
- c) limk→∞ ∇f(xk) = 0 (convergenza forte)
- d) Tutti i punti di accumulazione della sequenza sono stazionari
DIMOSTRO d)
∄ punto di accumulazione di {xk} se
∃ x̄ insieme infinito di indici t. c.: limk→∞ xki = x̄
Dal punto c) limk→∞ ∇f(xk) = 0
quindi limk→∞ xki = ∇f(xi) = ∇f(x̄)
Siccome f ∈ C1 e continua e differenziabile ∇f(x̄) = 0 ∴ x̄ punto di accumulazione è stazionario
DIMOSTRO c)
Dall’hp 3 [∇f(xk)]Tdk|dk| ≥ σ(‖∇f(xk)‖) ≥ 0 (perché la norma è ≥ 0 e per la definizione di funzione di sforzamento σ: [0, ∞) )
Dall’hp 2 limk→∞ [∇f(xk)]Tdk|dk| = 0
Allora lim σ(‖∇f(xk)‖) = 0 perché compreso tra 2 valori che vanno a 0
Per la definizione di funzione di sforzamento limk→∞ ‖∇f(xk)‖ = 0
Dalle proprietà della norma, la norma di qualcosa va a 0 se il qualcosa va a 0 ∴ limk→∞ ‖∇f(xk)‖ = 0
DIMOSTRO a)
Per l’hp 1, f(xk+1) ≤ f(xk) ≤ ... ≤ f(x1) ≤ f(x0)
Siccome L0 ∈ ℝn: f(xκ) < f(x0) [κ] ammette punti di accumulazione
Siccome L0 ∈ compatto {xk} ammette punti di accumulazione
DIMOSTRO b)
{f(xk)} è monotona non crescente dall’hp 1
Da a) xk ∈ L0 ∀k e f ∈ C1 + L0 è compatto ∃ un limK→∞ f(xk) (la funzione è limitata inferiormente)
Data una funzione limitata inferiormente e continua, questa converge