Anteprima
Vedrai una selezione di 8 pagine su 32
Schemi, Ottimizzazione Pag. 1 Schemi, Ottimizzazione Pag. 2
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Schemi, Ottimizzazione Pag. 6
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Schemi, Ottimizzazione Pag. 11
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Schemi, Ottimizzazione Pag. 16
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Schemi, Ottimizzazione Pag. 21
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Schemi, Ottimizzazione Pag. 26
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Schemi, Ottimizzazione Pag. 31
1 su 32
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Il gradiente è dove metto le derivate parziali

presa f(x1, ..., xn), ∇f(x) = [δf(x)δx1, ..., δf(x)δxn

L'hessiano ∇2f(x) = [δ2f(x)δx1δx1, ..., δ2f(x)δx1δxn; δ2f(x)δxnδx1, ..., δ2f(x)δxnδxn]

una funzione è differenziabile se è possibile farne le derivate

Teorema 1:

(dim sul quaderno) min f(x) x ∈ S , f(x) convesso, S convesso 1) preso x* minimo locale è anche minimo globale 2) l’insieme delle soluzioni ottime X* è convesso (cioè possono esserci 3 casi: 1 sola, soluzione è unica, 3 infinite soluzioni)

Insieme convesso:

S convesso se ∀x, y ∈ S il segmento [x, y] ∈ S

convessità stretta della funzione implica che se la soluzione ottima esiste, è unica

x ∈ S , f(x) convesso, S convesso

Funzione convessa:

presi 2 punti ∀x, y ∈ S e il segmento [x, y] = λx + (1 - λ)y, ∀λ ∈ [0,1] (diverse combinazioni di A danno diversi punti su segmento) f(x) convessa se f[λx + (1 - λ)y] ≤ λf(x) + (1 - λ)f(y) Cioè se prendo un punto sul segmento, la funzione in quel punto sta sotto il segmento unendo la funzione nel punto x e la funzione nel punto y f(x) è concava se -f(x) è convessa

Norma

è una funzione che prende un vettore x ∈ Rn e mi da un numero: x ∈ Rn → ‖x‖ mi permette di definire la distanza tra 2 punti: d(x, y) = ‖x - y‖ gode di alcune proprietà: ‖x‖ > 0 ∀x ∈ Rn ‖x‖ = 0 ⇔ x = 0 (tutte le componenti =0) ‖λx‖ = |λ| ‖x‖ ∀x, y ∈ Rn

Cercheremo di risolvere problemi del tipo min f(x) x ∈ S ⊆ Rn Una soluzione è un punto di minimo globale x* ∈ S : f(x*) ≤ f(x), ∀x ∈ S

f(x) continua se limx→x0 f(x) = f(limx→x0 x)

f(x) ∈ C1 funzioni continuante derivabili se f(x + d) ?⃗ f(x) a meno di un resto che va a zero al crescere di d f(x) ∈ C2 funzioni doppiamente continuante derivabili se f(x + d) ≅ f(x) + ∇f(x)̂ᵀd + 1⁄2 dᵀ∇2f(x)d

B(x0, ρ) = {x ∈ Rn : ‖x - x0‖ < ρ}

x* ∈ S è un minimo locale se

t.c f(x*) ≤ f(x) ∀x ∈ S ∩ B(x*, ρ) con ρ > 0

Minimo locale se dici isolated se f(x*) < f(x)

non sempre esiste

Se minore stretto f(x*) < f(x)

Allora la soluzione x* è unica

Formula generale della norma:

‖x‖p = (∑i=1n|xi|p)1⁄p Le norme più usate sono:

norma 1 p = 1, ‖x‖1 = ∑i=1n|xi| d1(v, w) = ‖v - w‖1 = ∑i=1n|vi - wi|

norma euclidea p = 2, ‖x‖2 = √∑i=1n|xi|2 d(v, w) = ‖v - w‖ = √∑i=1n|vi - wi|2

norma infinito p = ∞, ‖x‖ = maxi=1...n|xi| d(v, w) = ‖v - w‖ = maxi=1...n|vi - wi|

(Disuguaglianza triangolare: La lunghezza di un lato del triangolo < della somma degli altri 2)

se vuoi la distanza tra 2 punti ma con ostacoli

la norma euclidea non ha senso la norma 1 vale 5 la norma lagrangiana vale 3

Se V ha dimensione finita, tutte le norme sono EQUIVALENTI

cioè comunque si fissino due norme ‖‖.‖‖a e ‖‖.‖‖b, esistono due costanti C1 e C2 tale che C1‖v‖b ≤ ‖v‖a ≤ C2‖v‖b ∀v ∈ V Le distanze indotte dalle norme sono equivalenti

Convessità

come dire se una funzione è convessa

f(x) convessa, f(x) ∈ C1 → ∀x, y ∈ Rⁿ si ha f(y) ≥ f(x) + ∇f(x)(y-x)

Fare il gradiente vuol dire fare la tg, se la funzione è convessa la tg sta sempre al di sotto della funzione

f(x) convessa, f(x) ∈ C2 ⇔ ∇2f(x) ≽ 0, ∀x ∈ S

L’hessiano calcolato in un qualsiasi punto è semidefinito positivo

basta trovare un punto in cui l’hessiano è <0 per dire che la funzione non è convessa

Condizione necessaria affinché una funzione sia strettamente convessa è che ∇2f(x) > 0, ∀x ∈ S

Se la funzione è quadratica, ovvero:

q(x) = 1/2xTQx + cTx + c

∇q(x) = Qx + c ∇2q(x) = Q

L’hessiano non dipende dal punto quindi la condizione diventa anche sufficiente, Q ≻ 0

come dire se un insieme è convesso

Un insieme ammissibile è definito come l’intersezione di + vincoli, ogni vincolo è una funzione, se tutte le funzioni sono convesse ⇒ anche l’insieme sarà convesso

Teo 2: (dim sul quaderno)

gi(x)convexse ⇒ S = {gi(x) ≤ 0}convex

OSS:

  • Intersezione di insiemi convessi è ancora convessa
  • Vincolo di uguaglianza e convesso e vincolo lineare: g(x) = cTx + d ⇒ ∇g(x) = 0,
  • vincolo sia concavo che convesso ∑iαifi(x) se αi ≥ 0, fi(x) convessa
  • f(x) = max {fi(x)} con fi(x) convesse è convessa

Semidefinita positiva ≽

Q ∈ Rnxn

Q = QT ⇒ yTQy ≥ 0, ∀y ∈ Rⁿ

Q ≠ 0

Definita positiva ≻

Q ∈ Rnxn

Q = QT ⇒ yTQy > 0, ∀y ∈ Rⁿ

Q > 0

3. Concetto matrice diagonale dominante:

se qii ≥ ∑nj=1|qij| ⇒ Q ≽ 0

se qii = 0,∃qij ≠ 0 ⇒ Q ≠ 0

2. Criterio dei minori di Nord-Ovest

Q = \(\begin{bmatrix} a & b \\ d & e \end{bmatrix}\) >0 se:

a > 0, det \(\begin{bmatrix} a & b \\ d & e \end{bmatrix}\) > 0, det Q > 0

Q ≽ 0 se tutti i minori hanno determinante ≥ 0

1. Guardo gli autovalori:

Q ≽ 0 ⇔ λi ≥ 0, ∀i = 1 ... n

Q ≻ 0 ⇔ λi > 0, ∀i = 1 ... n

λ ∈ R è autovalore se ∃ autovettore ui: Qui = λui, ∀i = 1 ... n

λ ∈ R sono le soluzioni dell’eq:

det(Q - λI) = 0

SE NELL'ENUNCIATO RIMUOVO LA COMPATTEZZA DELL'INSIEME

Sto risolvendo un problema min f(x), f ∈ C1,

uso il metodo xk+1 = xk + αkdk

dk ≠ 0 se ∇f(xk) ≠ 0

Ho le stesse ipotesi

CONCLUSIONI:

  • ∃ indice v t. c. xv ∈ Ω (convergenza finita)
  • Oppure
  • L'algoritmo genera una successione infinita {xk} t. c.:
    • limk→∞ f(xk) = −∞ (problema non ha soluzione)
    • Oppure f(xk) è limitata inferiormente e in questo caso:
      • {f(xk)} converge
      • limk→∞ ∇f(xk) = 0 (convergenza forte)
      • Ogni eventuale punto di accumulazione x̄ di {xk} ∈ L0 e soddisfa la condizione ∇f(x̄) = 0 (non è però garantita l’esistenza dei punti di accumulazione)

INIZIO:

sto risolvendo un problema min f(x), f ∈ C1,

uso il metodo xk+1 = xk + αkdk

L(x0) ∈ ℝn, {x | f(x) ≤ f(x0)} compatto

dk ≠ 0 se ∇f(xk) ≠ 0

Teo: C.S. di convergenza globale

CONCLUSIONI:

  • ∃ indice v t. c. xv ∈ Ω (convergenza finita)
  • Oppure
  • L’algoritmo genera una successione infinita {xk} t. c.:
    • a) xk ∈ L0 ∀k e {xk} ammette punti di accumulazione
    • b) {f(xk)} converge (la successione dei valori della funzione)
    • c) limk→∞ ∇f(xk) = 0 (convergenza forte)
    • d) Tutti i punti di accumulazione della sequenza sono stazionari

DIMOSTRO d)

∄ punto di accumulazione di {xk} se

∃ x̄ insieme infinito di indici t. c.: limk→∞ xki = x̄

Dal punto c) limk→∞ ∇f(xk) = 0

quindi limk→∞ xki = ∇f(xi) = ∇f(x̄)

Siccome f ∈ C1 e continua e differenziabile ∇f(x̄) = 0 ∴ x̄ punto di accumulazione è stazionario

DIMOSTRO c)

Dall’hp 3 [∇f(xk)]Tdk|dk| ≥ σ(‖∇f(xk)‖) ≥ 0 (perché la norma è ≥ 0 e per la definizione di funzione di sforzamento σ: [0, ∞) )

Dall’hp 2 limk→∞ [∇f(xk)]Tdk|dk| = 0

Allora lim σ(‖∇f(xk)‖) = 0 perché compreso tra 2 valori che vanno a 0

Per la definizione di funzione di sforzamento limk→∞ ‖∇f(xk)‖ = 0

Dalle proprietà della norma, la norma di qualcosa va a 0 se il qualcosa va a 0 ∴ limk→∞ ‖∇f(xk)‖ = 0

DIMOSTRO a)

Per l’hp 1, f(xk+1) ≤ f(xk) ≤ ... ≤ f(x1) ≤ f(x0)

Siccome L0 ∈ ℝn: f(xκ) < f(x0) [κ] ammette punti di accumulazione

Siccome L0 ∈ compatto {xk} ammette punti di accumulazione

DIMOSTRO b)

{f(xk)} è monotona non crescente dall’hp 1

Da a) xk ∈ L0 ∀k e f ∈ C1 + L0 è compatto ∃ un limK→∞ f(xk) (la funzione è limitata inferiormente)

Data una funzione limitata inferiormente e continua, questa converge

Dettagli
A.A. 2014-2015
32 pagine
4 download
SSD Scienze matematiche e informatiche MAT/09 Ricerca operativa

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher mattomastracci di informazioni apprese con la frequenza delle lezioni di Ottimizzazione e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma Tor Vergata o del prof Piccialli Veronica.