OTT_06-08
OTT_06-08
Ingegneria Informatica
A.A. 2024-2025
II semestre
Ottimizzazione
Giovanni Giallombardo
6. Esempi introduttivi
1/43
Condizioni di ottimalità per
problemi non vincolati
Condizioni necessarie di ottimalità
Minimo locale
Indichiamo con
B(x∗ , δ) = {x ∈ Rn : kx − x∗ k ≤ δ}
un intorno di x∗ di raggio δ > 0.
Il punto x∗ è detto punto di minimo locale e il corrispondente valore f(x∗ ) è
detto minimo locale se
Punti stazionari
Un punto x ∈ Rn si dice stazionario se risulta ∇f(x) = 0.
2/43
Condizioni necessarie di ottimalità
Prova
Nel punto x∗ non esistono direzioni di discesa, pertanto
∇f(x∗ )⊤ d ≥ 0 ∀d ∈ Rn .
Supponiamo che esista una direzione d ∈ Rn tale che ∇f(x∗ )⊤ d > 0. In tal
caso la direzione −d sarebbe di discesa. Pertanto deve risultare
∇f(x∗ )⊤ d = 0 ∀d ∈ Rn
e di conseguenza ∇f(x∗ ) = 0.
3/43
Condizioni necessarie di ottimalità
d⊤ ∇2 f(x∗ )d ≥ 0 ∀d ∈ Rn .
Prova
La stazionarietà è stata già dimostrata. Consideriamo la serie di Taylor
1
f(x∗ + td) = f(x∗ ) + t∇f(x∗ )⊤ d + t2 d⊤ ∇2 f(x∗ )d + β(x∗ , td)
2
con
β(x∗ , td)
lim =0
t→0 t2 kdk2
Poiché x∗ è un punto di minimo locale, per t sufficientemente piccolo risulta
d⊤ ∇2 f(x∗ )d > 0 ∀d ∈ Rn , d 6= 0.
Prova ...
Supponiamo che x∗ non sia un punto di minimo locale stretto. Ciò implica
che
∀ϵ > 0 ∃xϵ ∈ Rn : kxϵ − x∗ k ≤ ϵ f(xϵ ) ≤ f(x∗ )
Indichiamo con ( )
λ1 ∇2 f(x∗ ) > 0
5/43
Condizioni sufficienti di ottimalità
... Prova
Dallo sviluppo di Taylor otteniamo
1
f(xϵ ) − f(x∗ ) = (xϵ − x∗ )⊤ ∇2 f(x∗ )(xϵ − x∗ ) + β(x∗ , xϵ − x∗ )
2
1 ( 2 ∗ )
≥ λ1 ∇ f(x ) kxϵ − x∗ k2 + β(x∗ , xϵ − x∗ )
2
Dividendo tutto per kxϵ − x∗ k2 si ottiene
6/43
Elementi di analisi convessa
Insiemi convessi
Definizione
Un sottoinsieme C ⊂ Rn è convesso se
7/43
Insieme convesso
8/43
Insieme convesso
8/43
Insieme non convesso
9/43
Insieme non convesso
9/43
Funzioni convesse
Definizione
Sia C ⊂ Rn un insieme convesso.
Una funzione f : C 7→ R si dice convessa se
( )
f αx + (1 − α)y ≤ αf(x) + (1 − α)f(y) ∀x, y ∈ C, ∀α ∈ [0, 1]
10/43
Funzione convessa
11/43
Funzione convessa
11/43
Funzione convessa
11/43
Funzione convessa
11/43
Insiemi convessi e funzioni convesse
Epigrafo
Siano C ⊂ Rn un insieme convesso e f : C 7→ (−∞, ∞] una funzione
convessa su C.
Si chiama epigrafo di f il sottoinsieme di Rn+1 definito come
{ }
epi(f) , (x, w) : x ∈ C, w ∈ R, f(x) ≤ w
Proprietà
12/43
Insiemi convessi e funzioni convesse
Epigrafo
13/43
Insiemi convessi e funzioni convesse
Epigrafo
13/43
Insiemi convessi e funzioni convesse
Proprietà
14/43
Funzioni convesse e differenziabilità
15/43
Funzioni convesse e differenziabilità
16/43
Funzioni convesse e differenziabilità
17/43
Condizioni di ottimalità per
problemi convessi non vincolati
Condizioni di ottimalità
Prova
Supponiamo che x∗ sia un punto di minimo locale ma non globale.
Pertanto esiste z ∈ Rn tale che f(z) < f(x∗ ).
Applichiamo la definizione di funzione convessa al segmento
18/43
Condizioni di ottimalità
Prova
Supponiamo che x∗ non sia un punto di minimo globale.
Pertanto esiste z ∈ Rn tale che f(z) < f(x∗ ).
Ricordando l’espressione della derivata direzionale otteniamo
19/43
Condizioni di ottimalità
Funzioni quadratiche
Sia
1 ⊤
q(x) = x Qx + c⊤ x
2
una funzione quadratica con Q ∈ Rn×n simmetrica, e c ∈ Rn .
Allora
q(x) ammette un punto di minimo globale se e solo se Q è semidefinita
positiva ed esiste x∗ tale che Qx∗ + c = 0.
q(x) ammette un unico punto di minimo globale se e solo se Q è
definita positiva.
Se Q è semidefinita positiva, ogni punto x∗ tale che Qx∗ + c = 0 è un
punto di minimo globale per q(x).
20/43
Esempi sulle condizioni di
ottimalità
Funzione di Rosenbrock
21/43
Funzione di Rosenbrock
Linee di livello
22/43
Funzione di Rosenbrock
Gradiente ed Hessiana
−400x1 (x2 − x21 ) − 2(1 − x1 )
∇f(x1 , x2 ) =
200(x2 − x21 )
1200x21 − 400x2 + 2 −400x1
∇ f(x1 , x2 ) =
2
−400x1 200
23/43
Funzione di Rosenbrock
Punti stazionari
−400x1 (x2 − x21 ) − 2(1 − x1 ) 0
∇f(x1 , x2 ) = =
200(x2 − x21 ) 0
x2 − x21 = 0 ⇒ 1 − x1 = 0 ⇒ x1 = 1 ⇒ x2 = 1
( ) ( )
x1 1
=
x2 1
24/43
Funzione di Rosenbrock
m
La matrice Hessiana è definita positiva, quindi il punto stazionario è un
minimo locale stretto.
D’altra parte f(x1 , x2 ) = 0 e poiché f(x1 , x2 ) ≥ 0, ovviamente risulta che (x1 , x2 )
è il minimo globale.
25/43
Funzione di Rosenbrock
26/43
Funzione di Rosenbrock
27/43
Teoria dell’ottimizzazione
vincolata
Problemi di ottimizzazione vincolata
Consideriamo il problema
min f(x)
x∈Rn
s.t. ci (x) = 0 ∀i ∈ E (COP)
ci (x) ≥ 0 ∀i ∈ I
dove
f : Rn 7→ R, ci : Rn 7→ R, per ogni i ∈ E ∪ I
almeno uno degli insiemi E e I è non vuoto
le funzioni f e ci sono tutte continuamente differenziabili
Indicando con
{ }
Ω = x ∈ Rn : ci (x) = 0, i ∈ E; ci (x) ≥ 0, i ∈ I
Il problema può essere rappresentato in forma compatta come
min f(x) (COP)
x∈Ω
28/43
Problemi di ottimizzazione vincolata
Osserviamo che
29/43
Minimi locali vincolati
30/43
Esempi introduttivi
Esempio 1: Un vincolo di eguaglianza
Consideriamo il problema
min x1 + x2
x∈R2 (COP1)
s.t. x21 + x22 − 2 = 0
Quindi
31/43
Esempio 1: Un vincolo di eguaglianza
32/43
Esempio 1: Un vincolo di eguaglianza
32/43
Esempio 1: Un vincolo di eguaglianza
32/43
Esempio 1: Un vincolo di eguaglianza
33/43
Esempio 1: Un vincolo di eguaglianza
34/43
Esempio 1: Un vincolo di eguaglianza
Quindi
( ) ( )
∗ 1 −2
∇f(x ) = λ∗1 ∇c1 (x∗ ) ⇐⇒ = λ∗1
1 −2
35/43
Esempio 1: Un vincolo di eguaglianza
36/43
Esempio 1: Un vincolo di eguaglianza
Direzioni ammissibili
Consideriamo l’approssimazione del primo ordine della funzione di vincolo
c1 in un punto ammissibile x
cioè
∇c1 (x)⊤ s = 0
Direzioni di discesa
D’altra parte una direzione s che soddisfi ∇f(x)⊤ s < 0 è una direzione lun-
go la quale è garantita la discesa della f, eventualmente per spostamenti
piccolissimi
37/43
Esempio 1: Un vincolo di eguaglianza
Idea
In un punto di minimo locale non esistono direzioni ammissibili di disce-
sa, cioè non esistono d che formano un angolo ottuso con il gradiente del-
la funzione obiettivo e che siano ortogonali al gradiente della funzione di
vincolo:
∇f(x)⊤ d < 0 ∇c1 (x)⊤ d = 0
38/43
Esempio 1: Un vincolo di eguaglianza
cioè ( )2
∇f(x)⊤ ∇c1 (x)
< k∇f(x)k2
k∇c1 (x)k2
da cui segue
39/43
Esempio 1: Un vincolo di eguaglianza
Ponendo ( )
∇c1 (x)∇c1 (x)⊤
s= −I+ ∇f(x)
k∇c1 (x)k2
osserviamo che
∇c1 (x)⊤ ∇c1 (x)∇c1 (x)⊤
∇c1 (x)⊤ s = −∇c1 (x)⊤ ∇f(x) + ∇f(x) = 0
k∇c1 (x)k2
s
quindi d = ∥s∥
è anche una direzione ammissibile di discesa.
40/43
Esempio 1: Un vincolo di eguaglianza
41/43
Esempio 1: Un vincolo di eguaglianza
41/43
Esempio 1: Un vincolo di eguaglianza
41/43
Esempio 1: Un vincolo di eguaglianza
41/43
Esempio 1: Un vincolo di eguaglianza
41/43
Esempio 1: Un vincolo di eguaglianza
41/43
Esempio 1: Un vincolo di eguaglianza
41/43
Esempio 1: Un vincolo di eguaglianza
Funzione Lagrangiana
Indichiamo con L(x, λ1 ) una funzione definita come
∇x L(x∗ , λ∗1 ) = 0
42/43
Esempio 1: Un vincolo di eguaglianza
∇x L(x∗ , λ∗1 ) = 0
Quindi ( ) ( )
1 2
∇f(x̄) = λ̄1 ∇c1 (x̄) ⇐⇒ = λ̄1
1 2
da cui segue che λ̄1 = 21 .
D’altra parte non ha alcun effetto imporre un vincolo di segno sul
moltiplicatore.
43/43