Che materia stai cercando?

Lezioni: Appunti di Automazione sistemi Appunti scolastici Premium

Appunti di Automazione dei sistemi per l’esame del professor Di Bernardo. Gli argomenti trattati sono i seguenti: le generalità sui sistemi, la scomposizione della risposta, la risposta libera, la risposta forzata, gli esempi di sistema come per esempio il sistema SISO.

Esame di Automazione dei sistemi docente Prof. D. Di Bernardo

Anteprima

ESTRATTO DOCUMENTO

Pierluigi Giangrande

Automazione dei Sistemi

(2.8)

= − +

x ' ( A BK ) x BK y

f REF

ha dimensione per questioni dimensionali. Allora le dinamiche del sistema sono

in cui ×

1 1

K f , mentre a regime si ha

determinate dalla matrice −

A BK (2.9)

=

− − 1

x ( A BK ) BK y

∞ f REF

da cui (2.10)

=

− − 1

( )

y C A BK BK y

∞ f REF

= che sia

È quindi necessario per avere y y

∞ REF −

1

 

− (2.11)

= − − 1

K C ( A BK ) B

 

f

2.3 L C

A ONTROLLABILITÀ

Quando abbiamo parlato del metodo di Ackermann per il pole placement abbiamo

introdotto la matrice di controllabilità. Alcuni sistemi non sono controllabili, ossia non esiste

che ci consenta di posizionare gli autovalori della matrice del sistema.

alcuna matrice K A

= +

. Dato un sistema LTI , esso si dice completamente controllabile se, a

D

EFINIZIONE x Ax Bu

partire da qualsiasi stato iniziale , è possibile trovare una legge di controllo tale da

u (

t )

x

0

in un tempo finito.

portare il sistema a =

( ) 0 t

x t f f

D . Un sistema si dice raggiungibile se, a partire dall’origine, si può giungere a

EFINIZIONE

qualsivoglia stato finale in un tempo finito. Un sistema controllabile con matrice a rango

A

x f

pieno è anche raggiungibile.

Si consideri un sistema SISO TD, con

+= + (2.12)

x ( k 1) Ax ( k ) Bu ( k ) =

e si provi a portarlo a in passi. Si ha

con condizione iniziale = x 0

x (0) x n

0 = +

x (1) Ax Bu (0)

0

= + = + +

2

x (2) Ax (1) Bu (1) A x ABu (0) Bu (1)

0 (2.13)

= + + +

3 2

x (3) A x A Bu (0) ABu (1) Bu (2)

0 

− −

= + + + + − =

n n n

1 2

x ( n ) A x A Bu ( 0) A Bu (1) ... B u ( n 1) 0

0

L’ultima equazione può essere scritta come 17

Pierluigi Giangrande

Automazione dei Sistemi −

 

u n

( 1)

  (2.14)

 

− =  

n 2 n 1

A x B AB A B A B

   



0  

 

u (0)

in cui la matrice è chiamata matrice di controllabilità ed ha righe (in quanto è ) e

 n× 1

n B

colonne (in quanto è formata da matrici di colonna). Se si riesce ad invertire la matrice di

1

n n

controllabilità si ottiene −

 

( 1)

u n

  (2.15)

= −

  1 n

A x

  0

 

 

(0)

u

che ci consente di calcolare gli ingressi che annullano lo stato dopo passi.

n

Si ottiene allora che condizione necessaria e sufficiente affinché un sistema sia

controllabile è che la matrice di controllabilità sia invertibile, ossia di rango pieno.

È possibile calcolare la matrice di controllabilità in Matlab mediante il comando e

ctrb,

calcolare il rango mediante il comando È possibile inoltre calcolare gli autovalori mediante il

rank.

comando eig.

2.3.1 La controllabilità per un sistema diagonalizzato

Abbiamo parlato in precedenza della diagonalizzazione dei sistemi, ossia della possibilità di

= =

dove è la matrice

rendere un sistema diagonale effettuando la sostituzione x Tz T [ v v ...

v ]

1 2 n

degli autovettori.

Consideriamo ora un sistema SISO sul quale è effettuata la diagonalizzazione; si ha

 − −

= +

1 1

z ' T ATz T Bu (2.16)

 =

 y CTz

(si ricordi che lo scopo della sostituzione è di rendere la matrice

in cui si sostituisce − =

1

T AT D

dinamica del sistema una matrice diagonale), =

, . La matrice di controllabilità

− =

1 CT C

T B B T

T

diventa quindi (2.17)

=

 n 1

[ B DB ... D B ]

D T T T

e è la matrice diagonale degli autovalori. Si ha allora

dove β β β

= T D

[ ... ]

B 1 2

T n β

β λ β λ β λ λ

   

− −

 

 

n 1 n 1

0 0 1

1

1 1 1 1 1 1 1

   

 

β

β λ β λ β λ λ

− −

 

n 1 n 1

0 0 1

   

  β (2.18)

= = =

 2

2 2 2 2 2 2 2 W

   

 

   

       

D    

 

β

β λ β λ β λ λ

− −

 

   

n n

1 1

 

0 0

   

1

n

n n n n n n n

18 Pierluigi Giangrande

Automazione dei Sistemi

Vander Monde

dove è la matrice di ed è invertibile se gli autovalori sono distinti. Si ha allora

W

che β

= (2.19)

det ( ) det ( ) det (

W )

D β β

≠ ≠

se gli autovalori sono distinti, e se i sono tutti non nulli. Se

dove det (

W ) 0 det ( ) 0 i

≠ e quindi la matrice di controllabilità è invertibile,

avvengono entrambe le cose si ha 

det ( ) 0

per cui il sistema è controllabile.

Se osserviamo l’andamento dello stato del sistema si ha

t

∫ τ τ τ (2.20)

= + ( )

Dt D t

z (

t ) e z e B u ( ) d

T

0 0

che può essere scritta, scomponendo le componenti dello stato, come la somma di due matrici

diagonali  

t

∫ λ τ β τ τ

− 

( )

t

λ

  e u d

( ) 0

 1

t  

e z (0) 0

1 1

0

1

    (2.21)

= +

     

z t

( )    

 

λ

 t  

t

e z

0 (0) λ τ β τ τ

 

n  ( )

t

e u d

0 ( )

n

n  

n

0

da cui t

λ λ τ β τ τ (2.22)

= + ( )

t t

z (

t ) e z (0) e u ( ) d

i i

i i i

0

λ

dove indica l’ modo del sistema. Allora si noti come la controllabilità del sistema, che

i esimo

i β ≠ , indichi la possibilità di influire su tutti i modi del sistema.

è associata a dei 0

i

2.4 L’O SSERVABILITÀ

Abbiamo finora parlato della retroazione di stato dando per scontata la possibilità di

leggere tutti gli stati del sistema. Nella realtà ciò non è sempre possibile, ma si ricavano tali

grandezze dagli ingressi e dalle uscite del sistema, le quali sono effettivamente misurabili.

D . L’osservabilità è la proprietà di un sistema di fornire le informazioni su tutti gli stati

EFINIZIONE

a partire dall’osservazione degli ingressi e delle uscite.

Il concetto di osservabilità può essere rappresentato come segue: 19

Pierluigi Giangrande

Automazione dei Sistemi Figura 2.4

D . Un sistema si dice completamente osservabile se tale che, noti e in

∀ ∃

EFINIZIONE x y

T u

0

, è possibile stimare .

[0, T ] x

0

Sia dato il sistema SISO descritto dalle equazioni

+= +

 x ( k 1) Ax ( k ) Bu ( k ) (2.23)

 =

 y ( k ) Cx ( k )

sulla base delle osservazioni di e di negli istanti

Bisogna stimare =

x (0) x y

x

0

− ; siccome è di ordine , sono sufficienti osservazioni per determinare lo stato

0,..., n 1 x n n

0

iniziale. − tutti

Si consideri per semplicità una serie di ingressi negli istanti indicati u (0),..., u ( n 1)

che ; tale equazione tuttavia presenta variabili, per cui

nulli: si avrà all’istante =

0 y (0) Cx n

0

non è risolvibile. Per tale motivo si cerca di risolvere il sistema

=

 y (0) Cx

0

 = = + =

 y (1) Cx (1) CAx B 0 CAx (2.24)

0 0

 

 −

− = − = 1

n

 y ( n 1) Cx ( n 1) CA x

0

che può essere scritto anche come

   

y (0) C

   

y (1) CA

    (2.25)

= = =

  1

x x

x y

   

  0 0 0

   

− n 1

   

y ( n 1) C A

20 Pierluigi Giangrande

Automazione dei Sistemi

dove è la matrice di osservabilità ed è composta da matrici di ordine , per cui è di

×

 p n

n

× . Si desume allora che condizione necessaria e sufficiente affinché il sistema sia

ordine ( np ) n

osservabile è che la matrice di osservabilità sia invertibile, ossia di rango pieno.

Così come nel caso della controllabilità, si consideri anche nel caso dell’osservabilità un

sistema diagonalizzato. Si osservi il sistema = +

 x ' Ax Bu (2.26)

 =

 y Cx

= , dove è la matrice degli autovettori. Il sistema

sul quale viene effettuata la sostituzione x Tz T

così diventa  − −

= +

1 1

z ' T ATz T Bu (2.27)

 =

 y CT z

, , . Si può scrivere allora , dove

dove = γ γ

− −

= = =

1 1 T

CT C

T AT D T B B y [ ,..., ][ z ,..., z ]

T 1 1

T n n

γ γ . La matrice di osservabilità così diventa

= C

[ ,..., ]

n T

1 γ γ γ γ

  

     

  1 1 1 0 0

C 1 2 n 1

T      

  (2.28)

γλ γ λ γ λ λ λ λ γ

  

0 0

C D      

 

= = = =

 1 1 2 2 n n 1 2 n 2

T T

W C

    

             

 T

    

  γ λ γ λ γ λ λ λ λ γ

− − − − − −

−  

1 1 1 1 1 1

n n n n n n

1

n

       

0 0 0

C D 1 1 2 2 1 2

n n n n

T Vander Monde

dove si nota la presenza della trasposta della matrice di . Si ha allora che

dove il primo determinante è non nullo se gli autovalori sono distinti,

=

 T

det det W det C

( ) ( ) ( )

T γ sono tutti non nulli. Si noti allora come quest’ultima condizione

ed il secondo è non nullo se i i

si traduce nel fatto che un sistema diagonalizzato è osservabile se tutti i modi del sistema

contribuiscono all’uscita.

2.4.1 Osservatore di Luenberger

L’obiettivo è quello di costruire un sistema dinamico chiamato osservatore che riesca a

stimare lo stato del sistema in base all’osservazione dell’ingresso e dell’uscita. In altre parole, il

e e deve fornire in uscita . L’obiettivo è

sistema da sintetizzare deve ricevere in ingresso x̂

y u = Ψ che garantisca

quindi quello di selezionare una opportuna legge di osservazione ˆ

x (

u , y ) (2.29)

− =

ˆ

x t x t

lim | ( ) ( ) | 0

→∞

t ≠

e , con . In generale, la quantità

a partire da qualsiasi condizione iniziale ˆ ˆ

x (0)

x (0) x (0) x (0)

= − è chiamata errore di stima.

ˆ

e (

t ) x (

t ) x (

t )

Sappiamo che lo stato del sistema segue l’evoluzione descritta dal modello:

x 21

Pierluigi Giangrande

Automazione dei Sistemi = +

 x ' Ax Bu (2.30)

=

 x (0) x

= 0

 y Cx

dove le quantità e sono misurate. Ipotizzando note le matrici del modello,

A

, B , C

y

u

selezioniamo come legge di osservazione

= + + −

 ˆ ˆ ˆ

x ' Ax Bu M ( y y ) (2.31)

= ≠

 ˆ ˆ

x (0) x x

= 0 0

 ˆ ˆ

y Cx −

+

in cui il termine è associato alla predizione, mentre il termine è un termine

ˆ

ˆ M ( y y )

Ax Bu e la si paragona all’uscita misurata). Si

correttivo di retroazione (si calcola l’uscita associata a x̂

può dimostrare che tale legge di stima garantisce la condizione (2.29).

= −

. Ricordando la definizione di errore di stima come , sottraendo

D

IMOSTRAZIONE ˆ

e (

t ) x (

t ) x (

t )

le prime equazioni nelle (2.31) e (2.30) si ha

− = = + + − − − = + = + (2.32)

ˆ ˆ ˆ ˆ

x ' x e '(

t ) Ax Bu M ( y y ) Ax Bu Ae (

t ) MCe (

t ) ( A MC ) e (

t ) con

per cui il problema di sintesi dell’osservatore si traduce in un problema del regolatore su e (

t )

+ . Si noti infatti che la matrice dinamica dell’osservatore è simile alla

matrice dinamica A MC presente nel problema del regolatore e quindi il problema

matrice dinamica del sistema −

A BK

può essere trattato alla stessa maniera, ossia la dinamica con cui l’errore di stima viene fatto

che faccio al fine di ottenere un adeguato

convergere a zero dipende dalla scelta della matrice M + .

posizionamento degli autovalori della matrice dinamica A MC

Al fine di ricondurre il problema allo stesso caso della retroazione di stato, si consideri la quantità

(2.33)

= + = − − = −

T T T T T T T T T T

e ' (

t ) [( A MC ) e ] e ( A C ( M ) e ( A C L )

. Si noti che la matrice dinamica così posta è analoga alla ,

dove abbiamo scritto = − −

L M A BK

per cui è possibile verificare la controllabilità dell’osservatore di Luenberger così come abbiamo

verificato la controllabilità di un generico sistema dinamico retroazionato, tutto ciò al fine di

verificare la possibilità di posizionare gli autovalori della matrice dinamica dell’osservatore in

maniera tale da avere una risposta adeguata dell’osservatore e quindi una convergenza a zero

dell’errore di stima in un tempo adeguato (di circa un ordine di grandezza inferiore rispetto alla

dinamica del sistema). La matrice di controllabilità dell’osservatore di Luenberger è quindi (2.34)

=

 T T T T n T

1

C A C A C

[ ... ( ) ]

o

la cui trasposta è  

C

 

CA

  (2.35)

= =

 

T  

o  

n 1

 

CA

22 Pierluigi Giangrande

Automazione dei Sistemi

quindi la matrice di controllabilità trasposta dell’osservatore coincide con la matrice di

osservabilità del sistema dinamico, per cui se il sistema è osservabile (matrice di osservabilità a

rango massimo) allora l’osservatore sarà controllabile (perché il rango della matrice di

controllabilità è massimo) e sarà così possibile determinarne la dinamica in maniera tale che esso

riesca a “seguire” velocemente il sistema.

2.5 L L

A INEARIZZAZIONE

Si consideri un sistema non lineare descritto dalle equazioni

=

 x ' f ( x , u ) (2.36)

 =

 y h ( x , u )

È possibile linearizzare il sistema intorno ad un punto di equilibrio e descriverlo mediante

le equazioni δ δ δ

= +

 x ' A x B u

δ δ δ

= +

 y C x D u (2.37)

∂ ∂ ∂ ∂

f f h h

, , , , e sono lo stato

in cui le matrici sono = = = = * *

x , u

A B C D

∂ ∂ ∂ ∂

x u x u

* * * * * * * *

x , u x , u x , u x , u

.

e l’ingresso associati ad un punto di equilibrio del sistema 2

Lotka Volterra

- competitive le quali descrivono la

Un esempio di ciò sono le equazioni di

competizione tra due specie diverse che vivono nello stesso ambiente. Esse sono

α β γ

 = + −

2

x ' x x x x (2.38)

 1 1 1 1 1 1 1 2

α β γ

= + −

2

 x ' x x x x

2 2 2 2 2 2 1 2

(si noti che la funzione è bidimensionale) dove l’ultimo addendo nelle due equazioni

f ( x , u )

indica la decrescita di una popolazione conseguente alla crescita dell’altra (si noti che il termine è

′ , e sono quattro:

sottrattivo). I punti di equilibrio sono ottenuti ponendo = =

x ' x 0

1 2

 

 

α β

   

   

 

* x

0

0 /

x , in cui i due punti di equilibro centrali sono associati

=  

1

1 1

 

1

   

   

, , ,  

α β

*      

  /

0 0

 

x  

x

 

2 2

2 2

alla morte di una delle due popolazioni. La linearizzazione intorno ad un punto di equilibrio del

sistema può così essere ottenuta calcolando le matrici mediante le formule esposte

precedentemente. = =

I punti di equilibrio possono essere ricavati ponendo e quindi .

2 f ( x , u ) 0 x ' 0 23

3 C I R D U

ONTROLLO N ETROAZIONE I SCITA

Nel presente capitolo verrà trattata una modalità di controllo differente, basata sulla

retroazione di uscita, la quale si differisce dalla retroazione trattata finora in quanto essa era una

retroazione di stato. La semplicità di ciò sta nel fatto che non è più necessaria la stima dello stato

di un sistema per effettuarne il controllo. Verranno trattati principalmente dei sistemi del secondo

ordine descritti dall’equazione ′

+ + = (3.1)

y '' a y a y u

1 0 = =

e , da cui si ottiene

la quale può essere ricondotta alle equazioni (1.1) ponendo x ' x x y

1

1 2

ed andando a costruire le matrici dinamiche del sistema; si noti che le

=− −

x ' u a x a x

2 0 1 1 2

variabili di stato introdotte sono due (per questo si è parlato di sistema del secondo ordine).

È possibile schematizzare graficamente il sistema come segue: Figura 3.1

Facendo l’ipotesi che il sistema si controllabile ed osservabile, verranno di seguito elencate

alcune azioni di controllo in retroazione di uscita.

Pierluigi Giangrande

Automazione dei Sistemi

3.1 A ZIONE PROPORZIONALE

L’azione proporzionale consiste nel dare in ingresso al sistema la quantità −

y (

t ) y d

errore moltiplicata per una costante . Matematicamente si ha

chiamata K P

=

− − (3.2)

u (

t ) K ( y (

t ) y )

P d

A ciclo chiuso si ottiene quindi

′ (3.3)

+ + =

− − → + + + =

y a y a y K y y y a y a K y K y

'

' ( ) '' ( )

P d P P d

1 0 1 0

le sue derivate, ottenendo così

Per valutare l’uscita a regime si pongono pari a 0

K

= P

y y

∞ + d

a K

0 P

per cui se scelgo ho un errore a regime molto piccolo. In transitorio, tuttavia, si

K a

P 0

ha un polinomio caratteristico del tipo (3.4)

λ λ

+ + + =

2 a ( a K ) 0

P

1 0

le cui soluzioni sono − ± − +

2

a a a K

4( ) (3.5)

λ = P

1 1 0

1,2 2

per cui per alti valori di si ha e il sistema è portato al limite di stabilità. In altre

 0

K P è vantaggioso per un ottenimento di un errore a regime basso,

parole, un valore elevato di K P

ma causa delle elevate sovraelongazioni che possono destabilizzare il sistema.

controllore P.

Un controllore che svolge l’azione proporzionale è chiamato anche

3.2 A ZIONE INTEGRALE

L’azione integrale porta in ingresso al sistema la quantità

t

∫ τ τ (3.6)

=

u (

t ) K e ( ) d

I 0

. L’equazione che descrive il sistema a ciclo chiuso diventa quindi

dove = −

e (

t ) y y (

t )

d t

′′ ′ τ τ (3.7)

+ + =

y (

t ) a y (

t ) a y (

t ) K e ( ) d

1 0 I 0

la quale, derivata, diventa ′′′ ′′ ′ (3.8)

+ + + =

y a y a y K y K y

1 0 I I d

26 Pierluigi Giangrande

Automazione dei Sistemi

A regime si ottiene , per cui l’errore a regime è nullo. Per quanto riguarda il

=

y y

transitorio, siccome l’inserimento di un’integrazione comporta la crescita dell’ordine del sistema

(da ordine due a ordine tre) esso tenderà ad essere più lento e ad avere più oscillazioni; al crescere

si ha una risposta più rapida ma una minore stabilità del sistema. Molto spesso viene

di K I PI

.

coniugata l’azione integrativa a quella proporzionale ottenendo quindi un controllore di tipo

In generale, per il posizionamento degli zeri del polinomio caratteristico si sceglie un K I

∆ < così da poter considerare solo la parte reale degli zeri nella valutazione della

tale da rendere 0

risposta in transitorio e semplificare il problema. Per fare un esempio, se gli auto valori sono dati

da − − ± + −

2

( 0,1 K ) (0,1 K ) 4 K (3.9)

λ = P P I

1,2 2

si sceglie un tale da rendere negativa la quantità sotto radice ed ottenere quindi

K I 2 (3.10)

τ = − −

1,2 0,1 K P

3.3 A ZIONE DERIVATIVA

Le azioni che abbiamo descritto finora tengono conto di “presente” (proporzionale) e

azione derivativa

. In

“passato” (integrativa). Si introduce ora un ultimo tipo di azione, detta

un’azione di controllo di tipo derivativo si ha (3.11)

= = −

u (

t ) K e '(

t ) K y '(

t )

D D

L’equazione del sistema a ciclo chiuso diventa quindi

′ (3.12)

+ + + =

y '' ( a K ) y a y 0

1 D 0

, per cui l’errore a regime è massimo; per tale motivo si dice che

da cui a regime si ottiene =

y 0

l’azione derivativa non ha alcun effetto sull’inseguimento.

Alla luce di quanto detto è comprensibile il fatto che l’azione derivativa non venga mai

utilizzata da sola, ma sempre in combinazione con quella integrativa e quella proporzionale; si

controllori PID

. Con un controllore PID l’ingresso è

introducono allora i t

∫ τ τ (3.13)

= + +

u (

t ) K e (

t ) K e ( ) d K e '(

t )

P I D

0

Facendo l’ipotesi di un processo di controllo del primo ordine (descritto dall’equazione

) si ha a ciclo chiuso

+ =

a y

y ' u

0 t

∫ τ τ (3.14)

+ = − + − −

y a y K y K y K y y d K y

' ( ( )

) '

0 P d P I d D

0 27

Pierluigi Giangrande

Automazione dei Sistemi

che, derivata, diventa ′′ ′ (3.15)

+ + + + =

(

1 K ) y ( a K ) y K y K y

D 0 P I I d

per cui si ha un errore nullo a regime oltre alla presenza di molti gradi di libertà che consentono

di selezionare la dinamica desiderata. Gli autovalori del sistema a ciclo chiuso sono le radici del

polinomio caratteristico (3.16)

λ λ

+ + + + =

2

(1 K ) ( a K ) K 0

D P I

0

3.4 M Z -N

ETODO DI IEGLER ICHOLS

Il metodo di Ziegler-Nichols è un metodo per la taratura degli attuatori di controllo, ossia

senza conoscere . Esso è articolato in una serie di

per la scelta dei guadagni K , K , K a , a

I P D 1 0

passi: 1. Chiudere in retroazione il controllo PID e spegnere l’azione I e l’azione D.

.

2. Variare K P finché il sistema esibisce delle oscillazioni persistenti.

3. Aumentare K P in corrispondenza del quale si osservano le

4. Misurare il valore critico K P , c

di queste oscillazioni.

oscillazioni ed il periodo T

c

5. Selezionare i guadagni del PID secondo la seguente tabella:

Guadagno

K 1/ K K / K

P I D P

P - -

K

0,5 P , c

Tipo di PI -

K

0, 45 0,8

T

controllo P , c c

PID 0, 6 K 0,5 0,125

T

T

P , c c

c

Tabella 3.1. Tabella do Ziegler-Nichols.

3.5 R ELAZIONE CON LO STATE FEEDBACK

Analizziamo ora la relazione che intercorre tra un controllo in retroazione di stato ed una

azione di controllo di tipo PI. Si consideri un sistema del secondo ordine sul quale viene effettuata

una azione di controllo di tipo PI; si avrà un’equazione del tipo

t

∫ (3.17)

τ τ

+ + = +

y '' a y a u K e K e ( ) d

1 0 P I 0

che, derivata, diventa

28 Pierluigi Giangrande

Automazione dei Sistemi

′′ ′ (3.18)

+ + + + =

y ''

' a y ( a K ) y K y K y

1 0 P I I d

′′ ′

′′

, , si otterrà (ricordando anche quanto

Ora, se poniamo = = =

= =

x y x y x

x y x '

1 2 1 3 2 dove gli ultimi tre addendi

detto all’inizio del capitolo) =

− − − − −

x ' a x a x K x K x K y

3 1 3 0 2 P 2 I 1 I d

 

x

(quelli riferiti ai guadagni) possono essere scritti come , in cui il primo

− −

1

 

[ ]

K K K y

I P I d

 

x

2

− ed il secondo con il feedforward; si ha allora

addendo coincide con il controllo in feedback K x

che all’azione di controllo PI in retroazione di stato coincide lo state feedback ed il feedforward. 29

4 I C O

L ONTROLLO TTIMO

Finora si è parlato del controllo di un sistema dinamico senza parlare però del costo

associato a tale controllo. Nel presente capitolo si parlerà del controllo ottimo, ossia verranno

introdotti i criteri che consentono di scegliere, tra una serie di leggi di controllo, quella associata

funzione di costo.

alla minimizzazione di una funzione chiamata

Sia dato un sistema descritto dall’equazione

= (4.1)

=

x '(

t ) f ( x (

t ), u (

t ), t ) x (0) x

0

quindi né necessariamente lineare né tempo invariante, ed una funzione scalare di costo generica

t

∫ (4.2)

= + f

J h x t t g x t u t t dt

( ( ), ) ( ( ), ( ), )

f f 0 ed fissate e e

(la quale, in realtà, è un funzionale in quanto funzione di funzioni) con h

g t f

legge di controllo ottima

non necessariamente fissate. Si dirà l’ingresso che

*

u (

t )

x (

t )

f

minimizza la funzione di costo .

J allora il controllo ottimo coincide con la retroazione di stato.

Se si ha =

*

u (

t ) f ( x (

t ), t ))

4.1 E

SEMPI DI FUNZIONI DI COSTO

4.1.1 Controllo a tempo minimo

Nel controllo a tempo minimo si cerca una legge di controllo che minimizzi

t

∫ (4.3)

= =

f

J dt t f

0 dipende dalla dinamica del sistema.

ossia che rendi il sistema il più veloce possibile, in quanto t f

Pierluigi Giangrande

Automazione dei Sistemi

4.1.2 Controllo terminale

Nel controllo terminale si cerca una legge di controllo che minimizzi (4.4)

=

− −

T

J x t r t H x t r t

[ ( ) ( )] [ ( ) ( )]

f f f f

è una matrice peso simmetrica semi-definita positiva e è lo stato desiderato. In

dove H r (

t )

f

altre parole, tale controllo consiste nel cercare la legge di controllo che minimizzi l’errore tra lo

stato finale e quello desiderato.

È possibile introdurre il concetto di controllo per il problema del regolatore come la ricerca

di quella legge di controllo che minimizzi t

∫ (4.5)

= + f

T

J x (

t ) x (

t ) dt

f f 0

nel minor tempo possibile.

ossia si cerca l’ingresso che porti lo stato a =

r (

t ) 0

f

4.1.3 Controllo a minimo sforzo

Nel controllo a minimo sforzo si cerca una legge di controllo che minimizzi

t

∫ (4.6)

= f T ( ) ( )

J u t u t dt

0

ossia si cerca l’ingresso che faccia evolvere il sistema col minimo sforzo. È possibile

sommare un termine di raggiungimento dello stato desiderato − −

T

x t r t x t r t

[ ( ) ( )] [ ( ) ( )]

f f f f

4.1.4 Tracking

Il problema del tracking consiste nell’inseguimento di un obiettivo in movimento. In tale

problematica si vuole seguire una traiettoria con . La funzione di costo da

r (

t ) [0, ]

t t f

minimizzare è quindi t

∫ (4.7)

= − −

f T

[ ( ) ( )] [ ( ) ( )]

J x t r t Q x t r t dt

0

è una matrice peso.

dove Q

4.2 M

ETODI DI MINIMIZZAZIONE DEL FUNZIONALE DI COSTO IN

PRESENZA DI UN VINCOLO

In questo problema viene affrontato il problema di minimizzazione del funzionale di costo

′ =

quando è presente un vincolo sull’ingresso . Esistono due metodi: il

J (

u (

t )) x (

t ) f ( x (

t ), u (

t ), t )

Pontryagin Bellman

ed il metodo della programmazione dinamica di .

metodo del minimo di

32 Pierluigi Giangrande

Automazione dei Sistemi

4.2.1 Metodo della programmazione dinamica

Nel metodo della programmazione dinamica, detto anche metodo di Bellman, la legge di

controllo ottimo è calcolata usando il principio di ottimalità di Bellman.

al punto passando per il punto

Sia dato un percorso ottimale che ci porti dal punto a c

:

b Figura 4.1

Supponiamo che la prima decisione ottimale ci porti dal punto al punto secondo una

b

a

, e che la seconda decisione ottimale ci porti dal punto al punto

funzione di costo * b c

J ab . Si avrà allora che

secondo una funzione di costo *

J bc (4.8)

= +

* * *

J J J

ac ab bc

− − è il percorso ottimo dal punto al

Il principio di ottimalità infatti dice che, se a b c a

, allora sarà il percorso ottimo da a ; in altre parole, se il percorso ottimo per

punto b c b

c c

ad un punto passa per il punto , allora il percorso ottimo per andare

andare da un punto b

a c − −

al punto deve coincidere con un tratto del percorso .

dal punto b a b c

c

Per dimostrarlo, si osservi la parte grigia in figura e si supponga quindi per assurdo che

− − tra e , ossia che ; ciò implicherebbe

esiste un percorso ottimo <

b e c b J J

c bec bc

per cui non sarebbe il costo minimo, il che contraddice l’ipotesi

+ < + =

* * * *

J J J J J J

ab bec ab bc ac ac

fatta nella (4.8).

4.2.1.1 Applicazione del principio di Bellman

Vengono ora viste due applicazioni del principio di Bellman al fine di comprenderne al

meglio il significato che, a prima vista, potrebbe apparire scontato.

4.2.1.1.1 Prima applicazione

Si osservi la seguente figura: 33

Pierluigi Giangrande

Automazione dei Sistemi Figura 4.2

Supponiamo di conoscere i percorsi ottimi associati ai percorsi disegnati in nero in figura,

ed . Supponiamo inoltre di conoscere il costo

e di voler conoscere il percorso ottimo tra f *

b J bf

associato ai percorsi tracciati in grigio in figura. Allora si avrà (4.9)

= + + +

* * * *

J J J J J J J

min{ , , }

bf bc cf bd df de ef ed dovrà

in accordo a quanto detto precedentemente, in quanto il percorso ottimo tra f

b .

necessariamente includere uno dei percorsi ottimi tra uno dei punti intermedi ed il punto f

4.2.1.1.2 Seconda applicazione: il navigatore

Sia dato il seguente schema con i costi indicati per ogni percorso: Figura 4.3

Il punto di partenza è il punto e quello di arrivo è il punto . Per semplicità, si parte

h

a

con la ricerca del percorso a minimo costo tra il punto e il punto , la quale può essere

h

c

effettuata o andando a calcolare i costi associati ad ogni singolo percorso possibile e scegliendo il

percorso a minimo costo oppure applicando il principio di Bellman. Secondo tale principio,

e , è possibile scegliere il percorso come

supponendo di sapere che = =

* *

10

J J 5

dh fh (4.10)

= + +

* * *

J min{ J J , J J }

ch c

f fh cd d h

34 Pierluigi Giangrande

Automazione dei Sistemi

in cui la prima quantità vale e la seconda vale , per cui si ha . Il

= + =

* *

8 15 J J J 8

ch cf fh

vantaggio connesso all’utilizzo del principio di Bellman è dovuto al fatto che, conoscendo già i

− e , è risultato più semplice il calcolo del percorso

costi ottimi associati ai percorsi f h

d h

ottimo. − −

e , è possibile

Nel caso in cui non sono noti a priori i percorsi ottimi f h d h

procedere a ritroso: ;

sappiamo che

• =

*

J 2

gh in quanto dal punto si può andare ad solo

si avrà

= =

+ f

* * h

J J J

min{ } 5

fh f g g h

(si ricordi la definizione del metodo della programmazione

passando da g

dinamica); , per cui sappiamo qual è il

si avrà

• = =

+ =

+

* * *

J J Je

f J J J

min{ , } 7

eh eh fh e

f fh

ad ;

percorso più breve per andare da h

e

si avrà in quanto dal punto si può andare solo al punto ;

= =

+

• * * d e

J J J 10

d h d e e

h in quanto dal

si avrà

• = + + = + + =

* * *

J J J J J

min{ , } min{5 10, 3 5} 8

ch cd dh cf fh

è possibile muoversi in due direzioni.

punto c

Il vantaggio connesso all’utilizzo di tale metodo a ritroso è dovuto al fatto che, una volta

giunti ad uno dei punti indicati, è già noto il percorso ottimo per giungere alla destinazione. Il

metodo a ritroso può essere applicato per la generazione di una tabella:

+ * *

x

x J J J

u

− x x x h x h

, , ,

i 1 i − −

i 1 i i i 1

+

g N h 2 0 2

+

g

f 5

3 2

E + +

f

S h 8 0 2 5 7

e E + 10

d 3 7

e

E + +

f

N d 3 5 5 10 8

c E + 17

b 9 8

c

E + + 18

S d b 8 10 5 17

a E Tabella 4.1

4.2.1.2 Applicazione al controllo ottimo

Supponiamo di avere un sistema del primo ordine

′ = + (4.11)

x (

t ) ax (

t ) bu (

t ) che minimizzi il funzionale di costo

e di voler trovare la legge di controllo ottimo *

u (

t )

T

λ (4.12)

= +

2 2

J x (

T ) u (

t ) dt

0 35

Pierluigi Giangrande

Automazione dei Sistemi

in cui il primo addendo è associato al problema del regolatore ed il secondo al controllo a minimo

sforzo. Procediamo a questo punto discretizzando il sistema nell’equazione (4.11), ossia

scriviamola come + ∆ −

x t t x t

( ) ( ) → +

ax t bu t

( ) ( )

∆ ∆ →

t t 0

da cui + ∆ = + ∆ + ∆ (4.13)

x (

t t ) (1 t a ) x (

t ) b t u (

t )

+ ∆ (ossia si mantiene costante, in

in cui assumiamo che il sistema non varia negli intervalli [

t , t t ]

∆ , il primo valore assunto dallo stato del sistema in quell’intervallo) con

un intervallo di durata t

= ∆

= −

e . In tal caso la funzione di costo diventa

t k t k [0,1,..., N 1] −

1

N

∑ (4.14)

λ

= +

2 2

J x ( N ) u ( k )

=

k 0

e si cercano che minimizzino tale funzionale.

* *

u (0),..., u ( N 1) = ; è necessario allora ricavare gli e

Si consideri, per semplicità, il caso * *

N 2 u (0) u (1)

che minimizzano il funzionale (4.14) andando, come suggerito da Bellman, a ritroso. Per tale

motivo si parte con il calcolare (4.15)

= 2

J x (2)

2,2

= , che

Procedendo poi a ritroso si ha, per k 1 (4.16)

λ λ λ

= + = + + = +

2 2 2 2 2

J x (2) u (1) ( ax (1) bu (1)) u (1) J u (1)

1,2 2,2

che minimizza la (4.16) così da

dove si cerca, all’interno di un dato intervallo, il valore *

u (1) =

. Procedendo ancora a ritroso si pone e si calcola

ricavarci anche λ

= +

* * * 2 k 0

J J [

u (1)]

1,2 2,2 (4.17)

λ λ λ

= + + = +

2 2 2 2

J x (2) u (1) u (0) J u (0)

0,2 1,2

e sarà quindi, per il principio di Bellman, che λ

= +

* * 2 *

J [

u (0)] J

0,2 1,2

.

ed è necessario quindi ricavarci la quantità *

u (0) −

generico il ingresso ottimo è quello

Alla luce di quanto visto, per un *

N k esimo u ( k )

che minimizza la quantità (4.18)

= + +

*

J J ( x ( k ), u ( k )) J ( x ( k 1))

+ +

k N k k k N

, , 1 1,

36 Pierluigi Giangrande

Automazione dei Sistemi

= −

ed il primo valore di analizzato è .

k k N 1

Andiamo ora a formalizzare il problema. Dato il sistema

+ = (4.19)

x ( k 1) a ( x ( k ), u ( k ))

fissato

e dato il funzionale di costo con N −

N 1

∑ (4.20)

= +

J h ( x ( N )) g ( x ( k ), u ( k ))

=

k 0

determinare la sequenza di controllo ottimo che minimizza la funzione di

* *

u (0),..., u ( N 1)

costo. Si osservi che tale problema può essere risolto anche nel caso TC previa discretizzazione del

sistema. NOTA: durante la trattazione i vettori saranno scritti senza il grassetto, e si utilizzeranno

sia senza alcuna differenza.

sia la notazione u ( N ) u N

Secondo Bellman, per applicare l’algoritmo di programmazione dinamica è necessario

iniziare dalla fine, ossia si parte con (4.21)

= = *

J h x N J

( ( ))

N N N N

, , = − si ha

in quanto la scelta degli ingressi non influenza tale funzionale. Per k N 1 (4.22)

= − − + = − − + *

J g ( x ( N 1), u ( N 1)) h ( x ( N )) g ( x ( N 1), u ( N 1)) J

N N N N

1, ,

che minimizza la (4.22), ed il costo minimo sarà

per cui cerchiamo quell’ingresso −

*

u ( N 1)

quindi pari a (4.23)

= − − +

* *

J min { g ( x ( N 1), u ( N 1)) J }

N N N N

1, ,

u N

( 1)

= −

Procedendo ora con si ha

k N 2

= − − + − − + =

( ( 2), ( 2)) ( ( 1), ( 1)) ( ( ))

J g x N u N g x N u N h x N

− (4.24)

2,

N N − − +

g x N u N J

( ( 2), ( 2)) −

1,

N N

è quell’ingresso che minimizza il funzionale nella (4.24), e si ha

quindi −

*

u ( N 2) (4.25)

= − − +

* *

J min { g ( x ( N 2), u ( N 2)) J }

− −

N N N N

2, 1,

u N

( 2 )

Generalizzando si ricava quindi per induzione che la legge di controllo ottimo in un istante

− è

N k (4.26)

= = +

* * *

u : J J min{ g ( x , u ) J }

− − − − − − +

N k N k , N N k , N N k N k ( N k ) 1, N

u −

N k 37

Pierluigi Giangrande

Automazione dei Sistemi = =

e tale algoritmo è inizializzato con e terminato con .

k 1 k N

4.2.1.3 Il problema del Regolatore LQ (Lineare Quadratico)

L’obiettivo del Regolatore LQ è di portare a lo stato minimizzando l’energia di

0

controllo. Sia dato un sistema lineare descritto dall’equazione

= + (4.27)

x A

x B

u

+

k 1 k k

e il seguente funzionale di costo −

N 1

1 1 ∑ (4.28)

 

= + +

T T T

J x H

x x Q

x u R

u

 

N N k k k k

2 2 = 0

k

≥ > >

con , , simmetriche e con fissato.

Q 0

H 0 R 0 N 0 = − e da

Il problema viene risolto facendo riferimento alla (4.26) ed iniziando da k N 1

1 (4.29)

= T

* (0)

J x P x

N N N N

, 2

=

in cui si è posto . Iniziamo ora il calcolo a ritroso:

P (0) H 1 1 1 (4.30)

= + +

T T T (0)

J x Qx u Ru x P x

− − − − −

1, 1 1 1 1

N N N N N N N N

2 2 2

in cui bisogna trovare la che minimizzi tale funzionale. Per fare ciò si utilizza l’equazione

*

u −

N 1 in funzione di :

dinamica del sistema e si scrive x x −

N N 1

1 1 1 [ ] [ ] (4.31)

= + + + +

T

T T (0)

J x Qx u Ru Ax Bu P Ax Bu

− − − − − − − − −

1, 1 1 1 1 1 1 1 1

N N N N N N N N N N

2 2 2

da cui ricaviamo analiticamente ponendo a zero il gradiente

u −

N 1 ∂

J [ ]

− =

→ + + = (4.32)

N N

1, T

0 (0) 0

Ru B P Ax Bu

− − −

∂ N N N

1 1 1

u −

N 1

che risolta rispetto ad restituisce

u −

N 1 ( ) −

1 (4.33)

= − + T T

u R B P (0) B B P (0) A x

− −

N N

1 1

dove la matrice è simmetrica e definita positiva, e quindi invertibile. Definendo

+ T 1

( R B P (0) B ) ( ) −

1 (4.34)

= − + T T

K R B P (0) B B P (0) A

N 1

si ha (4.35)

=

u K x

− − −

N 1 N 1 N 1

38 Pierluigi Giangrande

Automazione dei Sistemi

ed è stato quindi dimostrato che la legge di controllo ottima per la risoluzione del problema del

regolatore LQ è il controllo in retroazione di stato. Alla luce di quanto visto la (4.31) diventa

quindi (4.36)

1 1 1 ( ) ( )

= + + + +

T

T T T

* (0)

J x Q x x K R K x Ax B K x P A

x B K x

− − − − − − − − − − − − −

N N N N N N N N N N N N N N

1, 1 1 1 1 1 1 1 1 1 1 1 1

2 2 2

che può essere scritta come

1 ( ) ( )

 

+ + + + =

T

T T

* (0)

J x Q K R K A B K P A B K x

 

− − − − − − −

N N N N N N N N

1, 1 1 1 1 1 1

2 (4.37)

1

= TN (1)

x P x

− −

N

1 1

2

in cui si è posto ( ) ( )

  (4.38)

= + + + +

T

T

P (1) Q K R K A B K P (0) A B K

 

− − − −

1 1 1 1

N N N N

Ricordando la (4.29) e confrontandola con la (4.37) si nota un’analogia nella forma;

= − si ha

ripetendo allora lo stesso procedimento per k N 2

1

  (4.39)

= − + =

* T T

(1) (1)

u R B P B B P A

x K x

 

− − − −

2 2 2 2

N N N N

1

 

con , ed inoltre

= − + T T

K R B P (1) B B P (1) A

 

− 2

N 1 ( ) ( )

 

+ + + + =

T

T T

* (1)

J x Q K R K A B K P A B K x

 

− − − − − − −

N N N N N N N N

2, 2 2 2 2 2 2 (4.40)

2

1

= TN (2)

x P x

− −

N

2 2

2 = − :

È semplice quindi generalizzare la soluzione per k N l

1

  (4.41)

= − + − − =

* T T

u R B P (

l 1) B B P (

l 1) A x K x

 

− − − −

N l N l N l N l

1 ( ) ( )

 

= + + + − + =

T

T T

* ( 1)

J x Q K R K A B K P l A B K x

 

− − − − − − −

N l N N l N l N l N l N l N l

, (4.42)

2

1

= TN ( )

x P l x

− −

l N l

2 e le

È possibile implementare un algoritmo che calcola ad ogni passo le P (

l )

K −

N l

utilizzando come formule quelle presenti nelle (4.41) e (4.42), e come condizione iniziale

= =

e si parte da .

P (0) H l 1

Quindi il controllo ottimo per il regolatore LQ è una retroazione di stato con guadagno

tempo variante; bisogna calcolare gli .

= =

* *

K ( k ) ,...,

u K x u K x

− − −

N N N

0 0 0 1 1 1 39

Pierluigi Giangrande

Automazione dei Sistemi Figura 4.4

Se il sistema è completamente controllabile allora si ha (4.43)

− =

K N l K

lim ( ) costante

→∞

N

Di solito per il regolatore LQ si usa come controllo ottimo quello con costante che si

K

e costanti e a regime; si avrà

ottiene risolvendo l’equazione algebrica ricorsiva con P K

e . Per calcolare si utilizzerà

− = =

= =

P (

l ) P P K ( N l ) K K K

∞ = + + + + =

T T

P Q K RK ( A BK ) P ( A BK )

=

+ + + + + =

T T T T T T

Q K ( R B PB ) K A PA A PBK K B PA

− si ha

in cui andando a sostituire =

− + 1

T T

( )

K R B PB B PA

+ + + + =

=

− + T T T T T

T T T 1

( R B P

B ) B PA A PA A PBK K B PA

Q K ( R B P

B )

in cui, osservando primo ed ultimo addendo, si ha in definitiva − (4.44)

= + − +

T T T 1 T

P Q A PA A PB R B PB B PA

( )

La (4.44) è detta equazione algebrica di Riccati la quale consente di calcolare e da

P

. Il comando Matlab che svolge tale operazione è dove

esso si ricava [P,L,G]=dare(A,B,Q,R)

K

le matrici L e G sono rispettivamente la matrice degli autovalori di e la matrice Si noti

(A+BK) K.

che nell’equazione di Riccati non c’è la matrice in quanto essa è una condizione iniziale, la

H

quale non è influente nella soluzione a regime.

4.2.2 Metodo di Pontryagin

Il metodo di Pontryagin si applica per il controllo ottimo TC, in cui si cerca la funzione

che minimizzi il funzionale di costo

*

x (

t ) t

∫ (4.45)

= ′

f

J ( x ) g ( x (

t ), x (

t ), t ) dt

t 0

Il problema viene di seguito affrontato in quattro casi diversi:

noti e fissati, e si cerca il percorso a costo minimo;

caso I: *

x (

t )

t , t , x (

t ), x (

t )

0 f 0 f

caso II: noti e fissati, libero;

t , t , x (

t ) x (

t )

0 f 0 f

40 Pierluigi Giangrande

Automazione dei Sistemi

caso III: noti e fissati, liberi;

t , x (

t ) t , x (

t )

0 0 f f

fissati, libero.

caso IV: t x t x t

, ( ), ( ) t

f

0 0 f

4.2.2.1 Caso I

Viene innanzitutto affrontato il caso I, più semplice degli altri, e la sua soluzione verrà

utilizzata come base per la trattazione dei casi seguenti.

Ricordando che un estremo di una funzione (minimo o massimo) coincide con il punto in

sia

cui si annulla la sua derivata e ricordando la definizione di derivata si ha che, affinché *

x (

t )

, deve avvenire

un estremo di J ( x ) (4.46)

δ δ δ

= + − =

lim ( , ) ( ) ( ) 0

J x x J x x J x

δ → 0

x

in cui si nota la presenza della quantità [ ]

t

∫ ′ ′ ′

δ δ δ (4.47)

+ − = + + −

f

J ( x x ) J ( x ) g ( x x , x x , t ) g ( x , x , t ) dt

t 0

Espandendo l’integrando in serie di Taylor del primo ordine si ha

∂ ∂

 

g g

t

∫ (4.48)

δ δ δ δ

= +

f

J x x x x t x x x t x dt

( , ) ( , ', ) ( , ', )

 

∂ ∂

 

x x '

t 0

Ricordiamo che t

∫ ′

δ δ τ τ δ (4.49)

= +

( ) ( )

x x d x t 0

t 0

in cui il secondo addendo è nullo in quanto è la variazione di una quantità fissa.

δ ′ , il quale si è visto essere pari alla

Il problema principale nella (4.48) è la presenza di x

δ ; è possibile allora effettuare un’integrazione per parti del secondo addendo

derivata di x

all’integrando nella (4.48): ∂ ∂ t

  f

g g

t

δ δ δ δ

= +

f

J x x x x t xdt x x t x

( , ) ( , ', ) ( , ', )

 

∂ ∂

 

x x '

t 0 (4.50)

t 0

 

d g

t

∫ δ

− =

f x x t x dt

( , ', ) 0

 

dt x '

t 0

in cui il secondo addendo scompare in quanto sono fissati e quindi δ δ

x t x t x t x t

( ), ( ) ( ), ( )

0 f 0 f

sono nulli. La (4.50) diventa allora  ∂ ∂ 

 

g d g

t

∫ (4.51)

δ δ δ

= −

f  

J x x x x t x x t x dt

( , ) ( , ', ) ( , ', )

 

∂ ∂

 

 

x dt x '

t 0 41

Pierluigi Giangrande

Automazione dei Sistemi

Affinché l’integrale nella (4.51) sia nullo, l’integrando deve essere nullo nell’intervallo

δ

e, poiché può assumere qualunque valore in tale intervallo, la quantità che

*

x (

t ) x (

t )

t t

[ , ]

f

0

minimizza la funzione di costo deve essere soluzione della seguente equazione:

∂ ∂

 

g d g (4.52)

− =

( x , x ', t ) ( x , x ', t ) 0

 

∂ ∂

 

x dt x '

ed è chiamata equazione di Eulero.

4.2.2.2 Caso II

Nel secondo caso analizzato si ha una leggera variazione rispetto al caso precedente

non è più fissato ma è libero. Osservando la (4.50) si ha che, affinchè

dovuta al fatto che x (

t )

f

δ = , l’equazione da Eulero è ancora un vincolo da rispettare affinché si annullino gli

sia J 0 ∂ t

  f

g è nulla solo in ma non in in quanto in

integrali, ma stavolta la quantità δ t t

x x t x

( , ', )

 

∂ 0 f

 

x ' t 0

fissato e quindi non sarà più . Di

quest’ultimo punto non si ha più δ =

x (

t ) ( ) 0

x t

f f

g

δ = , è necessario che sia , ma poiché

conseguenza, per avere δ =

J 0 x t x t t x t

( ( ), '( ), ) ( ) 0

∂ f f f f

x '

è libero la condizione da rispettare diventa

x t

( )

f ∂

g (4.53)

=

x t x t t

( ( ), '( ), ) 0

∂ f f f

x '

la quale si aggiunge alla equazione di Eulero come condizione da soddisfare per avere che *

x (

t )

.

sia un minimo di J ( x )

4.2.2.3 Caso III

Viene di seguito affrontato il terzo caso, a complessità superiore rispetto al precedente a

). Il funzionale di costo è il seguente:

causa della presenza di una maggiore grandezza libera ( t f

t

∫ (4.54)

= =

f

J ( x , t ) g ( x (

t ), x '(

t ), t ) dt x (

t ) x

f 0 0

t 0

In tal caso, visto che a variare non è solo ma è anche con variazione , si ha

δ

x (

t ) t t

f f

( ) ( ) (4.55)

δ δ δ δ δ

=

= + + − + + −

( , ) ( , ) ( , ) ( , )

J J J J x x t J x t J x t t J x t

x t f f f f f

f δ si ha

Il problema viene analizzato separatamente per i due addendi. Per J x

[ ]

t

∫ ′ ′ ′

δ δ δ (4.56)

= + + −

f

J g x x x x t g x x t d t

( , , ) ( , , )

x t 0

in cui, procedendo come nei casi precedenti ed integrando per parti, si ha

42 Pierluigi Giangrande

Automazione dei Sistemi

∂ ∂ ∂

t

   

f

g g d g

t t

∫ ∫ (4.57)

δ δ δ δ

= + −

f f  

J x x t x dt x x t x x x t x dt

( , ', ) ( , ', ) ( , ', )

 

∂ ∂ ∂

x    

x x dt x

' '

t

t 0 0

t 0

è fissato, si ha

dove, poiché solo x (

t )

0

∂  ∂ ∂ 

 

g g d g

t

∫ (4.58)

δ δ δ

+ −

f  

J x t x t t x t x x t x x t x dt

)

( ( ), '( ), ) ( ( , ', ) ( , ', )

 

∂ ∂ ∂

x f f f f  

 

x x dt x

' '

t 0

Per il secondo addendo si ha invece

δ J t f

δ δ

+ +

t t t t t

f f f f f

∫ ∫ ∫

δ = − = (4.59)

J g ( x , x ', t ) dt g ( x , x ', t ) dt g ( x , x ', t ) dt

t f t t t

0 0 f

la quale può essere riscritta in virtù dello sviluppo in serie di Taylor come (4.60)

δ δ

=

J g x t x t t t

( ( ), ( ), )

t f f f f

f

Si ha in definitiva ∂

g ′ ′

δ δ δ δ δ

= + = +

J J J ( x (

t ), x (

t ), t ) x (

t ) g ( x (

t ), x (

t ), t ) t

x t f f f f f f f f

x '

f (4.61)

 ∂ ∂ 

 

g d g

t

∫ δ

+ −

f  

( x , x ', t ) ( x , x ', t ) x dt

 

∂ ∂

 

 

x dt x '

t 0

e fossero fissati, si avrebbe e quindi la condizione da

in cui, se δ δ

= =

t t x t

x (

t ) ( ) 0

f f

f f e sono

imporre sarebbe l’equazione di Eulero (la (4.52)). Nel nostro caso, anche se t x (

t )

f f

liberi, si avrebbe ancora l’equazione di Eulero come condizione da imporre perché se fissassimo tali

quantità la soluzione deve continuare ad essere ottima. Rispettata la condizione di Eulero si ha

infine ∂

g (4.62)

δ δ δ

′ ′

= +

J x t x t t x t g x t x t t t

( ( ), ( ), ) ( ) ( ( ), ( ), )

∂ f f f f f f f f

x '

Si consideri ora la presenza di una dipendenza tra e nella relazione

δ x (

t ) t f

f (4.63)

δ δ δ

= +

x x (

t ) x (

t ) t

f f f f 43

Pierluigi Giangrande

Automazione dei Sistemi Figura 4.5

ossia la variazione del punto finale della soluzione è dovuta sia alla variazione di sia di .

t

x (

t )

f f

si ha

Sostituendo δ δ δ

= −

x (

t ) x x '(

t ) t

f f f f

∂ ( )

g ′

δ δ

=

J x t x t t x

( ), ( ),

∂ f f f f

x ' (4.64)

 

( ) ( )

g ′ ′ ′ δ

+

+ − x t x t t x t g x t x t t t

( ), ( ), ( ) ( ), ( ),

 

∂ f f f f f f f f

 

x ' δ e :

da cui si ricavano due condizioni che ci garantiscono l’annullamento di δ δ

∀ ∀

J x t

f f

 g ′ =

x t x t t

( ( ), ( ), ) 0

 ∂ f f f

x ' (4.65)

 ∂

g

− ′ ′ ′

+ =

x t x t t x t g x t x t t

( ( ), ( ), ) ( ) ( ( , ) ( ), ) 0

 ∂ f f f f f f f

x '

in cui la quantità evidenziata rappresenta la seconda condizione da rispettare in quanto la prima

implica che il primo addendo nella seconda equazione è già nullo.

4.2.2.4 Caso IV

Dall’ultima relazione nel caso 3 è possibile derivare il caso 4. In quest’ultimo caso si ha

δ =

, per cui imporre equivale ad imporre

δ = J 0

x 0

f ∂

g (4.66)

′ ′ ′

− + =

x t x t t x t g x t x t t

( ( ), ( ), ) ( ) ( ( ), ( ), ) 0

∂ f f f f f f f

x '

Si osservi che anche il caso II poteva essere risolto dalla (4.64) ponendo e

δ ≠ 0

x f

.

δ =

t 0

f Andiamo ora a scrivere una tabella che riassuma i 4 casi trattati:

44 Pierluigi Giangrande

Automazione dei Sistemi

Variabili Condizioni che le soluzioni all’equazione di Eulero

Casi Variabili fisse libere devono soddisfare

Caso I Nessuna

t x t t x t

, ( ), , ( ) Nessuna

f f

0 0 ∂ ( )

g ′ =

Caso II x t

t , x (

t ), t ( ) x t x t t

( ), ( ), 0

f

0 0 f ∂ f f f

x '

Caso ( )

′ =

t , x (

t )

t , x (

t ) ( ), ( ), 0

g x t x t t

III f f f f f

0 0

Caso ∂ ( ) ( )

g ′ ′

− ′ + =

t

t , x (

t ), x (

t ) x t x t t x t g x t x t t

( ), ( ), ( ) ( ), ( ), 0

IV ∂

0 0 f f f f f f f f f

x ' Tabella 4.2

4.3 M

INIMIZZAZIONE DI UN FUNZIONALE CON VINCOLI

Fino ad ora abbiamo considerato problemi di minimizzazione in cui può assumere un

x (

t )

è soggetto a vincoli come possiamo procedere?

valore qualunque. Se invece x (

t )

4.3.1 Metodo dei moltiplicatori di Lagrange

Prima di passare al caso di funzionali, viene ora affrontato il problema in caso di funzioni:

+ = più vicino all’origine. Ciò significa che è necessario

si cerca il punto sulla retta x x 5

1 2 in presenza del vincolo di appartenenza alla retta.

minimizzare la funzione = +

2 2

g ( x , x ) x x

1 2 1 2 metodo dei moltiplicatori di Lagrange.

Tale problema può essere risolto applicando il

Consideriamo una funzione di costo estesa (4.67)

= + + + −

2 2

g ( x , x , p ) x x p ( x x 5)

a 1 2 1 2 1 2

moltiplicatore di Lagrange

si chiama . Per il calcolo del minimo della funzione

dove la variabile p come

si calcola il differenziale di g a ∂ ∂ ∂

g g g

δ δ δ

= + + =

a a a

dg x x p

∂ ∂ ∂ (4.68)

a 1 2

x x p

1 2

δ δ δ

= + + + + + −

x p x x p x x x p

(2 ) (2 ) ( 5)

1 1 2 2 1 2

δ δ

in cui e non sono indipendenti a causa del vincolo, ma ogni soluzione deve soddisfare

x x

1 2 può assumere un valore scelto a piacere; per tale motivo si sceglie

tale vincolo, per cui p

= − così da ottenere

p 2 x

2 δ (4.69)

= + =

dg (2 x p ) x 0

a 1 1 δ , per cui

Tale soluzione deve essere valida per qualunque valore di x

1 45

Pierluigi Giangrande

Automazione dei Sistemi p (4.70)

= ⇒ + =→ =

− =

d g x p x x

0 2 0

a 1 1 2

2

applicando tale soluzione al vincolo si ha e .

=

= → = x 2.5

2 x 5 x 2.5

1 1 2 δ δ δ sono

Si osservi che la stessa soluzione può essere ottenuta assumendo che x , x , p

1 2

indipendenti, ossia risolvendo il sistema + =

 2 x p 0

1

 (4.71)

+ =

 2 x p 0

2

 + − =

 x x 5 0

1 2

ossia il metodo di Lagrange ci consente di trascurare il fatto che le variabili sono in realtà non

indipendenti. vincoli, utilizzando nella funzione

Tale metodo può inoltre essere applicato in presenza n

.

di costo aumentata p , p ,..., p

1 2 n

4.3.2 Applicazione del metodo dei moltiplicatori di Lagrange al caso di

funzionali

Vediamo ora come si può applicare il metodo dei moltiplicatori di Lagrange al caso del

funzionale di costo t

∫ (4.72)

ω ω ω

= ′

f

( ) ( ( ), ( ), )

J g t t t dt

t 0

+ ×

con di dimensione e con vincoli

ω ( n m ) 1 ω ω

′ = = (4.73)

f ( (

t ), (

t ), t ) 0 i 1, 2,..., n

i

Applichiamo ora il metodo dei moltiplicatori di Lagrange calcolando il funzionale di costo

aumentato ( )

t

ω p ω ω p f ω ω

= ′ + ′

f T

J ( , ) g ( (

t ), (

t ), t ) (

t ) ( (

t ), (

t ), t ) d t

a t 0 ×

dove ha dimensione , per cui il suo trasposto ha dimensione e può essere

p (

t ) n× 1 1 n

che ha dimensione . Chiamando

moltiplicato per n× 1

f si ha

ω ω ω ω p f ω ω

′ = ′ + ′

T

g ( (

t ), (

t ), t ) g ( (

t ), (

t ), t ) (

t ) ( (

t ), (

t ), t )

a t

∫ ′

ω ω ω (4.74)

= f

J ( , p ) g ( , , p , t ) dt

a a

t 0

e quindi

46 Pierluigi Giangrande

Automazione dei Sistemi

 

∂ ∂ ∂

T T T

g g g

t

∫ ′

δω δω δ (4.75)

= + +

f a a a

 

dJ p dt

ω ω

∂ ∂ ∂

a  

p

t 0

Ora possiamo procedere come nel caso I del problema senza vincoli visto in precedenza,

δω

ω

e indipendenti. Si procede allora integrando per parti per eliminare ,

assumendo '

p

ottenendo così  

t t

   

∂ ∂ ∂ ∂

f

T T T T

f

g g g g

d

∫ (4.76)

δω δω δ

= + − +

 

a a a a

 

 

dJ p d t

′ ′

ω ω ω

∂ ∂ ∂ ∂

a    

dt p

 

t

t 0

0 δ

δω e di , è necessario che

da cui, affinché l’integrale si annulli per qualunque valore di p

vengano rispettate le seguenti condizioni:  

∂ ∂

T T

g g

d

′ ′

ω ω p ω ω p +

− =

a a

 

t t n m

( , , , ) ( , , , 0 ( )

ω ω

∂ ∂

 

dt (4.77)

g ′

ω

=

⇒ =

a fω t n

0 ( , , ) 0 ( )

p

delle quali la prima è l’equazione di Eulero.

4.3.3 Metodo di Pontryagin per il controllo ottimo

Sia dato il sistema descritto dall’equazione

′ = (4.78)

x (

t ) f ( x (

t ), u (

t ))

trovare la legge di controllo che minimizzi la funzione di costo

t

∫ (4.79)

= + f

( ) ( ( )) ( ( ), ( ), )

J u h x t g x t u t t dt

f t 0

se sono noti. Si cerca allora quell’ tale che

che dipende solo da *

u

u t , x (

t ), t , x (

t )

0 0 f f (4.80)

=

* arg mi n J ( )

u u

u

NOTA: nel seguito i vettori verranno scritti senza l’utilizzo del grassetto, a meno di casi

particolari che verranno segnalati.

Al fine di ricondurre il problema alla forma già nota, è possibile scrivere

d

t

∫ (4.81)

= +

f

h x t h x t dt h x t

( ( )) ( ( )) ( ( ))

0

f dt

t 0

così da avere 47


PAGINE

69

PESO

631.92 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in ingegneria biomedica
SSD:
A.A.: 2015-2016

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher pierluigi.giangrande di informazioni apprese con la frequenza delle lezioni di Automazione dei sistemi e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Napoli Federico II - Unina o del prof Di Bernardo Diego.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in ingegneria biomedica

Esercizi Svolti Strumentazione Biomedica
Esercitazione
Ingegneria Clinica - Prof. Paolo Bifulco
Appunto
Management e Automazione dei Sistemi Sanitari (Mass) - Prof. Mario Cesarelli
Appunto
Ingegneria biomedica - Campi elettromagnetici
Appunto