Matematică și Informatică Aplicate în Inginerie [620978]

UNIVERSITATEA POLITEHNICA DIN BUCUREȘTI
FACULTATEA DE ȘTIINȚE APLICATE
Matematică și Informatică Aplicate în Inginerie

Proiect de Diplomă

Coordonator științific

Lector .univ.dr. Monica PÂRVAN

Absolvent: [anonimizat]

2017

UNIVERSITATEA POLITEHNICA DIN BUCUREȘTI
FACULTATEA DE ȘTIINȚE APLICATE
Matematică și Informatică Aplicate în Inginerie

Apro bat
Decan :
Prof. dr. Emil Petrescu

Control opt imal cu aplicații in inginerie

Coordonator științific: Absolvent: [anonimizat]
2017

Cuprins

1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Elemente de calcul variațional . . . . . . . . . . . . . . . . . . . . . . . . .
3.1 Probleme variaționale. . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Ecuația Euler -Lagrange. . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Hamiltonian. . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Control optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1 Problema controlului optimal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Principiul bang -bang al lui LaSalle. . . . . . . . . . . . . . . . . . . . . . . .. .
3.3 Condiții necesare de optim. . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Exemple de probleme de control optimal. . . . . . . . . . . . . . .
4 Principiul maximului al lui Pontryagin . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Principiul maximului cu condiții de transversalitate. . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Aplicații și exemple. . . . . . . . . . . . . . . . . . . . . . . . .
4.7 Principiul maximului cu restricții asupra stărilor . . . . . . . . . . . . . . . . . . . . . . . . .
5 Principiul optimului și ecuația lui Bellman . . . . . . . . . . . . . . . . . . . . . . . . .
5.1 Principiul optimului. . . . . . . . . . . . . . . . . . . . .
5.2 Ecuația lui Bellman. . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . .
6. Programare dinamică . . . . . . . . . . . . . . . . . . . . . . . . .
6.1 Metoda programării dinamice. . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Ecuația Hamilton –Jacobi –Bellman. . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Relația dintre programarea dinamică și principiul maximului al lui Pontryagin . . . . . . .
7 Aplicații . . . . . . . . . . . . . . . . . . . . . . . . .
7.1. . . . . . . . . . . . . . . . . . . . . . . . .
7.2. . . . . . . . . . . . . . . . . . . . . . . . .
Concluzii . . . . . . . . . . . . . . . . . . . . . . . . .
Anexe . . . . . . . . . . . . . . . . . . . . . . . . .
Bibliografie . . . . . . . . . . . . . . . . . . . . . . . . .

1. Introducere

Controlul optimal consta in optimizarea unor funcționale cu restricții ecuații
diferenț iale sau cu derivate parțiale, toate depinzând de funcțiile de control.

In controlul optimal intalnim trei abordari:
 Calculul variational
 Principiul de maxim
 Programarea dinamica

Metodele variaționale tradiționale se dovedesc a fi insuficiente pentru rezolvarea
multor proble me importante de evoluție întâlnite in studierea diferitelor procese de evoluție,
atat in matematica, economie, cat și in alte domenii remarcabile.
Unele dintre aceste de probleme pot fi rezolvate prin tehnici matematice specifice controlului
optimal.
Dupa cum este cunoscut, prin sistem se intelege, o mulțime de obiecte, nu neaparat
de aceiași structura, care interacționeaza intre ele și astfel incat sa raspunda in mod diferit la
comenzi diferite (sisteme biologice, sisteme industriale, sisteme informatice , sisteme
matematice etc ).
Problemele de control optimal sunt acele probleme in care, dat fiind un sistem pentru
care se știe punctul de plecare, cel de sosire, restricțiile asupra comenzilor si ecuațiile de
dinamica ale stărilor, se determina traiectoria optima respectând un criteriu de performanta.

Schema unui sistem poate fi reprezentat prin următorul desen:

u

 u reprezinta intrarile sistemului
 y reprezinta ieșirile sistemului
 x reprezinta variabiala de stare (arata ce se intamplă in interiorul sistemului)

Aceste probleme de control modeleaza evoluția unor sisteme care pot trece dintr -o
stare in alta intr -o infinitate de moduri. Alegerea uneia din totalitatea acestora, care sa fie
cea mai convenabila, in raport cu un anum it scop propus dinainte, definește intr -un mod
foarte simplificat, ceea ce se intelege prin comanda optimala sau control optimal.

x(t) y

Problema minimizarii unei funcționale poate servi ca punct de plecare pentru
problemele de control optimal :

Se defineste functionala:

∫𝐹(𝑡,𝑥(𝑡),𝑑𝑥
𝑑𝑡(𝑡))𝑑𝑡,𝑡1
𝑡0 (1)

pe clasa curbelor x: [𝑡0,𝑥0]→R, continue, cu derivate continue pe por țiuni și care verifică
condițiile la capetele intervalului x(𝑡0) =𝑥0, x(𝑡1)=𝑥1.

Cele doua puncte fixe (𝑡0 ,𝑥0) și (𝑡1, 𝑥1), pot fi unite, in 𝑅𝑛+1 , (sau pe orice alta
varietate diferențiabilă), printr -o infinitate de curbe.

In alta ordine de idei, valoarea integralei este unic determinată, pe fiecare curba
x=x(t) , pentru care 𝑑𝑥(𝑡)
𝑑𝑡=𝑢(𝑡), oricare ar fi t 𝜖 [ 𝑡0,𝑡1], daca se satisface condi ția:

𝑥0+∫𝑢(𝑡)𝑑𝑡=𝑥1 ,𝑡1
𝑡0
Într-o astfel de situație exista o singura curba 𝑥=𝑥(𝑡),𝑡 𝜖 [𝑡0,𝑡1] astfel incat:

𝑥(𝑡0)=𝑥0, 𝑑𝑥(𝑡)
𝑑𝑡=𝑢(𝑡), 𝑥(𝑡1)=𝑥1

Altfel spus, pentru fiecare funcție continuă pe porțiuni:

𝑢:[ 𝑡0,𝑡1]→𝑢(𝑡)𝜖 𝑹, astfel ca ∫𝑢(𝑡)𝑑𝑡=𝑥1−𝑥0𝑡1
𝑡0, se obține se obține o valoare

bine determinata a integralei (1), unde 𝑑𝑥(𝑡)
𝑑𝑡=𝑢(𝑡), 𝑥(𝑡0)=𝑥0.

Deci, dispunem de alegerea funției 𝑢(𝑡) , 𝑡𝜖[ 𝑡0,𝑡1], care verifică condiția
∫𝑢(𝑡)𝑑𝑡=𝑥1−𝑥0𝑡1
𝑡0, iar curba rezulta din relatia:

𝑥(𝑡)= 𝑥0+∫𝑢(𝑠)𝑑𝑠, 𝑡 𝜖 [𝑡0,𝑡1]. 𝑡
𝑡0

Mărimea 𝑥(𝑡) variabilă î n timp, care caracterizeaza starea unui sistem, poarta numele
de variabilă de stare, iar marimea 𝑢(𝑡), variabilă de asemenea în timp ș i care influentează
starea intermediară prin relatia 𝑥(𝑡)= 𝑥0+∫𝑢(𝑠)𝑑𝑠, 𝑡 𝜖 [𝑡0,𝑡1]𝑡
𝑡0, se numește variabilă de
comandă sau de control.

In cazul problemelor de mecanică, fiecare curbă de evoluție reprezintă traiectoria
unui punct figurativ, a carui misca re leaga doua puncte fixe si este determinata prin
cunoasterea vitezei 𝑢(𝑡), in fiecare moment 𝑡 𝜖 [𝑡0,𝑡1].

2. Elemente de calcul variational

Calculul variațional se ocupă cu studiul extremelor pentru o clasă specială de funcții
numite funcționale. Ace ste funcționale sunt definite pe submulțimi ale unor spații de funcții
obișnuite. Din punct de vedere istoric, contribuții decisive la dezvoltarea calculului
variațional au adus Euler (1744), dar mai ales Lagrange (1760) care a dat metodele generale
ale di sciplinei și le-a aplicat în mecanică. Voi începe cu prezentarea unor probleme clasice
ale calculului variațional.

2.1 Probleme Variaționale

O problemă importantă care a dus la apariția calculului variațional este problema
brahistocronei . Ea a fost propusă în 1696 de către Jean Bernoulli și a fost rezolvată în diferite
moduri de Jacques Bernoulli , Leibniz , l'Hospital , Euler .

Enunțul Problemei :

Un punct material alunecă neted¸ și fără frecare, sub acțiunea gravitației, pe un fir
subțire, de la punctul 𝑃0(𝑥0,𝑦0) la punctul 𝑃1(𝑥1,𝑦1). Se doresye aflarea formei firului,
dacă mișcarea se realizează în cel mai scurt timp.

Rezolvare:

Presupunem ca graficul funcției 𝑦=𝑦(𝑥) reprezintă forma firului, considerăm 𝑚
masa punctui material si 𝑣 viteza sa.
In 𝑃(𝑥,𝑦) acționeaza forța gravitaționala 𝐹=𝑚𝑔. Lucrul mecanic este dat de formula
𝐹=𝑚𝑑. Enegia cinetica se scrie 𝑇=1
2𝑚𝑣2. Lucrul mecanic se identifică cu variația
energiei potențiale 𝑚𝑔(𝑦−𝑦0) cand ne mutam din punctul 𝑦0 spre 𝑦. Variația
corespunzatoare energiei cinetice este 1
2𝑚(𝑣2−𝑣02).

Teorema lucru mecanic – energie impune:

𝑚𝑔(𝑦−𝑦0)=1
2𝑚(𝑣2−𝑣02).

Presupunem ca particula de masa 𝑚=1 pleacă din repaus, adică 𝑣0=0. De asemenea stim
ca 𝑣=𝑑𝑠
𝑑𝑡, unde 𝑠 este abscisa curbilinie, adica 𝑑𝑠=√1+𝑦̇2 𝑑𝑥.
Rămâne 𝑑𝑠
𝑑𝑡=√2𝑔(𝑦−𝑦𝑜). Rezulta funcționala:
𝑇=∫𝑑𝑠
𝑣=1
√2𝑔∫√1+𝑦̇2
√𝑦−𝑦0𝑥2
𝑥1 𝑑𝑥.𝑥2
𝑥1

Deorece lagrangianul 𝐿=1
√2𝑔∫√1+𝑦̇2
√𝑦−𝑦0𝑥2
𝑥1 nu depinde de variabila 𝑥, ecuatia Euler -Lagrange
𝜕𝐿
𝜕𝑦−𝑑
𝑑𝑥𝜕𝐿
𝜕𝑦̇=0 se inlocuieste cu integrala prima 𝑦𝜕𝐿
𝜕𝑦̇−𝐿=𝑐 deci:

𝑦̇2
√(𝑦−𝑦0)(1+𝑦̇2)−√1+𝑦̇2
√𝑦−𝑦0=𝑐.

Aceasta ecuație diferențiala este o ecuație cu variabile separabile:
(Cum se ajunge la ec asta?)
√𝑦−𝑦0
√𝑐2−(𝑦−𝑦0)𝑑𝑦=𝑑𝑥.
Pentru simplificare facem substituția 𝑦=𝑦0+𝑘2𝑠𝑖𝑛2𝜃. Găsim

𝑑𝑦=2𝑘2𝑠𝑖𝑛𝜃𝑐𝑜𝑠𝜃 𝑑𝜃,𝑑𝑥=𝑘2𝑠𝑖𝑛2𝜃 𝑑𝜃.

In felul acesta ecuatia Euler -Lagrange are soluția parametrică:

𝑥=𝑥0+1
2𝑘2(2𝜃−𝑠𝑖𝑛2𝜃),𝑦=𝑦0+1
2𝑘2(1−𝑐𝑜𝑠2𝜃),

care reprezintă o familie de cicloide (adică este curba celei mai rapide descendențe sub
acțiunea forței gravitaționale) .
Constantele 𝑘 și 𝑥0,𝑦0 se obțin din condiția ca cicloida sa treacă prin punctul (𝑥1,𝑦1).
Soluția asigura minumul funcționalei timp deoarece 𝜕2𝐿
𝜕𝑦̇>0.

3.2 Principiul Bang -Bang al lui LaSalle

În teoria control ului, un control er bang -bang (controller on -off), de asemenea,
cunoscut ca un cont roler de histerezis, este un regulator de feedback care comută brusc între
două stări (între o limită inferioară si o limită superioară )

Să consideram cubul 𝐴:[−1,1]𝑚→𝑹𝑚: (Cum ar trebui modificat? )

Definiție: Un control 𝛼(∙)∈𝒜 este numit bang -bang atat timp cat 𝑡≥0 si fiecare indice
𝑖=1,…,𝑚, avem | 𝛼𝑖(𝑡) |=1, unde:
𝛼(𝑡)=(𝛼1(𝑡)

𝛼𝑚(𝑡)).

Teoremă (Principiul Bang -Bang): Fie 𝑡=0 și presupunâ nd 𝑥(0)∈𝑪(𝑡), pentru sistemul:

𝑥̇(𝑡)=𝑀𝑥(𝑡)+𝑁 𝛼(𝑡),

Atunci exista un control bang -bang 𝛼(∙), care piloteaza 𝑥0 la 0 la momentul 𝑡.

In alta ordine de idei, un control optimal 𝛼∗(∙), este dat de:
(De adaugat precizari)

𝜶∗(∙)={1, daca 0≤𝑡≤𝑡∗
0, daca 𝑡∗<𝑡≤𝑇

pentru un timp de comutare apropiat 0≤𝑡∗≤𝑇, timpul de comutare t * trebuie să fie
determinat. Numim α * (·) un control bang -bang

3.3 Conditii necesare de optim

Studiul sistemelor optimale se face pornind de la următoarele elemente fundamentale:
1. Dinamica procesului este cunoscută, fiind exprimată sub forma ecuației de stare
( 1) presupusă în cele mai multe cazuri a fi liniară.

𝑥̇(𝑡)=𝑓(𝑡,𝑥 (𝑡),𝑢(𝑡)) (1)

2. Se limitează atenția la cazul determinist, adică se admite că sistemul nu este supus
unor perturbații stoc astice (iar măsurarea vectorului de stare nu este alterată de zgomote).
3. Vectorul de stare x și/sau comanda u sunt supuse unor restricții diverse – de
exemplu, componentele lui u trebuie să se încadreze între anumite limite (restricții de tip
inegalitate), sau se pot impune anumite valori inițiale și finale pentru x (restricții de tip
egalitate), sau se impun chiar restricții privind durate tf a conducerii procesului respectiv.
4. Se alege indice le de performanță J , dependent în general de x și de u și crescător
cumulativ cu timpul :
𝐽[𝑢]=∫𝐿 (𝑡,𝑥 (𝑡),𝑢(𝑡))𝑑𝑡𝑡2
𝑡1 (1.2)
în raport cu care se realizează optimizarea.
5. Nu se face nici o presupunere cu privire la structura dispozitivului de conducere
optim ală.
Multe probleme de inginerie și stiința pot fi formulate ca probleme de optimizare
guvernat e de ecuații diferențiale ordinare de tip „flow ” (sisteme de evolu ție in timp, curenți)
si de funcționale exprimate ca integrale simple (control optimal unitemporal)

Cu acestea, problema comenzii optimale se formulează astfel :
Să se găsească comanda optimă u care optimizează indicele de performanță J, în
condițiile unor restricții impuse.

Consideram u n sistem cu ecuația de stare:

𝑥̇(𝑡)=𝑓(𝑡,𝑥 (𝑡),𝑢(𝑡)), (1)

cu funcționala de cost:

𝐽[𝑢]=∫𝐿 ((𝑡,𝑥 (𝑡),𝑢(𝑡))𝑑𝑡+𝑀(𝑡1, 𝑥(𝑡1), 𝑡2, 𝑥(𝑡2) ),𝑡2
𝑡1 (2)

Unde,







)(…)()(
)(21
txtxtx
tx
nstarea
comanda
tututu
tu
m





)(…)()(
)(21

,…21





nfff
f
𝑓𝑖 (𝑡,𝑥1,…,𝑥𝑛,𝑢1,…𝑢𝑚), f este funcție masurabilă de clasă 𝑪1 în 𝑥 și 𝑢

𝑥(𝑡)𝜖 𝑋 ⊂𝑹𝑛, 𝑢(𝑡)𝜖 𝑈 ⊂𝑹𝑚

Notă m cu 𝒰={𝑢∶[𝑡1,𝑡2]→U⊂𝑹𝑚} = mul țimea comenzilor admisibile

Perechile (𝑥,𝑢), unde 𝑥∶[𝑡1,𝑡2]→X și 𝑢 𝜖 𝑈 care verifică ecuația de stare (1) se
numesc traiectorii admisibile.

Notă m T={(𝑥,𝑢)𝜖{𝑋}×{𝒰}|(𝑥,𝑢) traiectorii admisibile }
𝐿- funcț ionala de clasă 𝑪1 in raport cu toate argumentele, pozitiv ă, numita
Lagrangian

Definiț ie: O traiectorie (𝑥,̃ 𝑢̃) se numește optimala ( 𝑢̃-comandă optimală ) daca
𝐽[𝑢̃]≤ 𝐽[𝑢], oricare ar fi 𝑢̃ comandă admisibilă .

Exemplu de condiție necesara de extrem (Teorema lui Fermat):

Fie 𝐹:(𝑎,𝑏)→𝑹 o funcție și se presupune ca 𝑥0 𝜖 (𝑎,𝑏) este punct de maxim (sau
minim) local al funcției 𝐹. Daca F este derivabila in 𝑥0 atunci 𝐹′(𝑥0)=0.

Se dorește să se determine comanda optimală, care realizează minimimul
funcț ionalei de cost 𝐽[𝑢].

Fie (𝑥,̃ 𝑢̃) 𝜖 T o traiectorie optimală și 𝐽[𝑢̃]≤ 𝐽[𝑢], ∀ 𝑢̃ comandă admisibilă

Consideram o variație mică a traiectoriei optimale:

{𝑥𝜀(𝑡)=𝑥̃(𝑡)+ 𝜀ℎ(𝑡)
𝑢𝜀(𝑡)=𝑢̃(𝑡)+ 𝜀𝑘(𝑡) ,

astfel î ncat (𝑥𝜀,𝑢𝜀) este traiectorie (verifică ecuația (1) )

,
)(…)()(
)(21





ththth
th
n
,
)(…)()(
)(21





tktktk
tk
m

Construim o funcț ie 𝐹:𝑹→𝑹,𝐹(𝜀)= 𝐽[𝑢𝜀]

𝐹(𝜀) = 𝐽[𝑢𝜀]=∫𝐿 ( 𝑡,𝑥̃1(𝑡)+ 𝜀ℎ1(𝑡),…,𝑥̃𝑛(𝑡)+ 𝜀ℎ𝑛(𝑡),…,𝑢̃1(𝑡)+𝑡2
𝑡1
𝜀𝑘1(𝑡),…,𝑢̃𝑚(𝑡)+ 𝜀𝑘𝑚(𝑡))𝑑𝑡+𝑀(𝑡1,𝑥̃1(𝑡1)+𝜀ℎ1(𝑡1) ,…,𝑥̃𝑛(𝑡1)+
𝜀ℎ𝑛(𝑡1),𝑥̃1(𝑡2)+𝜀ℎ1(𝑡2),…,𝑥̃𝑛(𝑡2)+𝜀ℎ𝑛(𝑡2) ).

𝑀(𝑡1,𝑥̃(𝑡1)+ 𝜀ℎ(𝑡1) ⏟
𝑥1; 𝑡2,𝑥̃(𝑡2)+ 𝜀ℎ(𝑡2) ⏟
𝑥2)

𝐿,𝑀 de clasă 𝑪1⇒𝐹 este derivabilă

Pentru 𝜀=0, 𝑥𝜀(𝑡)=𝑥0(𝑡)=𝑥̃(𝑡) și 𝑢𝜀(𝑡)=𝑢0(𝑡)=𝑢̃(𝑡)

𝐹(0) = 𝐽[𝑢0] = 𝐽[𝑢̃] ≤ 𝐽[𝑢𝜀]= 𝐹(𝜀)⇒ 𝐹(0)≤𝐹(𝜀)

⇒𝜀=0 este punct de minim pentru 𝐹(𝜀)

⇒ are loc Teorema lui Fermat, adica 𝑭′(𝟎)=𝟎 (3)

Derivă m 𝐹 în raport cu 𝜀 și apoi î nlocuim 𝜀=0
Derivăm î n raport cu 𝜀 funcția compusa L

𝜕𝐿
𝜕𝑥1∙ 𝜕𝑥1
𝜕𝜀+⋯+𝜕𝐿
𝜕𝑥𝑛∙𝜕𝑥𝑛
𝜕𝜀=𝜕𝐿
𝜕𝑥1∙ℎ1+⋯+𝜕𝐿
𝜕𝑥𝑛∙ℎ𝑛=

=[𝜕𝐿
𝜕𝑥1,…,𝜕𝐿
𝜕𝑥𝑛]




nhhh
…21⇒(𝜕𝐿
𝜕𝑥)𝑇
∙ℎ(𝑡)+(𝜕𝐿
𝜕𝑢)𝑇
∙𝑘(𝑡),

gradL= 𝜕𝐿
𝜕𝑥 =[𝜕𝐿
𝜕𝑥1…
𝜕𝐿
𝜕𝑥𝑛].

𝐹′(𝜀)=∫[(𝜕𝐿
𝜕𝑥)𝑇
∙ℎ(𝑡)+(𝜕𝐿
𝜕𝑢)𝑇
∙𝑘(𝑡)]𝑡1
𝑡0dt + (𝜕𝒰
𝜕𝑥1)𝑇
∙ℎ(𝑡1)+(𝜕𝒰
𝜕𝑥2)𝑇
∙𝑘(𝑡2) (4)

(4) – calcula t în 𝑥̃(𝑡)+ 𝜀ℎ(𝑡) și 𝑢̃(𝑡)+ 𝜀𝑘(𝑡)

Deci din ecuația 𝐹′(0)=0 ⇒ Traiectoria optim ală (𝑥,̃ 𝑢̃) verifică ecuația:

∫[(𝜕𝐿
𝜕𝑥)𝑇
∙ℎ(𝑡)+(𝜕𝐿
𝜕𝑢)𝑇
∙𝑘(𝑡)]𝑡1
𝑡0dt + (𝜕𝐿
𝜕𝑥1)𝑇
∙ℎ(𝑡1)+(𝜕𝐿
𝜕𝑥2)𝑇
∙𝑘(𝑡2)=0 (5)

Formam Hamiltonianul problemei:

𝐻(𝑡,𝑥,𝑢,𝑝)=𝐿(𝑡,𝑥,𝑢)+𝑝𝑇𝑓(𝑡,𝑥,𝑢), (6)

⇒ 𝐿(𝑡,𝑥,𝑢)= 𝐻(𝑡,𝑥,𝑢,𝑝)−𝑝𝑇𝑓(𝑡,𝑥,𝑢)

unde 𝑝(𝑡)=[𝑝1(𝑡)

𝑝𝑛(𝑡)]= vector adjunct

Derivăm această ecuație după x și după u pentru a afla
L
x
 și
L
u
 .

11
1 1 1
1 1 1 1 1 1
11
11 1( … ) … …
( ) … … … … … …
( … ) … …nn
n n n
T
nn
nn n
n n n n nff ffp f p f p px x x x x p
pfxf f p ffp f p f ppx x x x x                                                                   n




Rezulta ca:

1
( ) …T
T
np
fpfxxp     

Analog :

1
( ) …T
T
np
fpfuup     

Obținem:
{ 𝜕𝐿
𝜕𝑥=𝜕𝐻
𝜕𝑥−(𝜕𝑓
𝜕𝑥)𝑇
∙𝑝
𝜕𝐿
𝜕𝑢 =𝜕𝐻
𝜕𝑢−(𝜕𝑓
𝜕𝑢)𝑇
∙𝑝

𝑝1,…,𝑝𝑛-multiplicatori Lagrange

Înlocuim in (5):

∫[(𝜕𝐿
𝜕𝑥)𝑇
∙ℎ(𝑡)+(𝜕𝐿
𝜕𝑢)𝑇
∙𝑘(𝑡)]𝑡1
𝑡0dt− ∫𝑝𝑇[𝜕𝑓
𝜕𝑥ℎ(𝑡)+𝜕𝑓
𝜕𝑢𝑘(𝑡)]𝑡2
𝑡1dt⏟
𝑛𝑜𝑡 𝐼 +(𝜕𝒰
𝜕𝑥1)𝑇
∙ℎ(𝑡1)+
+(𝜕𝒰
𝜕𝑥2)𝑇
∙𝑘(𝑡2)=0

Notă m ℎ(𝑡)=dx si 𝑘(𝑡)=du

𝜕𝑓
𝜕𝑥 ∙ℎ+𝜕𝑓
𝜕𝑢∙𝑘=𝜕𝑓
𝜕𝑥 dx+𝜕𝑓
𝜕𝑢du=df=d𝑥̇=𝑑𝑥⏞.
=ℎ̇.

I= −∫𝑝𝑇(𝑡)∙𝑡2
𝑡1 ℎ̇(𝑡)dt =−𝑝𝑇(𝑡)ℎ(𝑡)|𝑡2
𝑡1 ⏟
=−𝑝𝑇(𝑡2)ℎ(𝑡2)+𝑝𝑇(𝑡1)ℎ(𝑡1 )+∫𝑝̇𝑡2
𝑡1(𝑡)𝑇ℎ(𝑡)dt.

Înlocuim pe I:

∫[(𝑝̇+𝜕𝐻
𝜕𝑥)𝑇

=0ℎ(𝑡)+(𝜕𝐻
𝜕𝑢)𝑇

=0𝑘(𝑡)]𝑡2
𝑡1dt +

+(𝑝(𝑡1)+𝜕𝒰
𝜕𝑥1 )𝑇
ℎ(𝑡1)+(−𝑝(𝑡2)+𝜕𝒰
𝜕𝑥2 )𝑇
ℎ(𝑡2)⏟
=0 = 0 (7)

(∀) ℎ,𝑘⇒coeficienț ii lor sunt nuli

(𝑥,̃ 𝑢̃) traiectorie ⇒(𝑥,̃ 𝑢̃) verifică ecuaț ia: 𝑥̇(𝑡)=𝑓(𝑡,𝑥 (𝑡),𝑢(𝑡)) care din (6) se poate
scrie:
𝑥̇(𝑡)=𝜕𝐻
𝜕𝑃

Am demonstrat:

Teorema de optimalitate: Dacă (𝑥,̃ 𝑢̃) este traiectoria optimală a problemei (1),(2), atunci
(𝑥,̃ 𝑢̃) verifică condțiile sistemului :

{𝑥̇(𝑡)=𝜕𝐻
𝜕𝑃 (8)
𝑝 ̇=−𝜕𝐻
𝜕𝑥 (9) Sistemul canonic

𝜕𝐻
𝜕𝑢=0→ Ecuația comenzii optimale (10)

(𝑝(𝑡1)+𝜕𝒰
𝜕𝑥1 )𝑇
ℎ(𝑡1)+(−𝑝(𝑡2)+𝜕𝒰
𝜕𝑥2 )𝑇
ℎ(𝑡2)=0→Condiția de (11)
transversalitate

3.4 Exemple de probleme de control optimal

a) Sistem ul pradă -rapitori:

V.Voltera a introdus sistemul de ecuații diferențiale

{𝑥̇=𝑥(𝜆1−𝜇1𝑦)
𝑦̇=𝑦(−𝜆2+𝜇2𝑥) ̇

pentru a descrie dinamica unui sistem biol ogic format din două populații (pradă și
răpitori). In acest sistem 𝑥(𝑡), repre zintă la momentul 𝑡, numă rul de indivizi din pradă, iar
𝑦(𝑡), numarul de rapitori.

Daca prada este sepa rata (complet sau parțial) de ră pitori, atunci sistemul descriind
dinamica populației este:

{𝑥̇=𝑥(𝜆1−𝑢(𝑡)𝜇1𝑦), 𝑡∈[0,1]
𝑦̇=𝑦(−𝜆2+𝑢(𝑡)𝜇2𝑥), ̇ 0≤𝑢(𝑡)≤1

iar 𝑢(𝑡), reprezintă rata de separație 𝜆1, 𝜆2, 𝜇1,𝜇2 ∈𝑹+, 𝑥(0)=𝑥0,𝑦(0)=𝑦0,𝑥0,𝑦0>0.
Privind funcți a 𝑢(𝑡), ca variabilă de control, se doreste a determina funcția, astfel
incat, in momentul final 𝑡1, fixat, numarul total al indiviziilor din cele doua populații sa fie
maxim.

b) O problemă de optim în cinetica ficatului

Activitatea en zimatică din ficat este descrisă de urmatorul sistem de ecuații:

{𝑥̇(𝑡)=−𝑓(𝑥(𝑡))𝑢(𝑡), 𝑡∈[0,1]
𝑦̇(𝑡)=𝑓(𝑥(𝑡))−𝑔(𝑦(𝑡))𝑣(𝑡)

cu condițiile iniț iale 𝑥(0)=𝑥0,𝑦(0)=𝑦0. Aici 𝑥(𝑡) este concentrația unei substanțe care
intra în ficat și care este transformată de catre o enzima într -o substanță metabolit de
concentrație 𝑦(𝑡), metabolitul este transformat ulterior sub acțiunea unei alte enzime.

Valorile 𝑓(𝑥) și 𝑔(𝑦) sunt proporționale cu vitezele de transformare, iar 𝑢(𝑡), 𝑣(𝑡),
reprezintă densitațile celor două tipuri de enzime de-a lungul capil arelor prin care sangele
pătrunde î n ficat . Prin urmare 𝑢,𝑣 satisfac condițiile:

𝑢(𝑡),𝑣(𝑡) ≥0, 𝑡∈[0,1]

∫𝑢(𝑡)𝑑𝑡=1, 1
0∫𝑣(𝑡)𝑑𝑡=1, 1
0

Studiile experimentale sugereaza ca 𝑢 și 𝑣 sunt astfel încat minimizează concentrația
𝑦(𝑡1), a metabolitului în etapa finală a procesului.

c) Exploatarea populațiilor

Multe res use naturale sunt intr -o anumită masură regen erabile (populațiile de pesti,
pășunile, păduri le) și o problemă vitală este ges tionarea optima a acestora. Fară a se interveni
asupra recoltarii, populația de resurse x se presupune a se supune unei legi de creștere de
forma:

𝑑𝑥
𝑑𝑡(𝑡)=𝛾(𝑥(𝑡))

Un exemplu timpic pentru 𝛾, este mode lul lui Verhulst:

𝛾(𝑥)=𝛾0𝑥(1−𝑥
𝑥𝑠),
unde 𝑥𝑠 este nivelul de saturație al populațiilor și 𝛾0 este o constantă pozitivă.

Cu recoltare, prima ecuație devine:

𝑑𝑥
𝑑𝑡(𝑡)= 𝛾(𝑥(𝑡))−ℎ(𝑡),

unde ℎ este rata de recoltare. Acum ℎ va depinde de efortul depus pentru recoltare 𝑒 (ca
exemplu: numă rul de navoade, numărul de pescari, numă rul zilelor de pescuit), precum și
de nivelul populației, deci vom avea:

ℎ(𝑡)=𝑒(𝑡)𝑥(𝑡)

Managementul op timal cauta sa maximizeze renta economica definita:

𝑟(𝑡)=𝑝ℎ(𝑡)−𝑐𝑒(𝑡),

presupunând costul să fie proporțional cu efortul 𝑒, unde 𝑝 este pretul unitar.

Problema este de a maximiza renta economică actualiza tă, numită valoare actuală
V, pentru o anumita perioadă [0, T], adică

𝑉(𝑒)=∫ 𝑒𝛿𝑡𝑇
0(𝑝𝑒(𝑡)𝑥(𝑡)−𝑐𝑒(𝑡))𝑑𝑡,
iar,

𝑑𝑥
𝑑𝑡(𝑡)= 𝛾(𝑥(𝑡))−𝑒(𝑡)𝑥(𝑡),

cu condiția inițiala 𝑥(0)=𝑥0.

Similar Posts