Livre
Livre
Livre
net/publication/350710278
CITATIONS READS
0 3,672
1 author:
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Approximate controllability for systems with state dependent delay View project
All content following this page was uploaded by Fatima Zahra Mokkedem on 30 September 2021.
Notes de cours
2018/2019
II
c MOKKEDEM F.Z.
Préface
c MOKKEDEM F.Z.
Table des matières
Préface III
Introduction et motivation 1
Bibliographie 103
c MOKKEDEM F.Z.
Introduction et motivation
La théorie qui traite tout les aspects ci-dessus s’appelle théorie du contrôle
oubien théorie de l’optimisation dynamique. Ces origines remontent au début du
vingtième siècle et depuis lors elle a continué à se développer et à s’adapter aux
besoins des mathématiciens, physiciens, mécaniciens, chimistes, biologistes, etc.
Les applications de cette théorie sont très nombreuses et variées. On cite ici un
exemple pour motiver le lecteur :
Le système masse-ressort où la position de la masse à l’instant t, notée y(t),
suit l’équation différentielle linéaire suivante :
mÿ(t) + ky(t)
= 0, t ≥ 0,
(1)
y(0) = y0 et ẏ(0) = v0 .
2 Introduction et motivation
Ici m est la masse dont sa position initiale est y0 et sa vitesse initiale est v0 , ÿ(·)
est l’accélération de la masse et k est un coefficient de raideur du ressort. Si on
veut contrôler le mouvement de la masse attachée au ressort, on peut appliquer
une force extrérieure au système (1), notée u(·) et dite contrôle, d’où
mÿ(t) + ky(t)
= u(t), t ≥ 0,
(2)
y(0) = y0 et ẏ(0) = v0 .
Une des questions posées est : est-ce que pour tout moment final T donné on
peut trouver un contrôle qui conduit la solution vers une position finale y(T ) = y1
et une vitesse finale ẏ(T ) = v1 bien définies à l’avance ? Ceci est un problème de
contrôlabilité.
Si la réponse est positive, on peut aussi chercher le bon contrôle qui le fait
en plus petit temps possible. Ceci est un problème de temps-minimal (temps-
optimal).
On peut plutôt chercher le contrôle pour lequel le système (2) atteint la cible
(y1 , v1 ) en minimisant l’énergie fournie :
1Z T
E(T ) = mkẏ(t)k2 + kky(t)k2 dt.
2 0
1Z T
J(u) = −ky(T ) − y0 k + mkẏ(t)k2 + kky(t)k2 + ku(t)k2 dt.
2 0
c MOKKEDEM F.Z.
Introduction et motivation 3
Comme toute force extérieure est physiquement limitée, alors on peut ajouter
la condition (contrainte sur le contrôle) :
En général, les contrôles qui vérifient tous les critères imposés (contrôles op-
timaux) sont indépendants de la trajectoire y(·) solution du système (2). On dit
qu’ils sont en boucles ouvertes. Cependant, si le contrôle optimal prend la forme
u(t) = M y(t), alors il est en boucles fermées ou en feedback. Avec telle forme le
système (2) devient :
mÿ(t) + (k
− M ) y(t) = 0, t ≥ 0,
(3)
y(0) = y0 et ẏ(0) = v0 .
Si le système non contrôlé (2) est instable, alors il est très important de trouver
le bon contrôle en feedback u pour lequel le système contrôlé (3) soit stable. C’est
un problème de stabilisation.
On remarque qu’en variant nos objectifs ainsi que les contraintes imposées,
les problèmes du contrôle ainsi que leurs résolutions aussi varient. De plus, si le
système (1) et non linéaire, par exemple si :
mÿ(t) + k1 (y(t) − d) + k2 (y(t) − d)3
= 0, t ≥ 0,
y(0) = y0 et ẏ(0) = v0 ,
c MOKKEDEM F.Z.
4 Introduction et motivation
∂i q(t)
L (t) + Ri(t) + = 0, t≥0
∂t C
Rt
où i(·) est l’intensité du courant et q(t) = 0 i(s)ds est la charge du con-
densateur. On veut appliquer une force à cette équation pour contrôler son
évolution.
Un réservoir est lié à deux vannes : une d’alimentation et une d’évaluation.
Le niveau de l’eau dans le réservoir y(t) est modélisé par :
ẏ(t)
= −ay(t) + bu(t), t ≥ 0,
y(0) = 0,
r 2
ẏ(t)
= ry(t) − y (t) − u(t), t ≥ 0,
K
y(0)
= y0 ,
c MOKKEDEM F.Z.
Introduction et motivation 5
où a, b et c sont des réels strictement positifs tels que b > c et u(t) est un
contrôle représentant l’effort des abeilles pour fournir des reines à la ruche
avec u(t) ∈ [0, 1]. Trouver le contrôle optimal pour maximiser à l’instant T
le nombre des reines.
Une économie est faite par une personne qui dispose d’un revenu x(t) et
d’un taux d’intérêt a sur l’argent mise à la banque. Donc la somme totale
y(t) de l’argent de cette personne est modélisée par :
ẏ(t)
= x(t) + ay(t) − u(t), t ≥ 0,
y(0) = y0 ,
D’autres exemples sont présentés et étudiés dans les exercices corrigés don-
nés à la fin de chaque section comme le système proies-prédateurs, le pendule
inversé, le mouvement d’une voiture, le contrôle d’un avion, etc. Beaucoup plus
d’exemples peuvent être trouvés dans les références suivantes [4, 9, 10, 14] et
[15]. On note ici que ce n’est pas toujours évident de résoudre les problèmes de
contrôlabilité et de contrôle optimal analytiquement. C’est pourquoi plusieurs
méthodes numériques ont été développées au cours des dernières années. Pour
les détails sur l’aspect numérique voir [2, 3, 5, 10] et [14].
c MOKKEDEM F.Z.
6 Introduction et motivation
est non linéaire, alors la discussion de ces notions devient très compliquée. Dans
ce manuscrit on se limite à la linéarisation des systèmes autour de leurs points
d’équilibre et par suite l’étude revient au cadre linéaire et les résultats deviennent
locaux.
Dans le deuxième chapitre, on introduit l’aspect du contrôle optimal. On
considère les systèmes linéaires et on passe du problème de temps-minimisation
vers les coûts quelconques en passant par ceux de type quadratique. Dans chaque
cas, on donne le lien entre les contrôles optimaux et ceux extrémaux, on traduit
l’extrémalité par un principe du maximum puis on le reformule en utilisant le
Hamiltonien. Au cours du chapitre, on change les contraintes imposées sur le
temps final, l’état final et le contrôle et on remarque comment le principe du
maximum et le Hamiltonien s’adaptent avec ces changements.
Dans le dernier chapitre, on considère les systèmes non linéaires et on observe
comment les relations données dans le chapitre précédent sont influées par la
non linéarité du système. En particulier, le principe du maximum devient une
conséquence et pas une cause d’optimalité, ce qui nous tourne vers une autre
technique, dite la programmation dynamique, où le problème de contrôle optimal
devient un problème de résolution d’une équation aux dérivées partielles.
L’objectif de ce cours est de définir, distinguer et appliquer les notions présen-
tées ci-dessus. Plus de notions, détails, démonstrations, résultats et exercices se
trouvent dans les références bibliographiques citées à la fin. Plusieurs autres
références peuvent être trouvées dans la littérature.
c MOKKEDEM F.Z.
Chapitre 1
Contrôlabilité, observabilité et
stabilisation des systèmes
linéaires
dentes dans le cas des systèmes linéaires autonomes, c’est à dire des systèmes
linéaires décrits par des matrices constantes. Quand ces matrices dépendent du
temps t, les systèmes sont dits non autonomes. Quelques remarques sur la con-
trôlabilité des systèmes linéaires non autonomes sont aussi données dans la suite.
Comme le cas des systèmes non linéaires est plus compliqué que celui des
systèmes linéaires, on se limite dans ce chapitre à linéariser ces systèmes autour
de ces points d’équilibre et étudier localement leurs contrôlabilité.
À la fin de ce chapitre on donne quelques exercices avec solutions.
Pour plus de détails sur tout le contenu de ce chapitre, voir [1, 2, 6, 9] et [14].
c MOKKEDEM F.Z.
1.1 Contrôlabilité des systèmes linéaires
autonomes 9
D’après la définition de la contrôlabilité, on voit qu’elle est basée sur l’ensem-
ble des états finaux qu’on puisse atteindre à partir de x0 à l’instant t1 ∈ (0, T ]
en prenant différents contrôles u(·) dans L2 (0, t1 ; Rm ).
Définition 1.1. ([14], Définition II.2.1) Soit le système linéaire (1.1) et soit
t1 ∈ (0, T ] un temps final donné. On appelle l’ensemble accessible (ou l’ensemble
atteignable) et on note A(t1 ) l’ensemble de tous les états finaux x(t1 , x0 , u) ∈
Rn atteignables depuis x0 ∈ Rn à l’instant t1 en fonction des contrôles u(·) ∈
L2 (0, t1 ; Rm ). Donc, pour tout t1 ∈ (0, T ] et tout x0 ∈ Rn ,
n o
A(t1 ) := x(t1 , x0 , u) | u ∈ L2 (0, t1 ; Rm ) .
Proposition 1.1. ([14], Définition II.2.2) Le système linéaire (1.1) est dit con-
trôlable à un instant t1 ∈ (0, T ] si et seulement si tout les points de Rn sont
accessibles à l’instant t1 , c’est à dire :
A(t1 ) = Rn . (1.2)
On dit que le système (1.1) est contrôlable (en temps arbitraire) s’il est contrôlable
en tout temps t1 .
c MOKKEDEM F.Z.
10 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
Théorème 1.1. ([6], Définition 4.1.3 et Théorème 4.1.7 et [1], Théorème I.I.2.1)
Le système (1.1) est contrôlable en temps fini t1 ∈ (0, T ] si et seulement si une
des conditions suivantes est vérifiée :
– La map de contrôlabilité C(t1 ) est surjective, ce qui revient à dire :
Im (C(t1 )) = Rn .
L(t1 ) > 0.
T
B T eνA x = 0 ∀ν ∈ [0, t1 ] =⇒ x = 0.
c MOKKEDEM F.Z.
1.1 Contrôlabilité des systèmes linéaires
autonomes 11
En restant dans le cadre des systèmes linéaires autonomes, on peut simplifier
l’étude de la contrôlabilité en transformant les propriétés précédentes à une pro-
priété algébrique facile à vérifier. Pour cela, on utilise la matrice de contrôlabilité.
h i
C(A, B) = B, AB, A2 B, · · · , An−1 B .
Théorème 1.2. ([14], Théorème II.2.2) Le système linéaire autonome (1.1) est
contrôlable en temps t1 ∈ (0, T ] si et seulement si la matrice de contrôlabilité
C(A, B) est de rang maximal, d’où :
rang C(A, B) = n.
Cette condition a été démontrée par R.E. Kalman en 1930. Donc elle est
nommée d’après lui par la condition de Kalman. Non seulement cette condition
est facile à vérifier mais elle est aussi indépendante du temps de contrôlabilité t1 .
Ceci nous ramène à conclure qu’en dimension finie, la contrôlabilité des systèmes
linéaires autonomes est indépendante de la condition initiale x0 et du temps final
t1 , voir aussi ([14], Remarque II.2.3).
c MOKKEDEM F.Z.
12 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
qui est une matrice de rang égale à 2. Donc le système masse-ressort est con-
trôlable.
1) = x1 ,
y(t
et on note y(t) sa solution unique définie sur [0, T ]. Par suite ψ(t) = x(t) − y(t)
est la solution du système
ψ̇(t)
= Aψ(t) + Bu(t), ∀t ∈ [0, T ],
ψ(0) = ψ0 = x0 − y(0).
Définition 1.5. Le système (1.1) est dit contrôlable à zéro en temps t1 ∈ (0, T ]
si l’origine x1 = 0 est atteignable depuis tout point initial x0 ∈ Rn en temps
t1 . Autrement dit, le système (1.1) est contrôlable à zéro en temps t1 ∈ (0, T ] si
pour tout point initial x0 ∈ Rn , il existe un contrôle u ∈ L2 (0, t1 ; Rm ) tel que la
solution x(·, x0 , u) de (1.1) satisfait x(t1 , x0 , u) = 0.
c MOKKEDEM F.Z.
1.1 Contrôlabilité des systèmes linéaires
autonomes 13
La contrôlabilité à zéro n’est pas seulement plus facile à vérifier dans le cas
de contraintes sur le contrôle, mais elle est aussi de très grande importance en
applications. Prenons par exemple un système d’équations modélisant le nombre
de cellules malades dans un corps humain. Il est clairement très important de
réduire ce nombre de cellules malades vers le zéro en un temps fini.
Rappelons que dans le cas précédent (cas sans contraintes sur le contrôle)
on a fixé la condition initiale x0 = 0 et on a montré que le système (1.1) est
contrôlable si et seulement si tout les points x1 ∈ Rn sont atteignables depuis
le zéro. Maintenant (cas avec contraintes sur le contrôle) on fixe le point final
x1 = 0 et on montre que le système (1.1) est contrôlable à zéro si et seulement
si tout les points x0 ∈ Rn sont commandables.
Définition 1.6. ([2], Définition 4.2.2) On appelle ensemble contrôlable (ou com-
mandable) à l’instant t1 ∈ (0, T ] et on note M(t1 ) l’ensemble de toutes les con-
ditions initiales x0 ∈ Rn telles que pour certain contrôle u ∈ L2 (0, t1 ; Rm ), la
solution associée à x0 et u atteint la cible (ici c’est l’origine) à l’instant t1 :
n o
M(t1 ) = x0 ∈ Rn | ∃u ∈ L2 (0, t1 ; Rm ), x(t1 , x0 , u) = 0 .
On dit que le système (1.1) est contrôlable à zéro (en temps arbitraire) s’il est
contrôlable à zéro en tout temps t1 .
Théorème 1.3. ([9], Corollaire II.3) Soit le système linéaire (1.1). Supposons
que le contrôle u(t) ∈ Ω avec Ω un sous espace non vide de Rm contenant 0
dans son intérieur. Si la condition de Kalman est vérifiée et si de plus toutes
c MOKKEDEM F.Z.
14 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
Notons ici que si toutes les valeurs propres de la matrice A sont de parties
réelles strictement négatives alors la matrice A est dite stable. Cette condition
peut être un peu “relaxée” dans le cas particulier où Ω est compact.
Théorème 1.4. ([2], Théorème 6.2.5) Soit le système linéaire (1.1). Supposons
que le contrôle u(t) ∈ Ω avec Ω un sous espace non vide et compact de Rm
contenant 0 dans son intérieur. Si la condition de Kalman est vérifiée et si de
plus toutes les valeurs propres de la matrice A sont de parties réelles négatives
ou nulles, alors le système (1.1) est contrôlabe à zéro en un temps fini t1 qui peut
être assez grand.
Définition 1.7. ([2], Définition 6.3.2) Le système (1.3) est dit observable à l’in-
stant t1 ∈ (0, T ] si l’état initial x(0) = x0 peut être déterminé à partir de la
c MOKKEDEM F.Z.
1.2 Observabilité des systèmes linéaires
autonomes 15
sortie z(·) dans l’intervalle [0, t1 ] (un intervalle qu’on puisse supposer arbitraire-
ment petit).
Le système (1.3) est dit observable (en temps quelconque) s’il est observable
à tout instant t1 .
Théorème 1.5. ([1], Définition I.I.2.2) Le système (1.1) est observable en temps
fini t1 ∈ (0, T ] si et seulement si une des conditions suivantes est vérifiée :
– La map d’observabilité O(t1 ) est injective, ce qui revient à dire :
c MOKKEDEM F.Z.
16 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
W(t1 ) > 0.
CeνA x = 0 ∀ν ∈ [0, t1 ] =⇒ x = 0.
Théorème 1.6. ([2], Théorème 6.3.3) Le système linéaire (1.3) est observable
en temps t1 ∈ (0, T ] si et seulement si la matrice O(A, C) est de rang maximal,
c’est à dire :
rang O(A, C) = n.
Théorème 1.7. ([1], Théorème I.I.2.3) Le système linéaire (1.3) est observable
en temps t1 ∈ (0, T ] si et seulement si
h i
rang C T , AT C T , · · · , (An−1 )T C T = n.
c MOKKEDEM F.Z.
1.2 Observabilité des systèmes linéaires
autonomes 17
Encore une fois on voit que l’observabilité des systèmes linéaires autonomes
ne dépend ni du temps final t1 ni de condition initiale x0 .
Finalement, on termine cette section par un résultat montrant la dualité entre
la contrôlabilité d’un système linéaire et l’observabilité de son système dual. On
appelle système dual (ou système adjoint) du système (1.3) le système donné par
les matrices transposées de A, de B et de C par (voir [8]) :
˙
ξ(t)
= AT ξ(t) + C T v(t), ∀t ∈ [0, T ], ξ(T ) = ξT ,
(1.4)
η(t) = B T ξ(t),
Théorème 1.8. [6] Le système linéaire (1.4) est observable en temps t1 ∈ (0, T ]
si et seulement s’il existe une constante a > 0 telle que
Z t1
a k ξ(0) k2 ≤ k B T ξ(t) k2 dt, ∀ξT ∈ Rn .
0
c MOKKEDEM F.Z.
18 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
Le système (1.5) est dit stable si un petit décalage loin du point d’équilibre à
l’instant s > 0 conduit à une convergence de la solution vers le point d’équilibre
à tout moment t ≥ s.
Revenons maintenant au cas linéaire autonome dont f (t, x(t)) = Ax(t) avec
A : Rn → Rn une matrice constante bornée. Remarquons que dans ce cas x∗ = 0
est un point d’équilibre.
c MOKKEDEM F.Z.
1.3 Stabilisation des systèmes linéaires
autonomes 19
Théorème 1.10. ([2], Théorème 6.3.1) Les deux propriétés suivantes sont équiv-
alentes :
– Le système linéaire
ẋ(t)
= Ax(t), ∀t ≥ 0,
(1.6)
x(0) = x0 ,
Définition 1.12. ([2], Définition 6.3.1) Le système (1.6) est dit stabilisable par
feedback s’il existe une matrice feedback F donnant un contrôle feedback u = F x
qu’en l’ajoutant au système (1.6) on obtient
ẋ(t)
= (A + BF )x(t), ∀t ≥ 0,
x(0) = x0 ,
Rappelons que dans les théorèmes 1.3 et 1.4 il fallait ajouter d’autres condi-
tions à celle de la stabilité de la matrice A pour avoir la contrôlabilité du système
(1.1). Le résultat suivant montre que la contrôlabilité du système (1.1) garantit
sa stabilisation. Donc la contrôlabilité des systèmes linéaires autonomes implique
leurs stabilisation mais la réciproque est fausse.
Théorème 1.11. ([1], Corollaire I.I.2.1) Si le système (1.1) est contrôlable, alors
il est stabilisable.
c MOKKEDEM F.Z.
20 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
où S(·)−1 est la matrice inverse de S(·) : Rn → Rn qui est une matrice bornée,
nommée la résolvante, donnée par la solution de l’équation linéaire :
Ṡ(t)
= A(t)S(t), ∀t ∈ [t0 , T ],
0) = In ,
S(t
Remarquons que si la matrice A est constante alors φ(t, t0 ) = e(t−t0 )A pour tout
t ∈ [t0 , T ]. Si t0 = 0 alors on reprend les résultats des sections précédentes.
De la même façon que dans la section 1.1 et en tenant compte qu’ici t0 6= 0,
on peut définir la map et la gramienne de contrôlabilité comme suit :
c MOKKEDEM F.Z.
1.4 Remarques sur la contrôlabilité des systèmes linéaires non autonomes 21
En remplaçant C(t) par C(t, t0 ) et L(t) par L(t, t0 ), le théorème 1.1 reste vrai
(voir [6] et [8]). De plus, la matrice de contrôlabilité C(t, t0 ) qui est symétrique et
positive (voir [14], Remarque II.2.10) peut nous donner une condition nécessaire
et suffisante de la contrôlabilité du système (1.7).
Théorème 1.12. ([14], Théorème II.2.5) Le système linéaire non autonome (1.7)
est contrôlable en temps fini t1 ∈ (t0 , T ] si et seulement si la matrice de contrôla-
bilité C(t, t0 ) est inversible.
Théorème 1.13. ([14], Théorème II.2.6) Soit le système linéaire non autonome
(1.7). Supposons que A(·) et B(·) sont des applications analytiques de classe C ∞
sur l’intervalle [t0 , T ]. Soient
dψi
ψ0 (t) = B(t) et ψi+1 (t) = A(t)ψi (t) − (t), i ∈ N.
dt
c MOKKEDEM F.Z.
22 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
c MOKKEDEM F.Z.
1.5 Remarques sur la contrôlabilité des systèmes non linéaires 23
Supposons aussi que le système (1.8) admet un point d’équilibre noté (x∗ , u∗ ),
c’est à dire : g(x∗ , u∗ ) = 0. Pour linéariser le système (1.8) autour de ce point
d’équilibre il suffit de prendre
∂g ∗ ∗ ∂g ∗ ∗
A= (x , u ) et B = (x , u ).
∂x ∂u
0) = 0,
x(t
est contrôlable en temps t1 ∈ (t0 , T ] (voir [14], Proposition V.5.13). Pour plus de
détails sur la contrôlabilité et la stabilisation locales des systèmes non linéaires
autonomes voir ([9], Chapitre 6). De même, on peut prendre le système non
linéaire non autonome :
ẋ(t)
= h(t, x(t), u(t)), ∀t ∈ [t0 , T ],
(1.9)
0) = x0 ,
x(t
∂h ∂h
A(t) = (t, x∗ , u∗ ) et B(t) = (t, x∗ , u∗ ).
∂x ∂u
0) = 0,
x(t
c MOKKEDEM F.Z.
24 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
0) = x0 ,
x(t
où
0 −1 1 −1 1
A=
2 −3 1
et B =
0 2 .
1 −1 −1 1 3
Il est facile de vérifier que rang C(A, B) = 3. Donc la condition de Kalman est
vérifiée. Par suite le système précédent est contrôlable, ce qui est équivalent à
dire qu’il est contrôlable à zéro. Ceci est vérifié quelque soit la condition initiale
x0 ∈ Rn . Donc l’ensemble commandable M(t0 ) = R3 .
Exercice 1.2. ([2], Exercice 6.2) Vérifier si le système suivant est contrôlable :
0 1 1
ẋ(t) = x + u(t).
0 0 0
c MOKKEDEM F.Z.
1.6 Exercices corrigés 25
Cette matrice est de rang égale à 1 < n. Donc la condition de Kalman n’est pas
vérifiée. Par suite ce système n’est pas contrôlable.
Exercice 1.3. ([13], Exercice 7.1) Donner une condition pour que le système
suivant :
a11 1 b1
ẋ(t) = x + u(t)
a21 0 b2
soit contrôlable.
Exercice 1.4. Sous certaines conditions de vol, le mouvement d’un avion linéarisé
autour d’un point d’équilibre est donné par :
x˙
1
−10 0 −10 0 x
1
20 2.8
x˙2 0 −0.7 9 0 x2 0 −3.13 ua
=
+
x˙3
0 −1 −0.7 0
x3
0 0
ug
x˙4 1 0 0 0 x4 0 0
c MOKKEDEM F.Z.
26 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
Exercice 1.5. Soit un pendule inversé dont la masse est vers le haut et la tige
vers le bas. Dans le but de stabiliser le pendule autour de son équilibre instable,
on contrôle l’accélération du point inférieur de la tige. Supposons que ce point
inférieur de la tige se déplace le long d’une droite qui a pour abscisse X(t), alors
le mouvement du pendule est donné par
2. Linéariser le système obtenu autour du point d’équilibre (θ, θ̇, u) = (0, 0, 0).
Le système linéarisé est-il contrôlable ?
c MOKKEDEM F.Z.
1.6 Exercices corrigés 27
4. Supposons qu’on ne peut pas observer la vitesse θ̇. Dans ce cas on suppose
que le contrôle u ne dépend que de θ. Montrer que si F1 = 0 et F2 > g
alors la solution du système linéarisé continue à osciller autour de son point
d’équilibre.
il suffit de prendre
g
∂h 0 l
A= (0, 0) =
∂x
1 0
et
−1
∂h l
B= (0, 0) = .
∂u 0
c MOKKEDEM F.Z.
28 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
Pour que ce nouveau système soit stable il faut et il suffit que toutes les
valeurs propres de la matrice
−F1 g F2
l l
− l
A + BF =
1 0
F1 F2 − g
λ2 + λ+ = 0. (1.10)
l l
λ2 + 2λ + 1 = (λ + 1)2
g − F2
λ2 = .
l
Si F2 < g, on a une valeur propre positive, par suite le système (le point
d’équilibre) est instable.
Si F2 > g, les deux valeurs propres deviennent imaginaires pures. Par
exemple, si F2 = g + l, les valeurs propres sont ±i. Dans ce cas aussi
le système est instable. Par conséquent, la solution du système linéarisé
continue à osciller dans un voisinage du point d’équilibre. On peut même
l’observer à partir du système linéarisé qui pour F1 = 0 et F2 = g + l prend
la forme :
0 −1
ż(t) = z(t)
1 0
c MOKKEDEM F.Z.
1.6 Exercices corrigés 29
Avec les cosinus et les sinus, la solution du système linéarisé peut au mieux
osciller autour de son point d’équilibre.
défini pour tout t ∈ [0, T ], T > 0. Ici l’état x(t) ∈ R3 et le contrôle u(t) ∈ R2 .
c MOKKEDEM F.Z.
30 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
avec
1 −1 1 1 1
A=
1 0 ,
0 B1 =
0
et B2 =
.
0
−2 1 −2 −1 0
y 1 = x1 , y2 = x2 et y3 = x1 + x3 .
c MOKKEDEM F.Z.
1.6 Exercices corrigés 31
avec
1 −1 1 1
à = , C̃ = et B̃ = .
1 0 0 0
c MOKKEDEM F.Z.
32 1. Contrôlabilité, observabilité et stabilisation des systèmes linéaires
Rt
Un calcul direct montre que L(t, t0 ) = t0 M (ν)dν avec
ν−t0 2 ν−t0 t0 −ν 2
(cos(ν) + e sin(ν)) e (e cos(ν) + sin(ν))
M (ν) = .
2 2
eν−t0 (et0 −ν cos(ν) + sin(ν)) (et0 −ν cos(ν) + sin(ν))
Puisque le determinant de M (ν) est nul, alors celui de L(t, t0 ) est aussi nul. Ceci
est indépendamment de t0 et t. Par suite la matrice L(t, t0 ) n’est jamais inversible
ce qui montre que le système donné n’est jamais contrôlable.
Pour plus d’exercices sur les systèmes linéaires de dimension finie voir par
exemple ([2], Chapitre 6), ([9], Chapitre 2), ([13], Chapitre 7) et ([15], Chapitre 3)
et pour les systèmes linéaires de dimension infinie voir par exemple ([6], Chapitre
4).
c MOKKEDEM F.Z.
1.6 Exercices corrigés 33
c MOKKEDEM F.Z.
Chapitre 2
c MOKKEDEM F.Z.
36 2. Contrôle optimal des systèmes linéaires
Théorème 2.1. ([2], Théorème 7.1.1) Soit le système linéaire autonome (2.1).
Supposons que les conditions (C1 ) et (C2 ) sont vérifiées. Si le système (2.1) est
contrôlable à zéro en temps fini(s) τ > t0 , alors il existe un temps-minimal
t∗ ∈ [t0 , τ ] et au moins un contrôle optimal u∗ (t) ∈ Ω pour t ∈ [t0 , t∗ ] tel que
x(t∗ , x0 , u∗ ) = 0.
La preuve de ce théorème est basée sur le fait que si Ω est compact, alors
pour tout t > t0 , l’ensemble accessible A(t) est aussi compact et est convexe.
De plus, A(t) varie continûment par rapport au temps (voir [2] et [14]). Donc
l’ensemble {τ > t0 | 0 ∈ A(τ )} est fermé. Par conséquent, son infimum existe.
Puisqu’en dimension finie, la contrôlabilité à zéro est équivalente à la con-
trôlabilité exacte, alors le théorème précédent peut être modifié comme suit :
Théorème 2.2. ([14], Théorème III.3.7) Soit le système linéaire autonome (2.1).
Supposons que les conditions (C1 ) et (C2 ) sont vérifiées. Si le système (2.1) est
contrôlable vers un point x1 ∈ Rn en temps fini(s) τ > t0 , alors il existe un temps-
minimal t∗ ∈ [t0 , τ ] et au moins un contrôle optimal u∗ (t) ∈ Ω pour t ∈ [t0 , t∗ ]
tel que x(t∗ , x0 , u∗ ) = x1 .
Dans les deux théorèmes précédents, le but est d’atteindre un point cible.
Dans le cas général, le but devient d’atteindre un ensemble cible, noté G(t), tel
que
(C3 ) Pour tout t > t0 , G(t) est compact, non vide et varie continûment par
rappot à t.
c MOKKEDEM F.Z.
2.1 Contrôle temps-minimal 37
Théorème 2.3. ([9], Théorème II.17) Soit le système linéaire autonome (2.1).
Supposons que les conditions (C1 ), (C2 ) et (C3 ) sont vérifiées. S’il existe un
contrôle u(t) ∈ Ω pour t ∈ [t0 , τ ] ramenant x0 vers G(τ ) pour certain(s) τ > t0 ,
alors il existe un temps-minimal t∗ ∈ [t0 , τ ] et au moins un contrôle optimal
u∗ (t) ∈ Ω pour t ∈ [t0 , t∗ ] tel que x(t∗ , x0 , u∗ ) ∈ G(t∗ ).
On peut même aller plus loin et montrer que les théorèmes précédents restent
vrais dans le cas des systèmes linéaires non autonomes. Pour ceci il suffit de
remplacer la condition (C1 ) par :
(C10 ) Les matrices A(·) et B(·) sont intégrables sur tout intervalle fini.
Pour plus de détails voir ([9], Chapitre 2) et ([14], Chapitre 3).
Finalemnet on note que pour le même temps-minimal t∗ , il peut exister
plusieurs contrôles optimaux u∗ (t) ∈ Ω, t ∈ [t0 , t∗ ], ramenant la trajectoire
x(·, x0 , u∗ ) vers la cible en même temps t∗ . Ceci montre que le contrôle temps-
minimal n’est pas forcément unique !
c MOKKEDEM F.Z.
38 2. Contrôle optimal des systèmes linéaires
Proposition 2.1. ([2], Théorème 7.2.1) Soit le système linéaire (2.1) et soit x1
un état final fixé. Supposons que le système (2.1) est contrôlable vers x1 et que
t∗ est le premier temps pour lequel la solution du (2.1) atteint x1 . Alors x1 peut
être séparé de l’ensemble accessible A(t∗ ) par un hyperplan non nul de Rn .
Définition 2.1. ([14], Définition III.3.1) On appelle contrôle extrémal tout con-
trôle u(t) ∈ Ω défini sur [t0 , T ] tel que la solution du système (2.1) associée à u
atteint la frontière de A(T ) à l’instant T .
où ∂A(t∗ ) désigne la frontière de A(t∗ ), alors tous les contrôles optimaux sont
extrémaux. La réciproque n’est pas toujours vrai !
Théorème 2.4. ([2], Théorème 7.2.2) Soit le système linéaire (2.1). Supposons
que t∗ > t0 est le premier temps pour lequel la solution du système (2.1) atteint
la cible x1 . Soit u∗ (t) ∈ Ω défini sur [t0 , t∗ ] un contrôle optimal, alors u∗ est
extrémal.
c MOKKEDEM F.Z.
2.1 Contrôle temps-minimal 39
Théorème 2.5. ([14], Théorème III.3.8) Soit le système linéaire (2.1). Supposons
que les conditions (C1 ) et (C2 ) sont vérifiées. Alors u(t) ∈ Ω défini pour t ∈ [t0 , T ]
est extrémal si et seulement si, pour presque tout s ∈ [t0 , T ],
où p(·) est une solution non nulle du système dual de (2.1) donné par
ṗ(t)
= −p(t)AT , ∀t ≥ t0 ,
p(T )
= pT ,
Définition 2.2. [9] Le système linéaire (2.1) est dit normal si tout deux contrôles
extrémaux u1 (t) ∈ Ω et u2 (t) ∈ Ω définis sur [t0 , T ] tels que
c MOKKEDEM F.Z.
40 2. Contrôle optimal des systèmes linéaires
coincident presque partout, c’est à dire u1 (t) = u2 (t) pour presque tout t ∈ [t0 , T ].
La définition précédente reste vraie si le système linéaire (2.1) est non au-
tonome (voir [9], pp 76). Dans le cas des systèmes linéaires autonomes, la nor-
malité du système (2.1) peut être vérifiée sous la condition que Ω est compact et
convexe comme suit :
Proposition 2.2. ([2], Définition 7.3.1) Soit le système linéaire autonome (2.1)
et soit u(t) ∈ Ω, t ≥ t0 , avec Ω compact et convexe presque partout. Le système
linéaire (2.1) est normal si est seulement si, pour tout v arête de Ω,
h i
rang Bv, ABv, · · · , An−1 Bv = n.
Une arête est un segment reliant deux sommets de Ω. Comme un cas partic-
ulier, on peut vérifier que si Ω est strictement convexe, alors Ω n’a pas d’arêtes.
Par suite, le système (2.1) est normal (voir [2]).
Le théorème suivant montre que si le système linéaire est normal alors on
a une équivalence entre les notions de contrôle optimal, contrôle extrémal et
principe du maximum. De plus le contrôle optimal est unique.
Théorème 2.6. ([9], Corollaire II.3) Soit le système linéaire (2.1). Supposons
que les conditions (C1 ) et (C2 ) sont vérifiées et que le système (2.1) est normal
pour tout t > t0 . Alors pour tout x1 ∈ Rn , il existe un unique contrôle extrémal
u∗ (t) reliant x0 à x1 en temps t∗ . De plus u∗ (t) est l’unique contrôle optimal et
t∗ est le temps minimal.
c MOKKEDEM F.Z.
2.1 Contrôle temps-minimal 41
où
(x(t), y(t)) : La position d’un bateau traversant une rivière à l’instant t.
vr : La vitesse du courant de la rivière qui est dans la direction de l’axe des x.
vb (t) : La vitesse du bateau à l’instant t telle que pour tout t ≥ 0, vb (t) ∈ [0, 1].
α(t) : L’angle entre la direction du courant de la rivière et la direction du bateau
à l’instant t avec α ∈ [0, 2π].
Le but de cet exercice est de conduire le bateau de sa position initiale (x0 , y0 )
vers l’origine (0, 0) en temps minimal en contrôlant sa vitesse et sa direction. On
définit alors le contrôle u(t) par
sin(α(t))
u(t) = vb (t)
, t ≥ 0.
cos(α(t))
Ẋ = AX(t) + Bu(t) + r, t ≥ 0.
Y’a t-il des contraintes sur le contrôle u ? Si oui, préciser l’ensemble des
contraintes Ω.
2. Supposons que le point (x0 , y0 ) se trouve dans la rive opposée de (0, 0).
Dans ce cas, le point (0, 0) est-il toujours atteignable ?
c MOKKEDEM F.Z.
42 2. Contrôle optimal des systèmes linéaires
Ẋ(t) = u(t) + r, t ≥ 0,
avec
0 0 1 0 vr
A=
= 0R2 , B=
= I2 et r =
.
0 0 0 1 0
Puisque, pour tout t ≥ 0, vb (t) ∈ [0, 1] alors u(t) ∈ [0, 1]2 . Donc on a la con-
trainte u(t) ∈ Ω avec Ω = [0, 1]2 qui est un sous-ensemble compact de R2 .
2. D’après le système (2.3), pour tout t ≥ 0,
Z t
x(t)
= x0 + vr t + vb (s) sin(α(s))ds,
0
Z t
y(t)
= y0 + vb (s) cos(α(s))ds.
0
c MOKKEDEM F.Z.
2.1 Contrôle temps-minimal 43
c’est à dire
(x0
+ vr t1 )2 = t21 sin(α)2 ,
y2
= t21 cos(α)2 ,
0
c MOKKEDEM F.Z.
44 2. Contrôle optimal des systèmes linéaires
comme temps final pour atteindre (0, 0). D’autre part, d’après (2.5), on a
y0
α = arctan .
x0 + vr t1
Ceci montre que, si vr ∈ [0, 1], alors tout les points (x0 , y0 ) ∈ R2 sont
contrôlables vers l’origine, d’où M(t1 ) = R2 .
4. D’après la question précédente, pour tout vr ∈ [0, 1], le point (0, 0) est
atteignable. En particulier si vr = 0 le résultat reste vrai. Donc, d’après
le cours, s’il existe un contrôle conduisant (x0 , y0 ) vers l’origine en temps
t1 > 0 alors il existe un contrôle qui le fait en temp-minimal t∗ ∈ [0, t1 ].
Par suite on a l’existence d’au moins un contrôle optimal. Pour l’unicité on
ne peut rien confirmer car le système étudié n’est pas normal.
tel que (p∗1 , p∗2 )T est une condition de transversalité. De plus pour tout
c MOKKEDEM F.Z.
2.1 Contrôle temps-minimal 45
ω ∈ Ω et tout s ∈ [0, t∗ ], on a
vb∗ (s) (p∗1 sin(α∗ (s)) + p∗2 cos(α∗ (s))) ≥ ω (p∗1 sin(β) + p∗2 cos(β)) .
où
x(t) : La quantité du glucose dans le sang mesurée à l’instant t.
x0 : La quantité initiale du glucose dans le sang.
a : Le taux de diminution du glucose dans le sang (a > 0).
Dans le but d’augmenter la quantité du glucose dans le sang de x0 vers x1 >
x0 prédéfini, on injecte du glucose dans le sang avec une vitesse u(t) telle que
u(t) ∈ [0, m] pour tout t ∈ [0, T ] (m est la vitesse maximale de transfusion). On
a alors l’équation différentielle suivante :
ẋ(t)
= −ax(t) + u(t), t ∈ [0, T ],
(2.7)
x(0) = x0 .
1. Montrer que pour tout t ∈ [0, T ], la solution de l’équation (2.7) est comprise
entre zéro et max{x0 , m
a
}.
Supposons dans la suite de l’exercice que m > ax1 .
c MOKKEDEM F.Z.
46 2. Contrôle optimal des systèmes linéaires
Si x0 − m
a
< 0 alors x(t) ≤ m
a
et si x0 − m
a
≥ 0 alors x(t) ≤ m
a
+ x0 − m
a
= x0 .
Donc
m
x(t) ∈ 0, max x0 , , ∀t ∈ [0, T ].
a
m m
x(t, x0 , m) = + e−at x0 − , ∀t ∈ [0, T ].
a a
m m
x(t1 , x0 , m) = + e−at1 x0 − = x1 .
a a
Dans ce cas
m − ax1
e−at1 = .
m − ax0
c MOKKEDEM F.Z.
2.1 Contrôle temps-minimal 47
m−ax1
Puisque m > ax1 > ax0 alors m−ax0
∈]0, 1[. Par suite,
−1 m − ax1 1 m − ax0
t1 = ln = ln .
a m − ax0 a m − ax1
c MOKKEDEM F.Z.
48 2. Contrôle optimal des systèmes linéaires
c MOKKEDEM F.Z.
2.1 Contrôle temps-minimal 49
Rappelons que B = (0, 0, 1)T , alors u∗ (s) = χ{p3 (s)>0} = signe(p3 (s)) avec
p3 (s) est la troisième composante du vecteur p(s).
Pour plus d’exercices voir par exemple ([2], Chapitre 7), ([9], Chapitre 2) et
([14], Chapitre 3).
c MOKKEDEM F.Z.
50 2. Contrôle optimal des systèmes linéaires
c MOKKEDEM F.Z.
2.2 Problèmes linéaires quadratiques standards 51
Dans cette section, le critère à minimiser n’est plus le temps final nécessaire
pour atteindre une cible prédéfinie, mais plutôt un critère quelconque de forme
quadratique. Le choix de cette forme n’est pas aléatoire, il est issu de plusieurs
phénomènes physiques où on cherche à minimiser le carré des distances ou des
erreurs. Donc la minimisation des coûts quadratiques n’est qu’une généralisation
de la minimisation au sens des moindres carrées.
Dans ce qui suit, on va donner des conditions nécessaires pour l’existence et
l’unicité d’un contrôle optimal qui minimise le coût quadratique donné. Puis,
on va présenter le principe du maximum et vérifier qu’il est bien suffisant aussi
que nécessaire pour l’optimisation. On va aussi introduire le Hamiltonien et les
contrôles en feedback construits à partir des équations de Riccati. À la fin, on
va donner quelques exercices avec solutions pour voir l’application des résultats
obtenus.
(C3 ) Le temps final t0 < T < ∞ est fixé mais l’état final x(T ) ∈ Rn est libre (il
n’est pas fixé à l’avance). Par suite, pour tout contrôle u(t) ∈ Ω et toute
condition initiale x0 ∈ Rn , la solution du système (2.10) atteint un point
final quelconque x(T, x0 , u) à l’instant final fixé T .
c MOKKEDEM F.Z.
52 2. Contrôle optimal des systèmes linéaires
Proposition 2.3. ([2], Remarque 5.1.3 et Théorème 5.1.1) Sous les conditions
(C4 ) et (C5 ), la fonction coût donnée par (2.11) est bien définie, continue, stricte-
ment convexe et coercive.
Définition 2.3.
– J est dite continue si et seulement si pour tout deux contrôles u1 et u2 dans
L2 (0, T ; Ω) tels que u1 → u2 alors J(u1 ) → J(u2 ).
– J est dite convexe si et seulement si pour tout deux contrôles u1 et u2 dans
L2 (0, T ; Ω) et tout λ ∈ [0, 1], on a
c MOKKEDEM F.Z.
2.2 Problèmes linéaires quadratiques standards 53
Avant de passer plus loin on donne des exemples sur le coût quadratique J.
Exemple 2.1.
– Si M0 = 0, M1 = 21 In et M2 = 2c In avec c > 0 une constante donnée, alors
1Z T cZT
J(u) = kx(t)k2Rn dt + ku(t)k2Rm dt.
2 t0 2 t0
cZT
J(u) = kx(T )k2Rn + ku(t)k2Rm dt.
2 t0
Cette forme contenant la valeur finale de x(·) est intéressante si x(·) mod-
élise quelque chose qu’on considère comme mauvaise ou pas assez bonne.
Maintenant, en supposant que toutes les conditions (C1 ) − (C5 ) sont satis-
faites, on peut montrer l’existence d’un contrôle unique u∗ ∈ L2 (0, T ; Ω) qui avec
sa solution correspondante x∗ (t) = x(t, x0 , u∗ ) minimise le coût J, c’est à dire :
Ce contrôle est dit contrôle optimal (pour le coût J sous la contrainte (2.10)).
Théorème 2.1. ([2], Théorème 5.1.3) Soit le système linéaire (2.10) et soit le
coût quadratique (2.11). Supposons que toutes les conditions (C1 ) − (C5 ) sont
vérifiées. Alors il existe un unique contrôle optimal minimisant le coût J.
Notons que dans la condition (C2 ) on a imposé des contraintes sur le contrôle
u. Dans le cas contraire, il suffit de remplacer (C2 ) par la condition de coercivité
suivante :
c MOKKEDEM F.Z.
54 2. Contrôle optimal des systèmes linéaires
(C20 ) Le contrôle u est dans L2 ([t0 , T ]; Rm ) et il existe une constante k > 0 telle
que pour tout contrôle u ∈ L2 ([t0 , T ]; Rm ) :
Z T Z T
u(s)T M2 u(s)ds ≥ k u(s)T u(s)ds.
t0 t0
Dans certains cas l’observation finale x(T )T M0 x(T ) est donnée sous une
forme plus générale par φ0 (x(T )) où φ0 : Rm → R est une fonction donnée.
Précisément, on a
Z T
J(u) = φ0 (x(T )) + x(s)T M1 x(s) + u(s)T M2 u(s) ds. (2.12)
t0
Pour garantir l’existence d’un contrôle optimal, on suppose que φ0 satisfait une
des conditions suivantes :
(C6 ) φ0 (·) est continue sur Rn et il existe une constante réelle c telle que
φ0 (x) > c pour tout x ∈ Rn . Ou bien
(C60 ) La fonction φ0 est continue et est convexe sur Rn .
Théorème 2.3. ([9], Théorème III.2) Soit le système linéaire (2.10) et soit le
coût quadratique (2.12). Supposons que toutes les conditions (C1 ) − (C5 ) sont
vérifiées. Si de plus une des conditions (C6 ) ou (C60 ) est satisfaite, alors il existe
au moins un contrôle optimal minimisant le coût J.
Si de plus la fonction φ0 est strictement convexe ou bien elle est convexe et
de classe C 1 , alors ce contrôle optimal est unique.
Notons ici que tous les résultats précédents nécessitent que le temps final T
soit fini. On dit que le problème de minimisation est à horizon fini. Si l’orizon
est infini, exactement si T = +∞, il suffit de remplacer la condition (C3 ) par :
(C30 ) La matrice M0 (respectivement la fonction φ0 ) est nulle et le système
(2.10) est contrôlable en temps (fini) quelconque t1 > t0 .
Théorème 2.4. ([14], Proposition IV.4.5) Soit le système linéaire (2.10) et soit
le coût quadratique (2.11) (ou bien (2.12)). Supposons que toutes les conditions
c MOKKEDEM F.Z.
2.2 Problèmes linéaires quadratiques standards 55
(C1 ), (C2 ) ou bien (C20 ), (C30 ), (C4 ) et (C5 ) sont vérifiées. Alors il existe un unique
contrôle optimal minimisant le coût :
Z +∞
J(u) = x(s)T M1 x(s) + u(s)T M2 u(s) ds. (2.13)
t0
Finalement on note que tous les résultats précédents restent valables dans le
cas des systèmes linéaires non autonomes. Il suffit juste de remplacer (C1 ) par :
(C10 ) Les matrices A(·) et B(·) sont continues sur [0, T ].
On peut même aller plus loin et supposer que les matrices M0 , M1 et M2
dépendent du temps t. Dans ce cas on suppose que pour tout i = 0, 1, 2, Mi (·)
est continue sur [0, T ] et que les conditions (C4 ) et (C5 ) sont vérifiées pour tout
t ∈ [t0 , T ]. Pour les détails voir ([9], Chapitre 3) et/ou ([14], Chapitre 4).
c MOKKEDEM F.Z.
56 2. Contrôle optimal des systèmes linéaires
La deuxième étape est de montrer qu’un contrôle extrémal vérifie une con-
dition de maximisation dite principe du maximum et vice versa. En gardant les
mêmes notations que dans la section précédente, on note ici que le vecteur adjoint
P (·) = (p0 , p(·)) doit être un vecteur de Rn+1 avec p0 une constante et p(·) un
vecteur ligne de Rn . Pour simplifier notre cours on prend p0 = − 21 et on admet
le résultat suivant :
Théorème 2.7. ([9], Théorème III.3) Soit le système linéaire (2.10) et soit le coût
quadratique (2.11) (ou bien (2.12)). Un contrôle u ∈ L2 (0, T ; Rm ) est extrémal
si et seulement si, pour presque tout s ∈ [t0 , T ],
1 1
− u(s)T M2 u(s)+ < p(s), Bu(s) >Rn = max − v T M2 v+ < p(s), Bv >Rn ,
2 v∈Rm
2
avec p(T ) vérifie une condition de transversalité. De plus, pour presque tout
t ∈ [t0 , T ], le contrôle extrémal u est donné par :
Dans la dernière étape on utilise le fait que le système augmenté défini par
(2.10) et (2.11) ou bien par (2.10) et (2.12) avec la condition que φ0 est convexe
et de classe C 1 est normal dans Rn+1 [9]. Ce qui permet au principe du maximum
d’être une condition nécessaire et suffisante d’optimalité et confirme l’unicité du
contrôle optimal aussi.
Théorème 2.8. [9] Soit le système linéaire (2.10) et soit le coût quadratique
(2.11) (ou bien (2.12) avec φ0 convexe et de classe C 1 ). Alors sous les conditions
(C1 ), (C20 ), (C3 ) − (C5 ), il existe un unique contrôle optimal pour le coût J.
De plus u∗ ∈ L2 (t0 , T ; Rm ) est optimal pour le coût J si et seulement si u∗ est
extrémal pour Ã(t). Ceci est équivalent à dire qu’il existe un vecteur p(·) ∈ Rn
c MOKKEDEM F.Z.
2.2 Problèmes linéaires quadratiques standards 57
∂J
H(x(t), p(t), u(t)) = < p0 , (u) >R + < p(t), Ax(t) + Bu(t) >Rn
∂t
1 T
= − x (t) M1 x(t) + (uT (t) M2 u(t))
2
T
+p(t) Ax(t) + Bu(t) .
Remarque 2.1. Dans le cas de contraintes sur le contrôle u, tous les résultats
et les relations donnés ci-dessus restent valables sauf (2.14) et par suite sauf
∂H
∂u
(x∗ (t), p(t), u∗ (t)) = 0.
c MOKKEDEM F.Z.
58 2. Contrôle optimal des systèmes linéaires
Restons dans le cas sans contraintes sur u. Donc le système d’optimalité (2.15)
peut être amélioré comme suit :
Théorème 2.9. ([14], Théorème IV.4.11) Soit le système linéaire (2.10) avec
T < ∞ et soit le coût (2.11). Alors sous les conditions (C1 ), (C20 ), (C3 ) − (C5 ), il
existe un unique contrôle optimal u∗ ∈ L2 (t0 , T ; Rm ) pour le coût J donné par :
c MOKKEDEM F.Z.
2.2 Problèmes linéaires quadratiques standards 59
Proposition 2.4. ([14], Lemme IV.4.5) La matrice R(t0 ) est symétrique néga-
tive. Si de plus M0 ou bien M1 est définie positive alors R(t0 ) est définie négative.
Théorème 2.10. ([14], Théorème IV.4.13) Soit le système linéaire (2.10) avec
T = +∞ et soit le coût quadratique (2.13). Supposons que toutes les conditions
(C1 ), (C20 ), (C30 ), (C4 ) et (C5 ) sont vérifiées. Supposons de plus que M1 est définie
positive. Alors il existe un unique contrôle optimal u∗ ∈ L2 (t0 , T ; Rm ) pour le
coût J donné par :
M1 − AT R − RA − RBM2−1 B T R = 0. (2.18)
c MOKKEDEM F.Z.
60 2. Contrôle optimal des systèmes linéaires
optimal u∗ sous une forme explicite, dite en boucles fermées oubien en feedback.
Cette forme est très pratique dans certains problèmes comme celui de stabili-
sation. Notons que tous ces résultats sont obtenus sans résolution du système
adjoint. Ce qui est un autre avantage de l’utilisation des équations de Riccati.
Cependant, dans le cas général, il est très compliqué de résoudre ces équations
analytiquement. Par suite, on doit utiliser les méthodes numériques pour estimer
la solution voulue. Pour plus de détails voir ([14], Chapitre 9).
À la fin, on note que tous les résultats précédents restent vrais si les matrices
A, B, M0 , M1 et M2 dépendent du temps, voir ([9], Chapitre 3) et/ou ([14],
Chapitre 4).
On a : n = 1; A = 0, B = 1, M0 = 1, M1 = 0, M2 = 1 et le temps final T = 1.
Soit p0 = 21 . Par suite, le système d’optimalité est le suivant :
x˙∗ (t) = u∗ (t), t ∈ [0, 1], x∗ (0) = x0 ,
ṗ(t) = 0, p(1) = −x∗ (1),
∗
u (t) = −p(t), t ∈ [0, 1].
Par conséquent p(t) = cste = −x∗ (1). Donc u∗ (t) = −p(t) = x∗ (1) et x∗ (t) =
−x∗ (1)t+x0 . Ceci implique que x∗ (1) = x0
2
. On déduit que p(t) = − x20 , u∗ (t) = x0
2
,
c MOKKEDEM F.Z.
2.2 Problèmes linéaires quadratiques standards 61
x20
x∗ (t) = x0 (1 + x0
2
) et J(u∗ ) = 2
.
Exercice 2.5. Le système suivant modélise le mouvement d’un véhicule sur une
route droite :
ẍ(t)
= u(t), t ∈ [0, T ],
x(0) = ẋ(0) = 0.
Soit X(t) = (x(t), ẋ(t))T . Donc le système est réécrit sous la forme usuelle avec
0 1 0
A= et B = .
0 0 1
T3
Par suite u∗ (t) = x(T )(T − t), t ∈ [0, T ] et x∗ (T ) = 3T 3 −6
.
c MOKKEDEM F.Z.
62 2. Contrôle optimal des systèmes linéaires
Trouver le contrôle u∗ ∈ L∞ (0, +∞; Rm ) qui, d’une part stabilise ce système vers
(0, 0) et d’autre part minimise le coût :
Z +∞
J(u) = x2 (s) + y 2 (s) + u21 (s) + u22 (s) ds.
0
α2 + β 2 + 2α + 2β = 1,
2
β + γ 2 + 2β − 2γ = 1,
α + γ + αβ + βγ = 0.
√ √
α = −1 ± 3 et γ = 1 ± 3.
c MOKKEDEM F.Z.
2.3 Coût intégrale convexe quelconque 63
√ √
On choisit α et γ tels que R soit définie négative. Donc α = −1− 3 et γ = 1− 3.
Finalement
√ √
−1 − 3 −1 −1 − 3 −1 ∗
R= √ et u∗ (t) = √ X (t)
−1 1− 3 −1 1− 3
avec √
− 3 0 ∗
Ẋ ∗ (t)
=
√ X (t), t ∈ [0, +∞],
0 − 3
X ∗ (0) = X0 .
c MOKKEDEM F.Z.
64 2. Contrôle optimal des systèmes linéaires
Théorème 2.11. [9] Soient le système linéaire (2.19) et la fonction coût (2.20).
Supposons que toutes les hypothèses ci-dessus sont satisfaites. Alors il existe au
moins un contrôle optimal u∗ minimisant le coût (2.20).
Théorème 2.12. ([9], Théorèmes III.9 et III.13) Soient le système linéaire (2.19)
∂φ1
et le coût (2.20). Supposons que ∂x
(t, x) est continue pour tout t ∈ [t0 , T ] et tout
x ∈ Rn . Alors un contrôle u est extrémal si et seulement s’il existe un vecteur
non nul p(·) ∈ Rn solution de l’équation :
∂φ1
ṗ(t) = (t, x(t)) − p(t)A(t)T , ∀t ∈ [t0 , T ],
∂x
c MOKKEDEM F.Z.
2.3 Coût intégrale convexe quelconque 65
−φ2 (t, u(t))+ < p(t), B(t)u(t) >Rn = maxm {−φ2 (t, w)+ < p(t), B(t)w >Rn } .
w∈R
Pour avoir la réciproque, c’est à dire pour qu’un contrôle extrémal soit optimal
il faut remplacer (C6 ) (ou bien (C60 )) par :
De plus, u∗ (t) est défini pour presque tout t ∈ [t0 , T ] par le principe du maximum
par
∂J
H(t, x(t), p(t), u(t)) = < p0 , (u) >R + < p(t), ẋ(t) >Rn
∂t
T
= − φ1 (t, x(t)) + φ2 (t, u(t)) + p(t) A(t)x(t) + B(t)u(t) .
c MOKKEDEM F.Z.
66 2. Contrôle optimal des systèmes linéaires
tel que
(C9 ) φ1 (·) est positive, continue et convexe et φ1 (x) = 0 si et seulement si
x = 0.
(C10 ) φ2 (·) est continue et strictement convexe telle que φ2 (0) = 0 et
c MOKKEDEM F.Z.
2.3 Coût intégrale convexe quelconque 67
Si de plus toutes les valeurs propres de A sont de parties réelles non nulles,
alors le contrôle u∗ ∈ L∞ (t0 , +∞; Rm ) est optimal si et seulement s’il existe
un vecteur ligne non nul p(·) ∈ Rn satisfaisant sur tout l’intervalle [t0 , +∞) les
relations suivantes :
x˙∗ (t)
= Ax∗ (t) + Bu∗ (t), x∗ (t0 ) = x0 ,
∂φ1
ṗ(t) = (t, x∗ (t)) − p(t)AT , lim p(t) = 0.
∂x t→+∞
c MOKKEDEM F.Z.
68 2. Contrôle optimal des systèmes linéaires
2. D’après les équations précédentes on a, pour tout t ∈ [0, 1], p(t) = p(0)e−t
q
ce qui donne u∗ (t) = 3 p(0)e−t . En remplaçant ce résultat dans l’équation
d’état on obtient :
3 1
−t
x∗ (t) = et x0 − (p(0)) 3 e 3 − et .
4
1 4x0 4x0 −t
(p(0)) 3 = −4
> 0 d’où u∗ (t) = −4
e 3 > 0, t ∈ [0, 1].
3 e 3 −1 3 e 3 −1
xm (t) = L + ym t, t ∈ [0, T ].
On veut qu’à l’instant T , les deux mobiles se rencontrent dans la position x(T ) =
xm (T ) = xm tel que ẋ(T ) = ym . On cherche le contrôle optimal qui assure cette
rencontre et minimise le coût :
1Z T
J(u) = (u(s) + a2 x(s))2 ds.
2 0
1. Soit X(t) = (x(t), ẋ(t))T = (x1 (t), x2 (t))T et soit p(t) = (p1 (t), p2 (t)). Donc
c MOKKEDEM F.Z.
2.3 Coût intégrale convexe quelconque 69
∂J
H(X, p, u) = < p(t), Ẋ(t) >Rn − (u)
∂t
1
= p1 (t)x2 (t) + p2 (t)(a2 x1 (t) + u(t)) − (a2 x1 (t) + u(t))2 .
2
∂H ∗
x˙∗1 (t) = (X (t), p(t), u∗ (t)) = x2 (t),
∂p
1
∂H
˙∗ (X ∗ (t), p(t), u∗ (t)) = a2 x∗1 (t) + u∗ (t),
x2 (t) =
∂p 2
x (0) = x0 , x∗ (0) = y0 , x∗ (T ) = xm , x∗ (T ) = ym ,
∗
1 2 1 2
∂H ∗
p˙1 (t) = − (X (t), p(t), u∗ (t)) = a2 (−p2 (t) + a2 x∗1 (t) + u∗ (t)),
∂x
1
∂H ∗
p˙2 (t) = − (X (t), p(t), u∗ (t)) = −p1 (t),
∂x 2
∂H
(x∗ (t), p(t), u∗ (t)) = p2 (t) − u∗ (t) − a2 x∗ (t) = 0.
1
∂u
−4T y0 − 6x0
u∗ (0) = − a2 x 0 .
T2
1
H(x∗ , p, u∗ ) = p1 (t)x∗2 (t) + p2 (t)(a2 x∗1 (t) + u∗ (t)) − (a2 x∗1 (t) + u∗ (t))2
2
1 2
= c1 y0 + c2 = cste. (2.23)
2
a 2 1Z T 2
J(u) = x (T ) + (u (s) + b2 x2 (s))ds.
2 2 0
1
H(x(t), p(t), u(t)) = p(t)u(t) − (u2 (t) + b2 x2 (t)), t ∈ [0, T ].
2
c MOKKEDEM F.Z.
2.3 Coût intégrale convexe quelconque 71
∂H ∗ ∗ 2 ∗
ṗ(t) = − ∂x (x (t), p(t), u (t)) = b x (t),
∂H ∗
(x (t), p(t), u∗ (t)) = p(t) − u∗ (t) = 0.
∂u
Donc
u∗ (t) = p(t),
x˙∗ (t) = u∗ (t) = p(t),
ṗ(t) = b2 x∗ (t),
d’où x¨∗ (t) = b2 x∗ (t). C’est une équation linéaire du second ordre qui a pour
solution :
x∗ (t) = Aebt + Be−bt , t ∈ [0, T ].
e−bT ebT
A=− x0 et B = x0 .
ebT − e−bT ebT − e−bT
Donc
ebT + e−bT
p(0) = b(A − B) = −b bT x0 = −bx0 coth (bT ).
e − e−bT
On déduit alors la valeur initiale du contrôle optimal :
On remarque que si t → T alors u∗ (t) → ∞, ceci montre que si l’origine n’est pas
atteint avant le temps final T alors le contrôle tend vers l’infini. Or si T → ∞
alors u∗ (t) → −bx∗ (t) qui est une forme linéaire.
c MOKKEDEM F.Z.
72 2. Contrôle optimal des systèmes linéaires
Pour un temps final T fixé on veut atteindre l’état final (x(T ), y(T )) = (xT , 0)
en maximisant xT .
1. Trouver le contrôle optimal pour ceci.
2. Remarquer que u∗ (t) = u∗0 et et chercher une solution de x˙∗ (t) = −x∗ (t) +
u∗ (t) sous la forme x∗ (t) = ae−t + bet . En déduire la valeur finale xT .
1
H(x(t), p(t), u(t)) = p1 (t)(−x(t) + u(t)) − p2 (t)u2 (t), t ∈ [0, T ].
2
∂H ∗
x˙∗ (t) = (x (t), p(t), u∗ (t)) = −x∗ (t) + u∗ (t),
∂p1
∂H ∗ ∗ 1 ∗2
y˙∗ (t) = (x (t), p(t), u (t)) = − u (t),
∂p 2
2
x∗ (0) = 0, x∗ (T ) = xT , y ∗ (0) = y0 , y ∗ (T ) =
0,
∂H ∗
p˙1 (t) = − (x (t), p(t), u∗ (t)) = p1 (t),
∂x
∂H ∗
(x (t), p(t), u∗ (t)) = 0,
p˙2 (t) = −
∂y
∂H ∗
(x (t), p(t), u∗ (t)) = p1 (t) − p2 (t)u∗ (t)
= 0.
∂u
Remarquons ici que puisque x∗ (0), y ∗ (0) et y ∗ (T ) sont tous connus alors
c MOKKEDEM F.Z.
2.3 Coût intégrale convexe quelconque 73
∂φ0
p1 (T ) = −p0 (x(T )) = 1. (2.24)
∂x
p1 (t)
u∗ (t) = ,
p2 (t)
p2 (t) = c,
p (t) = p1 (0)et , ∀t ∈ [0, T ].
1
e−2T − 1 2 1 − e−2T
y(t) = y0 + =⇒ c = .
4c2 4y0
Par suite s
4y0
u∗ (t) = ±et−T , t ∈ [0, T ].
1 − e−2T
Le choix du contrôle n’est pas aléatoire, en fait on cherche un contrôle qui
maximise le Hamiltonien, donc un contrôle pour lequel
∂ 2H ∗
(x (t), p(t), u∗ (t)) = −p2 (t) < 0.
∂u2
Donc on doit avoir p2 (t) > 0. Comme p1 (t) = et−T > 0, alors u∗ (t) > 0
d’où s
4y0
u∗ (t) = et−T , t ∈ [0, T ].
1 − e−2T
2. On a s
4y0
u∗ (t) = u∗0 et avec u∗0 = .
e2T−1
On remplace cette valeur dans l’équation x˙∗ (t) = −x∗ (t) + u∗ (t) et on
cherche sa solution sous la forme x∗ (t) = ae−t + bet . On commence par
c MOKKEDEM F.Z.
74 2. Contrôle optimal des systèmes linéaires
u∗0 t
x∗ (t) = x0 e−T + (e − e−t ), t ∈ [0, T ].
2
∗ −T u∗0 T −T −T
q
xT = x (T ) = x0 e + (e − e ) = x0 e + y0 (1 + e−2T ).
2
Pour plus d’exercices voir ([2], Chapitre 2), ([9], Chapitre 3) et [11].
c MOKKEDEM F.Z.
2.3 Coût intégrale convexe quelconque 75
c MOKKEDEM F.Z.
Chapitre 3
Théorème 3.1. ([2], Théorème 2.1.1) Soit le système non linéaire (3.1) et soit
J : Rm → R un coût à minimiser. Supposons que les hypothèses (H1 )−(H3 ) sont
satisfaites. Alors il existe au moins un contrôle optimal minimisant le coût J.
Soit en particulier
Z T
J(u) = φ0 (T, x(T )) + φ1 (t, x(t), u(t)) dt, (3.2)
t0
avec
(H4 ) La fonction φ0 : [t0 , T ] × Rn est une fonction continue.
(H5 ) La fonction φ1 : [t0 , T ] × Rn × Rm est une fonction de classe C 1 .
(H6 ) Pour tout x ∈ Rn et t ∈ [t0 , T ] fixés, l’ensemble
c MOKKEDEM F.Z.
78 3. Contrôle optimal des systèmes non linéaires
Théorème 3.2. [14] Soit le système non linéaire (3.1) et soit le coût (3.2) à min-
imiser. Supposons que les hypothèses (H1 ), (H2 ) et (H4 ) − (H6 ) sont satisfaites.
Alors il existe au moins un contrôle optimal minimisant le coût J.
Théorème 3.3. ([2], Théorèmes 2.1.2 et 3.1.2) Soit le système non linéaire (3.1)
et soit le coût (3.2) à minimiser. Supposons que les hypothèses (H1 ) − (H3 ) et
(H11 ) sont satisfaites. Alors il existe un unique contrôle optimal minimisant le
coût J.
c MOKKEDEM F.Z.
3.2 Principe du maximum et Hamiltonien 79
Théorème 3.1. ([14], Lemme VII.7.7) Soient le système non linéaire (3.1) et le
coût (3.2). Si un contrôle u∗ est optimal pour le coût J alors il est extrémal pour
Ã(t).
Cependant, dans le cas des systèmes non linéaires, un contrôle extrémal vérifie
le principe du maximum mais l’inverse est faux !
Pour simplifier l’énoncé du principe du maximum, on introduit le Hamiltonien
H : [t0 , T ] × Rn × (Rn /{0}) × R × Rm → R par
Théorème 3.2. ([14], Théorème VII.7.17) Soit le système non linéaire (3.1)
et soit T < ∞ fixé. Supposons que u∗ ∈ L2 (t0 , T ; Rm ) est un contrôle optimal
minimisant le coût (3.2) et que x∗ (·) = x(·, x0 , u∗ ) est la solution optimale du sys-
tème (3.1) correspondante à u∗ . Alors il existe une fonction absolument continue
c MOKKEDEM F.Z.
80 3. Contrôle optimal des systèmes non linéaires
p : [t0 , T ] −→ (Rn /{0}) et une constante p0 ≤ 0 telles que pour tout t ∈ [t0 , T ] :
∂H
x˙∗ (t) = (t, x∗ (t), p(t), p0 , u∗ (t)),
∂p
∂H
ṗ(t) = − (t, x∗ (t), p(t), p0 , u∗ (t)),
∂x
∂H
(t, x∗ (t), p(t), p0 , u∗ (t)) = 0.
∂u
∂φ0
H(T, x∗ (T ), p(T ), p0 , u∗ (T )) = −p0 (T, x(T )).
∂t
Théorème 3.3. ([14], Théorème 7.18) Soit le système non linéaire (3.1) et soit
T < ∞ fixé. Supposons que u∗ ∈ L2 (t0 , T ; Ω) avec Ω un compact de Rm est un
contrôle optimal minimisant le coût (3.2) et que x∗ (·) = x(·, x0 , u∗ ) est la solu-
tion optimale du système (3.1) correspondante à u∗ . Alors il existe une fonction
absolument continue p : [t0 , T ] −→ (Rn /{0}) et une constante p0 ≤ 0 telles que :
∂H
x˙∗ (t) = (t, x∗ (t), p(t), p0 , u∗ (t)),
∂p
∂H
ṗ(t) = − (t, x∗ (t), p(t), p0 , u∗ (t)), t ∈ [t0 , T ],
∂x
H(t, x∗ (t), p(t), p0 , u∗ (t))
= max H(t, x(t), p(t), p0 , v), p.p. t ∈ [t0 , T ].
v∈Ω
∂φ0
max H(T, x(T ), p(T ), p0 , w) = −p0 (T, x(T )).
w∈Ω ∂t
∂φ0
H(T, x∗ (T ), p(T ), p0 , u∗ (T )) = −p0 (T, x(T )).
∂t
c MOKKEDEM F.Z.
3.2 Principe du maximum et Hamiltonien 81
∂φ0
p(T ) − p0 (T, x(T )) ⊥ Tx(T ) E1 .
∂x
p(0) ⊥ Tx0 E0 .
c MOKKEDEM F.Z.
82 3. Contrôle optimal des systèmes non linéaires
p
∂φ0
ci ∇gi (x(T )) + p0
X
p(T ) = (T, x(T )).
i=1 ∂x
p
X
p(0) = ki ∇gi (x(0)).
i=1
Dans le cas de contraintes sur l’état, on suppose que sur tout [t0 , T ], x(t) ∈ G
où G, dit ensemble de contraintes, vérifie la condition (H10 ). Ces contraintes
causent une discontinuité du vecteur adjoint. Pour les détails voir par exemple
[3, 4] et [14]. À cause de cette discontinuité, la résolution du système d’optimalité
devient très difficile et compliquée.
Pour éviter cette complication, on peut utiliser la méthode de pénalisation
comme suit : D’adord, on construit une fonction ψ : Rn → R qui est nulle sur G
et strictement positive ailleurs (on peut choisir ψ(x) = d(x, G), la distance entre
RT
x et G). Puis, on ajoute la valeur α t0 ψ(x(t))dt au coût J(u). Ici α > 0 est un
RT
poids que l’on ajoute pour donner plus de valeur au terme α t0 ψ(x(t))dt dans
J(u). Cette approche nous amème à minimiser le coût modifié :
Z T
J1 (u) = J(u) + α ψ(x(t))dt.
t0
c MOKKEDEM F.Z.
3.2 Principe du maximum et Hamiltonien 83
Clairement, si x(t) ∈
/ G et α > 0 est grand, alors le coût J1 (u) devient très grand
aussi. Par suite x(t) n’est pas optimale pour J1 (u). Par contre, si x(t) ∈ G, alors
ψ(x) = 0 et min J1 (u) = min J(u) existe. De cette façon, un contrôle optimal pour
le coût réctifié (où il n’y a pas de contraintes sur l’état) est aussi optimal pour le
coût original (pour lequel x(·) ∈ G). Pour les détails voir ([14], Proposition 7.19).
et minimise le critère :
1Z T 2
J(u) = u (t)dt.
2 0
1. Écrire le Hamiltonien en prenant p(t) = (p1 (t), p2 (t))T le vecteur adjoint et
p0 = −1.
4. Supposons que x10 e−T + x20 = 1. Trouver p(0) puis u∗ et s’assurer que la
solution à l’instant T vérifie (3.5).
c MOKKEDEM F.Z.
84 3. Contrôle optimal des systèmes non linéaires
1. Soit X(t) = (x1 (t), x2 (t))T le vecteur d’état et p(t) = (p1 (t), p2 (t))T le
vecteur adjoint. Donc le Hamiltonien (pour p0 = −1) s’écrit :
1
H(t, x(t), p(t), p0 , u(t)) = p1 (t)(−x1 (t) + u(t)) + p2 (t)u(t) − u2 (t).
2
∂H
p˙1 (t)
=− = p1 (t),
∂x1
∂H
p˙2 (t) = − = 0, t ∈ [0, T ].
∂x2
Donc p2 (t) = p2 (0) = cste et p1 (t) = p1 (0)et . Puisqu’on n’a pas de con-
traintes sur le contrôle alors
∂H
(t, x∗ (t), p(t), p0 , u∗ (t)) = 0.
∂u
Donc
u∗ (t) = p1 (t) + p2 (t) = p2 (0) + p1 (0)et , ∀t ∈ [0, T ]. (3.6)
Or
p2 (0) + p1 (0)et = ẋ1 (t) + x1 (t) = Cet − De−t + B + Cet + De−t = B + 2Cet .
1
x 1 (t) = p2 (0) + p1 (0)et + De−t
2
= A + p2 (0)t + p1 (0)et .
x2 (t)
En utilisant les conditions initiales (x1 (0), x2 (0)) = (x10 , x20 ), on trouve
c MOKKEDEM F.Z.
3.2 Principe du maximum et Hamiltonien 85
1 1
x1 (t) = p2 (0) + p1 (0)et + x10 − p2 (0) − p1 (0) e−t ,
2 2
= x20 − p1 (0) + p2 (0)t + p1 (0)et .
2 (t)
x
G = {x ∈ Rn | F (X) = x1 (T ) + x2 (T ) − 1 = 0}
∂φ0
p(T ) = α ∇F (X(T )) + p0 (T, X(T )) = ∇F (X(T )).
∂X
Donc p1 (T ) = p2 (T ) et
1 1
p2 (0) + p1 (0)eT + x10 − p2 (0) − p1 (0) e−T + x20 − p1 (0) + p2 (0)T + p1 (0)eT = 1
2 2
T
p
1 (0)e − p2 (0) = 0.
2 (t) = x20 .
x
Exercice 3.2. Reprendre l’exercice 2.8 avec temps final T libre. Supposons que
la vitesse initiale y0 6= 0 et la vitesse finale ym = 0. Trouver le temps optimal T
pour atteindre l’état final (xm , ym ).
c MOKKEDEM F.Z.
86 3. Contrôle optimal des systèmes non linéaires
∂φ0
H(T, x∗ (T ), p(T ), u∗ (T )) = −p0 (T, X(T )) = 0.
∂t
Or d’après (2.8)
1
H(T, x∗ (T ), p(T ), u∗ (T )) = c1 y0 + c22 = cste.
2
(W 2 − 3W y0 )T 2 + 6V (y0 − W )T + 9V 2 = 0.
avec f (x) = x(1 − x)(x − α) pour α ∈ [0, 1] un paramètre donné et g(·) une
fonction positive de classe C 1 telle que g(1) = 0. Soient k1 > 0 et k2 ∈]0, k1 T [
deux constantes. On suppose qu’il existe un contrôle optimal non nul u∗ (t) ∈ Ω
avec
Ω = {u ∈ R | u(t) ∈ [0, k1 ]}
c MOKKEDEM F.Z.
3.2 Principe du maximum et Hamiltonien 87
G = {(x, y) ∈ R2 | y(T ) = k2 }
et minimise le coût
1
J(u) = (1 − x(T ))2 .
2
1. En supposant que x(t) modélise une densité de population, que signifie le
coût J et la cible G ?
1. Si x(t) est une densité de population, alors le coût J désigne qu’à l’instant
T , cette densité doit être la plus proche possible de 1. D’autre part y(T ) =
RT
0 u(t)dt représente la quantité totale du “contrôle”. Donc cette quantité
est limitée par la quantité maximale k2 .
1
2. D’après l’expression du coût J, on a φ0 (x(T ), y(T )) = 2
(1 − x(T ))2 et
φ1 = 0. Donc le Hamiltonien est le suivant :
Donc
∂H
p˙1 (t) =− = −p1 (t) (f 0 (x(t)) + g 0 (x(t))u(t)) ,
∂x
∂H
p˙2 (t) = − = 0, t ∈ [0, T ].
∂y
c MOKKEDEM F.Z.
88 3. Contrôle optimal des systèmes non linéaires
∂φ0
p1 (T ) = −p0 (x(T ), y(T )) = −p0 (x(T ) − 1).
∂x
∂φ0
p2 (T ) = βF 0 (y(T )) − p0 (x(T ), y(T )) = β.
∂y
c MOKKEDEM F.Z.
3.2 Principe du maximum et Hamiltonien 89
c MOKKEDEM F.Z.
90 3. Contrôle optimal des systèmes non linéaires
qui est autonome et qui est définie par un temps “final” et une condition “fi-
nale” fixés. Par contre x(0) est libre. Supposons que
(H) Le contrôle u(t) ∈ Ω est mesurable et localement borné avec Ω un sous-
ensemble non vide et compact de Rm .
Le problème de contrôle optimal revient à minimiser le coût :
Z T
J(u) := J(T, u) = φ0 (x(0)) + φ1 (x(t), u(t))dt, (3.9)
0
où φ0 et φ1 sont continues.
Puisque la solution x(·) dépend de la position finale xT et du contrôle u, on
note x(·) = x(·, xT , u).
L’idée ici est de considérer le problème de contrôle optimal sur un intervalle
[0, s] ⊂ [0, T ] très petit, c’est à dire considérer le système :
ẋ(t)
= f (x(t), u(t)), ∀t ∈ [0, s],
(3.10)
x(s) = xs ,
c MOKKEDEM F.Z.
3.3 Programmation dynamique 91
Clairement si s = T , alors
Définition 3.2. ([5], Définition 4.1) Un contrôle u∗ : [0, T ] → Ω est une réali-
sation de V (T, xT ) si pour tout contrôle v : [0, T ] → Ω, on a :
Z T
φ0 (x(0, xT , u∗ )) + φ1 (x(t, xT , u∗ ), u∗ (t))dt
0
Z T
≤ φ0 (x(0, xT , v)) + φ1 (x(t, xT , v), v(t))dt.
0
Pour pouvoir considérer le problème de contrôle optimal sur des sous inter-
valles de [0, T ], il faut s’assurer que, pour tout 0 ≤ r ≤ s ≤ T , une réalisation u∗
entre 0 et s pour la condition finale x(s) = xs est aussi une réalisation entre 0 et
r avec la condition finale x(r) = xr = x(r, xs , u∗ ).
c MOKKEDEM F.Z.
92 3. Contrôle optimal des systèmes non linéaires
Par conséquent, le contrôle optimal peut être construit sur des intervalles de
plus en plus grands jusqu’à atteindre la largeur [0, T ].
Notons que les résultats précédents sont applicables sur les systèmes avec
condition “initiale” de la forme
ẋ(s)
= f (x(t), u(t)), ∀t ∈ [0, T ],
(3.13)
x(0) = x0 ,
c MOKKEDEM F.Z.
3.3 Programmation dynamique 93
Supposons que la fonction valeur V (·, ·) est de classe C 1 sur [0, s] × Rn . Donc en
dérivant par rapport au temps, on obtient
∂V ∂V
(s, xs ) + (s, xs ) f (x∗ (s), u∗ (s)) − φ1 (x∗ (s), u∗ (s)) = 0. (3.16)
∂t ∂x
Rappelons le Hamiltonien :
H(x∗ (s), p(s), p0 , u∗ (s)) = p0 φ1 (x∗ (s), u∗ (s))+ < p(s), f (x∗ (s), u∗ (s)) >Rn .
Par conséquent, en multipliant (3.16) par −p0 , on obtient, pour tout (s, xs ) ∈
]0, T ] × Rn tel que xs = x∗ (s),
!
∂V ∂V
−p0 (s, xs ) + max H xs , −p0 (s, xs ), p0 , v = 0.
∂t v∈Ω ∂x
Cette équation qui est une équation aux dérivées partielles du premier ordre est
appelée équation de Hamilton-Jacobi-Bellman (HJB). En ajoutant la condition
initiale de V (0, ·), il vient :
!
∂V ∂V
− p0 (s, xs ) + max H xs , −p0 (s, xs ), p0 , v = 0,
∂t v∈Ω ∂x (3.17)
V (0, ·)
= φ0 (·)
c MOKKEDEM F.Z.
94 3. Contrôle optimal des systèmes non linéaires
Exercice 3.4. Montrer que si on considère le système controlé (3.13) avec con-
dition initiale x(0) = x0 et fonction coût (3.14), alors l’équation HJB sera donnée
par : !
∂V ∂V
− p0 (s, xs ) + max H xs , −p0 (s, xs ), p0 , v = 0,
∂t v∈Ω ∂x
V (T, ·)
= φ0 (·),
Remarque 3.2.
– En générale, la fonction V (·, ·) n’est pas différentiable partout sur [0, T ] ×
Rn .
– La fonction valeur V (·, ·) n’est pas forcément la solution unique de (3.17).
(respectivement
!
∂S ∂S
−p0 (s, xs ) + max H xs , −p0 (s, xs ), p0 , v ≥ 0.)
∂t v∈Ω ∂x
On dit que V est une solution de (3.17) au sens de viscosité si elle est à la fois
sur et sous solution de (3.17).
c MOKKEDEM F.Z.
3.3 Programmation dynamique 95
c MOKKEDEM F.Z.
96 3. Contrôle optimal des systèmes non linéaires
1Z 1 2
J(u) = x (t) + u2 (t) dt.
2 0
2. Supposons maintenant que x1 est quelconque et que le coût est donné par :
˜ 1 2 1Z 1 2
J(u) = x (1) + x (t) + u2 (t) dt. (3.18)
2 0
1
H(x(t), p(t), p0 , u(t)) = p(t)u(t) − (x2 (t) + u2 (t)), t ∈ [0, 1]. (3.19)
2
c MOKKEDEM F.Z.
3.3 Programmation dynamique 97
Ce qui donne
¨
x∗(t)
= x∗ (t), t ∈ [0, 1],
x∗ (0)
= x0 et x∗ (1) = x1 ,
(a) La fonction valeur V (·, ·) est donnée pour tout (s, xs ) ∈ [0, 1] × R par :
1 2 1Z 1 2
V (s, xs ) = inf x (1) + x (t) + u2 (t) dt .
u: [s,1]→Ω 2 s
∂V ∂V
u∗ (s) = p(s) = −p0 (s, xs ) = (s, xs ), (3.21)
∂x ∂x
d’où
! !2
∂V 1 ∂V
max H xs , −p0 (s, xs ), p0 , v = (s, xs ) − x2 (s) .
v∈Ω ∂x 2 ∂x
1
= x2 (1).
V (1, x(1))
(3.22)
∂V
(s, xs ) = ġ(s)x2s ,
∂t
∂V
(s, xs ) = 2g(s)xs , (3.23)
∂x
1 2 1
x (1) = V (1, x(1)) = g(1)x2 (1) ⇔ g(1) = .
Cette équation qui est une équation de Riccati admet la solution par-
ticulière g0 (s) = 12 . Soit g(s) = 1
2
+ h(s) alors
1
En posant le changement de variables k(s) = h(s)
, on obtient :
k̇(s) − 2k(s) − 2 = 0
c MOKKEDEM F.Z.
3.3 Programmation dynamique 99
1 1 1 + ae2s
h(s) = et g(s) = .
−1 + ae2s 2 −1 + ae2s
1
En utilisant la condition finale g(1) =
on trouve
2 + −2
a= e .
2−
(c) Finalement, on pose V (s, xs ) = V (s, x(s)) où x(s) est l’état du sys-
tème à l’instant s. D’une part, d’après (3.21) et (3.23), on a :
∂V
ẋ(t) = u∗ (t) = (t, x(t)) = 2x(t)g(t),
∂x
ce qui donne :
ẋ(t)
= 2g(t).
x(t)
Quand → 0 on a x(1) = x1 = 0 et a = e−2 . Donc
1 1 + e2t−2
g(t) = ,
2 −1 + e2t−2
d’où
ẋ(t) 1 + e2t−2
= , t ∈ [0, 1].
x(t) −1 + e2t−2
où x(t) est la somme d’argent épargnée à l’instant t par un individu, u(t) représente
ses dépenses. l’individu souhaite réduire ses dépenses et maximiser l’épargne fi-
c MOKKEDEM F.Z.
100 3. Contrôle optimal des systèmes non linéaires
q
H(x(t), p(t), p0 , u(t)) = p(t) ax(t) − u(t) + ebt u(t), t ∈ [0, T ]. (3.24)
La fonction valeur :
( Z T q q )
−bt
V (s, xs ) = inf − e u(t)dt − x(T )
u∈Ω s
2. L’équation HJB :
!
∂V ∂V
(s, xs ) ∈ [0, T ] × Rn ,
(s, xs ) + max H xs , (s, x), p0 , v = 0,
∂t v∈Ω ∂x
q
V (T, x(T )) = φ0 (x(T )) = − x(T ).
∂H ∗ 1 1
(x (t), p(t), p0 , u∗ (t)) = 0 ⇒ −p(t) + e−bt q = 0.
∂u 2 u∗ (t)
c MOKKEDEM F.Z.
3.3 Programmation dynamique 101
e−2bt
u∗ (t) = , t ∈ [0, T ]. (3.25)
4p2 (t)
∂V
D’après (3.24) et (3.25), on a pour (s, xs ) ∈ [0, T ] × Rn et p(s) = ∂x
(s, xs ) :
! !
∂V ∂V
max H xs , (s, xs ), p0 , v = H xs , (s, xs ), p0 , u∗ (s)
v∈Ω ∂x ∂x
∂V q
= (s, x) ax∗ (s) − u∗ (s) + e−bs u∗ (s)
∂x
∂V e−2bs
= ax∗ (s) (s, xs ) + ∂V .
∂x 4 ∂x (s, xs )
e−2bs
∂V ∂V
(s, xs ) + ax∗ (s) (s, xs ) ∈ [0, T ] × Rn ,
(s, xs ) + ∂V = 0,
∂t ∂x
4 ∂x (s, xs )
q
V (T, x(T )) = − x(T ).
√
Supposons que V (s, xs ) = f (s) xs . Donc
∂V √ ∂V 1 1
(s, xs ) = f˙(s) xs et (s, xs ) = f (s) √ .
∂t ∂x 2 xs
a e−2bs
q
x∗ (s) f˙(s) + f (s) + = 0.
2 2f (s)
q
En simplifiant par x∗ (s) et en multipliant par eas , on obtient
d 2
f (s)eas = −e(a−2b)s .
ds
D’où s
e−2bs
f (s) = ± + ce−as ,
2b − a
avec c une constante. En utilisant la condition f (T ) = 0 on obtient c =
c MOKKEDEM F.Z.
102 3. Contrôle optimal des systèmes non linéaires
e(a−2b)T
a−2b
. D’où
v !
e−2bs − e(a−2b)T −as
u
u
V (s, xs ) = ±t xs .
2b − a
∂V
On n’accepte que le cas positif sinon p(s) = ∂x
(s, xs ) ≤ 0 ce qui contredit
l’hypothèse p(·) > 0. Or, en tenant compte à l’hypothèse de l’équation
HJB, on trouve que x∗ (T ) doit être nulle.
e−2bt
u∗ (t, x∗ (t)) = 2
∂V
4 ∂x
(t, x∗ (t))
(2b − a)
= x∗ (t), t ∈ [0, T ].
1 − e(a−2b)(T −t)
x∗ (t) Z t
1
ln ∗ = at − (2b − a) −s)
ds.
x (0) 0 1−e(a−2b)(T
On sait que
Z
1 1 kt
dt = kt − log(a + be ) ,
a + bekt ak
donc après calcul on trouve
1 − e(2b−a)(t−T )
x∗ (t) = x∗ (0)e2(a−2b)t , t ∈ [0, T ].
1 − e−(2b−a)T
c MOKKEDEM F.Z.
Bibliographie
[1] Bensoussan, A., Da Prato, G., Delfour, M. C., & Mitter, S. K. (2007). Rep-
resentation and control of infinite dimensional systems. Springer Science &
Business Media.
[9] Lee, E. B., & Markus, L. (1967). Foundations of optimal control theory.
Minnesota Univ Minneapolis Center For Control Sciences.
[10] Lenhart S., & Workman J. T.(2007). Optimal Control Applied to Biological
Models. CRC press.
[11] Llibre M., Corrège M., & Delmas J. (2009). Recueil d’exercices de Com-
mande Optimale.
[13] Pradin, B., & Garcia, G. (2010). Modélisation, analyse et commande des
systèmes linéaires. Presses Univ. du Mirail.
[14] Trélat, E. (2005). Contrôle Optimal : Théorie & Applications. Paris : Vuib-
ert.
c MOKKEDEM F.Z.