thÉor ie et application du calcul des variation s en
TRANSCRIPT
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L’ENSEIGNEMENT SUPERIEUR
ET DE LA RECHERCHE SCIENTIFIQUE
Présenté à l’Université 20 Août 55, Skikda
Faculté des Sciences et Sciences de l’Ingéniorat
Département des Sciences Fondamentales
Spécialité : Mathématiques
Option : Équations Différentielles, Fonctions Spéciales et Contrôle.
Présenté par :
KHENNICHE GHANIA
Soutenu le : .04 /06 / 2007 Devant le jury :
PRÉSIDENT A. BOUKHEMIS Professeur Université de ANNABA
EXAMINATRICE F. REBBANI Professeur Université de ANNABA
EXAMINATEUR B. KHODJA Professeur Université de ANNABA
INVITE A. NOUAR Chargé de cours Université de SKIKDA
RAPPORTEUR H. SISSAOUI Professeur Université de ANNABA
THÉORIE ET APPLICATION DU CALCUL DES VARIATIONS
EN COMMANDE OPTIMALE
Mémoire de Magister
Table des matières Introduction …………………………………………………………………………………….4
Chapitre 1. Rappel mathématique…………………………………………………. 6 Chapitre 2. Eléments de calcul des variations 15 2.1 Problème simple de calcul des variations (sans contrainte)……………………...16 2.2 Problème de calcul des variations sous contrainte……………………………... 20
2.2.1 Méthode des multiplicateurs de Lagrange………………………………. .21
2.2.2 Problème Isoperimétrique………………………………………………….. 22
2.2.3 Problème avec une extrémité libre condition de transversalité…………26 Chapitre 3. Problèmes simples de commande optimale 32 Introduction……………………………………………………………………………32 3.1 Différent types de problèmes d’optimisation………………………………………..33 3.1.1 Problème de Lagrange………………………………………………………..33
3.1.2 Problème de Mayer …………………………………………………………...33
3.1.3 Problème de Bolza…………………………………………………………….34
3.2 Problème abstrait de commande optimale ……………………………………….. 35
3.2.1 Exemples……………………………………………………………………….. 38
3.3 Le calcul des variations en commande optimale…………………………………..43 3.3.1 Exemples…………………………………………………………………………47 Chapitre 4. Problèmes complexes de commande optimale 50 4.1 Problème de commande optimale sous contrainte ……………………………….51
1
4.2 Reformulation d’un problème de commande optimale en un problème de calcul
des variations ………………………………………………………………………… 51 4.2.1 Exemples…………………………………………………………………………54 Chapitre 5. Le Principe du Minimum de Pontriaguine (PMP) 61
5.1 Problèmes en temps minimum……………………………………………… ……… 62
5.1.1 Exemples……………………………………………………………………….. 67
Chapitre 6. Exemples et simulation 83 Introduction ………………………………………………………………………… 83 6.1 Le calcul des variations en commande optimale dans le cas D-1 : Formulation d’un problème de commande optimale en un problème de calcul des variations………………………………………………………………………… 84 Résultas numériques et commentaire ……………………………….…….. 91 6.2 Un problème de commande optimale dans le cas D-2 94 Approximation après optimisation : Approche indirecte ………………………95 Reformulation en un problème de calcul des variations en D-2……… ……...95 6.3 Le calcul des variations dans le cas D-2 : 97 Problème de calcul des variations en D-2……………………………………….. 97 Résultats numériques et commentaire……………………………………. 101 Conclusion ………………………………………………………………………………….106
2
Résumé Ce mémoire est consacré à l’étude de l’approche indirecte utilisant le calcul des variations pour la résolution analytique et numérique de quelques problèmes de commande optimale, gouvernés par des équations différentielles ordinaires (non ) linéaires pour lesquels la variable de commande peut être soumise à des contraintes. Mots clés : Calcul des variations, équation d’Euler-Lagrange, commande optimale.
Abstract This study is devoted to the indirect approach of the calculus of variations for the analytical and numerical computation of the solution of some optimal control problems governed by a (non ) linear ordinary differential equations and where the control variable may be subject to constraints. Key words: Calculus of variations, optimal control, Euler-Lagrange equation.
3
Introduction
Le calcul des variations, le principe du minimum de Pontriaguine (PMP) et la programmation dynamique (PD) sont les trois grandes formulations de la théorie de la commande optimale laquelle est un sous domaine de la théorie générale de l’optimisation. En effet, l’optimisation est une branche importante des mathématiques appliquées. Il n’y a pas un domaine de l’activité scientifique qui ne se réduit pas à un problème de maximisation ou de minimisation [2]. L’importance de l’optimisation dans la résolution des problèmes pratiques en mathématiques appliquées ou dans d’autre activités de recherche est soulignée par de nombreux auteurs [5 ], [ 13]. Nous nous intéressons, dans ce mémoire, à l’utilisation du calcul de variations dans la résolution des problèmes de commande optimale. La théorie du calcul des variations a pour origine le fameux principe de Fermat qui postule que la lumière suit le trajet dont le temps de propagation est minimal [12 ]. Le problème de la brachistochrone [5], [2] est un problème de temps minimum. Il s’agit d’un problème posé par J.Bernoulli en 1696 et qui fût résolu par d’autres mathématiciens illustrés tels que Euler et Newton. Ce problème a posé les premières bases du calcul des variations. Euler, à cette occasion, a ébauché à partir de considération géométrique la méthode des « petites variations » à laquelle Lagrange a donné, un peu plus tard, une forme analytique élégante [5]. Par nature, le calcul des variations conduit à des conditions nécessaires d’optimalité représentées par l’équation d’Euler-Lagrange [6 ]. L’avantage du calcul des variations par rapport aux autres formulations est sa grande
4
facilité de mise en œuvre [ 4], [8] mais surtout l’usage uniquement d’outils mathématiques classiques simples par opposition au PMP qui fait appel à des outils mathématiques sophistiqués de l’analyse fonctionnelle [12 ]. Il faut néanmoins souligner que les autres formulations (PMP et PD) sont plus générales car nécessitant moins de régularité à la solution et pour lesquelles le domaine peut être ouvert ou fermé [13], [17] . A cet effet, on doit signaler que certains problèmes de commande optimale peuvent se ramener après certaines transformations à des problèmes de calcul des variations. L’objectif de ce mémoire est de proposer une synthèse qui fait ressortir le lien entre la théorie classique du calcul des variations et la théorie de la commande optimale à travers l’étude et la résolution de quelques exemples concrets. Nous souhaitons montrer à travers les quelques cas étudiés que l’approche variationnelle est plus intéressante lorsque le problème posé permet l’usage et le développement des outils classiques élégants de l’analyse fonctionnelle sinon les approches alternatives doivent être privilégiées. Le manuscrit comporte 6 chapitres : Le chapitre 1 est un rappel des résultas mathématiques nécessaires à la suite du travail. Le chapitre 2 introduit quelques éléments de la théorie du calcul des variations. Les chapitres 3. et 4 sont consacrés respectivement à la description d’un exemple simple et d’un exemple complexe de problèmes de commande optimale. Le chapitre 5 introduit et décrit le PMP et enfin le chapitre 6 est un ensemble de deux problèmes de commande optimale en D-1 et D-2 et un problème de calcul des variations en D-2 résolus numériquement. L’originalité du travail réside plus sur le choix des exemples résolus et la comparaison entre les deux approches PMP et calcul des variations que sur les résultats numériques.
5
Chapitre 1
Rappel mathématique
Dans ce chapitre, on rappelle quelques résultats d’analyse et également quelques notions et concepts qui seront nécessaires pour les développements ultérieurs concernant l’analyse mathématique et numérique des problèmes de commande optimale .
L’optimisation regroupe les techniques qui permettent de chercher les minima ou maxima de fonctions ou de fonctionnelles ; elle intervient dans presque tous les processus de modélisation actuels. Il est rare qu’un problème d’optimisation plus au moins complexe n’intervienne pas à une étape donnée de la modélisation et/ou de la simulation.
1.1 Le calcul des variations Examinons, pour l’instant sans trop entrer dans les détails, ce qu’est le problème de calcul des variations. Il s’agit donc de trouver le minimum d’une fonctionnelle
REJ →: où E est espace vectoriel normée de fonction réelles . Par exemple 1C [ ]( )RttCE f ,,0
1= avec [ ]ftt ,0 un intervalle de R .
6
Le problème consiste à déterminer, si elle existe, une fonction où I est un intervalle RIy →: de R contenant [ ]ftt ,0 vérifiant les conditions aux limites
11)( yty = ff yty =)( (1.1)
En outre, certaines conditions de régularité doivent être imposées sur la fonction admissible y laquelle minimise le critère
(1.2) dtttytyFyJ ft
t)),(),(()(
1∫
•
=
où est la dérivée de y par rapport à t ()(ty•
dtdyty ≡
•
)( ), et RRRRF →××: est la fonction
de Lagrange généralement supposée de classe par rapport à ses deux premiers 2C arguments et par rapport au troisième. 1C Définition 1.1 Un espace vectoriel E est appelé espace normé si à tout Ey∈ correspond un nombre positif y appelé norme de y tel que les trois axiomes suivants sont vérifiés :
Edansyxtoutpouryxyx
CouRKtoutpouryy
ysiseulementsiy
Eytoutpoury
,/4
)(/3
00/2
0/1
+≤+
=∈=
==
∈≥
λλλ
Définition 1.2 Soit H un espace vectoriel sur K . Si H est muni d’un produit scalaire noté par ( )Hvu, et s’il est complet pour la norme ( )Hvu, , alors on dit que H est un espace de Hilbert. Définition 1.3 Soit E un espace vectorielle normé et K (R où C) un corps on appelle J une
7
fonctionnelle toute application linéaire d’un espace vectorielle normé E dans un corps K. Définition 1.4 Fonction admissible On appelle fonction admissible toute fonction suffisamment régulière vérifiant les )(ty conditions aux limites. Définition 1.5 extremum (maximum, minimum) réalise un maximum pour la fonctionnelle ou que est une valeur maximale *y J *)( yJ de si J
0*)()(*0 ≥−<−Ω∈∀> yJyJalorsyyy εε réalise un minimum pour la fonctionnelle si *y J
0*)()(*0 ≤−<−Ω∈∀> yJyJalorsyyy εε
Définition 1.6 minimum (maximum) local Soit C un ensemble non vide d’un espace de Hilbert réel et une fonction de dans H f C R , on dit que réalise un minimum local de sur si on peut trouver une boule Cy ∈* f C ouverte de *)( yΒ H centrée en tel que *y
)(*)(:*)( yfyfCyy ≤∩Β∈∀ On dit que réalise un maximum local de sur C si on peut trouver une boule ouverte *y f
*)( yΒ de H centrée en telle que *y
)(*)(:*)( yfyfCyy ≥∩Β∈∀ On rappelle qu’une boule ouverte de H de centre et de rayon *y 0≥ρ est l’ensemble
ρρ <−∈=Β yyHyy *)*,(
où . désigne la norme de H
8
Proposition 1.1 [18] Si réalise un maximum local de surC , réalise un minimum local de sur *y f *y f− C . Plus précisément
CyyfCyyf ∈−−=∈ ),(min),(max
Définition 1.7 Variation d’une fonctionnelle Lorsque est une fonctionnelle définie sur un ouvert J Ω d’un espace vectoriel normé E , on appelle variation de la fonctionnelle en J y dans la direction EZ ∈ , la limite, si elle existe, suivante :
εε
εδ )()(
0),( lim yJZyJZyJ −+
→=
Définition 1.8 Accroissement d’une fonctionnelle L’accroissement d’une fonctionnelle, noté J∆ , est définie par
))(())()(( tyJtytyJJ −+=∆ δ où )(tyδ est la variation de la fonction )(ty Ainsi, l’accroissement ))(),(( tytyJ δ∆ de la fonctionnelle dépend de la fonction et de sa )(ty variation )(tyδ . Théorème 1.1 (Théorème de Taylor à une variable) Soit une fonction telle que [ ] Rbaf →,: [ ] ( )nn fbaCf ,,∈ dérivable dans ] [ba , et soit on a [ ] ,,, 00 xxbax ≠∈
( ) )(!)1(
)()(
!)(
..............)(!1
)()()( )1(
10
00
00
0 ξ++
+−
+−
+′−+= n
nn
n
fn
xxxf
nxx
xfxx
xfxf
où ξ est un point strictement compris entre . xetx0
9
Théorème1.2 (Théorème de Taylor à deux variables) On suppose que et toutes ses dérivées d’ordre inférieur à sont continues ),( yxf 1+n dans dycbxayxD ≤≤≤≤= ,),( 1),( +∈ nCyxf (c’est-à-dire ) soit
DyxDyx ∈∀∈ ),(,),( 00 , il existe ξ compris entre et 0xetx η compris entre
0, yy avec ),(),(),( yxRyxPyxf nn += où
( )
),()()(1
1),(
),()(
0
),()()(1........
...............),()(),()(),(,
1
1
01
0
1
01
000
0001
00
1
00000000
ηξjjn
njjn
n
j
jnn
n
nn
jjn
njjn
n
j
jn
n
yxfyyxxC
nyxR
yxx
fnxx
jpour
yxyx
fyyxxCn
yxyfyyyx
xfxxyxfyxP
∂∂∂
−−+
=
∂∂−
=
∂∂∂
−−++
+∂∂
−+∂∂
−+=
−+
+−+
+
=+
−−+
=+
∑
∑
Définition 1.9 Considérons l’accroissement de la fonctionnelle J
))(())()(( tyJtytyJJ −+=∆ δ Nous utilisons la série de Taylor autour de )()( tyty δ+ , pour ))()(( tytyJ δ+ , alors,
.................................................
.............................)()(
2
22
2
++=
+∂∂
+∂∂
=∆
JJ
tyyJty
yJJ
δδ
δδ
où ,)(tyyJJ δδ∂∂
= et 22
22 ))(( ty
yJJ δδ
∂∂
= sont respectivement la première variation et la
deuxième variation de . J Théorème 1.3 (Théorème de la moyenne) Soient et deux applications intégrables de l’intervalle compact , f g [ ] Rdansbaba <,, l’application g étant positive. On désigne par ( )Mréspm . la borne inférieure (résp.
10
supérieure) de [ ]basurf , . Alors, il existe Rk ∈ vérifiant :
∫ ∫=≤≤b
a
b
agkfgetMkm .
Si est continue, alors il existe vérifiant f [ bac ,∈ ]
.)(∫ ∫=b
a
b
agcffg
Cas particulier En adoptant on constate que si ,1: →tg [ ] Rbaf →,: est intégrable il existe tel
que
[ ]Mmk ,∈
( ).∫ −=b
aabkf
Si est continue (et donc intégrable), il existe f [ ]bac ,∈ tel que ( ) ).(cfabfb
a∫ −=
Lemme 1.1 (lemme fondamental) [12] Si l’intégrale où est une fonction continue par morceaux dans ∫
b
adyyyf )()( η )( yf
l’intervalle [ , s’annulant pour toute fonction ]ba, [ ]baC ,1∈η tel que 0)()( == ba ηη , alors, est identiquement nul dans)( yf [ ]ba , . Théorème 1.4 (Théorème fondamental) [6] Soit un extremum, la première variation de J doit être nulle en . i.e. )(* ty )(* ty
δ J ( ) 0)(),(* =tyty δ pour toute variation admissible )(tyδ .
1.2 Problème de Pontriaguine Pour l’instant, nous donnons une formulation du problème de Pontriaguine qui résout le principe du Minimum. Soit un système régi par une équation d’état
(1.3) )),(),(()( ttutygty =•
11
où et désignent respectivement l’état et la commande à l’instant t . nRty ∈)( nRtu ∈)( Soit l’instant initial, et supposons que la valeur de l’état à cet instant soit fixée 1t
11)( yty = (1.4) On ne peut pas piloter le système considéré entre l’instant initial 01 =t et un instant final
ft qu’avec une commande suffisamment régulière. Nous nous limiterons aux commandes continues par morceaux avec (commande admissible)
ItUtu ∈∀∈ ,)( (1.5) où I est un intervalle de R contenant [ ]ft,0 et U est sous-ensemble non vide de nR . Définition 1.10 Commande admissible On appelle commande admissible toute fonction continue par morceaux
21,)( ttttu ≤≤ , à valeur dansU . Le problème consiste à déterminer, si elle existe, une commande optimale u* minimisant, sur l’ensemble des commandes un critère J (1.6) ∫=
ftdtttutyFJ
0)),(),((
F est une fonction vectorielle réelle suffisamment régulière par rapport à ses arguments. Théorème 1.5 Principe du minimum faible (cas sans contrainte sur la commande) [8] Si la commande u associée au système linéaire de commande (1.3) est optimale pour la fonction coût (1.6), alors il existe une application (.)λ absolument continue sur [ ]ft,0 , à valeurs dans nR , appelée vecteur adjoint, et les équations suivantes sont vérifiées pour presque tout [ ]ftt ,0∈
λλ
∂∂
=• )),(),(),(()(* tttutyHty
12
ytttutyHt
∂∂
−=• )),(),(),(()(* λλ
0)),(),(),((=
∂∂
utttutyH λ
où H est le hamiltonien associé au système et au coût ; il est donné par : )),(),(()(),),(),(()),(),(),(( ttutyftttutyFtttutyHH Tλλ +== Théorème 1.6 Principe du minimum fort (cas de commande avec contrainte) [8] Si la commande u associée au système linéaire de commande (1.3) est optimale pour la fonction coût (1.6), alors il existe une application (.)λ absolument continue sur [ ]ft,0 tel que :
λλ
∂∂
=• )),(),(),(()(* tttutyHty
ytttutyHt
∂∂
−=• )),(),(),(()(* λλ
où H est le hamiltonien et est donné par : )),(),(()()),(),(()).(),(),(( ttutyftttutyFtttutyHH Tλλ +== La commandabilité :
Dans le cas des systèmes de la forme cette notion s’énonce comme suit.
),()()( tButAyty +=•
Théorème 1.7 [10]
Le système linéaire est commandable si seulement si la matrice de )()()( tuBtAyty +=•
commandabilité [ ]BABAABBG n
j12 ............,,, −= est de rang n. On dit alors que la
13
paire (A, B) est commandable. Théorème 1.8 [6] Une condition nécessaire et suffisante pour qu’un système de commande en temps minimum soit normal est que les matrices j=1, 2,…..r soient non singulières ou que le jG système soit complètement commandable. Théorème 1.9 [8] La condition nécessaire et suffisante pour qu’un système de commande en temps minimum soit singulière est que les matrices j = 1, 2,…r soient singulières ou que le jG système non commandable.
14
Chapitre 2
Eléments du Calcul des variations Le calcul des variations est une branche importante des mathématiques. Il a été développé dès le 17emesiecle par plusieurs mathématiciens notamment les frères Bernoulli, Euler, Gauss, etc……. Le calcul des variations a été également utilisé pour la résolution des problèmes d’optimisation dont la solution possède une certaine régularité, ( par exemple, C1-
continuité). Le calcul des variations dans le sens le plus large concerne l’étude des problèmes d’extremum impliquant des fonctionnelles. Il est analogue à la théorie des minima et maxima de l’analyse réelle. La seule difficulté supplémentaire est que les inconnues ne sont pas des nombres mais des fonctions.
15
2. Problème fondamental du calcul des variations Le problème fondamental du calcul des variations consiste à comparer les différentes valeurs que peut prendre une intégrale pour plusieurs choix de la fonction . Plus )(ty précisément, on cherche les valeurs maximale et minimale de fonctionnelles représentées par l’intégrale définie. Par exemple, les problèmes suivants relèvent du calcul des variations. Il s’agit de trouver le chemin fermé de longueur donnée, passant par , qui enclôt ),( 00 yt la plus grande surface possible, c’est le problème de la reine Didon [5], [10],[13]; une version moderne de ce problème est le problème de Chaplyguine [5], [10]. Le problème célèbre de la brachistochrone [5],[13] fût posé pour la première fois par Galileo en 1638.
2.1 Un problème simple du calcul des variations : cas sans
contrainte Position du problème Soit [ un intervalle de ]21 , tt R et soit E l’ensemble des applications de classe
1C définies sur [ à valeurs dans]21 , tt R . Le problème consiste à déterminer l’extremum d’une fonctionnelle définie sur E . Par exemple, si [ ]( )RttCE ,, 21
1= et
(2.1.1) dtttytyFyJt
t∫ ⎟⎠⎞
⎜⎝⎛=
•2
1
,)(,)()(
et si, en outre, est de classe et de classe avec ),)(,)(( ttytyF•
2C )(ty 1C BtyAty == )(,)( 21 (2.1.2) on a le problème de calcul des variations suivant :
16
Minimiser )( yJ tel que Ey∈ et vérifiant les conditions aux limites (2.1.2) Nous donnons, ci-dessous, le développement de l’équation d’Euler-Lagrange. On suppose, par exemple, que est la courbe qui rend l’intégrale (2.1.1) minimale et )(* ty soit une autre courbe qui s’écrit sous la forme )(ty )()(*)( tytyty δ+= (2.1.3) où )(tyδ est une variation de avec )(* ty 0)()( 21 == tyty δδ (2.1.4) tel que ))()(*( tytyJ δ+ est continuement différentiable sur E Donc,
( ) ( ) ( )
∫ ⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛−⎟
⎠⎞
⎜⎝⎛ ++=
−+=∆•••
2
1
),(*),(*),()(*),()(*
)(*)()(*()(),(*t
tttytyFttytytytyF
tyJtytyJtytyJ
δδ
δδ (2.1.5)
Pour déterminer la première variation de , on utilise le développement de Taylor autour de J
)(*)(* tyetty•
pour le premier terme de l’intégrale (2.1.5) et en gardant tout simplement les
termes linéaires en , pour obtenir •
yety δδ
dttyty
ttytyFtyty
ttytyFJt
t∫⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
∂
∂+
∂∂
=ƥ
•
••
2
1
)()(*
)),(*),(*()()(*
)),(*),(*( δδ (2.1.6)
Une intégration par parties dans le deuxième terme de (2.1.6) donne
dtyyFdtdyyFdtyyF
t
t
tt
t
tδδδ */*/*/ 2
1
2
1
2
1⎟⎠⎞
⎜⎝⎛ ∂∂−⎟
⎠⎞
⎜⎝⎛ ∂∂=⎟
⎠⎞
⎜⎝⎛ ∂∂
••••
∫∫
17
Sachant que 0)()( 21 == tyty δδ , l’équation (2.1.6) ci-dessus donne
( ) ( ) dtyyFdtdyFtytyJ
t
tδδδ ∫ ⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ ∂∂+∂∂=
•2
1
*/*/)(),(* (2.1.7)
qui est valable pour tout δ y de classe . 1C Ainsi, d’après le théorème 1.4 [6], on déduit que la variation de est nulle en J extremum, i.e. ( ) 0)(),(* =tytyJ δδ c’est-à-dire
( ) 0*/*2
1
=⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ ∂∂−∂∂∫
•
dtyyFdtdyF
t
tδ (2.1.8)
D’après le lemme 1.1 [12], on a le résultat :
( ) 0*/*/ =⎟⎠⎞
⎜⎝⎛ ∂∂−∂∂
•
yFdtdyF pour tout [ ]21, ttt∈ (2.1.9)
Cette dernière équation (2.1.9) (appelée l’équation d’Euler-Lagrange ) est une condition nécessaire.
18
Condition suffisante Pour établir la nature de l’extremum, c’est-à-dire, s’il s’agit d’un minimum ou d’un maximum, nous devons prendre en considération la deuxième variation et examiner son signe. Donc, nous trouvons une condition suffisante pour l’extremum.
Soit ( ) ( ) dttytyyyFtyyFtyyFJt
t∫ ⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ ∂∂∂+⎟
⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛ ∂∂+∂∂=
•
∗
••
∗
•
∗2
1
)()(2)()( 222
22222 δδδδδ
où δ2J = [δy(t) ] ∫2
1
t
t)(ty
•
δ
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡
∂
∂
∂∂
∂∂∂
∂∂∂
••
•
2
22
2
2
2
2
y
F
yy
Fyy
FyF
dt (2.1.10) ⎥⎦
⎤⎢⎣
⎡•
)(
)(
ty
ty
δ
δ
δ2J = ∫2
1
t
t ⎥⎦⎤
⎢⎣⎡ •
)()( tyty δδ ∏ ⎥⎦
⎤⎢⎣
⎡•
)(
)(
ty
ty
δ
δ dt (2.1.11)
Si la deuxième variation est positive (négative), cela veut dire que la matrice Π dans J2δ (2.1.11) doit être définie positive (négative). Ceci prouve la nature de l’extremum. Dans
beaucoup de cas )(tyδ est arbitraire, le coefficient de , i.e.,2
)( ⎟⎠⎞
⎜⎝⎛ •
tyδ ⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
• 22 yF détermine le
signe de δ2J.
0*2
2 >⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
•
yF pour le minimum (2.1.12)
19
0*2
2 <⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
•
yF pour le maximum (2.1.13)
Les conditions (2.1.12) et (2.1.13) sont appelées conditions de Legendre [4]. 2.2 Un problème simple du calcul des variations : cas avec
contrainte On rencontre dans les problèmes d’optimisation, c’est-à-dire, de calcul des variations, un certain nombre de contraintes qui imposées à la solution admissible engendrent )(ty des difficultés supplémentaires. Généralement, il y a plusieurs contraintes : - Contraintes au bord : on peut imposer à la solution de prendre des valeurs données aux bornes de l’intervalle . ],[ 21 ttI = - Contraintes instantanées :
1) sous forme d’égalité : 0)),(),(( =•
ttytyg .
2) sous forme d’inégalité : 0)),(),((0)),(),(( ≥≤••
ttytygouttytyg .
- Contraintes différentiables : ce type de contraintes sera pris en compte dans la
théorie de la commande optimale et sera de la forme . )),(),(()( ttutygty =•
Pour incorporer ces contraintes, on fera appel à la technique des multiplicateurs de Lagrange.
20
2.2.1 La méthode des multiplicateurs de Lagrange
Considérons le problème (2.1.1) -(2.1.2) avec [ ]( )nRttCE ,, 211= et supposons qu’on
dispose de p contraintes pktygk ≤≤= 10),( (2.2.1) où, ( )T
pyyyy .........,, 21= Pour étudier ce problème, on introduit multiplicateurs de Lagrange p pλλλ ............,, 21
Soit (2.2.2) )(),,(),,( ygtyyFtyyL iiλ+=••
Maintenant, il suffit juste d’utiliser les résultats précédents de la section2.1, associés au lagrangien (2.2.2), alors, vérifie les équations d’Euler-Lagrange, données par )( ty n
[ ]
0)),(()),(),(()),(),((
)),(),(()),(),((,,1
=∂∂
+∂
∂−
∂∂
=∂
∂−
∂∂
∈∀
•
•
•
•
•
•
ttyyg
ttytyy
Fdtdttyty
yF
ttytyy
Ldtdttyty
yLpi
i
ii
ii
ii
λ (2.2.3)
On cherche donc p fonctions pλλλ ....,,........., 21 ,telles que [ ] 0)),(),(()),(),((,,1 =
∂−
∂∂
∈∀•
•
•
ttytyy
Ldtdttyty
yLpi
ii
(2.2.4)
C’est –à –dire pkk ≤≤1)(λ sont solutions du système linéaire suivant qui comporte p équations et p inconnues :
21
⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
∂
∂−
∂∂
∂
∂−
∂∂
=
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜
⎝
⎛
∂∂
∂∂
•
•
•
•
•
•
.............................................................
)),(),(()),(),((.........................................................
)),(),(()),(),((
.....
......
...............
............
................
............11
1
1
ttytyy
Fdtdttyty
yF
ttytyy
Fdtdttyty
yF
yg
yg
ii
i
i
i
i λ
λ
(2.2.5)
La fonction vectorielle solution du problème de calcul des variations avec les p contraintes y est donc solution des équations d ’Euler -Lagrange associées au Lagrangien i
p
i i gFL ∑ =+=
1λ (2.2.6)
2.2.2 Problème Isopérimétrique On appelle problème isopérimetrique [3], [8], [9], un problème où, au moins, une contrainte s’intègre sur toute la trajectoire à déterminer. Donc, il s’agit d’un problème géométrique de calcul de « surface minimale à périmètre donné » ou « volume minimal à surface donnée ». Pour cela, considérons le problème suivant défini sur [ ]( )RttCE ,, 21
1=
(2.2.7) ∫•
= 2
1
)),(),(()(t
tdtttytyFyJMin
tel que (2.2.8) ∫ =•
2
1
)),(),((t
tdtttytyg µ
et satisfaisant les conditions aux limites : 2211 )(,)( ytyyty == (2.2.9)
On suppose que sont respectivement de classe et )),(),(()),(),(( ttytygetttytyF••
2C de classe par rapport à La difficulté du problème est dû cela à la présence de la 1C ).(ty contrainte (2.2.8).
22
L’objectif de la méthode des multiplicateurs de Lagrange est d’incorporer la condition (2.2.8) et de faire apparaître une nouvelle formulation du problème. De ce fait, la fonctionnelle augmentée est de la forme suivante :
(2.2.10) dtttytyLJt
t)),(),((2
1∫
•
=α
où (2.2.11) ⎥⎦⎤
⎢⎣⎡ −+=
•••
µλ )),(),(()),(),(()),(),(( ttytygttytyFttytyL
Supposons que est un minimum, et que est suffisamment proche du minimum )(* ty )(ty
)(* ty i.e. ξηξ ,)(*)( += tyty réel (2.2.12) alors, ))(*( ξηξ α +→ tyJ , aura un minimum pour 0=ξ , pour tout choix de [ ] Rtt →21,:η de classe avec 1C 0)(,0)( 21 == tt ηη (2.2.13) Donc, la variation de par rapport J ξη+)(* ty est nulle
0))(*( 0 =+ =ξξηξ
tyJdd (2.2.14)
ce qui donne
0)(2
1
=∂
∂+
∂∂ •
•∫ dyy
LyLt
tηη (2.2.15)
En faisant une intégration par parties dans le deuxième terme de (2.2.15) et tenant compte de (2.2.13), on a l’équation suivante vérifiée pour tout η de classe ( [ ] )21
2 , ttC
( ) 0**2
1
=⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ ∂∂−∂∂∫
•
dtyLdtdyL
t
tη (2.2.16)
D’après le théorème 1.5 [3], on a :
23
( ) 0** =⎟⎠⎞
⎜⎝⎛ ∂∂−∂∂
•
yLdtdyL (2.2.17)
L’équation du multiplicateur de Lagrange est
( ) 0** =⎟⎠⎞
⎜⎝⎛ ∂∂−∂∂
•
λλ LdtdL (2.2.18)
Remarquons d’après (2.2.11) que le Lagrangien L est indépendant de et que )(t•
λ l’équation d’Euler-Lagrange (2.2.18) pour l’état adjoint )(tλ n’est rien d’autre que la relation de contrainte (2.2.8) Exemple 2.1 Soit la fonctionnelle définie par J
dtyyJ 2121
0)1(∫
•
+=
avec la contrainte 4)1( 2121
0=+∫
•
dty
et les conditions aux limites .0)1(0)0( == yety On veut déterminer la fonction qui rend extrémal la fonctionnelle )(ty J Solution D’après (2.2.11), on a :
]4)1([)1(),),(),(( 212
212
−+++=•••
yyyttytyL λλ (2.2.19) Equation d’Euler-Lagrange (2.2.17) est :
L - = c , ⎟⎠⎞
⎜⎝⎛ ∂∂
••
yLy / 0≠c (2.2.20)
24
i.e ( )[ ]
dty
dy=
−+ 21
12λ (2.2.21)
Faisons le changement de variable ( ) cyu λ+= 0≠c et dérivons dans les deux membres, on a le résultat suivant : dyduc = . Il vient alors :
dtu
cdu=
− 21
)1( 2 (2.2.23)
(2.2.23) est une équation différentielle d’ordre 1 est sa solution et donnée par (méthode séparation des variables)
( )cattu /)(cosh)( += (2.2.24) Finalement :
( )catty /)(cosh)( ++−= λ (2.2.25) Détermination des constantes : Puisque , on trouve : 0)1()0( == yy
( ) ( )ctcccty 21
cosh2cosh)( −+−= (2.2.26)
Pour utiliser la condition 4121
1
0
2
=⎟⎟⎠
⎞⎜⎜⎝
⎛+∫
•
dty , on doit dériver (2.2.26) par rapport . y
D’où :
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛=
−•
ctshy
21
alors, ( ) 4
1
021
=∫− dtctch
d’où le résultat
25
( ) 4212 =cshc (2.2.27) Une évaluation numérique de (2.2.27) (méthode de point fixe) donne c = 0.153. Donc, la solution
( )[ ] 006.25.6153.0)( 21
−= −tchty 2.2.3 Problème de calcul des variations avec une extrémité libre : condition de transversalité Dans la section 2.1, nous avons étudié le cas où toutes les courbes considérées reliant deux points fixes. Parfois, on souhaite maximiser ou minimiser une fonctionnelle de type (2.1.1) pour toute courbe ayant un point final non spécifié. Plus généralement, le problème peut se réduire au calcul de minimum de la fonctionnelle sachant que toutes les courbes commencent en un point initial et finissent sur une courbe arbitraire 0),( =ytφ . Considérons le problème suivant :
(2.2.28) ( ) dtttytyFtyJMin ft
t)),(),(()(
1∫
•
=
avec la condition initiale donnée par libretlibretyetyty ff ,)()( 11 = (2.2.29)
On suppose que est de classe . )),(),(( ttytyF•
2C Le problème décrit par (2.2.28)- (2.2.29) est le même problème que celui déjà vu dans la section 2.1 (calcul des variations avec extrémités fixes). La seule difficulté est que le temps final est libre et que n’est pas imposé, i.e. libre. Donc la nouveauté spécifique ft )( fty associée à ce problème est l’imposition des conditions de transversalité. Nous développons la solution du problème de calcul des variations avec une extrémité et libres, introduits ci-dessus, à travers les étapes suivantes : ft
26
Etape 1 : hypothèse d’extremum Etape 2 : variation et accroissement Etape 3 : première variation Etape 4 : condition d’extremum Etape 5 : conditions de transversalité Nous donnons ci-dessous pour le problème du calcul des variations donné ci-dessus les détails de chaque étape. Etape 1 : Supposons que est une courbe qui rend l’intégrale (2.2.28) minimale, et )(* ty une courbe suffisamment proche de s’écrivant sous la forme )(ty )(* ty
y (t) = y*(t) + δy (t). (2.2.30) D’où
dtttytytytyF
dtttytytytyF
dtttytytytyFtyJ
ff
f
f
ff
tt
t
t
t
tt
t
)),()(*),()(*(
)),()(*),()(*(
)),()(*),()(*())((
1
1
•+ •
••
•+ •
+++
++=
++=
∫
∫
∫
δδ
δδ
δδ
δ
δ
(2.2.31)
En utilisant le théorème 1.3 (théorème de la moyenne) puis le développement de Taylor
de autour de , en retenant simplement les termes linéaires trouvés et en F )(*),(* tyty•
négligeant les termes d’ordre supérieurs ou égal à 2, on a
ft
tt
ttFdtttytytytyF
f
ff
f
δδδδ
∫+ •
≈++ )),()(*),()(*(
27
Etape 2 : Accroissement Soit
[
] )32.2.2()),(*),(*(
)),()(*),()(*(
))(*())()(*())(),(*(
1
ft
t
t
tFdtttytyF
ttytytytyF
tyJtytyJtytyJ
f
f
δ
δδ
δδ
+−
++=
−+=∆
•
••
∫
Etape 3 : Première variation
L’utilisation du théorème 1.2 pour donne )),()(*),()(*( ttytytytyF••
++ δδ
( ) ft
t
ttFdttyyFtyyFJ
f
f δδδδ +⎥⎦⎤
⎢⎣⎡ ∂∂+∂∂= ∫
••
1
)(*)()(* (2.2.33)
Une intégration par partie dans le deuxième terme de l’intégrale donne
( )ff
f
tft
t
ttyyFtFdttyyFyFJ ⎥⎦⎤
⎢⎣⎡ ∂∂++
⎭⎬⎫
⎩⎨⎧
⎥⎦⎤
⎢⎣⎡ ∂∂−∂∂=
••
∫ )(*)()(*)(*1
δδδδ (2.2.34)
Etape 4 : Condition d’extremum Une condition nécessaire pour que ait un minimum est que J Jδ =0 ftty δδ ∀∀ ,)( . D’après le théorème 1.4 [6], on a 0=Jδ (2.2.35) D’où, l’équation d’Euler- Lagrange
( ) 0)*(* =∂∂−∂∂•
yFdtdyF (2.2.36)
La condition (2.2.35) donne
0)(*)( =⎥⎦⎤
⎢⎣⎡ ∂∂+
•
ff tft tyyFtF δδ (2.2.37)
28
Etape 5 : Conditions de transversalité
Notons que la tangente de au point est approchée par )()(* tyty••
+ δ ft
( ) fffff ttyytyty δδδδ /)()()(* −≈+••
(2.2.38)
Tenant compte du terme linéaire dans la relation (2.2.38), on a
ffff ttyyty δδδ )(*)(•
−≈ (2.2.39) Substituant (2.2.39) dans l’équation (2.2.37), nous obtenons la condition de transversalité
0*)(*)( =∂∂+⎥⎦⎤
⎢⎣⎡ ∂∂+
•••
ftft yyFtyFyFffδδ (2.2.40)
Nous obtenons différents cas selon que l’on considère libres ou fixes. )(/ ff tyouett Type (a) : fixe et fixe : puisque et sont fixes, ft )( fty ft )( fty ff yett δδ sont nuls dans la condition de transversalité (2.2.40); donc il n’y a aucune condition supplémentaire à part celles imposées par le problème. Type (b) : libre et fixe : puisque est libre, alorsft )( fty ft ftδ est arbitraire et
)( fty est fixe. On spécifie que fyδ est nul. Donc le coefficient de ftδ dans la condition (2.2.40) est nul aboutissant à la condition de transversalité
0*)( =⎥⎦⎤
⎢⎣⎡ ∂∂+
••
ft
yFyF (2.2.41)
Type (c) : fixe et libre : comme est donné et est libre donc,ft )( fty ft )( fty ftδ est nul et fyδ est arbitraire. Ceci signifie que le coefficient de fyδ dans la condition (2.2.40) est nul. c.à.d
29
0* =⎟⎠⎞
⎜⎝⎛ ∂∂
•
ftyF (2.2.42)
Type (d) : libre et libre les coefficients deft )( fty ff ydeett δδ dans la condition (2.2.40) sont nuls.
0*
0*)(
=⎟⎠⎞
⎜⎝⎛ ∂∂
=⎥⎦⎤
⎢⎣⎡ ∂∂+
•
••
f
f
t
t
yF
yFyF
(2.2.43)
Pour illustrer la théorie, on considère l’exemple suivant où l’on considère l’état final libre et le temps final fixe. ft Exemple 2.3 Soit le problème suivant :
2,)(,1)0(
)(2
0
2
==
+= ∫•
TlibreTyyquetels
dtyyJT
Il s’agit de trouver l’extrémum du problème ci-dessus
Soit 2
2),,(••
+= yytyyF Alors, l’équation d’Euler-Lagrange (2.1.9) s’écrit
(2.2.44) 0=+−••
yy (2.2.44) est une équation différentielle ordinaire d’ordre 2 et sa solution est donnée par (2.2.45) tt ececty −+= 21)( Puisque T est fixe et est libre, alors, )(Ty )(0 TT tyett =δ est arbitraire et de ce fait, la condition de transversalité (2.2.40) se réduit au type c
30
0=∂
∂•
Ty
F
qui donne 0)2( =•
y Détermination des constantes
Comme alors, 0)2(,0)0( ==•
yy⎩⎨⎧
=+
=+− 0
12
22
1
21
ecec
cc
D’où :
22
,22
2
2
2
1 shec
shec −
=−
=−
Ainsi, la solution optimale est
22
)()2()2(
sheety
tt −−− +−=
31
Chapitre 3
Problèmes simples de commande optimale
Introduction La commande optimale a été développée pour guider un système vers un objectif de manière optimale. Donc, on peut décrire le problème de commande optimale de la manière suivante : - On dispose d’un système (robot, une fusée, un four …..) dont l’évolution dans le temps est gouvernée par une loi physique (mécanique, transfert de matière ………) qui lie ses variables d’état décrites par un vecteur d’état (vitesse, position) et des commandes )(ty )(tu (accélération, flux de matière, poussée). - A l’aide de commandes, on désire faire en sorte que le système suive une trajectoire déterminée ou atteigne un état fixe ou minimise le long de la trajectoire un critère. En outre, il existe un lien entre la théorie des processus optimaux et le calcul des variations et qu’il lui est équivalent lorsque le domaine de commandeU est un ensemble ouvert de l’espace vectoriel et que toutes les conditions nécessaires du calcul des variations découlent du principe du minimum [17]. Cependant, la théorie classique du calcul des variations est impuissante face à des problèmes où l’on impose des conditions du type U fermé, 1≤u , …ou s’il y a absence de régularité. Ainsi, l’avantage du principe du minimum sur la théorie classique du calcul des variations réside dans le fait qu’il s’applique à un ensemble quelconque (ouvert, fermé) et ou la solution peut être régulière où non régulière [6], [10], [17].
32
3.1 Différents types de problèmes
d’optimisation
3.1.1 PROBLEME DE LAGRANGE Dans cette section, nous étudions une classe de problèmes de commande. On considérera un système dynamique dont l’évolution est régie par l’équation différentielle ordinaire
(3.1.1) 21)),(),(()( tttpourttutygty ≤≤=o
où les contrôles sont des fonctions définies de (.)u [ ]10 , tt dans R . Étant donné une fonction coût [ ] RURttF →××10 ,: , on définit le problème de minimisation : (3.1.2) ∫
2
1
)),(),((t
tdtttutyFMin
tel que 11)( yty = est une condition initiale donnée. (3.1.3) Ainsi, la formulation (3.1.2) est appelée problème de Lagrange. Nous présentons, ci- -dessous, deux formulations alternatives. 3.1.2 PROBLEME DE MAYER Ici, le critère à minimiser est différent de celui de la section 3.1. Il dépend uniquement de la valeur terminale de l’état contrôlé du système. On considère le système (3.1.1) et soit la fonction , on définit le problème RRG →: d’optimisation par
33
(3.1.4) ))(( 2tyGMin tel que est une condition initiale donnée (3.1.5) 11)( yty = 3.1.3 PROBLEME DE BOLZA L’avantage du problème de Bolza est que c’est un problème qui regroupe les deux précédentes formulations à savoir les formulations de Lagrange et de Mayer. Soit le système dynamique (3.1.1) Etant donné , on définit le problème [ ] RRGetRURttF →→×× :,: 10
d’optimisation par
(3.1.6) ( ) ( ⎥⎦⎤
⎢⎣⎡ +∫
2
1
)(),(),( 2
t
ttyGdtttutyFMin )
et satisfaisant la condition initiale
(3.1.7) 11)( yty = Les trois formulations (3.1.2), (3.1.4) et (3.1.6) sont équivalentes dans le sens où on peut toujours se ramener de l’une à l’autre.
34
3.2 Problème Abstrait de commande optimale Un problème de commande optimale comporte de deux parties : La première partie consiste à déterminer parmi les commandes admissibles celles qui permettent d’avoir une trajectoire joignant le point initial à une cible. La deuxième partie consiste à chercher, parmi toutes ces trajectoires possibles, celle qui réalise le coût minimal. Ainsi, le problème de commande optimale consiste à déterminer, si elle existe, une commande minimisant, sur l’ensemble U des commandes admissible, un *u critère de la forme J (3.2.1) ∫+= ft
tff dtttutyFtySJ1
)),(),((),(
tel que
[ ]ftttttutygty ,),),(),(()( 1∈=•
(3.2.2) et les conditions aux limites sont sous l’une ou l’autre des formes suivantes.
(3.2.3) libretfixetyivfixetfixetyiiilibretlibretyii
fixetlibretyetytyi
ff
ff
ff
ff
,)(//),)(//),)(//)
,)()() 11 =
où ,,)(,)( ItUtuRty n ∈∀∈∈ I est un intervalle de R contenant [ ] ettt f,1 U est un sous-ensemble non vide de nR .
getFS , sont des fonctions vectorielles réelles suffisamment régulières par rapport à leurs arguments.
35
Position du problème (sans contrainte sur la commande) Le problème de commande optimale s’écrit alors :
(3. 2.1) ∫+= ft
tff dtttutyFttySuJMin1
)),(),(()),(()(
tel que (3.2.2) )),(),(()( ttutygty =•
et la condition initiale donnée par libretlibretyetyty ff ,)()( 11 = (3.2.4) où sont, au moins, de classe par rapport à leurs arguments. getFS , 2C Notre objectif est de construire par le théorème 1.7 [8] les conditions nécessaires d’optimalité. Nous développons la solution du problème de commande optimale donné ci- dessus, à travers les étapes suivantes et nous renvoyons pour plus de détail à [8], [10],[12]. Etape 1 : Former le hamiltonien Etape 2 : Obtenir les équations d’état et co-état Etape 3 : Obtenir la condition nécessaire d’optimalité par rapport à u Etape 4 : Donner les conditions de transversalité Description succincte des différentes étapes de la résolution du problème Etape 1 : Hamiltonien Nous formons le hamiltonien H pour le problème décrit par le système (3.2.2) et (3.2.1) en posant :
)),(),(()()),(),(()),(),(),(( ttutygtttutyFtttutyH λλ += (3.2.5) où λ (t) est l’état adjoint. Etape 2 : Etat adjoint et équation d’état
36
Soient )(*)(*),(* tettuty λ les valeurs optimales; alors L’équation d’état et l’équation adjoint sont données respectivement par :
)),(*),(*(*)(* ttutygHty =⎟⎠⎞
⎜⎝⎛∂∂
=•
λ (3.2.6)
avec la condition initiale
(3.2.7) )()(* 11 tyty =
et **)(* ⎟⎟⎠
⎞∂∂
+∂∂
⎜⎜⎝
⎛−=⎟⎟
⎠
⎞⎜⎜⎝
⎛∂∂
−=•
yg
yF
yHt λλ (3.2.8)
Etape 3 : Condition d’optimalité La condition d’optimalité [8] est donnée par
*⎟⎠⎞
⎜⎝⎛∂Η∂u
= 0* =⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
ug
uF λ (3.2.9)
Etape 4 : Condition de transversalité [6] ( )[ ] ( )[ ] 0)(*** =−∂∂+∂∂+ ftft ytySttSH
ffδλδ (3.2.10)
La relation (3.2.10) donne la condition supplémentaire qui sert à résoudre l’ensemble des équations (3.2.6) et (3.2.8). Différents cas de transversalité Type (1) Puisque et sont fixes, ft )( ftx ftδ et fyδ sont nuls dans la condition de transversalité (3.2.10 ) ; il n’y aucune condition supplémentaire à part celles imposées par la formulation du problème. Type (2) : le temps final libre et est fixe, alors ft )( fty ftδ est arbitraire et comme
37
)( fty est fixe, fyδ est nul. Le coefficient de ftδ dans la condition de transversalité (3.2.10) est nul aboutissant à :
0=⎟⎠⎞
⎜⎝⎛
∂∂
+ftt
SH (3.2.11)
Type (3) : est fixe et est libre. Donc ft )( fty ftδ est nul et fyδ est arbitraire. Ceci signifie que le coefficient de fyδ dans la condition de transversalité (3.2.10) est nul. c.à.d.
0)(* =⎟⎟⎠
⎞⎜⎜⎝
⎛−
∂∂
ft
tyS λ (3.2.12)
Type (4) : est sont libres, ne sont pas reliés, ft )( fty ftδ et fyδ ne le sont pas ; on a d’après la condition (3.2.10) le résultat suivant :
0=⎟⎠⎞
⎜⎝⎛
∂∂
+ftt
SH (3.2.13)
0)(* =⎟⎟⎠
⎞⎜⎜⎝
⎛−
∂∂
ft
tyS λ (3.2.14)
Exemple 3.1 : Soit à minimiser le problème de commande tels que )( 1P
)( 1P
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
1sin)1(,0)0(
)(),( 221
0 21
==
+=
−=
•
∫
yyet
uyy
quetels
dtyuuyJMin
On résout ce problème par la technique reposant sur les résultats obtenus dans la section 3.4.
38
En effet, on a ici
( ) ( )⎪⎪
⎩
⎪⎪
⎨
⎧
==
++−=
+=
−=
1sin)1(,0)0(),,,(
),,(),,(
2221
2221
yyuyyutuyH
uytuygyutuyF
λλ
D’après (3.2.6), (3.2.8) et (3.2.9), on a les résultats suivants :
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
===+
−=
+=•
•
1sin)1(,0)0(0
yyu
uyy
λλλ
Ainsi, on a
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
==−=−=
−=•
••
1sin)1(,0)0( yyu
yyu
yy
λ
La résolution des équations différentielles précédentes donne
( ) (( ) (⎪
⎩
⎪⎨
⎧
++−−=+−−=
+=
ttcttctttcttctu
tctcty
cossinsincos)(cossinsincos)(
cossin)(
21
21
21
λ))
39
Détermination des constantes : Comme , ceci implique que 1sin)1(,0)0( == yy 0,1 21 == cc De ce fait, la solution optimale est
⎪⎩
⎪⎨
⎧
−=−=
=
ttttttu
tty
cossin)(sincos)(
sin)(
λ
Exemple 3.2 : commande de la température dans une chambre On désire chauffer une chambre en utilisant le moins d’énergie possible. Si )(tθ est la température dans la chambre, aθ la température ambiante extérieure de l’air (constante) et
)(tu est le taux d’alimentation en chaleur de la chambre, alors
( ) bua a +−−=•
θθθ où sont des constantes dépendant de l’isolation de la chambre. Pour simplifier le ba, problème, nous supposerons que ay θθ −= et la température initiale de la chambre est égale à °= 60aθ , alors , et la température finale °= 0)0(y )(Tθ libre. Soit le problème de commande optimale ( )2P :
)( 2P
⎪⎪⎪⎪
⎩
⎪⎪⎪⎪
⎨
⎧ ( )
libreTyyet
buayy
quetels
dTuTysJT
)(,0)0(
2110)(
21
0
22
°=
+−=
+−=
•
∫
où s est un nombre réel
40
Ici on a,
⎪⎪
⎩
⎪⎪
⎨
⎧
°=+−=
=
fixeTlibreTyyubyatuyg
utuyF
)(,0)0(),,(
21),,( 2
Ainsi, le hamiltonien H est
( buyautuyH +−+= λ2
21),,( ) (3.2.15)
D’après (3.2.6), (3.2.8) et (3.2.9) les conditions nécessaires d’optimalité sont
(3.2.16)
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
°==+
=
+−=•
•
fixeTlibreTyybu
a
ubyay
)(0)0(0λ
λλ
D’où
(3.2.17)
⎪⎪
⎩
⎪⎪
⎨
⎧
==
−−=•
•
fixeTlibreTyya
bayy
)(0)0(
2
λλ
λ
La résolution des équations précédentes donne
)1)((2
)0()(
)()(
202
)1(
Tat
Ta
eTa
beyty
Tet
−−
−−
−−=
=
λ
λλ (3.2.18)
Comme l’état final est libre, donc, 0,0)( =≠ TTy δδ la condition de transversalité (3.2.10) se réduit au type (3) ce qui donne
10)()()10)(()( −=⇒−=sTTyTysT λλ (3.2.19)
41
Substituant (3.2.18) dans (3.2.19) nous obtenons
( )aTesbasaT 22 12
20)( −−+−
=λ (3.2.20)
Substituant (3.2.20) dans (3.2.18), on obtient le co-état (état adjoint)
shaTsbaeesat aT
ta
2
10)(+
−=λ
Finalement la commande optimale est
shaTsbaeesbatu aT
at
2
10)(+
=
Ainsi, la trajectoire optimale est donnée par :
shaTsbaeshatbsty aT 2
210)(+
=
3.3 Le calcul des variations en commande optimale Dans cette section, nous étudions un système de commande optimale par les techniques variationnelles c’est-à-dire par la méthode du calcul des variations. Pour trouver la commande optimale pour un problème décrit par l’équation du système, l’indice de )(* tu performance et les conditions aux limites, nous allons traiter l’équation différentielle qui régit l’état du système comme une contrainte d’égalité de la forme 0)),(),(()( =−
•
ttutygty Nous utilisons la variation du contrôle )()(*)( tututu δ+= dans l’objectif d’appliquer la théorie du calcul des variations. Le calcul des variations suppose que U est un ouvert non vide de nR et procède par « petite variation » de la commande optimale ; ainsi, en posant *u
42
)(uJJ = , on cherche une commande optimale tel que *u
*)()*( uJuuJ ≥+δ Notre objectif dans cette section est de reformuler le problème de commande optimale décrit par (3.2.1), (3.2.2) et (3.2.4) en un problème de calcul des variations sans contrainte. Nous développons la solution du problème de Bolza à travers les étapes suivantes (pour de plus de détails voir [6]) : Etape 1 : Hypothèse de l’existence de la commande optimale et de l’état associé Etape 2 : Variation de la commande et de l’état Etape 3 : Multiplicateur de Lagrange Etape 4 : Première variation Etape 6 : Condition d’extremum Description des étapes conduisant aux CNO : Etape 1 : Commande optimale et état associé Supposons que la commande optimale u*(t) et l’état associé y*(t) existent, alors par analogie avec le calcul des variations on pose
dtdt
ttydSttutyFtuJ ft
t∫ ⎥⎦⎤
⎢⎣⎡ +=
1
)),(*()),(*),(*())(*( (3.3.1)
et
(3.3.2) )),(*),(*()(* ttutygty =•
Etape 2 : Variations de la commande et de l’état Soient )()(*)()()(*)( tytytyettututu δδ +=+= (3.3.3)
Alors, l’équation d’état (3.3.2) et l’indice de performance (3.3.1) s’écrivent respectivement:
43
[ ]dtdtdSttututytyFtutuJ
ttututytygtyty
ff tt
t∫+
••
+++=+
++=+
δδδδ
δδδ
1
)),()(*),()(*())()(*(
)),()(*),()(*()()(* (3.3.4)
Etape 3 : Multiplicateur de Lagrange Considérons l’équation d’état (3.3.2) sous forme de contrainte. On associe à la contrainte un multiplicateur Rt ∈)(λ tel que la performance augmentée est
⎥⎦⎤
⎢⎣⎡ −+
∂∂+∂∂+=
=
•
••
•
∫
)),(*),(*()(*)(
)(*)()),(*),(*()),(*),(*),(*),(*(
)5.3.3()),(*),(*),(*),(*())(*(1
ttutygtyt
tStyySttutyFtttutytyL
où
dttttutytyLtuJ ft
t
λ
λ
λ
D’où :
∫ ∫
∫
+ ••
+ •
+=
=
f ff
f
ff
t
t
tt
t
tt
t
dttttutytyLdttttutytyL
dttttuytyLtuJ
1
1
)),(),(),(),(()),(),(),(),((
)),(),(,),(())((
δ
δ
λλ
λ
En utilisant le théorème 1.3 puis le théorème 1.2 du chapitre 1 appliqués à la fonction
)),(),(),(),(( tttutytyL λ•
autour de en gardant les termes linéaires et en )(*),(* tuty négligeant les termes d’ordre supérieur où égal à 2, on obtient
ft
tt
ttLdtttutytyL
f
ff
f
δδ
∫+ •
≈)),(),(),((
44
Etape 4 : Première variation En définissant puis en utilisant le théorème 1.2, on obtient la première J∆ variation Jδ en retenant seulement les termes linéaires ;
( ) ( ) ft
t
ttLdttuuLtyyLtyyLJ
f
f δδδδδ +⎥⎦
⎤⎢⎣
⎡ ∂∂+⎟⎠⎞
⎜⎝⎛ ∂∂+∂∂= ∫
••
1
)(*)(*)(* (3.3.6)
Intégrant par parties le terme qui contient dans (3.3.6) alors )(ty•
δ Jδ s’écrit
( ) ( )
f
f
f
tt
t
t
tyyLL
dttuuLtyyLdtdyLJ
⎥⎦⎤
⎢⎣⎡ ∂∂++
+⎭⎬⎫
⎩⎨⎧
∂∂+⎥⎦⎤
⎢⎣⎡ ∂∂−∂∂=
•
•
∫
)(*)(
)(*)(*)(*1
δ
δδδ (3.3.7)
Etape 5 : Condition d’extremum Sachant que 0=Jδ d’après le théorème 1.4 [6] pour le calcul des variations, il vient alors que pour le système de commande (3.2.2), on considère )(tyδ une variation dépendante. Le coefficient dans (3.3.7) est nul :
( ) 0** =⎟⎠⎞
⎜⎝⎛ ∂∂−∂∂
•
yLdtdyL (3.3.8)
Comme la variation du contrôle δu (t) est arbitraire, donc le coefficient de la commande est nulle
( ) 0* =∂∂ uL (3.3.9) Ainsi, la première variation se réduit à
( )[ ] 0)(** =∂∂+
ff tft tyYLtL δδ (3.3.10) Le système (3.3.2) en fonction du Lagrangien est ( ) 0* =∂∂ λL (3.3.11)
45
Maintenant, nous utilisons le résultat de la section 2.1, pour le problème décrit par (3.2.1), (3.2.2) et (3.2.4). Pour la condition optimale, nous avons l’ensemble des équations d’Euler-Lagrange par rapport à la fonctionnelle augmentée(3.3.5) donnée en termes de )()(),( tuettty λ par :
)14.3.3(0**:
)13.3.3(0**:int
)12.3.3(0**:'
=⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
∂
∂−⎟
⎠⎞
⎜⎝⎛∂∂
=⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
∂
∂−⎟
⎠⎞
⎜⎝⎛∂∂
=⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛
∂
∂−⎟⎟
⎠
⎞⎜⎜⎝
⎛∂∂
•
•
•
u
Ldtd
uLcommandedeéquation
LdtdLeadjoéquation
y
Ldtd
yLétatdéquation
λλ
De ce fait, les équations (3.3.13) et (3.3.14) sont équivalentes aux équations (3.3.9) et (3.3.11) respectivement.
Comme (3.3.15) ffff ttyyty δδδ )()(•
−≈
Alors, en substituant (3.3.12) dans la condition générale (3.3.10), nous obtenons
0** =⎟⎠⎞
⎜⎝⎛ ∂∂+⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ ∂∂+
•••
ftft yyLtyLyLffδδ (3.3.16)
où (3.5.16) est la condition de transversalité. Exemple 3.3 Nous allons reformuler le problème de l’exemple 3.1 de la section 3.4 par la méthode )( 1P du calcul des variations. D’après (3.3.5), on a
dttuyyLuyJ ),,,,(),(1
0λ∫
•
=
46
soit ⎟⎠⎞
⎜⎝⎛ −−+⎟
⎠⎞
⎜⎝⎛ −=
••
uyyyutuyyL λλ 22
21),,,,(
où Rt ∈= )(λλ est le multiplicateur de Lagrange L’ensemble des équations d’Euler-Lagrange est donné par :
)16.3.3(00
)15.3.3(00
)14.3.3(020
=+⇒=⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
∂
∂−
∂∂
=−−⇒=⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
∂
∂−
∂∂
=+−−⇒=⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛
∂
∂−
∂∂
•
•
•
•
λ
λλ
λλ
uu
Ldtd
uL
uyyLdtdL
yy
Ldtd
yL
o
L’équation (3.3.16) donne
λ−=u (3.3.17) Substituant (3.3.17) dans (3.3.15), nous obtenons
(3.3.18) 0=−−•
yy λDérivons dans (3.3.18), il vient :
(3.3.19) 0=−+−••••
λyy Substituant (3.3.14) dans (3.3.19), on a :
(3.3.20) 02 =+−+−•••
λyyy
Remplaçant dans (3.3.20), on obtient λ−•
ypary
0=−−••
yy (3.3.21) 1sin)1(,0)0( == yy
47
Ainsi, la solution de l’équation (3.3.21) est donnée par :
ttt
tttutty
sincos)(sincos)(
sin)(
+−=−=
=
λ
Les deux approches conduisent aux mêmes conditions nécessaires d’optimalité. Cependant l’approche calcul des variations est plus élégant car faisons appel à des outils classiques de l’analyse fonctionnelle. Exemple 3.4 : C’est l’exemple 3.2 sauf qu’on propose une méthode variationnelle pour sa résolution. En effet, l’approche faisant appel à l’outil classique du calcul des variations permet une résolution à la fois élégante et simple du problème de commande optimale . )( 2P Maintenant, nous utilisons les résultats obtenus dans la section 3.5 pour le problème décrit ci-dessus (section 3.4). )( 2P D’après (3.3.5), on a
)(21),)(,)(),(),(( 2
••
−+−+= ybuayutttutytyL λλ
alors l’ensemble des équations d’Euler-Lagrange s’écrit dans ce cas :
)24.3.3(00
)23.3.3(00
)22.3.3(00
=+⇒=⎟⎠⎞
⎜⎝⎛ ∂∂−
∂∂
=−+−⇒=⎟⎠⎞
⎜⎝⎛ ∂∂−
∂∂
=+−⇒=⎟⎠⎞
⎜⎝⎛ ∂∂−
∂∂
•
••
••
buuLdtd
uL
ybuayLdtdL
ayLdtd
yL
λ
λλ
λλ
La résolution des équations (3.3.22), (3.3.23), (3.3.24) et la condition de transversalité
48
(l’état final est libre et le temps final fixe) donne :
shaTbsaeesbatuoptimalecommandeLa
shaTbseaesatadjoEtat
shaTbsaeshatbstyoptimaleetrajectoirLa
aT
at
aT
at
aT
2
2
2
2
10)(
10)(int
10)(
+=
+−
=
+=
λ
Ce qui est identique aux résultats obtenus dans l’exemple 3.2 à l’aide du PMP. L’approche PMP est plus générale que l’approche variationnelle (i.e. calcul des variations) mais cette dernière est plus élégante car utilisant des outils mathématiques classiques.
49
Chapitre 4
Problèmes complexes de commande optimale
Ce chapitre contient deux idées principales. La première idée est que les problèmes de commande optimale sous contraintes sont reformulés en employant des multiplicateurs spécifiques de dérivations pour obtenir des problèmes de calcul des variations sans contraintes [15]. La deuxiéme idée est qu’en utilisant les résultats du chapitre 2, la solution du problème reformulé, incluant la détermination des multiplicateurs, suivent immédiatement des équations d'Euler-Lagrange pour le problème sans contrainte [10]. Cette solution est une condition nécessaire pour le problème original sans contraintes. Ceci nous permet d'obtenir une véritable règle de multiplicateur de Lagrange où les variables originales et les multiplicateurs peuvent être explicitement et facilement déterminés.
50
4.1 Problème de commande optimale sous
contraintes Dans cette section nous allons considérer un problème de commande optimale soumis à un ensemble de contraintes (égalité et inégalité). Considérons un système de commande décrit par :
(4.1.1) ),,( tuygy =•
tels que )()(),()( 222111 ttytty Ψ=Ψ= (4.1.2) L’indice de performance est donné par (4.1.3) ∫=
2
1
),,(),(t
tdttuyfuyJMin
et les contraintes
(4.1.4) ⎩⎨⎧
≤Φ=Φ
0),,(0),,(
2
1
tuytuy
avec suffisamment réguliers. 2121 ,,,, ΨΨΦΦ etfg Le problème est difficile à résoudre à cause de la présence des contraintes (égalité / inégalité) de type (4.14).
4.2 Reformulations du problème de commande optimale en un problème de calcul des variations
Notre objectif dans cette section est de reformuler le problème de commande optimale sous contraintes en un problème de calcul des variations sans contraintes pour utiliser les outils mathématiques classiques du calcul des variations. L’idée principale consiste à incorporer toutes les contraintes à l’aide des multiplicateurs
51
de variations. S’il n’y a pas de contraintes, le problème est un problème de commande optimale simple. L’imposition des contraintes rendra la résolution du problème plus difficile. Reformulation N°1 Soit vecteur d’état. )()(1 tyty =
vecteur commande avecuty =•
)(2 0)( 12 =ty .
le multiplicateur de l’équation d’état avec)(3 ty•
0)( 13 =ty .
le multiplicateur associé à la contrainte)(4 ty•
0),,(1 =Φ tuy , . 0)( 14 =ty
le multiplicateur associé à la contrainte d’inégalité
)(5 ty•
0),,(2 ≤Φ tuy , . 0)( 15 =ty
est la variable d’écart associée à )(6 ty•
2Φ , 0)( 16 =ty . Le problème (4.1.1) - (4.1.4) s’écrit alors :
(4.2.1) dttYYFYIMint
t),,()( 2
1∫
•
=
où TyyyyyyY ),,,,,( 654321= et
(4.2.2)
⎥⎦
⎤⎢⎣
⎡+Φ+⎥⎦
⎤⎢⎣⎡Φ+
⎥⎦⎤
⎢⎣⎡ −+=
•••••
•••••
2
621252114
211321
),,(),,(
),,(),,(),,(
ytyyytyyy
tyygyytyyftYYF
Ainsi, le problème décrit ci-dessus, peut être vu comme un problème de calcul des variations.
Théorème 4.1 [15] Une condition nécessaire pour que soit solution du problème (4.1.1)-(4.1.4) )(),( tuty est qu’il existe un vecteur continu par morceaux solution de (4.2.1). En particulier, la )(tY solution satisfait l’équation d’Euler-Lagrange )(tY
52
•=y
Y FdtdF
La condition de transversalité est donnée par :
02
1
=+⎥⎦
⎤⎢⎣
⎡−
=
=
•
••
s
ss
T
Ys
Y
T
dtFdYFYF
et la condition
0)),(),(( 222 =•
• ttYtYFY
où ),( 1 YyY = et ),,,,( 65432 yyyyyY = De ce fait, d’après le théorème 4.1 [15] l’équation d’Euler-Lagrange pour notre problème s’écrit :
⎥⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢⎢
⎣
⎡ Φ+Φ+−
=
⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢
⎣
⎡
⎟⎠⎞
⎜⎝⎛+Φ
Φ−
Φ+Φ+−•••
••
•
•
•••
•
00000
2
25143
65
2
62
1
1
25143
3 TTTTTT yygyf
yy
y
gy
yygyf
y
dtd (4.2.3)
et la condition de transversalité donne selon le cas soit
02
1
=+⎥⎦
⎤⎢⎣
⎡−
=
=
•
••
s
ss
T
ys
y
T
dtFdyFyF (4.2.4)
soit
0)),(),(( 222 =•
• ttytyFY
(4.2.5)
53
où TyyyyyY ),,,,( 65432= Remarquons que la condition de transversalité (4.2.4) est donnée dans le cas où l’état final est libre, le temps sont libres . De ce fait, on déduit différents types de conditions 21 tett de transversalité selon que l’on considère. Type (1) : sont fixes, alors, la condition de transversalité (4.2.4) est remplacée 21 tett par la condition supplémentaire (4.2.5). Type (2) : fixe et libre la condition de transversalité (4.2.4) prend la forme suivante
1t 2t
02
=+⎥⎦
⎤⎢⎣
⎡−
=•
••
s
sT
ys
y
T
dtFdyFyF (4.2.6)
Type (3) : libre et fixe alors, la condition (4.2.4) est donnée par 1t 2t
01
=+⎥⎦
⎤⎢⎣
⎡−
=
•
••
ss
T
ys
y
T
dtFdyFyF (4.2.7)
Exemple 4.1 : Soit le problème de commande optimale à une seule dimension. On désire contrôler l’état du système entre 1sin)1(0)0( == yety tel que la fonction coût
dtyuuyJ )(),( 221
0 21 −= ∫ (4.2.8)
soit minimisée. Le système dynamique est représenté par
(4.2.9) uyy +=•
et les conditions aux limites sont : 1sin)1(,0)0( == yy (4.2.10) Reformulons le problème décrit ci-dessus en un problème de calcul des variation sans
54
contrainte. Soit
0)0(')(
.0)0()(
)()(
33
22
1
=+=
==
=
••
•
yconditionlavérifieuyyéquationlàassociéteurmultiplicaleestty
yavecuty
tyty
D’où Ttytytyty ))(),(),(()( 321= D’après (5.2.1), on a
(4.2.11) dtttytyFyI )),(),(()(1
0∫•
=
où
)()),(),(( 211321
222
1••••
−−+−= yyyyyyttytyF et les conditions aux limites 1sin)1(,0)0( 1 == yy L’équation Euler-Lagrange donne dans ce cas :
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡ −−
=
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡
−−
−
•
••
••
•
0
02 31
211
32
3 yy
yyy
yy
y
dtd (4.2.12)
La condition (4.2.5) donne aussi
0)1()1()1(0)1()1( 21132 =−−=−••••
yyyetyy Ainsi, on a
(4.2.13) 112211
2332
0
0
yyyyyy
yyyy
−=⇒=−−
=⇒=−••••
••••
55
Substituant dans la première équation du système (4.2.12), nous obtenons 32 ,••
yy
(4.2.13) 11 yy −=••
et 1sin)1(,0)0( 11 == yy Dont la solution est donnée par (4.2.14) tty sin)(1 = Donc la solution du problème est de la forme suivante :
(4.2.15) ⎪⎩
⎪⎨
⎧
−=−==
==•
tttyttytu
ttyty
cossin)(sincos)(
sin)()(
3
2
1
Ce qui est identique à celle obtenue par le PMP mais cependant avec des outils variationnels classiques ce qui rend l’approche plus élégante. Exemple 4. 2 : Soit le problème suivant :
( )
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
==
≤⎥⎦⎤
⎢⎣⎡ +−−=Φ
=
=•
∫
1)1(,0)0(
041214),(
),(
2
1
0
2
yy
tyty
uy
dtuuyJ
(4.2.16)
Il s’agit de trouver la commande optimale et l’état associé. Reformulation du problème (4.2.15) en un problème de calcul des variations. Pour cela, soit )()(1 tyty =
. 0)0()( 22 ==•
yavecuty
56
le multiplicateur de Lagrange associé à l’équation en vérifiant la condition
)(3 ty•
uy =•
0)0(3 =y .
la variable d’écart pour changer la contrainte d’inégalité en une )(4 ty•
contrainte d’égalité et . 0)0(4 =y
le multiplicateur de Lagrange associé à l’équation d’égalité qui en )(5 ty•
résulte et 0)0(5 =y . Ainsi, nous avons [ ]TT tytytytytytY )(),(),(),(),()( 54321=
et (4.2.17) dttYYFyI ),,()(1
0∫•
=
Avec ⎥⎦
⎤⎢⎣
⎡+−−+⎥⎦
⎤⎢⎣⎡ −+=
••••••• 2
42
15213
2
2 )21(4),,( ytyyyyyytYYF
et 1)1(1 =y L’équation d’Euler- Lagrange s’écrit :
⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢
⎣
⎡
=
⎥⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢⎢
⎣
⎡
+−−−
−
−
•
•
••
••
••
•
0000
41)21(4
2
25
24
21
54
21
32
3 y
yty
yy
yy
yy
y
dtd (4.2.18)
Et la condition:
0)1( =•Y
F où 0
41)21(4
2
2
2
42
1
54
21
32
≡
⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢
⎣
⎡
+−−−
−
−
=
•
••
••
••
•
yty
yy
yy
yy
FY
(4.2.19)
la résolution des équations précédentes donne
57
⎪⎩
⎪⎨
⎧
≤≤+−−≤≤+−
≤≤−
=11)1)((8
)(4
0)(8
)(
221
2
21412
21
121
1
1
tttttttt
tttt
ty (4.2.20)
⎪⎩
⎪⎨
⎧
≤≤−≤≤−≤≤−
===••
1)(8)(8
0)(8)()()(
221
2
2121
121
1
12
ttttttt
ttttytytu (4.2.21)
⎪⎩
⎪⎨
⎧
≤≤−−≤≤−−≤≤−−
=−=−=••
1)(16)(16
0)(16)(2)()(
221
2
2121
121
1
13
ttttttt
ttttytytλ (4.2.22)
où 43,
45
21 == tt
Reformulation N° 2 Dans les sections 4.1et 4.2, nous avons traité un problème de commande optimale avec contraintes. On y a obtenu une règle de multiplicateurs de Lagrange qui mènera aux solutions numérique générales efficaces et précises. La difficulté principale de cette méthode de reformulation est que les contraintes d’inégalité sont changées en contraintes d’égalité par la variable d’écart. Considérons maintenant une deuxième méthode de reformulation qui emploie la condition de Kuhn-Tucker [10], [15] qui complète la méthode de reformulation de la section 4.2. Pour illustrer cette méthode, nous considérons le problème (4.1.1-4). Notre objectif est de donner une reformulation différente du problème (4.1.1-4) qui n’emploie pas des variables d’écart .
58
Soit
.0)()()4.1.4()1.1.4()()(,)(
0)()()(
)()(
1413
43
12
1
==
==
=
••
•
tytyavecettescontrainauxassociésteursmultiplicadessonttettyty
tyavectuty
tyty
λ
Alors, le problème (4.1.1)-(4.1.4) s’écrit :
Min (4.2.23) ∫•
= 2
1
),,(~)(t
tdttYYFYI
où, TyyyyY ),,,( 4321= et
(4.2.24) ⎥⎦⎤
⎢⎣⎡Φ+⎥⎦
⎤⎢⎣⎡Φ+⎥⎦
⎤⎢⎣⎡ −+=
••••••••
),,(),,(),,(),,(),,(~212211421321 tyytyyytyygyytyyftYYF λ
De ce fait, les conditions nécessaires pour le problème (4.1.1-4) sont l’équation d’Euler- Lagrange et la condition de Kuhn-Tucker
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
≤Φ
=Φ
=
•
•
•
0),,(
0),,(
~~
212
212
tyy
tyy
FdtdF
YY
λ (4.2.25)
la condition de transversalité
),(
0))(),(,(~
1
222
YyYoù
tYtYtFy
=
=•
•
(4.2.26)
et la condition
(4.2.26) ))0(),(,(~))0(),(,(~ +=−••
•• cYcYcFcYcYcFYY
où n’est pas continue en .On considère le cas où sont fixes et )(tY•
ct = 21 tett
)(),( 21 tyty sont donnés (imposés).
59
On remarque que nous avons employé le multiplicateur )(tλ dans (4.2.24) au lieu de
pour indiquer que les expressions 5
•
y •Y
Y FetF ~~ ne contiennent plus de multiplicateur
dérivation concernant la contrainte d’inégalité. La seconde remarque est que les conditions nécessaires du problème reformulé (4.2.23) sont équivalentes aux conditions nécessaires du problème reformulé (4.2.1).
60
Chapitre 5 Dans les deux chapitres précédents, nous avons considéré des problèmes de commande optimale simples et des problèmes de commande optimale sous contraintes. On a donné une version générale du Principe du Minimum de Pontriaguine (PMP) quand il n y a pas de contrainte sur la commande. Dans ce cas la reformulation en un problème de calcul des variations est toujours possible. Cependant, lorsque il y a des contraintes de type inégalité sur la commande, le PMP sera privilégié car l’approche de calcul des variations dans ce cas est difficile voire impossible [6], [17]. La théorie du calcul des variations, cependant, est beaucoup plus compliquée. Une différence fondamentale avec le PMP est la présence des contraintes sur l’état qui peut rendre le vecteur adjoint discontinu. En effet, le calcul des variations est impuissant face à ce type de problèmes puisque le domaine peut être fermé et que la solution n’est pas suffisamment régulière [17].Une application typique du PMP est la commande en temps minimum des systèmes. Une particularité de ces problèmes est que la commande optimale se trouve nécessairement sur le bord du sous ensemble des commandes admissibles et saute d’une frontière à l’autre ; elle n’est donc même pas continue.
61
5.1 Problème en temps minimum Ici nous abordons l’étude de problèmes de commande optimale que l’on ne peut pas résoudre par l’outil classique du calcul des variations. Nous allons voir comment appliquer le PMP à la résolution de quelques problèmes de commande en temps minimum et ainsi montrer que le PMP est une généralisation du calcul des variations. Position du problème Le problème consiste à trouver la commande optimale qui satisfait la nRtu ∈)(* contrainte : 1≤ju ; njt ≤≤≥ 10 (5.1.1) et qui transfert le système
BuAydtdy
+= (5.1.2)
, nRy∈ A matrice nn× constante et nRB∈ vecteur constant d’un état initial 00 )( yty = en un autre état final (origine) 0)( =fty en temps minimum. Nous développons la solution de ce système de commande en temps minimum à travers la description succincte des étapes suivantes. Etape 1 : Indice de performance Etape 2 : Hamiltonien Etape 3 : Equation d’état et équation adjointe Etape 4 : Condition d’optimalité Etape 5 : Commande optimale Etape 6 : Loi de commande bang-bang Etape 7 : Condition pour que le système de commande en temps optimal soit normal (voir théorème 1.8)
62
Etape 8 : Unicité de la commande optimale Etape 9 : Nombre de commutations Description détaillée Etape 1 : L’indice de performance pour la formulation du système en temps minimum décrit par le système (5.1.2) et la commande (5.1.1) est :
( ) ( ) 000
1),(),()( ttdtdtttutyFtuJ ff t
t f
t
t−=== ∫∫ (5.1.3)
où est fixe, est libre. 0t ft Remarquons que si ft est fixe, la quantité 0tt f − est une constante donc la minimisation n’a aucun sens. Etape 2 : Hamiltonien Nous formons le hamiltonien H pour le problème décrit par le système (5.1.2) et l’indice de performance (5.1.3) par [ ])()(1))(),(),(( tuBtAyttutyH T ++= λλ (5.1.4) où est l’état adjoint nR∈λ Etape 3 : Equation d’état et équation adjointe Soient u*(t), y*(t) et λ*(t) les valeurs optimales alors, l’état y*(t) et l’état adjoint λ*(t) sont donnés par les relations suivantes :
= )(* ty•
∗
⎟⎠⎞
⎜⎝⎛∂∂λH = A y*(t) + B u*(t) (5.1.5)
= - )(t•
λ∗⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
yH = (5.1.6) )(* tATλ−
avec les conditions aux limites
63
0)(*;)(* 00 == ftyyty (5.1.7) Etape 4 : Condition optimale Faisant appel au Principe de Minimum de Pontriaguine [8] et la condition (5.1.3) pour la commande optimale en fonction du hamiltonien ))(*),(*),(*( ttutyH λ = 1 + [ ] )(*))(*()(*)(* tBtuttAy TTT λλ + [ ] [ ] )(*)()()(*1 tBtuttAy TTT λλ ++≤ (5.1.8) ou encore sous forme plus compacte : [ ] [ ] )(*)()(*)(* tBtutBtu TTTT λλ ≤ [ ] )(*)(* tqtu T [ ] )(*)( tqtu T≤ (5.1.9) = Min [ ] )(*)( tqtu T 1)( ≤tu
où q*(t) = )(* tBTλ Etape 5 : Commande optimale Nous obtenons la commande optimale u*(t) à partir de (5.1.8). - Si q*(t) est positive, la commande u*(t) doit être la plus petite valeur de la commande admissible ( -1) de sorte que : Min [ ] )(*)(*)(*)(* tqtqtqtu T −=−= (5.1.10)
1)( ≤tu - Si q*(t) est négative, la commande u*(t) doit être la plus grande valeur de commande admissible( +1) de sorte que : Min [ ] )(*)(*)(*)( tqtqtqtu T −=+= (5.1.11)
1)( ≤tu
64
Ainsi, de (5.1.10) et (5.1.11), la commande optimale u*(t) est
=)(* tu (5.1.12) ⎪⎩
⎪⎨
⎧
=>−<+
0)(*min0)(*10)(*1
tqsiationindétertqsitqsi
De ce fait, nous pouvons écrire la commande (5.1.12) sous la forme u*(t) = -Sgn )(* tq (5.1.13) où la fonction de signe est définie par igSgng = et
⎪⎩
⎪⎨
⎧
=<−>+
=0min0101
i
i
i
gsiationindétergsigsi
g
Etape 6 : Loi de commande bang-bang Pour un système de commande en temps minimum normal [6], la commande optimale est donnée par (5.1.13) u*(t) = -Sgn )(* tq = -Sgn )(* tBTλ (5.1.14) pour [ ]*
0 , fttt ∈ . Etape 7 : Condition pour que le système de commande en temps minimum soit normal Nous déterminons les conditions nécessaires pour que le système ne soit pas singulier [6]. De ce fait, nous obtenons les conditions pour que le système soit normal. Ainsi, la solution de l’équation adjointe (5.1.6) est : ( ) ( )0*exp)(* λλ ×−= tAt T (5.1.15) On suppose que la condition initiale )0(*λ est un vecteur non nul. Tenant compte de la solution (5.1.15), la loi de commande (5.1.14) devient
65
)0(*)exp()(* λ×−−= tABSgntu TT (5.1.16) Ou par composantes, njtAbSgntu TT
jj ≤≤×−−= 1,)0(*)exp()(* λ (5.1.17)
Supposons qu’il existe un intervalle de temps [ ]21, TT où la fonction q*(t) est nulle. Alors, nécessairement toutes ses dérivés sont nulles dans cet intervalle. C'est-à-dire : =0 )0(*)exp()( λ×−=∗ tAbtq TT
jj
=0 )0(*)exp()( λ×−=∗•
tAAbtq TTTjj
…………………………………
(5.1.18) ( )
( ) 0)0(*)exp()(* 11
=×−= −−
λtAAbtq TnTTj
n
ou sous forme compacte (5.1.19) 0)0(*)exp( =×− λtAG TT
j
où ( )[ ]j
njjjj bAbAAbbG 12 ....... −= (5.1.20)
Dans la condition (5.1.19), la matrice [ ])exp( tAT− est non singulière et 0)0(* ≠λ alors, la matrice est singulière. Ainsi, pour le système de commande en temps minimum jG singulier, la matrice doit être singulière. Par conséquent pour le système de commande jG en temps minimum normal, la matrice doit être non singulière [6]. jG Etape 8 : Unicité de la commande optimale Si le système de commande en temps minimum est normal, alors la commande en
66
temps minimum est unique [6]. Etape 9 : Nombre de commutations Le résultat est énoncé sous forme de théorème. Théorème 5.1 [6] Si le problème original (5.1.2) est normal, et si toutes les valeurs propres du système sont réelles alors la commande optimale u*(t) peut sauter au plus (n-1) fois de (+1) à (-1) ou de (-1) à (+1). Exemple 5.1.1 : la commande en temps minimum d’un système harmonique Position du problème Soit le mouvement simple sans frottement d’une masse. Le mouvement est décrit par
(5.1.22) )()( tftym =••
où est la masse, et sont respectivement la position, la vitesse, l’accélération m )(),( tyty•
)(ty••
et f (t) est la force externe appliquée au système. Posons
)()(1 tytx = , (5.1.23) )()(2 tytx•
= Par conséquent, (5.1.22) s’écrit sous forme d’un système d’équations différentielles d’ordre 1
(5.1.24) ⎪⎩
⎪⎨⎧
=
=•
•
)()(
)()(
2
21
tutx
txtx
où mtftu )()( = On suppose que la commande vérifie )(tu 1)( ≤tu ; t [ ]ftt ,0∈ (5.1.25) La contrainte est due aux limitations physiques telles que le courant dans un circuit ou la
67
poussée d’un moteur. L’objectif est de transférer le système (5.1.22) et (5.1.25) d’un état initial en un état final en temps minimum. Solution du problème Nous construisons la solution du problème à travers les étapes suivantes : Etape 1 : Indice de performance (5.1.26) 0
0
ttdtJ f
t
t
f −== ∫où, est fixe et est libre. 0t ft Etape 2 : Hamiltonien Nous formons le hamiltonien H pour le problème décrit par le système (5.1.24) et l’indice de performance (5.1.26) )()()()(1))(),(),(( 221 tuttxttuttxH λλλ ++= (5.1.27) Etape 3 : Minimisation du hamiltonien D’après le principe du Minimum de Pontriaguine [6], on a ))(),(*),(*())(*),(*),(*( tuttxHtuttxH λλ ≤ ))(),(*),(*(min tuttxH λ= (5.1.28) 1≤u En substituant (5.1.27) dans la condition (5.1.28), nous avons alors
)()(*)(*)(*
)()(*)(*)(*1)(*)(*)(*)(*1
22
221221
tuttut
tuttxttuttxt
λλ
λλλλ
≤
++≤++ (5.1.29)
D’après le résultat de la section précédente5.1, la commande optimale (5.1.14) est donnée en terme de la fonction signe : )(*sgn)(* 2 ttu λ−= (5.1.30)
68
Etape 4 : Equations adjointes
⎪⎪⎩
⎪⎪⎨
⎧
∂∂
−=
∂∂
−=
•
•
*)(
*)(
22
11
xHt
xHt
λ
λ (5.1.31)
(5.1.31) est un système d’équations différentielles ordinaire d’ordre 1. D’où la solution
(5.1.32) ⎪⎩
⎪⎨
⎧
−=
=
tt
t
)0(*)0(*)(*
)0(*)(*
122
11
λλλ
λλ
Etape 5 : Commande en temps minimum D’après la solution (5.1.32), nous constatons que la solution de l’équation adjointe )(*2 tλ est une droite, et qu’il y a quatre solutions possibles comme le montre la figure (5.1). La commande optimale possède au plus un saut. Donc, la commande optimale doit avoir une des quatre formes
[ ][ ][ ] ] ][ ] ] ]⎪
⎪
⎩
⎪⎪
⎨
⎧
∈+∈−
∈−∈+
∈−
∈+
=
fss
fss
f
f
tttquandetttquand
tttquandetttquand
sautdepasttquand
sautdepasttquand
tu
,1,01
,1,01
,01
,01
)( (5.1.33)
Ainsi les quatre séquences de commande possible sont : 1,1,1,1,1,1 +−−+−+
69
(c) 0)0(;0)( 21 << λλ t (d) 0)(;0)( 21 >> tt λλ
Figure 5.1 : Les équations adjointes et les commandes correspondantes Etape 6 : Trajectoires optimales (courbes paramétriques) La résolution du système différentiel (5.1.24) donne
⎪⎪⎩
⎪⎪⎨
⎧
+=
++=
tuxtx
tutxxtx
*)0(*)(*
*21)0(*)0(*)(*
22
2211
(5.1.34)
où, . Afin de représenter les équations d’état dans le plan de phase, nous 1)(* ±=tu éliminons le temps t de (5.1.34). D’où
*
)( 202
uxtx
t−
= (5.1.35)
Pour des raisons de simplicité, on écrit au lieu de et )(tx )(* tx 202101 )0(,)0( xxxx == Substituons (5.1.35), dans l’équation n°1 du système (5.1.34)
)(21
21)( 2
2220101 tuxuxxtx +−= (5.1.36)
Où, nous utilisons 1* ±=u
70
Si ⎪⎩
⎪⎨⎧
+=+−=
−=+== )(
21)(
21
21)(
)(,1* 2
2122
220101
202
txCtxxxtx
xtxtuu (5.1.37)
Maintenant si
⎪⎩
⎪⎨⎧
−=−+=
−=−== )(
21)(
21
21)(
)(,1* 2
2222
220101
220
txCtxxxtx
txxtuu (5.1.38)
Où, 220101 2
1 xxC −= et 220102 2
1 xxC += sont des constantes.
Ainsi, on constate que les relations (5.1.37) et (5.1.38) représentent une famille des paraboles dans le plan de phase comme le montre la figure (5. 2) ),( 21 xx
Figure 5.2 : Trajectoires de phase planes pour u=+1 (ligne discontinue) et u=-1
(lignes en pointillé) Remplaçant dans (5.1.36) t par , on obtient ft 0)(,0)( 221 ==== ttxttx f (5.1.39) D’où
22010
22010 2
10210 Uxxxx =⇒+−= (6.1.40)
Récrivant ceci pour n’importe quel état initial 202101 , xxxx == , nous avons
221 2
1 uxx = (5.1.41)
71
Etape 7 : la courbe de commutation D’après la figure (5.2), il y a deux courbes +γ et −γ qui transfèrent n’importe quel état initial
),( 21 xx en origine (0,0).
1. la courbe +γ est lieu géométrique de tous les points qui peuvent être ),( 21 xx transférés au point origine (0.0) par la commande 1+=u
⎭⎬⎫
⎩⎨⎧ ≤==+ 0,
21:),( 2
22121 xxxxxγ (5.1.42)
2. la courbe −γ est lieu géométrique de tout les points qui peuvent être ),( 21 xx transférés au point origine (0.0) par la commande 1−=u
⎩⎨⎧ ≥−==− 0,
21:),( 2
22121 xxxxxγ (5.1.43)
La courbe de commutation complète,γ est définie par
⎭⎬⎫
⎩⎨⎧ −== 22121 2
1:),( xxxxxγ (5.1.44)
+− ∪= γγ
Figure 5.3 : la courbe de commutation pour la commande en temps minimum d’un
72
système harmonique Etape 8 : Régions dans le plan de phase Définissons les régions dans lesquelles nous devons appliquer la commande 1* +=u ou . 1* −=u 1- Soit la région des points tels que +R
⎭⎬⎫
⎩⎨⎧ −<=+ 22121 2
1:),( xxxxxR (5.1.45)
qui définit la région des points à gauche de la courbe de commutationγ . 2 – Soit la région des points tels que −R
⎭⎬⎫
⎩⎨⎧ −>=− 2221 2
1:),( xxxxxR (5.1.46)
qui définit la région des points à droite de la courbe de commutation γ
Figure 5.3 : Différentes trajectoires produites par quatre ordres d’exécution
73
Etape 9 : La loi de commande La notation « * » indique les valeurs optimales. La commande en temps minimum u* comme une fonction de l’état [ sera donnée par ]21 , xx 1),(** 21 +== xxuu pour ++ ∪∈ Rxx γ),( 21 1),(** 21 −== xxuu pour −− ∪∈ Rxx γ),( 21
Alternativement, définissant 221 21 xxxz += , nous obtenons
(5.1.47) ⎩⎨⎧
+=⇒<−=⇒>
1*0,1*,
uzsiuozsi
Etape 10 : Temps minimum
( )( )( )⎪
⎪⎩
⎪⎪⎨
⎧
=∈
−<∈+−+−
−>∈++
= +
−
2221
1212
2221
1212212
2221
1212212
,
,24
,24
xxxoùxxsix
xxxoùRxxsixxx
xxxoùRxxsixxx
t f
γ
(5.1.48)
Exemple 5.1.2 [17] Soit le système
⎪⎪⎩
⎪⎪⎨
⎧
)51.1.5(1
)50.1.5(2
2
≤
=+
u
uydt
yd
Notre objectif dans cet exemple était d’arriver le plus vite possible à l’origine c-à-d le
74
problème consistait à trouver la commande optimale qui satisfait la contrainte (3.5.51) )(* tu et qui transfère le système (3.5.50) d’un état initial 11)( yty = en un état final en 0)( =fty temps minimum. L’équation (5.1.50 ) est équivalente au système
⎪⎪⎩
⎪⎪⎨
⎧
uydt
dy
ydtdy
+−=
=
12
21
(5.1.52)
Le système (5.1.52) est un système d’équations différentielles ordinaires (avec des seconds membres discontinus) dont la résolution donne les trajectoires optimales aboutissant à l’origine des coordonnées. Nous développons la solution de ce système à travers les étapes suivantes : Etape 1 : Hamiltonien Posons )()( 1221 uyyH ++= λλ (5.1.53) Etape 2 : Minimisation du hamiltonien D’après le Principe du minimum de Pontriaguine [6], [8], on a
1
*),*,(min*),*,(*)*,*,(
≤
=≤
uuyH
uyHuyHλ
λλ (5.1.54)
Ainsi, nous avons
**λ uu
uyyuyy *(*** 1
*
)*(****)
22
1221
λ
221λ λ +−+ λλ +−+≤
≤ (5.1.55)
Etape 3 : Equations adjointes
Pour l’équation adjointe on a
75
⎪⎩⎪
⎪⎪⎨
⎧
∂∂
−=
∂∂
−=
•
•
2
2
11
)(
)(
yHt
yHt
λ
λ (5.1.56)
ααλ etAoùtA )sin( − sont2 = des constantes la solution est
( ))sisinsin 2 n( αλ −== Aggu t (5.1.57) u se déduit parα translation figure (5.4)
Figure 5.4
D’après le résultat de la section précédente (5.1.16), la commande optimale (5.1.57) donne à l’aide de la fonction signe
)(*sin)(* 2 tgtu λ−= (5.1.58)
Pour étu aux intervalles de temps sur lequel
tème auxiliaire
Etape 4 : Commande en temps minimum
dier la trajectoire correspondantes
1,1 =−= uu considérons le sys+
En posant 0=u , on a alors :
⎪⎪
⎩ dt
⎪⎪⎨
⎧
−=
=
12
21
ydy
ydtdy
(5.1.59)
++= )sin(2 γtry (5.1.60)
e système admet une solution de la forme C
⎨⎧ +−= )cos(1 γtry
⎩
76
où γetr sont des constantes 0,0( Donc les trajectoires sont des cercles de ≥r ).2πγ ≤≤ centre l’origine et de rayon r
(5.1.61)
222 ryy =+ 2
1
Si 1+=u , le système (6.1.52) est
⎪⎩ 1dt⎪
⎪⎪⎨
⎧
+−=
=
12
21
ydy
ydtdy
et (5.1.61), nous constatons que les trajectoires sont des
(5.1.63)
e cercle (5.1.63) de centre de cordonnées (1,0) et de rayon r
i , le système (5.1.52) est
(5.1.62)
Compte tenu des relations (5.1.60) cercles de la forme
222
21 )1( ryy =+−
1OL
1−=uS
⎪
⎪ −−= 11
2 ydy⎩
⎨
dt
(5.1.64)
Ainsi, la trajectoire est (5.1.65) Le cercle (5.1.65) de centre de cordonnées (-1,0) et de rayon
⎪⎪⎧ = 2
1 ydtdy
222
21 )1( ryy =++
1−O r . De (5.1.60) on voit que Le point représentatif se déplace sur les cercles (5.1.61), (5.1.63), (5.1.65) dans le sens de l’aiguille d’une montre uniformément à une vitesse rπ2 et décrit exactement la moitié du cercle en une période de temps égale àπ (fig.5. 5-7)
77
Figure 5.5
Figure 5.6 Figure 5.7
Si la commande optimale est de la forme représentée sur la figure (5.8), c-à-d égale à (-1) et (+1) sur l’intervalles
)(tu
[ ] [ ] [ ] ..............,2,,,,,1 απαπαπαα +++t et égale à (+1) sur un certain l’intervalle de longueur πβ < , la trajectoire optimale correspondante peut être onstruite de la manière suivante : c
Figure5.8
78
Si nous désignons par le demi cercle inférieur, nous constatons que la dernière portion de la trajectoire est un arc du demi- cercle . Le point représentatif arrive en origine des coordonnées après avoir parcouru un arc inférieur sous l’action de la commande
OM1
AO OM1
1+=u (fig.5. 9).
Figure 5.9
Maintenant, si nous désignons par
BA le demi cercle centré en et ayant pour extrémité le point
1−O
A ; les points sont symétriques par rapport au centre et donc AetB 1−O B est situé sur le demi-cercle ( fig. 5.10) 21NN
Figure 5.10
79
D’une façon analogue, l’arc précédant l’arc CB BA et correspondant à l’intervalle de temps de longueur π sur lequel , est égal à un demi cercle centré en et par conséquent le point est situé sur le demi cercle ymétrique au point B du demi cercle par rapport à ( fig . 5.11).
1+=u 1O
C 32 MM s 21NN
1O
Figure 5.11
e même pour l’arc BC ′′ précédant l’arc CB ′′D et correspondant à l’intervalle de temps de
ngueur π sur lequel 1−=u (fig.5.12). lo
80
Figure 5.12
En regroupant ces deux cas (fig.5.11, et fig.5.12), nous obtenons un tableau général de
allure des trajectoires (fig. 5.13).
l’
Figure 5.13
au –dessus de la ligne ………. ……..qui
t constituée d’une infinité de demi cercles de rayon 1, le point doit se déplacer sous l’action
la commande tant qu’il n’arrive pas sur l’arc ……… ; à l’instant où il
rive sur cet arc change de valeur égale à (+1) jusqu’au moment où il arrive sur l’arc
N ……… ; puis il se déplace de nouveau au dessus de la ligne
… …… sous l’action de la commande
321123 NNONMMMSi le point représentatif est situé es
1−=u OMMM 123de
uar O
321 NN
. 321123 NNONMMM 1−=u… et ainsi de suite.
point représentatif se déplace exactement de la même manière lorsque le point initial est
ué au-dessous de la ligne …… ……
mme dans l’exemple 5.1, on a
Le sit . 321123 NNONMMM Co
81
⎪⎪
⎪⎨−
==
'1
'),(** 21
arclsuretdedessusau
arclsuretyyuu
⎩
⎪⎧+
.....;...................
............1
321123
123
321123
NNONMMMlignelaOMMM
NNONMMMligneladedessousau
(6.1.66)
Ainsi, les séquences de commandes possibles sont
.........321 NNON
1,1,1,1,1,1 ,1,1,1,1,1,1,1,1 −+−++−+−−++−+− .
82
Chapitre 6
ents théoriques. Il y a deux
-L’approche directe (avant optimisation) tiser l’état et le
telles la méthode des élément finis [4], [20], des différence
es [4] et la méthode spectrale [10] puis à réduire ensuite le problème de commande
optim e
- Dans ce travail, on s’intéresse à l’approche indirecte (après optimisation) [17] qui consiste à résoudre numériquement les conditions nécessaires d’optimalité conduisant à un pro
ne nécessitant pas une étude préalable. En outre, elle est plus robuste et surtout plus facile dans l’incorporation des contraintes éventuelles sur l’état et /ou sur la commande [8].
INTRODUCTION Généralement les techniques de résolution numérique de problèmes de commande
ptimale sont relativement plus simples que les développemo
pproches de résolution numérique : a
qui consiste d’abord à discré
contrôle par différentes méthodes
fini
al à un problème d’optimisation.
blème aux limites.
On constate que ces deux approches ont des avantages et des inconvénients [8].
L’approche indirecte est plus précise que l’approche directe mais cette dernière est plus facile à mettre en oeuvre sur ordinateur
83
6.1 Application du calcul des variations en commande
optimale : dimension 1
Dans ce chapitre on considère la résolution de quelques problèmes de commande
ptimale par la méthode variationnelle (c’est-à-dire le calcul des variations) en utilisant
On commence par un problème concret moderne issu de la mécanique oscillatoire modélisé
ar des équations différentielles ordinaires linéaires.
effet, on constate qu’il y a deux types différents d’oscillation :
- Les oscillations libres où l’équation est de la forme
- Les oscillations forcées où l’équation est de la forme
>>
=++•••
qptω
par plusieurs méthodes telle
variations) qui utilise l’approche
cte et sera développée ci-dessous.
o l’équation d’Euler- Lagrange [6]. p En
0=++•••
qyypy
)(tfqyypy
)( = atfavec 0,0sin
Le problème de commande optimale associé a été résolu
la méthode spectrale reposant sur l’approche directe [11]. Nous nous intéressons plus
particulièrement à la méthode variationnelle (i.e. calcul des indire
84
Description du problème de commande optimale
optimale, où l’on désire ystème entre les positions
•••
yyetyy (6.1.1) tel que la fonction coût
Nous considérons un problème de commande contrôler l’état du
s
=− yy 0)1(,0)1()1(,)1( 00 ===−
dttuTJ )(4
1
1
2∫ −= (6.1.2)
oit minimisée ; le système dynamique est représenté par
s
[ ])()(41)( 22 tutyTty +−=
••
ω (6.1.3)
Ainsi le problème de commande optimale s’écrit :
)( 1P [ ]
⎪⎪⎪⎪⎪ +−= )()(
4)( 22 tutyTty ω
⎩
⎪⎪⎪
⎨
⎧
==
=−=−
=
•
••
••
−∫
0)1(,0)1(
)1(,)1(
1
)(41
00
1
1
22
yy
yyyy
que
dttuTJ
Minimiser
e du calcul des variations.
.
So
e de commande optimale, nous appliquons l’approche
iationnelle conduisant à l’équation d’Euler- Lagrange.
⎪⎪tels
La solution du problème )( 1P est déterminée par la méthod Pour une approche utilisant le PMP, voir [6], [17]
lution du problème (Méthode du calcul des variations) Pour la résolution du problèm var
85
Etape 1 : Transformation de l’équation différentielle d’ordre 2 en un système
De deux équations différentielles ordinaires d’ordre 1.
•
=
=
yy
yy
2
1⇒
⎩⎨⎧
[ ])()(41
122
2
21
tutyTyy
yy
+−==
=•••
•
ω Posons
⎩⎨⎧
(6.1.4)
Les conditions aux limites
2
1
202
101
==
===−=−
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧ (
0)1()1(
0)1()1()1()1(
)1()1 =−=
•
•
yy
yyyyy
yy
(6.1.5)
insi, on a
⎪
⎧
−y
A
⎪⎩
⎪⎨⎪⎪⎪
[ ]
0)1(;)1( 202 =− yy0)1(;)1(
4==− yyy
)()(
2
1101
12
=
+−=
=•
y
tutyTy
yy
ω (6.1.6)
6.1.2) et (6.1.6)
1 22
21
•
Etape 2 : Formalisme Lagrangien Nous formons le Lagrangien à partir de (
[ ]
( ) ⎥⎦⎤•
(
⎢⎣⎡ −+−+
⎥⎦⎤
⎢⎣⎡ −+=
•••
2122
2
12122
212121
)()(41
)()()(41),,,,,,,(
ytutyT
tytytuTtuyyyyL
ωλ
λλλ6.1.7)
où )(,)( 2211 tt λλλλ == sont les multiplicateurs de Lagrange
86
Etape 3 : Equations d’Euler –Lagrange
( )
)12.1.6(02
0
)11.1.6(04
0 12
22
=+−+−⇒=⎟⎟⎠
⎜⎜⎝ ∂
−∂ • ω
λλuyTy
dt1
)10.1.6(00
)9.1.6(00
)8.1.6(0410
2
22
21
11
12
222
1
11
=+⇒=⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
∂
∂−
∂∂
⎟⎞
⎜⎛ ∂∂
=+−⇒=⎟⎟⎠
⎜⎜⎝ ∂
−∂
=+⇒=⎟⎟⎟⎞
⎜⎜⎜ ∂
−∂
=−⇒=⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛
∂
∂−
∂∂
•
•
•
•
•
•
•
•
λ
λλ
λλ
λωλ
Tuu
Ldtd
uL
LdL
yydt
Ldtd
yL
Ty
Ldtd
yL
uations différentielles ord L’équation (6.1.9) donne
(6.1.13)
n
⎛
22 ⎠⎝ ∂ y
⎟⎞
⎜⎛ ∂∂ LdL
Etape 4 : Résolution des éq inaires
1212
••••
−=⇒−= λλλλ ubstituons (6.1.13) dans (6.1.8), ous avons S
041
22
2 =+ λωλ T (6.1.1
••
4)
t de même pour les équations (6.1.11) et (6.1.12), nous obtenons : e
22211 0 oùucyby =+
41,
41 TcTb ==+
••
ω (6.1.15)
our
, il vient alors : P 12 == ωetT
87
⎪⎪
⎨ =++
−=
)19.1.6(
)18.1.6(0
)17.1.6(
)16.1.6(22
uyy
u λ
Nous présentons, ci-dessous, une autre formulation du problème basée sur
les résultats de la section 4.2. Alors, reformulons le problème de commande optimale n un problème de calcul des variations.
ormant le problème décrit par (6.1.2) et (6.1.6) et remplaçant par et par ,
⎩
⎪⎪⎪⎪⎪⎪
⎨
⎧
⎧ =+••
0λλ
⎪⎪
••
2
⎪⎪ ==− 0)1(;)1( 2202 yyy⎪⎪ ==− 0)1(;)1( 1101
11
yyy
⎩
)( 1P
)( 1P
e
)( 2P 1y 1x 2y 2x F alors, on a
)( 2P
⎪⎪⎪⎪
⎪⎪ [ ])()(1
122
2 +−=•
tutxTx ω
0)1(,)1(0)1(,
4
)(4
2202
110
21
21
1
==−=
=
=
•
−∫
xxxxx
xx
quetel
dttuTJ
Minimiser
avec
)1(1 =− x
1,2 == ωT .
oit
53125
421
3
22
=−⎟⎠⎞
⎜⎝⎛ −+
=−⎟⎠⎞
⎜⎝⎛ −
=
=
••
••
•
yavecyyydeteurmultiplicaleest
yavecyydeteurmultiplicaleesty
uy
xy
S
11 = xy
0)1(3 =−yavec
0)1(
0)1(4
•
y
88
alors, le problème P s’écrit :
où
)( 2
Minimiser
∫+
−
•
=1
1),,()( dttYYFYI
⎟⎠⎞⎛ ••••• 1 T⎜
⎝⎛ −++⎟
⎠⎞
⎜⎝
−+=••
312521432),,( yyyyyyyytYYF et
me des équations d’Euler-Lagrange associé s’écrit alors :
yyyyyY ),,,,( 54321=
Ainsi, le systè
⎥⎥⎥⎥⎥⎥
⎢⎢−⎥
⎥⎢⎢
••45y
d
⎥
⎦
⎤
⎢⎢⎢⎢
⎣
=
⎥⎥⎥⎥⎥
⎦⎢
⎢⎢
⎣ −+
−
−
•
•
•
000
5
312
21
53
y
yyy
y
yydt (6.1.20)
⎢⎡
⎥⎤
⎢⎡ ••
4 yy
⎢⎢•
y
t e
0)1( =+• Y
F (6.1.21)
où ),,( 543 yyyY = la résolution du système (6.1.20) et la condition (6.1.21), con mêduit aux mes résultats que
ceux du système décrit les équations (6.1.16-19). La solution de l’équation différentielle ordinaire (6.1.16) est donnée par : )sin()cos()( 212 tctct +=λ (6.1.22)
.22) dans (6.1.17), alors nous avons
Substituons (6.1 )sin()cos()( 21 tctctu −−= (6.1.23) Substituons (6.1.23) , nous obtenons
dans (6.1.18)
89
−
0)1(s)(
1
211
yct (6.1.24)
L’équation (6.1.24) est une équation différentielle ordinaire d’ordre 2. La solution générale est composée de la solution générale de l’équation homogène et d’une
olution particulière de l’équation différentielle ordinaire non homogène.
e ce fait, la solution est donnée par :
⎪⎩
⎪⎨⎧
==− ;)1( 101 yy= 0)in(t−+
••
coscyy 1
s
D
)25.1.6()sin()cos(2
)cos()sin(t⎡42
)sin(4
)cos()( 43211 tctcttctttcty ++⎥⎦⎤
⎢⎣+−+⎥⎦
⎤⎢⎣⎡ −−=
Puisque )()(2 tyty•
= , alors
(1 ty•
= )
)26.1.6()cos()sin(3 ctc +−⎥⎤
2)sin(
42cos
4)
42 ttttty⎦
−⎦
−
Détermination des constantes Le cc minées e ndition r exe et a
⎨⎧ ==− 0)1(,5.0)1( 11 yy
(6.1.27)
e ce fait, on obtient un système d’équations linéaires de la forme
)cos()( tct ⎡+⎥⎤sin()( ct ⎡−= 2 ⎢⎣
1 ⎢⎣
s constantes c 4cet sont déter321 ,, n utilisant les co s aux limites. Pa
mple pour =y 5.0−=y , on5.0 2010
⎩ =−=− 0)1(,5.0)1( 22 yy
D
bcA = (6.1.28)
90
où
résolution du système (6.1.28) donne
(6.1.29)
Notre objectif est de calculer l’état (6.1.25), et la commande (6.1.23), évalués
ux points
[ ] [ ] TT betccccc
carréematriceuneestA
.05.0.05.0
,
5403.08415.02857.04805.05403.08415.028567.04805.08415.05403.00598.05558.08415.05403.00598.05558.0
44
4321 −==
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
+−−−++−++−+−−−−
×
la
⎪⎪⎩
⎪⎪⎨
⎧
−=−=+=−=
3167.00259.02761.04750.0
4
3
2
1
cccc
a ),..........,2,1,0()/cos( MjMjt j == π qui sont les zéros de Chebyshev dans
intervalle [-1, 1] solution du polynôme d’ordre l’ M voir [11]
ésultats numériques
Le problème est résolu par le logiciel MATLAB version 6.5.1.Nous donnons, ci-dessous
le contiennent l’état et la commande pour les différents ordres
)11(,)coscos()( 1 ≤≤−= − ttMtTM R
s deux tableaux 6.1 et 6.2 résumant les résultats numériques obtenus. Les tableaux
65etM = . Ils montrent que les résultats
par la méthode directe (voir
numériques pour l’état et la commande respectivement obtenus par la méthode indirecte sont comparables avec ceux obtenus [11]).
91
Tableau 6.1
M=5
M=6
Mjt j
)(5 ty ,.......,1,0=
j Mj
t j
,.......,1,0= )(6
jty
1.000 000 00
0.000 000 00 1.000 000 00 0.000 000 00
0. 809 016 99
0.001 074 77
0.866 025 403
0.000 558 36
0.309 016 99
0.034 105 41
0.500 000 000
0.014 059 57
-0.309 016 99
0.187 448 91
0.000 000 000
0.092 857 86
-0.809 016 99
0.420 150 03
-0.500 000 000
0.262 773 10
-1.000 000 00
0.500 000 00
-0.866 025 403
0.453 207 69
-1.000 000 000
0.500 000 00
Tableau 6. 2
M=5
M=6
Mjt j
)(5 tu
t j ,.......,1,0= ,.......,1,0=
j Mj )(6
jtu
1.000 000 00
- 0.008 301 43
1.000 000 00
-0.008 301 33
28 010 35
0.866 025 403
0.097 361 468 0. 809 016 99 0.1
0.309 016 99 0.368 478 50 0.500 000 000 0.284 527 898
-0.309 016 99 0.501 663 75 0.000 000 000 0.474 950 851
000
0.549 189 272 -0.809 016 99 0.527 621 37 -0.500 000
-1.000 000 00
0.588 752 12
-0.866 025 403
0.518 041 228
-1.000 000 000
0.588 753 947
92
Commentaires Les tableaux 6.1 et 6.2 contiennent respectivement les résultats numériques concernant
état et la commande optimale évalués aux points t qui sont les zéros des polynôme de
parables avec ceux obtenus par la méthode spectrale pour M=6
roche directe [10]. Les résultats sont identiques jusqu’à une précision de 7
s pour l’état et 5 places décimales pour la commande. Ma
me de calcul est moindre dans l’approche indirecte ce qui donne un léger avantage à
l’ j
Chebyshev. Nos résultats sont com utilisant l’app places décimale is cependant le volu l’approche indirecte.
93
6.2 Application du calcul des variations en commande
optimale en dimension 2
ème
e de commande optimale de transfert de conduction
ermique régi par l’équation de Poisson dans une plaque carrée satisfaisant les conditions
uman homogènes.
rmique est de trouver la fonction commande
ptimale c’est-à-dire la source de la chaleur dans la plaque, tel que le critère
uadratique est le coût à minimiser
Soit à minimiser le coût
Description du probl Nous considérons un problèm th aux limites de Dirichlet et Ne L’objectif dans les problèmes de transfert the o *u
Jq
( )[ ]
)4.2.6(0
)3.2.6(0
lim)2.2.6(0
int
)1.2.6(1
2
1
2221
Ω=∂∂
Ω=
=+∆
Ω+−= ∫Ω
surnT
surT
pardonnéessontitesauxconditionslesetuT
econtralasous
duTJ α
où est l’état du système i.e. la température de la plaque qui appartient à
espace de Sobolev d’ordre 2. La commande
),( yxTT =
)(22 ΩH ),( yxuu = appartient à )(0
2 ΩH .
( ) [ ] 1,0,:, ∈=Ω yxyx est un domaine fermé avec 21 Ω∪Ω=ΩFr . Il est nécessaire de trouver la commande optimale *u de sorte que la déviation de la distribution ),( yxT dans le solide de la température de consigne 1),( =yxT soit réduite au minimum [21].
94
Approche après optimisation Le PMP appliqué au problème de commande optimale a été utilisé pour déterminer les
la
e qui est ici un système des équations
olution du problème
Dans ce travail, on s’intéresse à la détermination des conditions nécessaires qui sont des
équations aux dérivées partielles.
ormons le Lagrangien
équations aux dérivées partielles canoniques de Hamilton-Jacobi-Bellman (HJB) dont solution conduit au minimum de la fonction coût (voir [21]). Notre objectif est de reformuler le problème (6.2.1-4) en un problème de calcul des variations pour déterminer le système d’Euler-Lagrang aux dérivées partielles [5 ], [16]. S F
( ) ( )[ ]uTuTTTTTuTyxL yyxxyx +∆++−= λαλ 221),,,,,,,,( (6.2.5) où ),( yxλλ =
insi, le système des équations d’Euler-Lagrange esA t :
( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) )8.2.6(022
=∂
+∂
+∂
−∂
− LLLLL
)7.2.6(
)6.2.6(
22
2
2
2
2
∂∂∂∂
∂∂
+∂∂
+∂∂
∂∂∂∂
yyxxyx
xxy
uuuuu yxyx
yL
xL
yxyx
λλ
02
2
2
2
=∂
+∂
+∂
−∂
−yyxxyx TTTTT LLLLL
0=∂
−∂
−yyx
Ly
Lx
L λλλ
95
D’après (6.2.5), on a
( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
( ) ( ) ( ) ( )1100
)10.2.6(0
)9.2.6(00012
2
2
2
2
22
2
2
2
2
∂∂
+∂∂
+∂∂
∂∂∂∂
=∂∂
+∂∂
+∂∂
−∂∂
+−
yxyx
T λλ
⎪
⎪
yxyx
0000 22 =∂
+∂
+∂
−∂
−+∆yxyx
uT
) .2.6(0002 =∂
−∂
−+u λα
Ceci implique
( ) 012
⎪⎪⎩
⎪⎨⎪⎪⎪
⎧
02 =+
0=+∆
=∆+−
λα
λT
u
uT
L’équation (6.2.11), donne uu ∆−=∆⇒−= αλαλ 22 (6.2.12)
t
bstituant (6.2.12) dans (6.2.9), on obtienSu
( ) 011=−−∆ Tu
α (6.2.13)
96
D’où :
( )
20 Ω=∂
=∂
dsurnn
100
011
∂∂Ω==
=+∆
=−−∆
uTdsuruT
uT
Tuα
ts montrent que l’approche variationnelle (calcul des variations)
êmes équations que l’approche PMP( voir [21]). La résolution numérique de ces équations
eut être effectuée par la méthode des élément finis ( voir, par exemple, [20], [21]).
e calcul des variations en chir g
chirurgie plastique. La
chnique consiste à introduire sous la peau une prothèse. La prothèse est ensuite remplie d’une solutio lusieurs semaines jusqu’à ce que
irée pour couvrir la partie endommagée de la peau.
’autre
la longueur étirée dans n’importe quelle direction.
Soit
Les résulta conduit aux m p 6.3 L ur ie plastique [3], [4] Les implants en silicone sont largement répandus dans la te
n . Il faut attendre p la peau soit suffisamment té
Le chirurgien doit chercher la forme géométrique optimale de l’implant afin de couvrir ’une part, toute la partie endommagée pour un volume donné de solution saline et dd
art, estimerp
la surface de base de l’implant dans le plan xoy comme illu tré dans la figure A s
base de l’implant est ABCDA et la partie endommagée à couvrir est ABCEA. Une fois
ffectue
.1. La6
ue la peau a été suffisamment étirée, le chirurgien e ra l’opération . q
97
Figure 6.1
e qu la forme de la peau étendue par l’implant silastique est telle que la peau
donné d’eau saline. Cette
On suppos e minimise cette aire de surface pour un volume surface peut s’écrie
[ ] dxdyhhSD
yx∫∫ ++= 21
221 (6.3.1)
=
dessus de la base de l’implant d’aire D et où
où h (6.3.2) ),( yxh
est la hauteur de la peau étendue au
yhh
xh yx ∂
∂=
∂= , . h∂
La fonction h(x, y) est choisie pour minimiser S sous la contrainte que le volume de l’eau
VdxdyyxhV ),( (6.3.3)
t que
saline est spécifiée, i.e.
∫∫ == D
0
e Dsuryxh ∂= 0),( (6.3.4)
n résumé, le problème modélisé sous forme d’un problème de calcul des variations est
onné par :
E d
[ ] dxdyhhMinimiserD
x21∫∫ + y
21
2+ (6.3.1)
98
tels que
),( Vdxdyyxh = (6.3.3)
t
0D∫∫
e Dsuryxh ∂= 0),( (6.3.4)
C’est un problème isopérimetrique qui sera résolu en introduisant les multiplicateurs de
Lagrange. Nous voyons ainsi comment un problème pratique important que l’on rencontre ans la chirurgie plastique a été transformé en un problème de calcul des variations. Cet
xemple montre l’aspect pratique du calcul des variations.
o tailles différentes :
Figure 6.2 : Domaines de définition des problèmes I, II et III.
d e
olution du problèmeS
ous devons d’abord définir le domaine D. Pour des raisons pratiques, on considère trois N
maines ded
0 1 2 3
1
0
0.5
0 1 2 30
0.5
1
0 1 2 30
0.5
10.75
0.5
0.55 1.1 2.2
1.5
99
Soit
( ) 0)()(,, maxmin ≤≤= etxxxyxD 22
1 ≥≤≤ yetxfyxf (6.3.5)
ec
av dxetxfxféquationdelsolutionestx +== 1max21min )()(:' α
où ( )2
2
22
222
1 1)(,)( ββ dxxfxxf −−=−= et d,,, 1αβα sont des constant
1ααes
positives supposées connues . En utilisant la méthode des multiplicateur de Lagrange,on a :
[ ] dydxhhhJD
yx∫∫⎭⎬⎫
⎩⎨⎧
−++= λ21
221 (6.3.6)
Le problème décrit, ci dessus, est un problème de calcul des variations qu’on résoudra ar la détermination des conditions nécessaires représentées par l’équation Euler-
p
agrange : L
[ ] [ ] λ−=++∂
+++∂
yYxxyx hhhhhh 21
2221
22 11 ∂∂ yx
(6.3.7)
D’après la méthode de Rayleigh-Ritz [10], soit ),( yxh une fonction test de la forme
)(2
),( 222211
xyyxh
βα += (6.3.8) ))()()(( 2222222222 dxyyxCyBxA ααβααβ −−−−+++
Nous choisissons les constantes pour minimiser Si le minimum local est atteint pour
Détermination des constantes CBA ,,
CetBA, .J
CCetBBAA === , , a
lors
)()( hJhJ ≥ (6.3.9)
100
D’où les conditions de stationnarité
⎪⎪⎩
=≡=
0)(CJdC CC
⎪
⎪⎪⎪
⎨
⎧
=≡
=≡
•
•
=
•
=
0)(
0)(
dJ
BJdBdJ
AJdAdJ
BB
AA
(6.3.10)
ù J indique la variation par rapport à
’après (6.3.10), nous obtenons le système suivant
•
CetBA ,, o D
[ ] 010 21
2 =⎭⎬⎫
⎩⎨ −++
∂⇒=
∂ ∫∫=dxdyhhh
AA yxAAλ
2⎧∂∂J
[ ] 010 21
22 =⎭⎬⎫
⎩⎨⎧
−++∂∂
⇒=∂∂
∫∫=dydxhhh
BBJ
yxBBλ
[ ] 010=
∂J
21
22 =⎭⎬⎫
⎩⎨⎧
−++∂∂
⇒∂ ∫∫=
dydxhhhCC yxCC
λ
’est-à-dire
0),,(1
c
0),,(2 =),,(3 =
=
CBAGCBAG CBAG
(6.3.111) 0
où
[ ] [ ]
[ ] dxdyhhhC
CBAG
dxdyhhhB
CBAGdxdyhhhA
CBAD
x⎩⎨ ++
∂= ∫∫1 1),,(
yxD
yxD
y
⎭⎬⎫
⎩⎨⎧
−++∂∂
=
⎭⎬⎫
⎩⎨⎧
−++∂∂
=⎭⎬⎫⎧
−∂
∫∫
∫∫
λ
λλ
21
223
21
222
21
22
1),,(
,1),,(,
=
G
Alors, on obtient :
tGGGGavec
CBAG
),,(
0),,( = (6.3.12)
321
101
Il n’existe pas de méthode analytique pour déterminer une solution exacte de l’équation
.312). Aussi les constantes seront approchées par une méthode numérique de
rte qu’elles satisfont
(6 CetBA,
VSJ λ−=telle so . C’est un problème de minimisation non linéaire
ésolu par le code de minimisation Fminsearch de MATLAB Version 6.5.1 [14].
riques et commentaire
bleau contenant les résultats numériques relatifs au
s pour tous types d’implants (I), (II), (III) pour les
férentes valeurs des constantes de
r Résultats numé On donne, ci-dessous, un ta Problème du calcul des variation
λαβα etd,,, 1dif obtenues par le code Fminsearch de
ATLAB Version 6.5.1 [14].
Tableau 6.3
B
C
M
Constantes A
En revanche pour détermin
er la taille de la peau étendue qui couvrira la partie
irection x une section typique horizontale s’étendra pendant que
correspondante de la prothèse est donnée par
, où
21 ppendommagée dans la d la solution est introduite et ainsi la courbe
EXTpp +21
( ) ( )∫ −−+=2
1221
x x xxdxhEXT 11
2x (6.3.12)
ment donnés pa
r ( ) ( )yxyx ,,, 21 . Ainsi EXTLes points 21 , pp sont respective est la longueur
(I)
Implant
11 ==== βαα d 3.45.3=λ
7
Implant (II)
51=== αα d
1 82
102
de la peau étendue dans la direction correspondant à un x y donné. Nous comparons EXT
longueur exigée nécessaire à couvrir la partie endommagée, c’est-à-dire
(6.3.13)
résentées dans les tableaux 6.4, 6.5 et 6.7 par les colonnes 2, 3.On
ntenant les résultats numériques relatifs aux implants (I),
Tableau 6.4
ésente la solution donnée dans le tableau 6.5. Le chirurgien
la partie inférieure située entre cet arc et l'axe des ordonnées.
avec la
)(2 11 xfEXT ≥ Ces longueurs sont rep donne, ci-dessous, trois tableaux co (II) et (III).
Tableau 6.5
La figure 6.6 repr ffectuera l’opération en coupant le long de l'arc frontal représenté sur la figure 6.6 et e
éplacera la peau pour couvrird
;11 ==== d λαβα
EXT requis
e
y
.2;1;5.11 ===== d λβαα
EXT requis
e
y
103
Figure 6.6 (Implant II)
Tableau 6.7
ue pour les trois tableaux on a
ce qui réconforte le chirurgien parce que l’implant a produit une surface de la peau
upérieure à celle de la peau endommagée.
- Il faux observer que c’est l’implant (II) qui donne la plus grande longueur EXT
. e. ).
Commentaire - Il est intéressant d’observer q exigéeEXTEXT > s (i 21 pp
3;1;1.11 ===== d λβαα
EXT requis
e
y
104
- Les résultats numériques sont en adéquation avec la figure 6.2 où l’on voit les trois
llipses représentants l’implant choisi. En effet, plus l’ellipse est grande plus est rand.
- Toutes les solutions numériques obtenues ne sont pas optimales car nous n’avons pas
éfinie mathématiquement ce qu’est une peau « suffisamment étendue ».
onclusion Le calcul des variations est une branche très importante des mathématiques. Le PMP qui est une brillante idée et constitue une des plus belles découvertes de la moitié du siècle. Le PMP est en quelque sorte une généralisation de la théorie du calcul des variations pour résoudre les problèmes industriels modernes.
Bibliographie [1] B. Andrea et M Cohen Lara. Commande linéaire des systèmes dynamiques. Presses de l’école des Hins Mir 2002. [2] Benoît Rittaud Contrôle, Optimisation. Edition Pole paris 2002. [3] C. Atkinson On a possible theory for the design of tissue expanders.
e 21 ppg d
C
éme2
éme2
105
106
The quarterly J. of mechanics & applied to this. Vol 41, pt. 3 pp 301-317, 1988. [4] C F., Chan Man Fong D., De Kee PN Kaloni. Advanced Mathematics for Engineering and Science. World Scientific, 2003. [5] Donald R. Smith Variational Methods In Optimization Dover, 1974. [6] D.S. Naidu. Optimal Control Systems. CRC Press, France, 2003. [7] Eber et Arfren Essential Mathematical Methods for physicists [8] E. Trelat. Control optimal théorie et application. Vuibert, Paris, 2005. [9] F. Lewis and V. Syrmos. Optimal control 2nd Edition, authors, J. Wiley, 2003. [10] Frederick Y. M. Wan Introduction to the calculus of variations and its applications Chapman & Hall, 1995.
107
[11] Gamal. N. Elnagar, Hamed Khamayseh On optimal spectral Chebyshev solution of a controlled nonlinear dynamical system IMA journal of Applied Mathematics. Volume, pp 174-157, 1997. [12] G., Leitmann. The Calculus of Variations Optimal Control Plenum Press, 1981. [13] J-C., CULIOLI Introduction à l’optimisation Ellipses, France, 1994. [14] J.C., Lagarias, J. A. Reeds, M.H. wright, and P.E. wright convergence properties of the Nelder-Mead Simplix Method in low Dimensions, SIAM Journal of optimisation. Vol. 9, N° 1, pp. 112-147, 1998. [15] J. Gregory C.Lin. Constrained Optimization in the Calculus of Variations and Optimal Control Theory Van Nostrand Reinhold, [16] Lawrence C. Evans. Partial Differential Equations American Mathematical Society Providence, Rholde Island, 2002. [17] L. Pontriaguine.V. Boltianski, R. Gamkrélidzé, E. Michtchenko. Théorie mathématique des processus optimaux Edition Mir. , Moscou, 1974.
108
[18] M. Bergounioux. Optimisation et contrôle des systèmes linéaires Dunod, Paris, 2001 [19] N. Touzi. Optimisation dynamique http: // www. Crest. Fr / Ifa / touzi / touzi. Htm, 2003. [20] Philippe G. Ciarlet. The finite element method for elliptic problems North- Holland publishing company-1978. [21] R. A., Meric F.E.M’S for an optimal steady state control problem. Int. J. Num. Meth. Eng Vol 12, pp 1375-1382, 1982. [22] Richard L. Burden and J. Douglas Faires. Numerical Analysis 7 th Edition, 2001. [23] S.S. Rao Optimization theory and applications Willey Eastern Limited, 1979
109