these baghli

216

Click here to load reader

Upload: ilyes-kriat

Post on 23-Nov-2015

79 views

Category:

Documents


13 download

TRANSCRIPT

  • FACULTE DES SCIENCES

    U.F.R Sciences & Techniques : S.T.M.I.AEcole Doctorale : Informatique-Automatique-Electrotechnique-Electronique-MathmatiqueDpartement de Formation Doctorale : Electrotechnique-Electronique

    Thse

    Prsente pour lobtention du titre de

    Docteur de lUniversit Henri Poincar, Nancy-I

    en Gnie Electrique

    par Lotfi BAGHLI

    Contribution la commande de la machine asynchrone,utilisation de la logique floue, des rseaux de neurones

    et des algorithmes gntiques

    Soutenue publiquement le 14 Janvier 1999 devant la commission dexamen :

    Membres du Jury :

    Prsident : H. BUYSE Professeur, LEI, Louvain-la-Neuve, BelgiqueRapporteurs : J. FAUCHER Professeur, LEEI, INPT - ENSEEIHT, Toulouse

    J. P. HAUTIER Professeur, L2EP, ENSAM, LilleExaminateurs : A. REZZOUG Professeur, IUFM de Lorraine, UHP, Nancy

    H. RAZIK Matre de Confrences, IUFM de Lorraine, UHP, Nancy

    Groupe de Recherche en Electrotechnique et Electronique de NancyFacult des Sciences - 54500 Vanduvre-ls-Nancy

  • Ddicaces

    A ma famille et mes amis pour la patience et le dvouement dont ils ont fait preuve

  • Remerciements

    Je tiens remercier Monsieur H. Buyse, Professeur l'Universit Catholique de Louvain, pour m'avoir fait l'honneur de prsider mon jury. Je remercie vivement Messieurs J. Faucher, Professeur l'Institut National Polytechnique de Toulouse, et J. P. Hautier, Professeur l'Ecole Nationale Suprieure d'Arts et Mtiers de Lille, pour l'intrt qu'ils ont port mon travail ainsi que pour les enrichissantes observations faites dans leurs rapports. Je tiens exprimer ma profonde gratitude Monsieur A. Rezzoug, Professeur l'IUFM de Lorraine, pour m'avoir accueilli au sein de son quipe, pour avoir dirig ce travail, pour les nombreuses discussions que nous avons eu, malgr un emploi du temps charg, pour sa sensibilit, son gard, le respect et la sympathie dont je fus tmoin et pour m'avoir montr l'importance de la partie exprimentale dans notre domaine.

    Je remercie sincrement Monsieur H. Razik, Matre de confrences l'IUFM de Lorraine, pour avoir co-dirig ce travail ainsi que pour ses nombreux conseils et son soutien tout au long de cette thse. Que tous les membres du laboratoire GREEN se trouvent ici remercis, notamment ceux de l'Universit Henri Poincar, et plus particulirement J. Lvque et F. Weinachter. La trs bonne humeur et l'ambiance au sein du groupe m'ont permis de mener mes travaux de recherche de faon trs agrable. Les discussions, les remarques et les commentaires de mes collgues ont t sources d'ides et ont contribu au dveloppement et l'amlioration de cette tude. Je veux galement remercier ma famille et mes amis pour leur soutien moral. Enfin, je remercie tout particulirement mes parents, pour leur soutien inconditionnel tout au long de ces longues annes d'tudes.

  • Table des matires

    1

    Introduction gnrale ________________________________________________________5

    Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques____________111. Introduction ________________________________________________________________ 13

    2. Logique floue _______________________________________________________________ 132.1. Principe et dfinitions _____________________________________________________________ 132.2. Oprateurs et normes _____________________________________________________________ 152.3. Infrence _______________________________________________________________________ 162.4. Structure d'un rgulateur flou _______________________________________________________ 20

    3. Rseaux de neurones _________________________________________________________ 293.1. Principe et dfinitions _____________________________________________________________ 293.2. Perceptrons multicouches __________________________________________________________ 303.3. Rseaux de neurones fonction de base radiale ( RBF ) __________________________________ 353.4. Applications ____________________________________________________________________ 37

    4. Algorithmes gntiques_______________________________________________________ 374.1. Principe et dfinitions _____________________________________________________________ 374.2. Applications ____________________________________________________________________ 38

    5. Conclusion _________________________________________________________________ 40

    Chapitre II : Application la commande de la machine asynchrone _________________411. Introduction ________________________________________________________________ 43

    2. Identification des paramtres de la machine asynchrone ___________________________ 432.1. Essai 1 : dmarrage _______________________________________________________________ 432.2. Essai 2 : chelon _________________________________________________________________ 512.3. Discussion______________________________________________________________________ 552.4. Conclusion _____________________________________________________________________ 57

    3. Contrle vectoriel classique ___________________________________________________ 583.1. Introduction_____________________________________________________________________ 583.2. Modle de la machine asynchrone ___________________________________________________ 583.3. Mthodes de commande vectorielle des moteurs asynchrones ______________________________ 61

    4. Rgulation, mthodes classiques _______________________________________________ 654.1. Introduction_____________________________________________________________________ 654.2. Dcouplage _____________________________________________________________________ 654.3. Rgulation des courants ___________________________________________________________ 674.4. Rgulation de la vitesse____________________________________________________________ 714.5. Conclusion _____________________________________________________________________ 79

    5. Rgulation par logique floue __________________________________________________ 795.1. Introduction_____________________________________________________________________ 795.2. Rgulateur flou trois ensembles ____________________________________________________ 795.3. Rgulateur flou cinq ensembles ____________________________________________________ 875.4. Stabilit des systmes intgrant un rgulateur flou _______________________________________ 895.5. Conclusion _____________________________________________________________________ 90

    6. Rgulation par rseau de neurones _____________________________________________ 956.1. Introduction_____________________________________________________________________ 956.2. Rseau de neurones du type perceptron _______________________________________________ 956.3. Rgulateur neuro-flou ( cinq ensembles flous ) ________________________________________ 986.4. Rseau de neurones fonction de base radiale ( RBF ) __________________________________ 1016.5. Conclusion ____________________________________________________________________ 105

    7. Conclusion ________________________________________________________________ 105

  • Table des matires

    2

    Chapitre III : Influence des changements de paramtres de la machine _____________1071. Introduction _______________________________________________________________ 109

    2. Paramtres mcaniques _____________________________________________________ 1092.1. Moment d'inertie ( J ) ____________________________________________________________ 1092.2. Coefficient de frottement sec ( a30 ) _________________________________________________ 113

    3. Paramtres lectriques ______________________________________________________ 1153.1. Rsistance statorique ( Rs ) ________________________________________________________ 1153.2. Coefficient de dispersion ( ) _____________________________________________________ 1173.3. Constante de temps statorique ( s ) _________________________________________________ 1193.4. Constante de temps rotorique ( r ) __________________________________________________ 120

    4. Conclusion ________________________________________________________________ 121

    Chapitre IV : Machine avec dfauts au rotor ___________________________________1231. Introduction _______________________________________________________________ 125

    2. Modle mailles ___________________________________________________________ 1252.1. Calcul des inductances ___________________________________________________________ 1252.2. Mise en quation ________________________________________________________________ 127

    3. Simulation de rupture de barres rotoriques _____________________________________ 1323.1. Analyse par FFT du courant statorique en rgime quasi stationnaire ________________________ 1353.2. Conclusion ____________________________________________________________________ 137

    4. Commande vectorielle de la machine prsentant des barres dfectueuses ____________ 1394.1. Introduction____________________________________________________________________ 1394.2. Mise en uvre__________________________________________________________________ 1394.3. Comparaison des rgulateurs ______________________________________________________ 1414.4. Conclusion ____________________________________________________________________ 143

    Chapitre V : Commande sans capteur mcanique _______________________________1451. Introduction _______________________________________________________________ 147

    2. Les mthodes de commande sans capteur mcanique _____________________________ 1472.1. Mthodes base d'estimateur ______________________________________________________ 1472.2. Mthodes base d'observateur _____________________________________________________ 1482.3. Commande directe du couple ( DTC ) _______________________________________________ 1502.4. Systme adaptatif utilisant un modle de rfrence ( MRAS ) _____________________________ 1532.5. Filtre de Kalman ________________________________________________________________ 1552.6. Autres mthodes ________________________________________________________________ 158

    3. Mthode propose __________________________________________________________ 1593.1. Commande vectorielle sans capteur avec rgulation de vitesse ____________________________ 167

    4. Techniques "intelligentes" de commande sans capteur____________________________ 170

    5. Conclusion ________________________________________________________________ 172

    Conclusion gnrale _______________________________________________________173

    Annexes_________________________________________________________________1791. Annexe 1 : Paramtres des machines tudies ___________________________________ 181

    1.1. Machine 1 _____________________________________________________________________ 1811.2. Machine 2 _____________________________________________________________________ 181

    2. Annexe 2 : Prsentation du logiciel MASVECT__________________________________ 182

    3. Annexe 3 : Description du dispositif exprimental________________________________ 185

  • Table des matires

    3

    Nomenclature ____________________________________________________________189

    Glossaire ________________________________________________________________193

    Bibliographie_____________________________________________________________197

  • Table des matires

    4

  • Introduction gnrale

    5

    Introduction gnrale

    Introduction gnrale

  • Introduction gnrale

    6

  • Introduction gnrale

    7

    La machine asynchrone, de par sa construction, est la machine la plus robuste et la moinschre du march. Les progrs raliss en commande et les avances technologiquesconsidrables, tant dans le domaine de l'lectronique de puissance que dans celui de la micro-lectronique, ont rendu possible l'implantation de commandes performantes de cette machinefaisant d'elle un concurrent redoutable dans les secteurs de la vitesse variable et du contrlerapide du couple.

    Cependant, de nombreux problmes demeurent. L'influence des variations des paramtres dela machine, le comportement en fonctionnement dgrad, la prsence d'un capteur mcaniquesont autant de difficults qui ont aiguis la curiosit des chercheurs dans les laboratoires. Entmoigne, le nombre sans cesse grandissant des publications qui traitent le sujet.

    Bien que dj prsents dans d'autres domaines, la logique floue, les rseaux de neurones et lesalgorithmes gntiques constituaient, au dbut de notre travail de thse, une nouveaut dans ledomaine de l'lectrotechnique.Nous avons voulu savoir quel pourrait tre l'apport de ces mthodes appliques l'identification et la commande de la machine asynchrone.Des questions se posent alors naturellement : ces mthodes qui ne relvent, en tout cas pas premire vue, d'une logique cartsienne classique, peuvent elles conduire de meilleursrsultats ? Sinon, que prsentent elles comme avantages et inconvnients par rapport auxtechniques conventionnelles ?

    Ce qui nous a le plus motiv dans ce travail, c'est qu'il comporte de nombreux volets et touche plusieurs disciplines en mme temps. Il comporte par-dessus tout une partie exprimentaleforte en enseignements et qui nous permet, non seulement de voir concrtementl'aboutissement et la finalit de l'tude, mais aussi de faire ressortir les problmes cruciaux demise en uvre.

    Il est videmment impossible de cerner toutes les possibilits et les combinaisons o peuventintervenir ces techniques. Nous examinerons plus prcisment la rgulation ainsi que sonoptimisation.Il nous apparat ncessaire de commencer par prsenter ces mthodes puis d'expliciter lesmanires les plus simples de les mettre en uvre.Tout au long de ce travail, nous avons gard comme objectif l'implantation etl'exprimentation des mthodes dveloppes. En effet, combien de procds donnent de trsbons rsultats en simulation et ne fonctionnent pas du tout ds qu'il s'agit de les utiliserconcrtement. Nous essayerons aussi d'viter les procds trop complexes pour uneimplantation raisonnable ou qui ne permettent pas de tirer des conclusions quant auxperformances obtenues.

    L'aspect exprimental revt donc une trs grande importance. Il permet de valider lesmthodes tablies par un travail thorique et de simulation. Il met galement en videncecertaines lacunes dues une mauvaise modlisation ou identification. Dans de nombreux cas,les rsultats sont assez satisfaisants puisque la rgulation pallie ces erreurs, mais il arrive quela mthode, une fois implante, ne fonctionne pas du tout. L'exprimentation en laboratoireconstitue donc un garde-fou avant l'tape d'industrialisation.

  • Introduction gnrale

    8

    Les diffrents travaux concernant le sujet font l'objet de cinq chapitres qui constituent cemmoire.

    Le chapitre I prsente les diffrentes approches utilises dans cette tude. Ces techniques tantrelativement nouvelles dans la communaut lectrotechnique, il est important de bien prciserles termes employs et de dvelopper suffisamment les mthodes utilises.Nous commenons par dfinir et expliquer la terminologie utilise en logique floue, la thoriedes ensembles flous et ainsi que le mode de raisonnement propre aux variables floues. Nousdveloppons une mthode de synthse d'un rgulateur flou et abordons les tapes ncessaires la ralisation de l'infrence floue.Nous prsentons par la suite les deux structures de rseaux de neurones auxquelles nous noussommes intresss dans ce travail. Les mthodes et proprits de l'apprentissage des rseauxde neurones sont galement abordes.Enfin, une mthode d'optimisation par algorithme gntique est prsente. Les notions,directement inspires de la thorie de l'volution, qui interviennent dans ces algorithmes sontexplicites.Dans ce chapitre, l'accent est mis aussi bien sur la conception des mthodes que sur leurutilisation. Ceci afin de se familiariser avec une manire de raisonner diffrente par rapport l'approche laquelle on est habitu dans la rsolution de certains problmes.

    L'application de ces mthodes fait l'objet du chapitre II. En premier lieu, nous prsentonsl'identification de la machine asynchrone par algorithmes gntiques. Les mthodes bases surl'essai de dmarrage de la machine et sur des chelons de tension continue sont tudies. Uneanalyse du comportement de l'algorithme ainsi que de la prcision des mthodes est mene.Par la suite, la commande vectorielle de la machine asynchrone ainsi que les modles utilisspour la simulation de la machine et pour le contrle sont prsents. Une comparaison desdiffrentes mthodes sera aborde de manire plus dtaille dans le chapitre V.Le fonctionnement et le rglage des diffrents contrleurs du schma classique sont explicits.A chaque fois, les rsultats exprimentaux et de simulation sont compars et comments.

    On s'intresse alors au remplacement du rgulateur classique de vitesse, au sein de lacommande vectorielle, par un rgulateur flou puis par un rgulateur neuronal. Les rgulateursflous trois puis cinq ensembles flous par variable sont compars par rapport auxrgulateurs classiques du type Proportionnel-Intgral.Les rgulateurs neuronaux de type perceptron sont ensuite utiliss afin de dupliquer la surfacede commande des rgulateurs flous. La procdure d'apprentissage, propre cette structure,ainsi que son utilisation sont discutes.Dans un premier temps, afin d'viter cette procdure d'apprentissage qui constitue une tapelourde en terme de temps de calcul, des rgulateurs neuronaux fonction de base radiale( RBF ) sont mis en uvre. Une amlioration de leurs performances, par optimisation de leurscaractristiques l'aide d'algorithmes gntiques, est effectue et abouti au rgulateur RBFretenu pour la suite de l'tude.Les rsultats obtenus suite des essais lorsque des chelons de vitesse sont appliqus vide eten charge ont permis de tirer des conclusions constructives.

    Dans le chapitre III, nous prsentons une tude, par simulation, sur l'influence deschangements de paramtres de la machine sur la rponse du systme. Les diffrentsrgulateurs classiques, flous et neuronaux prcdemment retenus sont utiliss et les rsultatsobtenus sont compars. Les essais portent aussi bien sur des chelons de vitesse que sur deschelons de couple rsistant. L encore, le comportement des rgulateurs est analys suivant

  • Introduction gnrale

    9

    leurs surfaces caractristiques et une confrontation des rsultats obtenus permet de complterles conclusions du chapitre II sur les performances des rgulateurs.

    Dans le chapitre IV, nous abordons le problme de la machine asynchrone prsentant desdfaillances de structure. Nous nous intressons, plus spcialement, la rupture de barresrotoriques et son impact sur le fonctionnement de la machine aussi bien en rgime noncommand qu'en contrle vectoriel pour une rgulation de vitesse.Nous verrons comment les rgulateurs envisags peroivent ces dfauts en rgime transitoireet en rgime quasi permanent.

    Le chapitre V prsente le problme de la commande vectorielle de la machine asynchronesans capteur mcanique. Un tat de l'art est dress et les diffrentes mthodes sont compareset analyses. La solution que nous recherchons va dans le sens de la simplicit d'implantationet de la robustesse vis vis des variations de paramtres. Une estimation du flux statoriquepar intgration de la f.e.m. est alors propose. L'accent est mis sur l'influence des dcalagesdes signaux de mesures, aussi minimes soient ils, sur le fonctionnement du dispositif. La miseau point d'une mthode de compensation d'offset en ligne, rend possible l'utilisation de ceprocd. Des essais exprimentaux montrent l'efficacit d'une telle commande de couple.

    Nous terminons par une conclusion sur l'ensemble de cette tude et nous proposons desperspectives de travail.

    Les annexes contiennent les paramtres des machines tudies, une prsentation du logicielque nous avons dvelopp au cours de cette tude et du dispositif exprimental labor. Desproblmes d'ordre pratique sont galement abords dans cette partie.

  • Introduction gnrale

    10

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    11

    Chapitre I

    Logique floue, rseaux de neuroneset algorithmes gntiques

    Chapitre I : Logique floue, rseauxde neurones et algorithmesgntiques

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    12

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    13

    1. IntroductionOn pourrait dire que la logique floue, les rseaux de neurones et les algorithmes gntiquesconstituent des approches qui, tout compte fait, ne sont pas nouvelles. Leur dveloppement sefait travers les mthodes par lesquelles l'homme essaye de copier la nature et de reproduiredes modes de raisonnement et de comportement qui lui sont propres. Bien que ces approchesparaissent "naturelles", et si elles se sont imposes dans des domaines allant du traitement del'image la gestion financire, elles commencent peine tre utilises dans les domaines del'lectrotechnique et de l'industrie afin de rsoudre les problmes d'identification, dergulation de processus, d'optimisation, de classification, de dtection de dfauts ou de prisede dcision.

    Considrant que la machine asynchrone cage et le convertisseur statique associ posent desproblmes difficiles tudier pour sa commande, nous nous proposons d'analyser ce que lesmthodes dcrites peuvent apporter comme solution cette commande. Il est videmmentimpossible de cerner toutes les possibilits et les combinaisons o elles peuvent intervenirdans un tel processus. Nous examinerons plus prcisment la rgulation ainsi que sonoptimisation.Il nous apparat ncessaire de commencer par prsenter ces mthodes puis d'expliciter lesmanires les plus simples de les mettre en uvre. Plutt que dvelopper des mthodes tropgnrales, nous cadrerons notre travail de faon rpondre l'objectif fix ici, la commandevectorielle de la machine asynchrone, et d'analyser les avantages et les inconvnients lis ces mthodes.

    2. Logique floue

    2.1. Principe et dfinitionsLa logique floue repose sur la thorie des ensembles flous dveloppe par Zadeh [ZAD 65]. Acot d'un formalisme mathmatique fort dvelopp, nous prfrons aborder la prsentation demanire intuitive.Les notions de temprature moyenne ou de courant faible sont relativement difficiles spcifier de manire prcise. On peut fixer des seuils et considrer que l'on attribue tel ou telqualificatif en fonction de la valeur de la variable par rapport ces seuils. Ceci ne peutexprimer qu'un avis trs tranch du qualificatif "temprature moyenne" par exemple. L'aspect"vague" de ce qualificatif n'est pas reprsent ( figure 1.1 ).

    On peut dfinir le degr d'appartenance de la variable temprature l'ensemble "faible"comme le "degr de vrit" de la proposition "la temprature est faible".

    En logique boolenne, le degr d'appartenance ( ) ne peut prendre que deux valeurs ( 0 ou1 ). La temprature peut tre : faible : 0)( ,0)( ,1)( === TTT levemoyennefaible moyenne : 0)( ,1)( ,0)( === TTT levemoyennefaible leve : 1)( ,0)( ,0)( === TTT levemoyennefaible Elle ne peut pas prendre deux qualificatifs la fois.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    14

    : Degr d'appartenance

    1

    015 25 Temprature (C)

    faible moyenne leve

    40

    Figure 1.1 Exemple d'ensembles considrs en logique boolenne

    En logique floue, le degr d'appartenance devient une fonction qui peut prendre une valeurrelle comprise entre 0 et 1 inclus. moyenne T( ) , par exemple, permet de quantifier le fait que la temprature puisse treconsidre comme moyenne.Dans ce cas, la temprature peut tre considre, la fois, comme faible avec un degrd'appartenance de 0,2 et comme moyenne avec un degr d'appartenance de 0,8 ( figure 1.2 ).

    0)( ,8,0)(,2,0)( === TTT levemoyennefaible

    1

    015 25 Temprature (C)

    faible leve

    : Degr d'appartenance

    moyenne

    0,2

    0,8

    T 40

    Figure 1.2 Exemple d'ensembles considrs en logique floue

    Pour la variable floue x, on dfinit un ensemble flou A sur un univers de discours X par unefonction degr d'appartenance :

    (x)xX

    A

    A

    ! ]1,0[ :

    ( 1.1 )

    L'univers de discours est l'ensemble des valeurs relles que peut prendre la variable floue x etA(x) est le degr d'appartenance de l'lment x l'ensemble flou A ( figure 1.3 ).

    Plus gnralement, le domaine de dfinition de A(x) peut tre rduit un sous-ensemble deX [ZAD 65]. On peut ainsi avoir plusieurs fonctions d'appartenance, chacune caractrisant unsous-ensemble flou. C'est par l'association de tous les sous-ensembles flous de l'univers dediscours, que l'on obtient l'ensemble flou de la variable floue x [MAM 75]. Par abus delangage, les sous-ensembles flous sont fort souvent confondus avec l'ensemble flou.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    15

    1

    0univers de discours

    A(x)

    x

    Figure 1.3 Reprsentation d'un ensemble flou par sa fonction d'appartenance

    Dans notre exemple, la variable floue est la temprature, l'univers de discours est l'ensembledes rels de l'intervalle [0, 40]. On attribue cette variable trois sous-ensembles flous : faible,moyenne et leve. Chacun est caractris par sa fonction degr d'appartenance :

    )(et )( ,)( TTT levemoyennefaible .

    1

    015 25 T (C)

    moyenne(T)

    0.5

    4020

    Figure 1.4 Cas de l'ensemble flou "moyenne" de la variable Temprature

    On peut dfinir la fonction degr d'appartenance moyenne sur tout l'univers de discours :

    +

    +

    =

    ]40,20[ ;)25exp(1

    11

    ]20,0[ ;)15exp(1

    1

    )(x

    x

    xx

    xmoyenne ( 1.2 )

    2.2. Oprateurs et normesComme dans la thorie des ensembles classiques, on dfinit l'intersection, l'union desensembles flous ainsi que le complmentaire d'un ensemble flou. Ces relations sont traduitespar les oprateurs "et", "ou" et "non". De nouvelles fonctions d'appartenance lies cesoprateurs sont tablies :x appartient A et B )(xBAx BA x appartient A ou B )(xBAx BA x appartient au complment de A )(xAx A

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    16

    L'oprateur "et" se dfini par une norme triangulaire ( t-norme ) :

    xTyzyxT

    =

    !),( ]1,0[]1,0[]1,0[ :

    T possde les proprits suivantes : commutativit : yTxxTy = associativit : TzxTyyTzxT )()( = monotonie : yxyTzxTz si admet 0 comme lment absorbant et 1 comme lment neutre : xTxTx == 1 , 00

    De mme, l'oprateur "ou" se dfini par une co-norme triangulaire ( T* ) qu'on appelle aussis-norme ( S ) :

    xSyzyxS

    =

    !),( ]1,0[]1,0[]1,0[ :

    S possde galement les proprits de commutativit, d'associativit et de monotonie. Elleadmet 1 comme lment absorbant et 0 comme lment neutre.A l'aide de la loi de Morgan, on peut associer chaque t-norme, la s-norme dfinie par :

    )1()1(1 yTxxSy = .

    Les oprateurs les plus utiliss en logique floue sont : Loprateur "et" pour la t-norme, qui correspond lintersection de deux ensembles A et

    B. Il peut tre ralis par : La fonction "Min" : ))(),(min()( xxx BABA = La fonction arithmtique "Produit" : )()()( xxx BABA =

    Loprateur "ou" pour la s-norme, qui correspond lunion de deux ensembles A et B. Ilpeut tre ralis par :

    La fonction "Max" : ))(),(max()( xxx BABA = La fonction arithmtique "Somme" : )()()( xxx BABA +=

    Loprateur "non" est ralis par : )(1)( xx AA = .

    2.3. InfrenceEn logique classique, la rgle de raisonnement du modus ponens permet, partir des deuxassertions, x est Aet si x est A alors y est B,de conclure que y est B.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    17

    En logique floue, la rgle s'appelle modus ponens gnralis et permet partir des assertions, x est A'et si x est A alors y est B,de conclure que y est B'.L'infrence est l'opration d'agrgation des rgles.

    Sans entrer dans les dtails de formalisation mathmatique, qui se basent sur les notions desous-ensembles flous, de graphes ( est le graphe dfinissant la relation (R) de A vers B ) etde projection ( B' est la projection sur B de A' par le graphe ), il est possible de dfinirl'ensemble B' par :

    ),(sup)( , '' yxyBy BAAx

    B

    = .

    C'est dire que le degr d'appartenance de chaque lment y de B l'ensemble flou B' est galau plus grand degr d'appartenance des couples ),( yx l'intersection de l'ensemble A' avec legraphe de la relation R.Ce dernier est calcul en utilisant la fonction "Min" pour l'oprateur "et" de l'intersection :

    )),(),(min(),( '' yxxyx RABA = .

    En ce qui nous concerne, nous allons nous intresser aux infrences avec plusieurs rgles. Eneffet, dans le cas de la commande et de la rgulation, les variables floues ont plusieursensembles d'appartenance. Ainsi plusieurs rgles peuvent tre actives en mme temps.

    Les rgles d'infrences peuvent tre dcrites de plusieurs faons,a) Linguistiquement :

    On crit les rgles de faon explicite comme dans l'exemple suivant,SI ( la temprature est leve ET la vitesse est faible ) ALORS la tension est grandepositive OUSI ( la temprature est moyenne ET la vitesse est faible ) ALORS la tension est positive

    b) Symboliquement :Il s'agit en fait d'une description linguistique o l'on remplace la dsignation desensembles flous par des abrviations.

    c) Par matrice d'infrence :Elle rassemble toutes les rgles d'infrences sous forme de tableau. Dans le cas d'untableau deux dimensions, les entres du tableau reprsentent les ensembles flous desvariables d'entres ( temprature : T et vitesse : V ). L'intersection d'une colonne et d'uneligne donne l'ensemble flou de la variable de sortie dfinie par la rgle. Il y a autant decases que de rgles.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    18

    Exemple :TU

    F M E

    F Z P GPV

    E Z Z P

    Tableau 1.1

    Les rgles que dcrit ce tableau sont ( sous forme symbolique ) :SI ( T est F ET V est F ) ALORS U=ZOUSI ( T est M ET V est F ) ALORS U=POUSI ( T est E ET V est F ) ALORS U=GPOUSI ( T est F ET V est E ) ALORS U=ZOUSI ( T est M ET V est E) ALORS U=ZOUSI ( T est E ET V est E) ALORS U=P

    Dans l'exemple ci-dessus, on a reprsent les rgles qui sont actives un instant donnpar des cases sombres :SI ( T est M ET V est F ) ALORS U=POUSI ( T est E ET V est F ) ALORS U=GP

    Il arrive que toutes les cases du tableau ne soient pas remplies, on parle alors de rglesd'infrences incompltes. Cela ne signifie pas que la sortie n'existe pas, mais plutt que ledegr d'appartenance est nul pour la rgle en question.

    Il s'agit maintenant de dfinir les degrs d'appartenance de la variable de sortie ses sous-ensembles flous. Nous allons prsenter les mthodes d'infrence qui permettent d'y arriver.Ces mthodes se diffrencient essentiellement par la manire dont vont tre raliss lesoprateurs ( ici "ET" et "OU" ) utiliss dans les rgles d'infrence.Nous prsentons les trois mthodes d'infrence les plus usuelles ; Max-Min, Max-Produit etSomme-Produit :

    2.3.1. Mthode d'infrence Max-MinCette mthode ralise l'oprateur "ET" par la fonction "Min", la conclusion "ALORS" dechaque rgle par la fonction "Min" et la liaison entre toutes les rgles ( oprateur "OU" ) parla fonction Max.La dnomination de cette mthode, dite Max-Min ou "implication de Mamdani", est due lafaon de raliser les oprateurs ALORS et OU de l'infrence.

    Reprenons l'exemple prcdent o seulement deux rgles sont actives :

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    19

    Min

    T

    F E M

    0,8

    ET

    V

    F E1

    ALORS

    Min

    0,8

    Z P1

    GP

    U

    Min

    T

    F E M

    0,2

    ET

    V

    F E1

    ALORSZ P GP

    Min

    0,21

    U

    Z P1

    GP

    U

    OU Max

    Figure 1.5 Exemple d'infrence Max-Min

    La variable T est Eleve avec un degr d'appartenance de 0,8 et Moyenne avec un degrd'appartenance de 0,2. La vitesse V est faible avec un degr d'appartenance de 1.L'application de la premire rgle d'infrence donne un degr d'appartenance la condition de0,8 ( minimum d l'oprateur ET entre les deux degrs d'appartenance ). On obtient ainsiune "fonction d'appartenance partielle" dessine en gris qui est crte 0,8.De manire similaire, la seconde rgle donne lieu une fonction d'appartenance crte 0,2.

    La fonction d'appartenance rsultante correspond au maximum des deux fonctionsd'appartenance partielles puisque les rgles sont lies par l'oprateur OU.

    2.3.2. Mthode d'infrence Max-ProduitLa diffrence par rapport la mthode prcdente rside dans la manire de raliser laconclusion "ALORS". Dans ce cas, on utilise le produit comme illustr par la figure 1.6.

    On remarque que les fonctions d'appartenances partielles ici ont la mme forme que lafonction d'appartenance dont elles sont issues multiplies par un facteur d'chelle vertical quicorrespond au degr d'appartenance obtenu travers l'oprateur "ET".On l'appelle galement "implication de Larsen".

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    20

    Min

    T

    F E M

    0,8

    ET

    V

    F E1

    ALORS

    Z

    0,8

    P1

    GP

    U

    Min

    T

    F E M

    0,2

    ET

    V

    F E1

    ALORSProduit

    0,2

    Z P1

    GP

    U

    Z P1

    GP

    U

    OU Max

    Produit

    Figure 1.6 Exemple d'infrence Max-Produit

    2.3.3. Mthode d'infrence Somme-ProduitDans ce cas, l'oprateur "ET" est ralis par le produit, de mme que la conclusion "ALORS".Cependant, l'oprateur "OU" est ralis par la valeur moyenne des degrs d'appartenanceintervenant dans l'infrence.D'autres mthodes ont t labores, ayant chacune une variante spcifique. Nanmoins, lamthode Max-Min est de loin la plus utilise cause de sa simplicit.

    2.4. Structure d'un rgulateur flou

    2.4.1. IntroductionAprs avoir nonc les concepts de base et les termes linguistiques utiliss en logique floue,nous prsentons la structure d'un contrleur flou.

    La ralisation d'un rgulateur flou pose un problme li aux nombreuses manires de raliserles oprateurs flous et l'implication. Bien que la liste des mthodes prsentes ne soit pasexhaustive, on se retrouve dj avec un grand nombre de variantes. Nous allons prsenter lesprincipales diffrences entre ces dernires et justifier, sinon expliquer, nos choix.L'aboutissement une implantation exprimentale constitue le but atteindre aprs les tapesde modlisation et de simulation.

    Dans ce qui suit, nous nous intressons principalement au rgulateur de vitesse au sein d'unecommande vectorielle de la machine asynchrone [BAG 96b].

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    21

    La vitesse de rfrence peut tre pilote par un oprateur externe. La grandeur de sortie de cergulateur de vitesse est l'image du couple lectromagntique de rfrence que l'ensemblecommande-convertisseur-machine doit gnrer. A flux constant, ce couple est proportionnelau courant Iqs* ( courant Iqs de rfrence ) impos en entre la boucle de rgulation decourant.

    Le schma de base du rgulateur repose sur la structure d'un rgulateur classique ladiffrence que l'on va retenir la forme incrmentale. Cette dernire donne en sortie, non pas lecouple ou le courant appliquer mais plutt l'incrment de cette grandeur.

    +

    -

    dE

    *E

    1-Z-1

    FE

    FdE

    FdUdEn

    EnContrleur

    flou

    dUn dU Iqs*

    Figure 1.7 Schma synoptique d'un rgulateur flou de vitesse

    Dans le schma ci-dessus comme dans ce qui suit, nous notons :E : l'erreur, elle est dfinie par :

    )()()( * kkkE = ( 1.3 )

    dE : la drive de l'erreur, elle est approche par :

    eTkEkEkdE )1()()( = , Te tant la priode d'chantillonnage. ( 1.4 )

    La sortie du rgulateur est donne par :)()1()( ** kdUkIkI qsqs += ( 1.5 )

    On retrouve en entre et en sortie du contrleur flou des gains dits "facteurs d'chelle" quipermettent de changer la sensibilit du rgulateur flou sans en changer la structure. Lesgrandeurs indices "n" sont donc les grandeurs normalises l'entre et la sortie ducontrleur flou.

    Les rgles d'infrences permettent de dterminer le comportement du contrleur flou. Il doitdonc inclure des tapes intermdiaires qui lui permettent de passer des grandeurs relles versles grandeurs floues et vice versa ; ce sont les tapes de fuzzification et de defuzzification( figure 1.8 ).

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    22

    dEn

    En

    dUnF

    F Ed~

    E~

    Moteurd'infrence

    Matriced'infrence

    F-1Ud~

    Figure 1.8 Structure du rgulateur flou

    2.4.2. FuzzificationLes ensembles flous des variables d'entre et leurs fonctions d'appartenance sont dfinir enpremier lieu.L'tape de fuzzification permet de fournir les degrs d'appartenance de la variable floue sesensembles flous en fonction de la valeur relle de la variable d'entre.Le choix du nombre des ensembles flous, de la forme des fonctions d'appartenance, durecouvrement des ces fonctions et de leur rpartition sur l'univers de discours n'est pasvident. Il y a cependant des facteurs qui sont plus important que d'autres ( cf. 2.4.5 ).

    Une subdivision trs fine de l'univers de discours sur plus de sept ensembles flous n'apporteen gnral aucune amlioration du comportement dynamique du systme rguler [BUH 94].Par contre, on peut obtenir des comportements non linaires assez diffrents en fonction de lamanire dont les fonctions d'appartenance des ensembles flous sont disposes sur l'univers dediscours.

    Nous avons opt pour des fonctions triangulaires et trapzodales pour les variables d'entres( figure 1.9 ). Elles permettent une implantation facile et l'tape de fuzzification ne requiertalors que peu de temps de calcul lors de son valuation en temps rel.

    Z

    1P

    En

    N

    -1 0 1

    0,34

    0,66

    0)(34,0)(1)(

    66,0)(

    =

    ==

    ==

    nN

    nPnZ

    nnP

    EEE

    EE

    Figure 1.9 Fuzzification de l'erreur

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    23

    Le recouvrement de deux fonctions d'appartenance voisines est de 1 ; c'est dire que leurcroisement s'effectue =0,5. Un recouvrement insuffisant voir inexistant conduit une zoneo aucune rgle d'infrence n'est sollicite. De mme, un recouvrement trop important, surtoutavec un degr d'appartenance prs de l'unit, conduit un aplatissement de la caractristiquedu rgulateur [BUH 94]. Le passage d'une fonction d'appartenance sa voisine doit s'effectueren douceur de manire ce qu'il y ait au moins deux rgles d'infrences qui soient sollicitesen mme temps.Il est galement indispensable de pouvoir fuzzifier la variable de sortie. En effet, lors del'infrence et de la defuzzification, on a besoin de connatre les ensembles flous de cettevariable ainsi que leurs fonctions d'appartenance.Du point de vue implantation, [MAM 75] utilise une table de fuzzification donnant les degrsd'appartenance aux ensembles flous pour des valeurs discrtes que prend la variable surl'univers de discours.

    2.4.3. InfrenceComme nous l'avons prcdemment voqu, nous allons nous baser sur une matrice ou tabled'infrence pour cette tape.La construction d'une telle table d'infrence repose sur une analyse qualitative du processus.Dans notre cas c'est une analyse dans le plan de phase de la trajectoire que l'on souhaitedonner au systme.

    En

    dEn

    dUn >0

    dUn 0

    dUn 0

    dUn 0

    dUn

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    24

    Par exemple :Quadrant 1 :SI En est P ET dEn est P ALORS dUn est P

    Quadrant 2 :SI En est N ET dEn est P ALORS dUn est Z

    On remarque cependant que dans le cas de ce quadrant, on pourrait souhaiter donner uncomportement diffrent en sollicitant la commande de manire freiner l'annulation del'erreur ; on pourrait tout aussi bien choisir comme rgle :SI En est N ET dEn est P ALORS dUn est N

    Si l'on ne retient que trois ensembles flous et deux entres, la matrice d'infrence est lasuivante :

    dEndUn

    N Z P

    N N N Z

    Z N Z PEn

    P Z P P

    Tableau 1.2

    Si par contre, on subdivise l'univers de discours avec plus d'ensembles flous et/ou qu'onprenne en compte la drive seconde ( sdEn ), alors le choix des rgles devient plus vaste etson optimisation dpend du systme rguler.

    Dans le cas ou l'on attribue cinq ensembles flous ( GN, N, Z, P et GP ) 1 aux variables, unchoix possible est le suivant :

    dEndUn

    GN N Z P GP

    GN GN GN N N Z

    N GN N N Z P

    Z N N Z P P

    P N Z P P GP

    En

    GP Z P P GP GP

    Tableau 1.3

    1 G signifie "Grand".

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    25

    Ou

    dEndUn

    GN N Z P GP

    GN GN GN GN GN Z

    N GN N N Z P

    Z N N Z P P

    P N Z P P GP

    En

    GP Z GP GP GP GP

    Tableau 1.4

    Celle qui suit ne possde que huit rgles qui donnent un incrment de commande non nul( diffrent de l'ensemble flou Z ). Elle convient la rgulation de processus du type 1er ordre[RAM 93].

    dEndUn

    GN N Z P GP

    GN Z Z GN Z Z

    N Z Z N Z Z

    Z N N Z P P

    P Z Z P Z Z

    En

    GP Z Z GP Z Z

    Tableau 1.5

    Si de plus, on ne retient que les rgles donnant un ensemble flou diffrent de Z, le processusd'infrence se retrouve sensiblement allg. C'est un exemple de table d'infrence incomplte.

    L'infrence se fait donc sur la base des matrices que l'on vient de dcrire. On commence parutiliser un oprateur t-norme pour dfinir la description symbolique associe la prmisse dela rgle ; C'est dire raliser le "ET". On passe ensuite l'infrence proprement dite quiconsiste caractriser la variable floue de sortie pour chaque rgle. C'est l'tape de laconclusion "ALORS".Enfin, la dernire tape de l'infrence, appele agrgation des rgles, permet de synthtiser cesrsultats intermdiaires. On utilise une s-norme.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    26

    Comme nous l'avons vu, la manire de raliser les oprateurs va donner lieu des contrleursflous diffrents. Les rgulateurs les plus courants sont ceux de : Mamdani :

    Ces contrleurs sont dits symboliques car la prmisse et la conclusion sont symboliques[MAM 75] [MAM 76]. Aprs l'infrence, il faut passer par une tape de "defuzzification"afin d'obtenir la valeur relle de la commande appliquer.

    Sugeno :Ils sont dits de type procdural [TAK 83]. En effet, seule la prmisse est symbolique. Laconclusion, qui correspond la commande, est directement une constante relle ou uneexpression polynomiale.

    L'tablissement des rgles d'infrence est gnralement bas sur un des points suivants[TAK 83] : L'exprience de l'oprateur et/ou du savoir-faire de l'ingnieur en rgulation et contrle. Un modle flou du processus pour lequel on souhaite synthtiser le rgulateur. Les actions de l'oprateur ; s'il n'arrive pas exprimer linguistiquement les rgles qu'il

    utilise implicitement. L'apprentissage ; c'est dire que la synthse de rgle se fait par un procd automatique

    galement appel superviseur. Souvent, des rseaux neuronaux y sont associs.

    L'valuation des rgles d'infrence tant une opration dterministe, il est tout faitenvisageable de mettre sous forme de tableau ce contrleur.Il reste, toutefois, intressant dans certains systmes complexes, de garder l'approchelinguistique plutt que d'avoir faire un nombre trop important de valeurs prcises[KIN 77].De plus, un algorithme linguistique peut tre examin et discut directement par quelqu'un quin'est pas l'oprateur mais qui possde de l'exprience sur le comportement du systme.La formulation linguistique de la sortie permet galement d'utiliser le rgulateur flou enboucle ouverte donnant ainsi l'oprateur les consignes adopter.

    Si, aprs infrence, on se retrouve avec un ensemble flou de sortie caractris par l'apparitionde plus d'un maximum, cela rvle l'existence d'au moins deux rgles contradictoires ( figure1.11 ). Une grande zone plate ( figure 1.12 ), moins grave de consquence, indiquerait que lesrgles, dans leur ensemble, sont faibles et mal formules.

    Z

    1P

    dUn

    GN N GP

    Figure 1.11

    Z

    1P

    dUn

    GN N GP

    Figure 1.12

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    27

    2.4.4. DefuzzificationPar cette tape se fait le retour aux grandeurs de sortie relles. Il s'agit de calculer, partir desdegrs d'appartenance tous les ensembles flous de la variable de sortie, l'abscisse quicorrespond la valeur de cette sortie. Diffrentes mthodes sont utilises : Mthode du centre de gravit :

    C'est la mthode de defuzzification la plus courante. L'abscisse du centre de gravit de lafonction d'appartenance rsultant de l'infrence correspond la valeur de sortie durgulateur.

    =

    dxx

    dxxxdU

    R

    Rn )(

    )(

    ( 1.6 )

    Il apparat que plus la fonction d'appartenance rsultante est complique, plus le processusde defuzzification devient long et coteux en temps de calcul.

    Mthode par valeur maximum :Cette mthode est beaucoup plus simple. La valeur de sortie est choisie comme l'abscissede la valeur maximale de la fonction d'appartenance.

    Z

    1P

    dUn

    GN N GP

    dUn

    Figure 1.13 Defuzzification par valeur maximum

    Mthode des hauteurs pondres :Elle correspond la mthode de centre de gravit quand les fonctions d'appartenance ne serecouvrent pas.

    =

    )()(

    xxx

    dURi

    Rin

    ( 1.7 )

    Cette mthode est surtout utilise quand les fonctions d'appartenance de la variable desortie sont des singletons.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    28

    Z

    1P

    dUn

    GN N GP

    dUn

    Figure 1.14 Defuzzification par la mthode des hauteurs pondres

    Dans ce cas, le calcul du centre de gravit ce trouve grandement simplifi. Le rgulateurn'est plus de type Mamdani mais de type Sugueno de part la faon dont la sortie estcalcule.

    Le rgulateur flou deux entres est reprsent par sa surface caractristique ( figure 1.15 ).Cette dernire exprime les variations de la valeur relle de la sortie du rgulateur en fonctiondes entres quand ces dernires parcourent l'univers de discours.

    dE

    E

    Figure 1.15 Surface caractristique d'un rgulateur flou

    2.4.5. ConclusionL'obtention d'un contrle performant requiert une bonne formulation des rgles. Dans notrecas, l'analyse dans le plan de phase permet de dgager rapidement un tableau de rglescorrect. Ceci n'est pas le cas pour des systmes non-linaires complexes o le modle est trscompliqu sinon inexistant. Il convient galement d'accorder une grande importance auprocessus prsentant des temps morts. Un exemple d'association d'un estimateur flou un

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    29

    rgulateur PI flou est donn dans [AOK 90]. Il a permis de prendre en compte le retardcaractristique d'un four destin la fonte du verre.

    D'un point de vue pratique, on peut rsumer dans les points suivants les lments qui ont peud'importance sur le comportement global du rgulateur flou [LUT 96] : La forme des fonctions d'appartenance, d'o le choix de formes triangulaires cause de la

    simplicit de mise en uvre. Le choix des fonctions pour raliser les oprateurs et le mcanisme d'infrence

    ( agrgation des rgles : ALORS ) Le choix de la mthode de defuzzification ( hauteurs, C.G. )

    Par contre, il faut faire prter une attention particulire, lors de la synthse du rgulateur flou : Au nombre et surtout la rpartition des fonctions d'appartenance sur l'univers de

    discours. A la table des rgles.

    Ces considrations pratiques ont guid le choix dvelopp au chapitre II.

    3. Rseaux de neurones

    3.1. Principe et dfinitionsL'origine des rseaux de neurones vient de l'essai de modlisation du neurone biologique parWarren McCulloch et Walter Pitts [JOD 94]. Ils supposent que l'impulsion nerveuse est lersultat d'un calcul simple effectu par chaque neurone et que la pense ne grce l'effetcollectif d'un rseau de neurones interconnects.

    Le schma suivant prsente un neurone formel :

    x f

    x1

    x2

    xi

    xn

    :

    :

    Sortie

    w1

    w2

    wi

    wn

    Figure 1.16 Reprsentation d'un neurone

    Les entres du neurone sont dsignes par xi ( i=1..n ). Les paramtres wi reliant les entresaux neurones sont appels poids synaptiques ou tout simplement poids. La sortie du neuroneest donne par :

    ( ) in

    ii xwxxfSortie

    =

    ==

    1avec ( 1.8 )

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    30

    x est l'tat d'activation du neurone ( galement appel tat ou activit ).f est la fonction d'activation du neurone. Conformment au modle biologique, les fonctionsd'activation sont gnralement croissantes et bornes. Les fonctions les plus connues sont lafonction signe, la fonction linaire sature et la fonction sigmode.Leur choix revt une importance capitale comme nous le verrons par la suite.

    Les rseaux de neurones sont constitus des neurones lmentaires connects entre eux parl'intermdiaire des poids qui jouent le rle des synapses. L'information est porte par la valeurde ces poids tandis que la structure du rseau de neurones ne sert qu' traiter cette informationet l'acheminer vers la sortie.Le rseau de neurones fait partie des Rseaux Adaptatifs Non-linaires, cela signifie que sesagents ( neurones ) s'organisent et modifient leurs liens mutuels lors d'une procdurefondamentale qu'est l'apprentissage. Pour une tche prcise, l'apprentissage du rseau deneurones consiste donc adapter les diffrents poids wi.

    3.2. Perceptrons multicouchesCe sont les rseaux de neurones les plus connus. Un perceptron est un rseau de neuronesartificiel du type feedforward, c'est dire propagation directe. Sur l'exemple suivant nousprsentons un perceptron trois couches. La premire est celle des entres ( elle n'estcependant pas considre comme couche neuronale par certains auteurs car elle est linaire etne fait que distribuer les variables d'entres ). La deuxime est dite couche cache ( ou coucheintermdiaire ) et constitue le cur du rseau de neurones. Ses fonctions d'activation sont dutype sigmode. La troisime, constitue ici par un seul neurone est la couche de sortie. Safonction d'activation est du type linaire borne.

    Nous pouvons remarquer sur la figure 1.17, des termes x0m en entre des neurones 2. En fait,sur chaque neurone, en plus de ses entres qui les lient avec les neurones prcdents, onajoute une entre particulire que l'on appelle polarisation du neurone. Elle correspond unbiais qui joue un rle de translation du domaine d'activit du neurone. Sa valeur est donc lie la fonction d'activation puisqu'elle permet le dplacement de cette fonction.Afin de garder une notation gnralise, nous reprsentons ces biais comme le produit d'uneentre x0m par les poids w0jm. Nous fixons l'entre x0m l'unit, le poids porte alorsl'information sur la polarisation du neurone.

    Le perceptron multicouche est trs utilis en identification et en contrle. Avec une couchecache, il constitue un approximateur universel. De rcentes recherches montrent qu'il peuttre entran de manire approximer n'importe quelle fonction entres-sorties sous rservede mettre suffisamment de neurones dans la couche cache et d'utiliser des sigmodes pour lesfonctions d'activation [PIC 94]. Bien entendu, les thormes mathmatiques ne dmontrentpas qu'un rseau une seule couche cache est optimal [THI 97].

    2 Les termes en exposant reprsentent, non pas la fonction puissance, mais plutt l'indice ( m )de la couche du rseau de neurones.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    31

    x2 f 2y2

    w02

    w12

    w22

    w32

    x11 f 1

    f 1x21

    f 1x31

    x01

    x00

    x10

    x20

    w011

    w111

    w211

    w021

    w121

    w221

    w031

    w131

    w231

    Couche cache Couche de sortieCouche d'entre

    Figure 1.17 Rseau de neurones de type perceptron une couche cache

    L'un des problmes de l'utilisation des rseaux de neurones consiste dans le choix de satopologie. Par exemple, il n'existe pas de rgle gnrale qui donne le nombre de neurones retenir pour la couche intermdiaire. Ce choix est spcifique chaque application et, ce jour,ce ne sont que des choix arbitraires dont on vrifie par la suite la validit.

    3.2.1. ApprentissageUne fois la structure fixe, il faut passer par le processus d'apprentissage, par lequel les poidsvont tre ajusts de manire satisfaire un critre d'optimisation.Prenons le cas de l'identification d'un processus qui comporte deux entres et une sortie.L'apprentissage va se faire sur un ensemble de triplet ( x10, x20, ys ) .

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    32

    +

    -

    Processus(x10 , x20)

    2

    Rseau deneurones

    ys

    y2

    Figure 1.18 Schma synoptique du procd d'apprentissage du rseau de neurones

    Pour chaque triplet, l'erreur entre les deux sorties est calcule. Elle est utilise pour corrigerles poids de la couche de sortie puis par rtropropagation de l'erreur ( error backpropagation), des erreurs intermdiaires, correspondant la couche cache sont ainsi calcules etpermettent l'ajustement des poids wij1 de la couche cache.Nous prsentons, dans ce qui suit, un exemple de cet algorithme. Il est bas sur la mthode dugradient. La notation adopte peut tre rsume comme suit :Les entres xi0 sont notes yi0 pour permettre de gnraliser l'algorithme.La fonction d'activation pour la sortie est f(x)=x.

    =i

    mi

    mij

    mj ywx

    1 reprsente l'activit du neurone j de la couche m.

    )( mjmj xfy = est la sortie du neurone j de la couche m.

    ( 1.9 )

    ( 1.10 )

    wijm est le poids reliant la sortie du neurone ( i ) de la couche prcdente ( m-1 ) au neurone( j ) de la couche considre ( m ).i, j, i', j', k et l sont des indices muets.

    L'erreur globale sur l'ensemble d'apprentissage ( indic (k) ) est : 3

    =k

    kkkk yysyysE ))((21

    )(2

    )()(2

    )( ( 1.11 )

    Les poids vont tre ajusts par une variation de 12 et iji ww . La direction optimale est donnepar l'oppos du gradient de l'erreur par rapport aux poids :

    { }

    =

    =

    =

    k i

    kkk

    k

    kkkk

    iii

    wyyys

    yysyysww

    Ew

    2'

    )(2

    )(2

    )(

    )(2

    )()(2

    )(2'

    2'

    2'

    )(

    ))((21

    3 Afin d'viter toute confusion entre les indices hauts et les exposants, nous crivons l'erreur quadratique sous saforme explicite ( Erreur * Erreur ).

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    33

    )(1')(

    22

    3

    0

    )(12

    2'

    )(22

    3

    0

    )(122

    2'

    2'

    )(2

    )(

    )(

    kik

    ikii

    i

    ki

    kiiii

    k

    yxf

    yww

    xfywfww

    y

    =

    =

    =

    ==

    =k

    kikkki yxfyysw )(1')(

    22)(

    2)(

    2' )()( ( 1.12 )

    De mme pour la couche cache :

    { }

    =

    =

    =

    =

    =

    =kki

    ikii

    j

    kkk

    k j ji

    kj

    kj

    kkk

    k ji

    kkk

    kkkkk

    jijiji

    yxfwx

    xfyys

    wx

    xyyys

    wyyys

    yysyysww

    Ew

    )(0'

    3

    0

    )(112

    1'

    )(22

    )(2

    )(

    1''

    )(1

    )(1

    )(2

    )(2

    )(1''

    )(2

    )(2

    )(

    )(2

    )()(2

    )(1''

    1''

    1''

    )()()(

    )()(

    ))((21

    =k

    kikjjkkkji yxfwxfyysw )(0')(

    1'

    12')(

    22)(

    2)(

    1'' )()()( ( 1.13 )

    On peut introduire l'erreur lmentaire la couche m par )(kmj , on a alors :

    =

    =

    kkiki

    kkkk

    ywxfyys

    )(1

    )(22

    )(22

    )(2

    )()(2 )()(

    ( 1.14 )

    ( 1.15 )

    De mme

    =

    =

    =

    kkikjij

    kjjk

    kjjkkkkj

    yw

    xfw

    xfwxfyys

    )(0

    )(11

    )(112

    )(2

    )(112

    )(22

    )(2

    )()(1

    )(

    )()()(

    ( 1.16 )

    ( 1.17 )

    On voit bien que pour le calcul de )(1 kj , on utilise )(2 k . En fait, de proche en proche, parrtropropagation, on calcule une erreur correspondant chaque neurone pour une couchedonne. On peut remarquer cela plus explicitement sur un cas plus gnral o l'on a plusieurssorties dans la dernire couche. L'erreur est alors donne par :

    =k j

    kjkjkjkj yysyysE ))((21

    )(2

    )()(2

    )( ( 1.18 )

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    34

    Dans la dernire couche :

    =

    =

    =

    =

    =

    sinon0'si)(

    ))(

    )(1')(

    22

    )(122

    2''

    2''

    )(2

    2''

    )(2

    )(2

    )(2''

    2''

    jjyxfywfww

    y

    wy

    yyswEw

    kikj

    ikiij

    jiji

    kj

    k j ji

    kjkjkj

    jiji

    =k

    kikjkjkjji yxfyysw )(1')(

    2'

    2)(

    2')('

    2'' )()( ( 1.19 )

    Dans l'avant-dernire couche :

    =

    =

    =

    k j i l ji

    kl

    kl

    ki

    ki

    kjkjkj

    k j ji

    kjkjkj

    jiji

    wx

    xx

    xy

    yys

    wy

    yyswEw

    2''

    )(1

    )(1

    )(2

    )(2

    )(2

    )(2

    )(

    2''

    )(2

    )(2

    )(1''

    1''

    )(

    )(

    =k j

    kikjkjjkjkjkjji yxfwxfyysw )(0')(

    1'

    1)(

    2')(

    22)(

    2)(

    1'' )()()( ( 1.20 )

    On a alors :

    =

    =

    kkikjij

    kjkjkjkj

    yw

    xfyys

    )(1

    )(22

    )(22

    )(2

    )()(2 )()(

    ( 1.21 )

    ( 1.22 )

    De mme

    =

    =

    =

    kkikjij

    kjl

    kjlkl

    kjl

    kjlklklklkj

    yw

    xfw

    xfwxfyys

    )(0

    )(11

    )(11

    )(2

    )(2

    )(11

    )(2

    )(22

    )(2

    )()(1

    )(

    )()()(

    ( 1.23 )

    ( 1.24 )

    On peut galement montrer que la relation gnrale pour toute couche diffrente de la couchede sortie, on a :

    =

    =

    kk

    mik

    mj

    mij

    kmj

    m

    lk

    mjlk

    mlk

    mj

    yw

    xfw

    )(2

    )(11

    )(11

    )()()(1 )(

    ( 1.25 )

    ( 1.26 )

    De ce qui prcde dcoule un certain nombre de remarques : On peut choisir la vitesse avec laquelle se fait la mise jour des poids lors de

    l'apprentissage en agissant sur . Il reprsente un facteur d'acclration appel ici facteurd'apprentissage.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    35

    Une variante permet l'introduction d'un terme inertiel qui aide la convergence [LUT 96],)1()()1()( ++= nwnwnwnw mij

    mij

    mij

    mij ( 1.27 )

    Le choix de ce facteur est cependant dlicat, on peut d'ailleurs aboutir des effetsinverses ; des oscillations ou un ralentissement de la convergence. Les performancesapportes par ce terme ne sont pas toujours convaincantes [REN 95].

    L'algorithme de rtropropagation introduit la drive premire des fonctions d'activation.Comme nous le verrons dans le chapitre suivant, nous utiliserons pour notre applicationcomme fonctions d'activation, la fonction sigmode pour la couche cache et la fonctionidentit pour la sortie.

    Il est cependant tout fait envisageable d'utiliser d'autres algorithmes qui ne ncessitentpas de drivation. Par exemple [BUR 97] utilise un algorithme de changement alatoiredes poids. Bien que cet algorithme ne prenne pas la pente la plus grande, il y a toujoursune bonne probabilit pour qu'un petit nombre d'essais alatoires trouvent une directiondans la quelle les poids sont ajusts de manire rduire l'erreur.Dans [EL-S 94], les auteurs exposent une mthode gntique pour l'adaptation des poids.Nous verrons l'utilisation des algorithmes gntiques par la suite.

    Ces mthodes ont pour but de rduire les problmes rencontrs lors de la convergence. Eneffet, l'algorithme du gradient est trs sensible aux minimums locaux. Le choix d'unfacteur d'apprentissage variable permet dans certains cas d'acclrer la convergence[PIC 94]. Il arrive cependant qu'on reste au-dessus du critre d'arrt sans jamais l'atteindre.C'est souvent le signe que le mcanisme d'apprentissage est inadapt, ou que la topologiedu rseau ne permet pas d'atteindre ce degr de prcision. Dans ce cas, il faut augmenter lenombre de neurones de la couche cache ou changer de structure.

    Villiers et al. [De V 92] pensent qu'il n'y a pas de raison d'utiliser deux couches caches la place d'une seule couche cache pour une complexit de rseau 4 donne. De plus, lesrseaux de neurones deux couches caches sont plus sensibles au problme du minimumlocal durant l'apprentissage ( utilisant les mthodes de rtropropagation de l'erreur et dugradient-conjugu ).

    Un autre phnomne li l'algorithme de rtropropagation utilis sous sa forme locale ( lamise jour des poids se fait au fur et mesure du parcourt de l'ensemble d'apprentissage )est que l'on se retrouve pour des surfaces symtriques ( ys =surface( x10, x20 ) ) avec undcalage en sortie pour ( x10, x20 )=( 0, 0 ). Nous mettrons en vidence ce phnomne dansle chapitre II.

    3.3. Rseaux de neurones fonction de base radiale ( RBF )Les rseaux de neurones fonction de base radiale ( Radial Basis Functions ) sont des rseauxde neurones une seule couche cache dont les fonctions d'activation sont des fonctions base radiale, le plus souvent des gaussiennes. La fonction d'activation du neurone de lacouche de sortie est l'identit. Les entres sont directement connectes aux neurones de lacouche cache. La sortie d'un neurone de la couche cache est donne par :

    4 La complexit du rseau de neurones peut tre estime par le nombre de poids utiliss dans l'architecture durseau.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    36

    =

    =

    =

    i j

    ijij

    j

    j

    j

    jj

    cxy

    CXCXfy

    2

    201

    2

    2

    11

    )(21exp

    21exp

    ( 1.28 )

    ( 1.29 )

    Et la sortie par :=

    iii ywy122 ( 1.30 )

    x2 y2

    w12

    w22

    w32

    x10

    x20

    Couche cache Couche de sortieCouche d'entre

    y11

    y21

    y31

    y41

    w42

    Figure 1.19 Rseau de neurones de type RBF

    Les gaussiennes sont dfinies par leur centre cij et leur cart type j.Ces derniers, avec les poids wi2, sont les paramtres optimiser en vue de l'apprentissage. Cerseau de neurones, par rapport aux perceptrons multicouches, a comme particularit lalocalisation de l'excitation du neurone. En effet, un vecteur d'entre donn ne sollicitera queles quelques neurones dont le domaine de rception ( dfini par les couples cij, j ) contient la

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    37

    valeur de cette entre. La rponse de la fonction de base radiale ainsi positionne diminuerapidement en fonction de l'loignement du vecteur d'entre par rapport au centre de lafonction RBF [SPE 96].

    Nous verrons dans le chapitre suivant que ces rseaux de neurones peuvent tre utiliss sanspasser par la lourde procdure d'apprentissage qui est ncessaire aux perceptrons.

    Enfin, il est intressant de remarquer qu'il existe une quivalence fonctionnelle entre unrseau de neurones RBF et un systme d'infrence flou bien que provenant d'originescompltement diffrentes ( les rseaux RBF de la physiologie et l'infrence floue des sciencescognitives ) [ROG 93]. Il faut dans ce cas choisir des fonctions d'appartenance gaussiennes demme cart type que celui des RBF ainsi qu'un nombre de neurones gal au nombre de rglesd'infrence.

    3.4. ApplicationsLes rseaux de neurones sont utiliss dans de plus en plus de domaines, citons laclassification, la reconnaissance de formes, l'identification et la commande de processus. Lechoix d'utiliser tel ou tel type de rseau de neurones dpend de l'application mais aussi descapacits de traitement du processeur sur lequel ils s'excutent. Le caractre local des RBF,par exemple, permet d'allger les calculs de la sortie du rseau de neurones. En effet, pour uneentre donne, il n'est pas ncessaire de calculer l'activation de tous les neurones de la couchecache, mais uniquement ceux dont le domaine de rception couvre l'entre. Lorsque lenombre de neurones d'un tel rseau est important pour couvrir tout l'espace d'entre, cetterduction du temps de calcul devient non ngligeable.

    Il existe videmment de nombreuses autres variantes de rseaux de neurones [CHE 96],[PIC 94] mais elles ne sont que trs partiellement utilises en commande [MIL 96]. Ce sontdes structures moins connues, citons les rseaux de Hopfield ou de Hamming qui ne sont pasdu type "propagation directe". Ils ncessitent plus de temps de calcul et leur analyse estmoins directe. Les rseaux de Kohonen sont, quant eux, utiliss principalement enclassification.Dans cette tude, nous nous sommes limits aux rseaux de neurones de type perceptrons etRBF. Ils se prtent le mieux notre application. De plus, la relative facilit avec laquelle onpeut analyser de leur fonctionnement dans le cadre de la rgulation permet de mieux lesexploiter.

    4. Algorithmes gntiques

    4.1. Principe et dfinitionsLes algorithmes gntiques, comme les rseaux de neurones, font partie des "RseauxAdaptatifs Non-linaires" ( RAN ) [REN 95]. Ils sont composs d'un grand nombre d'unitslmentaires ou agents, qui sont dans notre cas des neurones ou des chromosomes. Ces agentstraitent l'information le plus souvent de faon parallle et distribue. Ils interagissent entre euxd'une manire non-linaire et sans contrle central. Si l'environnement extrieur dans lequelils baignent est capable de leur fournir une rtroaction, alors les agents et leurs interactions

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    38

    sont modifis par des "oprateurs" de telle sorte que le systme global s'adapteprogressivement son environnement et amliore sa rponse.

    Les algorithmes gntiques sont dvelopps pour des fins d'optimisation. Ils permettent larecherche d'un extremum global. Ces algorithmes s'inspirent des mcanismes de slectionnaturelle ( Darwin ) et de la gntique de l'volution. Un algorithme gntique fait voluerune population de gnes en utilisant ces mcanismes. Il utilise une fonction cot base sur uncritre de performance pour calculer une "qualit d'adquation" ( fitness ). Les individus lesplus "forts" seront mme de se reproduire et auront plus de descendants que les autres.Chaque chromosome est constitu d'un ensemble d'lments appels caractristiques ougnes. Le but est de trouver la combinaison optimale de ces lments qui donne un "fitness"maximum. A chaque itration ( gnration de population ), une nouvelle population est cre partir de la population prcdente.

    Il existe de nombreuses faons de procder. Chaque utilisateur conoit en fait sa variante qu'iljuge s'adapter le mieux son problme. Nous prsentons dans ce qui suit, la version finale del'algorithme gntique que nous avons dvelopp pour notre application.Tout d'abord, tous les individus sont valus ; on calcule leur fonction d'adquation ( fitness )et ils sont classs du meilleur au pire ( figure 1.20 ).Plus l'individu se trouve en haut de la liste, plus il a de chance de se reproduire. Cette phasede reproduction s'effectue en plusieurs tapes de mutation et de croisement.La mutation consiste modifier alatoirement un ou plusieurs gnes d'un chromosome( caractristiques d'un individu ). Alors que le croisement s'effectue en changeant plusieursgnes entre deux parents.

    Originellement, le codage des individus se faisait en transcrivant en binaire les paramtres optimiser afin de constituer un gne. Ces gnes sont alors mis bout bout pour former lechromosome. Il existe cependant une approche appele codage rel, o les fonctions demutation et de croisement sont rcrites pour s'appliquer directement au vecteur de paramtressans passer par la forme binaire. Ces algorithmes se prtent d'ailleurs fort bien pour donnernaissance des mthodes hybrides qui allient mthodes classiques et algorithmes gntiques[CHO 97]. Nous avons retenu un codage rel, plus souple et plus prcis. On vite certainsproblmes dus au codage binaire. Le codage rel procure aussi une vision directe desparamtres tout au long de l'volution de la population.

    4.2. ApplicationsNous avons utilis les algorithmes gntiques pour l'identification des paramtres du modledes machines tudies ainsi que lors de l'optimisation des rgulateurs.Nous avons travaill, pour la quasi-totalit des rsultats qui seront prsents au chapitresuivant, sur une population de 55 individus.

    Les taux de croisement et de mutation sont, non pas issus d'une probabilit qu'a un individu dese croiser ou de se muter, mais plutt fixs par des tailles de sous-populations dont lesfonctions sont dtermines l'avance.

    Le tableau 1.6 rsume la configuration retenue.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    39

    Nombred'individus

    Position Constitution de la sous-population

    1 0 0 Recopie : on conserve le meilleur individu9 1 9 Mutation au hasard d'individus choisis parmi les 10

    premiers avec un facteur au maximum de 0,0015 10 14 Mutation au hasard d'individus choisis parmi les 15

    premiers avec un facteur au maximum de 0,110 15 24 Croisement au hasard de deux individus choisis parmi les

    15 premiers sans favoriser un parent par rapport l'autre10 25 34 Mutation au hasard d'individus choisis parmi les 35

    premiers avec un facteur au maximum de 0,520 35 54 Mutation au hasard d'un seul gne du premier individu de la

    population avec un facteur au maximum de 0,01

    Tableau 1.6 Configuration de la population d'individus

    La troisime colonne explique l'origine de la sous-population concerne. Par exemple, lesindividus du rang 10 14 sont issus d'une mutation de plus ou moins 10 % partir d'un desindividus de la gnration prcdente. Ce parent se doit d'tre class parmi les 15 premiers, cequi signifie qu'on le juge apte se reproduire.

    Chaque population est plus ou moins spcialiste d'une phase du processus d'optimisation. Ilapparat en effet, quand la population part d'une initialisation alatoire, que ce sont lesindividus issus d'une mutation avec un fort facteur qui se retrouvent en haut de la liste aprsvaluation du "fitness" et classement. Quand les individus commencent tendre vers levecteur optimum, c'est plutt la dernire sous-population ( faible mutation au hasard d'un seulgne ) qui est trs sollicite, en mme temps que les individus issus du croisement. Enfin, versla fin, le meilleur individu reste souvent au sommet de la liste. Ceci peut tre retenu commecritre de convergence.

    On pourrait croire, la vue de sous-populations peu actives, qu'il faille rduire leur taille oules liminer ; il n'en est rien. En effet, l'un des grands avantages des algorithmes gntiques,c'est de pouvoir sortir des maximums locaux. Des mutations au hasard ainsi que le grandnombre d'individus sont une ncessit si l'on tient garder cette proprit.

    On notera galement que l'on a eu aucun moment besoin de driver une quelconquefonction. C'est un autre avantage des algorithmes gntiques. Toute mdaille ayant son revers,la convergence vers l'optimum demande un grand nombre de gnrations. Si l'valuation du"fitness" de chaque individu demande un temps de calcul important, alors le processus devienttrs lourd. Il se prte cependant trs bien au calcul parallle puisque l'adquation d'un individun'est pas lie celle de son voisin.

  • Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

    40

    initialisation au hasardde la population

    Evaluation du "fitness"de chaque individu

    Classement des individusdu meilleur au pire

    Tolrance atteinte oui

    non

    fin del'optimisation

    Cration de la nouvelle population parcroisement et mutation des individus

    de la population prcdenteconsidrs aptes se reproduire

    Recopie de la population

    Figure 1.20 Organigramme de l'algorithme gntique

    5. ConclusionDans ce chapitre, nous avons prsent les bases ncessaires la comprhension des mthodes base de logique floue, de rseaux de neurones et d'algorithmes gntiques. Le vocabulaireutilis par les communauts qui tudient et dveloppent ces mthodes est assez vaste et nonencore uniformis. Il nous a donc sembl ncessaire de prciser celui utilis ici afin depermettre une lecture claire et sans ambigut des chapitres qui vont suivre.De nombreuses possibilits d'utilisation de ces techniques sont envisageables rien qu'en ce quiconcerne la machine asynchrone et sa commande. Nous prsenterons les mthodes pourlesquelles nous les avons utilises et nous nous garderons de faire des conclusions trop htivesen ce qui concerne leur supriorit par rapport aux mthodes classiques. Ce n'est pas parcequ'une mthode est nouvelle qu'elle est forcment plus efficace. Nous les comparerons doncde manire objective aux mthodes plus classiques. Nous mettrons en lumire ce que cestechniques apportent comme amliorations sans occulter leurs dsavantages.

  • Chapitre II : Application la commande de la machine asynchrone

    41

    Chapitre II

    Application la commande de lamachine asynchrone

    Chapitre II : Application lacommande de la machine asynchrone

  • Chapitre II : Application la commande de la machine asynchrone

    42

  • Chapitre II : Application la commande de la machine asynchrone

    43

    1. IntroductionOn ne prsente plus la machine asynchrone, c'est le moteur utilis au quotidien dans lesapplications domestiques ( machine laver ), l'atelier, l'usine ( machinerie d'entranement )ainsi que dans les domaines spcialiss ( traction ferroviaire, maritime, auxiliaires dans lescentrales ). Sa robustesse et son cot d'achat et d'entretien lui ont permis de conqurir unespace de plus en plus grand au dtriments des machines synchrones et courant continu.De faon gnrale, il est incontestable que la motorisation lectrique commande prend uneplace de plus en plus large. Il ne faut cependant pas non plus ngliger l'immense parc demoteurs asynchrones utiliss des fins d'entranement non command mais la vitesse variableest en plein essor et tout porte croire que la demande va s'accentuer surtout avec la baissecontinuelle des prix de l'lectronique de puissance et de commande.

    Pour effectuer les diffrentes commandes, il est ncessaire de connatre un certain nombre deparamtres. La premire partie de ce chapitre va nous permettre de confronter les rsultatsissus des diverses mthodes de dtermination de ces paramtres et tout particulirement celless'appuyant sur les algorithmes gntiques.Nous prsenterons ensuite la modlisation adopte en vue de la commande de la machineainsi que la commande vectorielle classique utilise comme base de comparaison. Nousverrons alors l'utilisation des mthodes de commande bases sur les rgulateurs flous etneuronaux.

    2. Identification des paramtres de la machine asynchroneLes paramtres ncessaires la simulation du fonctionnement de la machine se divisent enparamtres lectromagntiques et mcaniques. Nous montrons plus loin que les paramtreslectromagntiques requis sont ( Rs, s, r et ). Une machine asynchrone, vu de la source,n'est pas en mesure de nous fournir des informations sur la valeur de sa rsistance rotoriquequivalente. On ne peut alors dterminer que sa constante de temps rotorique.

    Dans le cadre de ce travail, nous mettons en uvre les algorithmes gntiques pourl'identification des paramtres de la machine asynchrone.Les essais sont effectus sur les deux machines dcrites en Annexe 1. Nous avons retenu lesmthodes qui tiennent compte du comportement transitoire aussi bien lectrique quemcanique de la machine. Ainsi, nous avons utilis les mthodes d'essais dcrites dans[KHE 95].

    2.1. Essai 1 : dmarrageL'essai consiste en un dmarrage de la machine, vide, sous pleine tension. On relve lavitesse, la tension ainsi que le courant de la phase "a". Nous dterminons, la phase initiale dela tension afin de l'introduire au niveau de la simulation. Nous observons une chute de tensionau dmarrage ( figure 2.3 ) que nous modlisons travers une fonction sigmode. Cette baissede tension est due la prsence d'un autotransformateur en amont.L'algorithme gntique labor pour optimiser les paramtres du modle de la machine estintgr au logiciel de simulation "MASVECT" ( Annexe 2 ).

    La fonction d'adquation utilise est la suivante :

  • Chapitre II : Application la commande de la machine asynchrone

    44

    ErreurFitness 1=

    ( ) ( )

    +

    +=

    )( 0

    2exp

    2exp

    1 ttAe

    IIFFErreur assimasIsim as

    ( 2.1 )

    ( 2.2 )

    Avec 1=F et 5=asIF . Ce sont les facteurs qui permettent de pondrer l'importance d'unegrandeur par rapport l'autre. Dans ce cas, nous accordons plus d'importance l'ajustementde la courbe du courant statorique relev qu' celle de la vitesse. De mme, afin d'acclrer laconvergence de l'algorithme nous avons favoris, l'aide d'une fonction sigmode( paramtres A et t0 dans la formule 2.2 ), le rgime permanent par rapport au dbut du rgimetransitoire.Nous utilisons la fonction sigmode lorsque l'on dsire obtenir le passage d'un tat un autrede faon non-linaire, trs prononce mais continue.

    Les rsultats suivants concernent l'identification de la machine 2 ( annexe 1 ). En figures 2.1,2.2 et 2.3 sont reprsents les rsultats exprimentaux et de simulation. Ces figures sontsuivies d'un agrandissement de l'volution de la vitesse et du courant au dmarrage.

    0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70temps (s)

    0.00

    500.00

    1000.00

    1500.00

    2000.00

    2500.00

    3000.00

    Vite

    sse

    (tr/m

    n) Wm ExprimentalWm Simulation

    Figure 2.1 Optimisation par algorithme gntique sur un dmarrage,Vitesse mcanique

  • Chapitre II : Application la commande de la machine asynchrone

    45

    0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70temps (s)

    -20.00

    -10.00

    0.00

    10.00

    20.00

    Ias

    (A)

    Ias Exprimental

    Ias Simulation

    Figure 2.2 Optimisation par algorithme gntique sur un dmarrage,Courant statorique

    0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70temps (s)

    -400.00

    -300.00

    -200.00

    -100.00

    0.00

    100.00

    200.00

    300.00

    400.00

    Vas

    (V)

    Vas Simulation

    Vas Exprimental

    Figure 2.3 Optimisation par algorithme gntique sur un dmarrage,Tension d'alimentation utilise

  • Chapitre II : Application la commande de la machine asynchrone

    46

    0.20 0.24 0.28 0.32 0.36 0.40temps (s)

    1750.00

    2000.00

    2250.00

    2500.00

    2750.00

    3000.00

    Vite

    sse

    (tr/m

    n) Wm ExprimentalWm Simulation

    0.20 0.24 0.28 0.32 0.36 0.40temps (s)

    -15.00

    -10.00

    -5.00

    0.00

    5.00

    10.00

    15.00

    Ias

    (A)

    Ias Exprimental

    Ias Simulation

    Vitesse Courant

    Figure 2.4 Optimisation par algorithme gntique sur un dmarrage,( Agrandissement )

    Nous prsentons maintenant quelques rsultats traduisants graphiquement l'volution du"fitness" en fonction du nombre de gnrations ainsi que la provenance du meilleur individu.

    0 10000 20000 30000 40000 50000 60000Gnrations

    0.00E+0

    2.00E-5

    4.00E-5

    6.00E-5

    8.00E-5

    1.00E-4

    1.20E-4

    Fitn

    ess

    0 10000 20000 30000 40000 50000 60000Gnrations

    0

    5

    10

    15

    20

    25

    30

    35

    40

    45

    50

    55

    Indi

    vidu

    Figure 2.5 Evolution du "Fitness" Figure 2.6 Position du meilleur individu

    Par suite, sont reprsents les volutions de la rsistance statorique ( figure 2.7 ), la constantede temps statorique ( figure 2.8 ), la constante de temps rotorique ( figure 2.9 ), le coefficientde dispersion ( figure 2.10 ), le moment d'inertie ( figure 2.11 ) ainsi que les coefficients defrottement ( figure 2.12 ).

  • Chapitre II : Application la commande de la machine asynchrone

    47

    0 10000 20000 30000 40000 50000 60000Gnrations

    0.00

    2.00

    4.00

    6.00

    8.00R

    s (O

    hm)

    0 10000 20000 30000 40000 50000 60000Gnrations

    0.00

    0.10

    0.20

    0.30

    0.40

    Ts (s

    )

    Figure 2.7 Evolution de Rs Figure 2.8 Evolution de s

    0 10000 20000 30000 40000 50000 60000Gnrations

    0.10

    0.20

    0.30

    0.40

    0.50

    0.60

    0.70

    0.80

    0.90

    Tr (s

    )

    0 10000 20000 30000 40000 50000 60000Gnrations

    0.01

    0.02

    0.03

    0.04

    0.05

    sigm

    a

    Figure 2.9 Evolution de r Figure 2.10 Evolution de

  • Chapitre II : Application la commande de la machine asynchrone

    48

    0 10000 20000 30000 40000 50000 60000Gnrations

    0.00

    0.02

    0.04

    0.06

    0.08J

    (kg

    m2)

    0 10000 20000 30000 40000 50000 60000Gnrations

    0.00

    0.02

    0.04

    0.06

    0.08

    0.10

    Coe

    ffici

    ents

    de

    frotte

    men

    t a2 (Nm s/rd)

    a3 (Nm)

    Figure 2.11 Evolution de J Figure 2.12 Evolution des coefficients defrottement

    On peut constater une convergence des diffrents paramtres estims qui ncessite un grandnombre de gnrations.

    2.1.1. Evolution des paramtres au cours des 1000 premires gnrations

    0 200 400 600 800 1000Gnrations

    0.00E+0

    2.00E-5

    4.00E-5

    6.00E-5

    8.00E-5

    1.00E-4

    Fitn

    ess

    0 200 400 600 800 1000Gnrations

    0

    5

    10

    15

    20

    25

    30

    35

    40

    45

    50

    55

    Indi

    vidu

    Figure 2.13 Evolution du "Fitness"( Agrandissement )

    Figure 2.14 Position du meilleur individu( Agrandissement )

  • Chapitre II : Application la commande de la machine asynchrone

    49

    0 200 400 600 800 1000Gnrations

    0.00

    2.00

    4.00

    6.00R

    s (O

    hm)

    0 200 400 600 800 1000Gnrations

    0.10

    0.20

    0.30

    0.40

    Ts (s

    )

    Figure 2.15 Evolution de Rs( Agrandissement )

    Figure 2.16 Evolution de s( Agrandissement )

    0 200 400 600 800 1000Gnrations

    0.30

    0.40

    0.50

    0.60

    0.70

    0.80

    0.90

    Tr (s

    )

    0 200 400 600 800 1000Gnrations

    0.01

    0.02

    0.03

    0.04

    0.05

    sigm

    a

    Figure 2.17 Evolution de r( Agrandissement )

    Figure 2.18 Evolution de ( Agrandissement )

  • Chapitre II : Application la commande de la machine asynchrone

    50

    0 200 400 600 800 1000Gnrations

    0.00

    0.02

    0.04

    0.06

    0.08J

    (kg

    m2)

    0 200 400 600 800 1000Gnrations

    0.00

    0.02

    0.04

    0.06

    0.08

    Coe

    ffici

    ents

    de

    frotte

    men

    t a2 (Nm s/rd)

    a3 (Nm)

    Figure 2.19 Evolution de J( Agrandissement )

    Figure 2.20 Evolution des coefficients defrottement ( Agrandissement )

    Les rsultats issus de cette optimisation sont aprs 60000 gnrations :Fitness = 1,00213 10-4( Extrait de l'annexe 1 ) 5

    Rs=7,828 s=0,0833 sr=0,1415 s=0,0466J=0,006093 kg m2a2=0,000725 Nm s/rda3=0 Nm

    Ce vecteur de paramtres, issu d'une optimisation globale sur tout le dmarrage, est un vecteurde paramtres "moyen". C'est dire qu'il convient pour simuler aussi bien le rgimepermanent que le rgime transitoire.

    Les rsultats suivants concernent l'identification de la machine 1 ( Annexe 1 ) :Pour cette machine, nous avons spar l'identification de la partie mcanique de celles desparamtres lectromagntiques.Nous avons procd un essai de ralentissement de l'ensemble machine-frein poudre qui apermis de calculer :J=0,059 kg m2a2=0,01438 Nm s/rda3=0,5012 Nm

    5 Il est vident que les valeurs donnes ici sont le rsultat numrique de l'optimisation. Les paramtres nepeuvent pas tre connus avec une telle prcision.

  • Chapitre II : Application la commande de la machine asynchrone

    51

    En ce qui concerne cette machine, la large plage de variation des courants mis en jeu a rendula procdure d'acquisition plus difficile. Nous n'avons utilis que la fin du rgime transitoireainsi que le rgime permanent suite un dmarrage sous tension nominale. Nous obtenons unjeu de paramtres ( tableau 2.1 ), qui non seulement convient au dmarrage, mais donne lescourants et les vitesses qui correspondent diffrentes charges de la machine ( tableau 2.2 ).

    Rs=2,2513 s=0,06526 sr=0,1975 s=0,0423

    J=0,059 kg m2a1=0 Nm s2/rd2a2=0,01438 Nm s/rda3=0,5012 Nm

    Tableau 2.1

    Exprimental SimulationCharge Ias eff (A) (tr/mn) Ias eff (A) (tr/mn)A vide 4,6 1495,4 4,78 1496,6Cr=10 Nm 5,8 1483 5,66 1482,8Cr=20 Nm 7,9 1465 7,50 1467,5Cr=37 Nm 12,7 1430 11,9 1436

    Tableau 2.2

    La figure 2.6 reprsente, d'une gnration la suivante, de quelle population provient lemeilleur individu. Nous pouvons remarquer qu'au dbut, ( figure 2.14 ), c'est un petit peu departout qu'il est slectionn, avec une prdominance de la sous-population "faible mutation auhasard d'un seul gne". Plus la slection devient pointue, plus la sous-population issue descroisements contribue placer en tte de liste ses individus. Enfin, quand le systme aconverg vers la solution optimale, l'individu issu de la recopie reste trs souvent commemeilleur individu au sens du critre d'adquation.

    A travers les figures 2.13 2.20, pendant les 1000 premires gnrations, nous constatonssouvent une augmentation de l'adquation ( fitness ) ainsi que des changements de paramtres( gnes ) qui s'oprent par sauts. Ce rsultat, on le doit au caractre alatoire de la cration decertains individus de la population. Il permet l'algorithme, outre l'acclration de laconvergence au dbut du processus, d'avoir une meilleure robustesse vis vis des maximumslocaux.

    2.2. Essai 2 : chelonCet essai est ralis en branchant la machine, connecte en toile, sur une source de tensioncontinue de sorte que les trois phases soient parcourues respectivement par I, -I/2 et I/2.Un chelon positif de la tension conduit l'apparition d'un courant de la forme :

    ++=

    211)( 0Tt

    Tt

    as BeAeItI ( 2.3 )

  • Chapitre II : Application la commande de la machine asynchrone

    52

    Un chelon ngatif ( court-circuit de la source ) donne une dcroissance du courant de laforme :

    +=

    210)(

    Tt

    Tt

    as BeAeItI ( 2.4 )

    Un calcul simple partir du modle dq de la machine ramene au stator montre que lesparamtres sont donns dans les deux cas par :

    rs

    rs

    r

    TTTT

    TT

    =

    +=+

    +=

    21

    21

    21

    1

    avec BA

    =

    ( 2.5 )

    Les constantes de temps T1 et T2 sont trs loignes l'une de l'autre comme le montrent lesfigures 2.21 2.23, ce qui rend l'identification difficile. Nous avons galement remarququ'utiliser les gnes ( , s, r et ) au lieu de ( A, B, T1 et T2 ) pour caractriser l'individu,ralentissait la convergence de l'algorithme gntique. Il faut donc viter l'introduction deformules intermdiaires.

    2.2.1. Croissance du courantNous reprsentons ici le rsultat de l'identification pour une croissance du courant statorique.Il correspond la rponse un chelon de tension continue fournie par une alimentationstabilise.

    0.00 0.40 0.80 1.20 1.60temps (s)

    0.00

    1.00

    2.00

    3.00

    4.00

    5.00

    Ias

    (A) Ias Exprimental

    Ias Simulation

    Figure 2.21 Identification par algorithme gntique sur une croissance du courant

  • Chapitre II : Application la commande de la machine asynchrone

    53

    Dans ce cas, une caractristique supplmentaire ( I0 ) doit tre ajoute aux individus de lapopulation. Elle correspond la valeur du courant Ias en rgime perma