Svoboda | Graniru | BBC Russia | Golosameriki | Facebook

Théorie du contrôle

branche des mathématiques et des sciences de l’ingénieur qui traite du comportement de systèmes dynamiques

En mathématiques et en sciences de l'ingénieur, la théorie du contrôle a généralement comme objet l'étude du comportement de systèmes dynamiques à partir de leur représentation mathématique, paramétrée par des entrées sur lesquelles on peut agir[1],[2]. Elle peut être vue comme une branche de l'analyse et de l'optimisation, notamment appliquée à l'automatique, et spécialisée dans l'élaboration de contrôleurs délivrant des lois de commande aux systèmes dynamiques, en boucle ouverte ou en boucle fermée[1],[2]. Elle inclut également la conception d'observateurs, utiles à l'estimation de quantités physiques qui ne sont pas directement mesurables[3],[4],[5].

Le cadre classique

modifier

Classiquement, la théorie du contrôle s'intéresse à des systèmes entrées-sorties, c'est-à-dire à des systèmes capables de recevoir des signaux (en entrée) et de délivrer en retour d'autres signaux (en sortie). Ces systèmes entrées-sorties sont généralement des systèmes dynamiques, car ces derniers possèdent un état interne qui permet de modéliser une grande variété de comportements.

 

Cette section s'attache à décrire de manière générique les systèmes dynamiques entrées-sorties les plus étudiés en théorie du contrôle, et les problématiques usuellement associées à ces derniers.

Introduction au cadre classique

modifier

On se place dans un ensemble, l'espace d'état   d'un système (avec généralement  ), sur lequel on définit une dynamique, c'est-à-dire une loi mathématiques qui depuis n'importe quel état initial  , fournit une trajectoire   appartenant à l'espace d'état  . Lorsque   est plongé dans un espace de dimension finie, les coordonnées de   sont appelées variables d'état.

La trajectoire   est fonction de l'état initial  , du temps  , et dépendante des valeurs de paramètres d'entrée :

  • Le paramètre de contrôle, noté  , appelé également paramètre de commande, et qui prend ses valeurs à chaque instant dans un espace des contrôles   (avec généralement  ). En pratique, le paramètre de contrôle correspond généralement aux signaux appliqués au système par le biais d'actionneurs.
  • Le paramètre d'entrée exogène, noté  , appelé également paramètre de perturbation, et qui prend ses valeurs à chaque instant dans   (avec généralement  ). Contrairement à l'entrée   sur laquelle on peut agir, l'entrée   est subie par le système. Elle correspond aux perturbations et aux consignes du système, et elle est rarement considérée dans la plupart des problèmes. Elle est mentionnée ici par souci d'exhaustivité.

Si le déroulement du temps est modélisé par un entier positif ( ), le système est alors dit temps-discret (le temps ne prend que des valeurs entières). L'état du système   ne dépend généralement que de l'état du système et des paramètres d'entrée à l'instant précédent. La dynamique du système est alors donnée par une suite définie par l'intermédiaire d'une fonction   ; elle s'écrit :

 

Si le déroulement du temps est modélisé par un réel positif ( ), le système est alors dit temps-continu (le temps s'écoule continument). Dans ce cas, la dynamique du système est généralement donnée par une équation différentielle ordinaire ; elle s'écrit :

 

Dans ce contexte   est la dérivée temporelle de   à l'instant  , et il peut alors être nécessaire de vérifier l'existence et l'unicité de la trajectoire  .

En pratique, on ne s'intéresse pas systématiquement à l'évolution de toutes les variables d'état, mais parfois uniquement à certaines quantités dites de sortie. Ces quantités d'intérêt, notées  , sont à valeur dans un espace des sorties   (avec généralement  ). Elles sont définies par l'intermédiaire d'une fonction   :

 

Bien que cette distinction soit rarement faite en pratique, il est quelques fois nécessaire de distinguer les sorties mesurées   des sorties contrôlées  [6] :

  • Les sorties mesurées   sont des quantités supposées connues en temps-réel, et qui peuvent notamment être utilisées pour synthétiser une commande  . En pratique, il s'agit généralement de données mesurées au sein du système par le biais de capteurs.
  • Les sorties contrôlées   sont les quantités dont on souhaite manipuler l'évolution par le biais de la commande  .

Ces deux types de sorties ne sont pas systématiquement confondus. On peut tout à fait vouloir contrôler une quantité qu'on sait mesurer (sortie contrôlée et mesurée) ou qu'on ne sait pas mesurer (sortie contrôlée et non mesurée). On peut également mesurer une quantité dont on ne cherche pas particulièrement à contrôler l'évolution (sortie mesurée et non contrôlée).

 
Système dynamique contrôlé. La commande en entrée   est à gauche. La trajectoire de l'état interne   de condition initiale   pour la dynamique   est représentée au centre. Les sorties   sont à droite.

Problématiques

modifier

La question principale de la théorie du contrôle est: quel est le comportement des sorties contrôlées   en fonction de celui du contrôle   ? Plus spécifiquement, en l'absence de perturbation, on peut lister plusieurs grandes problématiques:

  • La commandabilité (ou contrôlabilité[7]) : peut-on choisir   de telle sorte que la trajectoire   atteigne la sortie  , une valeur cible choisie par ailleurs ? Elle est parfois confondue avec l'accessibilité, bien que les deux notions ne coïncident pas systématiquement[8].
  • La stabilisabilité : peut-on choisir   de telle sorte que la trajectoire   se stabilise asymptotiquement en  , une valeur de consigne choisie par ailleurs ? On parle alors de problème de régulation[9],[10].
  • La poursuite de trajectoire : peut-on choisir   de telle sorte que la trajectoire   se stabilise asymptotiquement le long d'une trajectoire de consigne   choisie par ailleurs ? On parle alors de problème d'asservissement[11].

Le terme de régulation est généralement réservé à la synthèse de commandes possédant des mécanismes de compensation des perturbations[11],[12],[13]. D'autres sources utilisent le terme d'asservissement sans imposer de stabilisation le long de la trajectoire de consigne[10],[14]. Il est à noter que les problèmes de régulation sont parfois vus comme des cas particuliers des problèmes d'asservissement, puisqu'il s'agit d'asservir le système le long d'une trajectoire de consigne constante[10].

Lorsque la loi de commande   ne dépend pas des sorties mesurées  , on parle de contrôle en boucle ouverte. Inversement, lorsque la loi de commande   est mise à jour en temps-réel en fonction des sorties mesurées  , on parle de contrôle en boucle fermée. De manière générale, les problèmes de stabilisation (le long d'une consigne constante ou non) nécessitent un contrôle en boucle fermée.

Les lois de commande   répondant aux problématiques listées ci-avant peuvent être choisies de manière à minimiser certains critères. On parle alors de problème de contrôle optimal. Par exemple, trouver une loi de commande permettant de passer d'une valeur de sortie   à une valeur de sortie   en un temps minimal est appelé un problème de contrôle temps-optimal[15].

Une autre problématique de la théorie du contrôle est celle de l'estimation des variables d'état : peut-on, à partir de la connaissance des entrées   et des sorties mesurées   du système, estimer une trajectoire   proche de la trajectoire réelle de l'état du système   ? On parle alors de problème d'observation[3],[4].

Lorsque la loi de commande   est elle-même synthétisée en fonction d'un état estimé  , on dit que la loi de commande   est basée-observateur[16],[5],[17].

Représentation d'état

modifier

Cas général

modifier

En toute généralité, la théorie du contrôle s'intéresse donc aux systèmes dynamiques de la forme :

 

avec   l'état interne du système,   sa commande et   ses autres entrées exogènes,   sa sortie contrôlée et   sa sortie mesurée. Ici,   dénote   ou   suivant le contexte temps-continu ou temps-discret. Les équations ci-dessus forment la représentation d'état du système. Il arrive que la sortie contrôlée   soit remplacée par une variable  , définie comme l'écart entre   et la consigne  . La consigne   est alors intégrée aux entrées exogènes  . Le problème d'asservissement (ou de régulation) revient finalement à stabiliser   en  , et la deuxième équation de la représentation d'état devient :

 

Cas linéaire temps-invariant (LTI)

modifier

Lorsque les variables du systèmes sont de dimension finie et que les fonctions  ,   et   introduites plus haut sont temps-invariant et linéaires en  ,   et   (éventuellement après les avoir linéarisées autour d'un point de fonctionnement), on aboutit au système linéaire temps-invariant (LTI) suivant :

 

Ce système LTI peut se ré-écrire dans le domaine fréquentiel, par le biais d'une transformation de Laplace dans le cas temps-continu et par le biais d'une transformation en Z dans le cas temps-discret, sous la forme :

 

avec  ,  ,   et   la représentation fréquentielle des signaux  ,  ,   et   respectivement, et les   des matrices de transfert données par :

 

Chaque élément de ces matrices est une fonction de transfert et contient des renseignements sur le comportement fréquentiel du système.

Techniques de contrôle

modifier
 
Schéma bloc de contrôleurs : en boucle ouverte, en boucle fermée, et du cas mixte

Les problèmes de contrôle (par exemple de stabilisation ou de poursuite de trajectoire) sont traités en élaborant un contrôleur, c'est à dire un système capable de synthétiser la loi de commande   qui sera délivrée au système. Comme évoqué précédemment ce contrôleur peut être conçu en boucle ouverte, ou en boucle fermée, bien que les problèmes de stabilisation (le long d'une trajectoire de consigne constante ou non) nécessitent en général un contrôle en boucle fermée. Un contrôleur peut également posséder à la fois une composante en boucle ouverte et une en boucle fermée.

Contrôle en boucle ouverte

modifier

En boucle ouverte, la commande est directement synthétisée en fonction du temps  , de la connaissance des composantes de la consigne   dans  , et éventuellement de certaines composantes de perturbations dans  , lorsque ces dernières sont connues : par avance, ou en temps réel (par mesure directe ou estimation). La connaissance de la condition initiale du système   est également généralement requise. Parmi les techniques de contrôle en boucle ouverte, on peut citer certaines lois de commande obtenues grâce au principe du maximum de Pontriaguine.

Contrôle en boucle fermée

modifier

En boucle fermée, le contrôleur reçoit en temps-réel les sorties mesurées   du système (qui font office d'entrées au contrôleur) afin de synthétiser la commande   qui sera appliquée au système (et qui fait alors office de sortie mesurée du contrôleur). Cette commande est parfois appelée commande par retour de sortie, ou par retour d'état lorsque  , c'est à dire lorsque tout l'état du système est mesuré[17].

Lors de la conception de contrôleur en boucle fermée, il est également courant de n'utiliser que l'erreur  , définie comme l'écart entre la consigne   et la sortie contrôlée  , comme entrée au contrôleur. C'est le cas notamment dans la conception de la majorité des régulateurs PID. L'erreur   étant supposée mesurée dans ce cas, cela revient en fait à l'assimiler à la sortie mesurée du système  .

Contrôleur statique

modifier

On parle de contrôleur statique lorsque contrôleur ne possède pas de dynamique d'état interne[18],[19]. En général, la commande est alors directement synthétisée depuis la dernière valeur de   mesurée :

 

Une telle fonction   peut notamment être déterminée à l'aide des équations de Hamilton-Jacobi-Bellman (HJB), qui dérivent des principes de la programmation dynamique.

Dans le cas d'un système linéaire temps-invariant (LTI), les contrôleurs statiques sont généralement conçus à partir d'une matrice de gains   telle que :

 

On parle alors de contrôleur proportionnel. De telles matrices de gains, optimales par rapport à certains critères, sont notamment déterminées en commande LQ ainsi qu'en commande LQG.

Bien que les commandes par retour d'état puissent être des contrôles statiques, en pratique cet état est généralement reconstruit par le biais d'un observateur d'état, qui possède lui bel et bien une dynamique interne[5]. Formellement, on est alors dans le cas d'un contrôle dynamique par retour de sortie. De manière générale, tout contrôle basé-observateur peut être considéré de facto comme un contrôle dynamique par retour de sortie.

Contrôleur dynamique

modifier

On parle de contrôleur dynamique lorsque le contrôleur est un système dynamique, et possède donc une dynamique d'état interne[20],[19]. En général, ce contrôleur est donné par une représentation d'état de la forme :

 

  désigne l'état interne du contrôleur, distinct de l'état interne   du système contrôlé. Une nouvelle fois   dénote   ou   suivant le contexte temps-continu ou temps-discret.

Dans le cas d'un système linéaire temps-invariant (LTI), la conception dans le domaine fréquentiel d'un contrôleur dynamique linéaire revient à concevoir  , une matrice de transfert reliant   à   (la représentation fréquentielle des signaux   et   respectivement) :

 

La matrice de transfert reliant   à   (la représentation fréquentielle des signaux   et   respectivement), est alors donnée par  , la transformation fractionnaire linéaire (Linear Fractional Transformation, ou LFT) inférieure par rapport à   de la matrice  [21]. Cette dernière matrice   étant la représentation d'état fréquentielle du système LTI initial (cf le cas LTI de la section représentation d'état, ci-avant).

 

On parle de loop-shaping lorsqu'on chercher à imposer via   des propriétés particulières à cette matrice de transfert. On peut citer à ce titre les problèmes de synthèse de commandes H2 ( ) ou de commandes H-infini ( )[22].

Sous-domaines notables

modifier

Contrôle des systèmes multi-agents (SMA)

modifier

La théorie du contrôle peut être appliquée aux systèmes multi-agents[23]. Dans ce cas, chaque agent est généralement considéré comme un système dynamique à part entière avec, pour le  -ème agent : ses propres entrées  , son propre état interne   et ses propres sorties  . Lorsque les agents sont de nature identique, on peut supposer qu'ils partagent le même espace d'état  , le même espace des contrôles  , le même espace des sorties  , le même modèle de dynamique   ainsi que la même fonction de sortie  . On a alors pour chaque agent :

 

Dans le cadre d'un protocole de contrôle distribué, il est admis que les agents communiquent entre eux par le biais d'un réseau de communication, généralement modélisé par un graphe orienté  , alors appelé graphe de communication. Dans ce graphe, chaque nœud   représente un agent, et chaque arc   représente un canal de communication des sorties   du  -ème agent vers les entrées   du  -ème agent. La loi de commande   du  -ème agent ne peut alors être synthétisée qu'à partir de sa propre sortie  , ainsi que des sorties des agents   pour lesquels il existe un arc de la forme  . Cette synthèse peut, par exemple, s'effectuer par l'intermédiaire d'une fonction   :

 

De nouvelles questions propres au caractère collectif des systèmes multi-agents s'ajoutent alors aux problématiques habituelles du contrôle, notamment concernant l'auto-organisation de l'ensemble des agents en formation, la stabilisation autour de valeurs de consensus, l’évitement de collisions, l'éventuelle mise-à-jour de la topologie du graphe de communication, etc[24],[23]. On utilise parfois des notions de jeu différentiel pour étudier ce type de système[23].

Contrôle des équations aux dérivées partielles (EDP)

modifier

Si l'espace d'état   est un espace fonctionnel, alors à chaque instant, l'état   est une fonction d'un paramètre  . On notera   par simplicité, avec à chaque instant   un élément de  . La fonction   de la représentation d'état du cadre classique joue alors le rôle d'un opérateur, et cette représentation d'état peut devenir un système d'équations aux dérivées partielles[25],[26].

Considérons par exemple l'équation de la chaleur le long d'une barre à une dimension. La distribution de chaleur   à un instant   est fournie sur le segment   et est à valeurs dans   (soit  ). La dynamique de cette distribution lorsque l'on contrôle la température aux bords   est fournie pour tout   par :

 

La condition initiale du système est alors donnée par   pour tout   et la commande s'applique par le biais des contraintes aux bords   et  . Étant donné une condition initiale  , on peut alors, par exemple, se demander quelles sont les distributions de chaleur   commandables à un instant  [27].

Contrôle stochastique

modifier

Il est également possible d'appliquer la théorie du contrôle aux processus stochastiques[28]. Dans ce cas, l'état   est à chaque instant une variable aléatoire. La dynamique temps-continu de   est alors donnée par le processus d'Itô suivant, décrit ici sous la forme d'une équation différentielle stochastique (EDS) :

 

  représente un mouvement brownien. Dans ce genre de cadre, on cherche généralement un contrôle   de façon à maximiser l'espérance d'un critère fonction de  .

Exemples d'application

modifier

Références

modifier
  1. a et b « Introduction à la théorie du contrôle », sur sesp.esep.pro (consulté le )
  2. a et b Raphaël Richard, 24pm Academy, « Théorie du contrôle », sur 24pm Academy, (consulté le )
  3. a et b (en) « Control Systems/Estimators and Observers - Wikibooks, open books for an open world », sur en.wikibooks.org (consulté le )
  4. a et b Observers in Control Systems, Elsevier, (ISBN 978-0-12-237472-2, DOI 10.1016/b978-0-12-237472-2.x5000-7, lire en ligne)
  5. a b et c (en) H. L. Trentelman et P. Antsaklis, « Observer-Based Control », dans Encyclopedia of Systems and Control, Springer, , 1–6 p. (ISBN 978-1-4471-5102-9, DOI 10.1007/978-1-4471-5102-9_199-1, lire en ligne)
  6. « Compute H-infinity optimal controller - MATLAB hinfsyn - MathWorks France », sur fr.mathworks.com (consulté le )
  7. Jérémie Coulaud, « Contrôlabilité et observabilité », sur Class´Code et ses Pixees, (consulté le )
  8. « Controllability and accessibility in nonlinear control systems - ProQuest », sur www.proquest.com (consulté le )
  9. « système de régulation automatique », sur vitrinelinguistique.oqlf.gouv.qc.ca (consulté le )
  10. a b et c « Cours d'Automatique : les asservissements continus », sur public.iutenligne.net (consulté le )
  11. a et b « Séquence « Réguler et asservir les grandeurs physiques ». Cours : Régulation & Asservissement » [PDF]
  12. Alain Dupond, « Régulation - Cours terminale SI » [PDF]
  13. « Memoire Online - Etude et conception d'un système de régulation automatique de la fréquence et de la tension de sortie d'une hydrolienne en fonction de la vitesse de la roue (cas du projet d'électrification décentralisée de la ferme Benjin Agriculture). - Eric KABANSHI », sur Memoire Online (consulté le )
  14. « 🔎 Asservissement : définition et explications », sur Techno-Science.net (consulté le )
  15. Chi-Ting Wu, « Contrôle en temps optimal », Université Nancy 1 - Henri Poincaré - Département de Mathématiques - Institut Élie Cartan, Université de Lorraine,‎ (lire en ligne, consulté le )
  16. Benjamin Gérard, « Observateurs et commande basée observateur pour les systèmes bilinéaires », Thèse, Université Henri Poincaré - Nancy 1,‎ (lire en ligne, consulté le )
  17. a et b Noussaiba Gasmi, « Observation et commande d'une classe de systèmes non linéaires temps discret », Thèse, Université de Lorraine ; Université de Gabès (Tunisie),‎ (lire en ligne, consulté le )
  18. (en) « 3.1: Static Feedback Controller », sur Engineering LibreTexts, (consulté le )
  19. a et b Christophe Le Brun, « Analyse et commande de systèmes multivariables. Application à un turbopropulseur. », Thèse, CentraleSupélec,‎ (lire en ligne, consulté le )
  20. (en) « 3.2: First-Order Dynamic Controllers », sur Engineering LibreTexts, (consulté le )
  21. Leila Bouazza, « Perturbations formelles et propriétés structurelles des systèmes linéaires incertains », Thèse, Université de Haute Alsace - Mulhouse,‎ (lire en ligne, consulté le )
  22. Pierre Apkarian, « Éléments de la théorie de la commande robuste » [PDF], sur http://pierre.apkarian.free.fr/
  23. a b et c (en) Cooperative Control of Multi-Agent Systems (DOI 10.1007/978-1-4471-5574-4, lire en ligne)
  24. Harry L. Trentelman, Kiyotsugu Takaba et Nima Monshizadeh, « Robust Synchronization of Uncertain Linear Multi-Agent Systems », IEEE Transactions on Automatic Control, vol. 58, no 6,‎ , p. 1511–1523 (ISSN 0018-9286 et 1558-2523, DOI 10.1109/TAC.2013.2239011, lire en ligne, consulté le )
  25. « Cours : Introduction aux problèmes de Contrôle optimal des EDP », sur elearning-facsc.univ-annaba.dz (consulté le )
  26. (en) Jean-Michel Coron, « Control of partial differential equations », Scholarpedia, vol. 4, no 11,‎ , p. 6451 (ISSN 1941-6016, DOI 10.4249/scholarpedia.6451, lire en ligne, consulté le )
  27. Philippe Martin, Lionel Rosier et Pierre Rouchon, « On the Reachable States for the Boundary Control of the Heat Equation », Applied Mathematics Research eXpress, vol. 2016, no 2,‎ , p. 181–216 (ISSN 1687-1200 et 1687-1197, DOI 10.1093/amrx/abv013, lire en ligne, consulté le )
  28. a et b (en) Huyên Pham, Continuous-time Stochastic Control and Optimization with Financial Applications, vol. 61, Springer Berlin Heidelberg, coll. « Stochastic Modelling and Applied Probability », (ISBN 978-3-540-89499-5 et 978-3-540-89500-8, DOI 10.1007/978-3-540-89500-8, lire en ligne)
  29. (en) The Inverted Pendulum in Control Theory and Robotics: From theory to new innovations, Institution of Engineering and Technology, (ISBN 978-1-78561-320-3 et 978-1-78561-321-0, DOI 10.1049/pbce111e, lire en ligne)
  30. (en) Juan Pablo Rivera-Barrera, Nicolás Muñoz-Galeano et Henry Omar Sarmiento-Maldonado, « SoC Estimation for Lithium-ion Batteries: Review and Future Challenges », Electronics, vol. 6, no 4,‎ , p. 102 (ISSN 2079-9292, DOI 10.3390/electronics6040102, lire en ligne, consulté le )
  31. M. Shefer, S. Shemesh et M. Vald, « Optimal guidance and control of anti-ballistic missiles. », Scientific American, IEEE,‎ , p. 152–157 (DOI 10.1109/ICCON.1989.770496, lire en ligne, consulté le )
  32. P.R. Chandler, M. Pachter et S. Rasmussen, « UAV cooperative control », Proceedings of the 2001 American Control Conference., IEEE,‎ , p. 50–55 vol.1 (ISBN 978-0-7803-6495-0, DOI 10.1109/ACC.2001.945512, lire en ligne, consulté le )
  33. C. K. Rajasingh et Shashi K. Shrivastava, « Orbit and attitude control of a geostationary inertially oriented large flexible plate-like spacecraft », Acta Astronautica, vol. 15, no 11,‎ , p. 823–832 (ISSN 0094-5765, DOI 10.1016/0094-5765(87)90037-3, lire en ligne, consulté le )
  34. M Farina, L Galleani, P Tavella et S Bittanti, « A control theory approach to clock steering techniques », IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control, vol. 57, no 10,‎ , p. 2257–2270 (ISSN 0885-3010, DOI 10.1109/TUFFC.2010.1687, lire en ligne, consulté le )
  35. Pourton, « Quand les Tic-Tac ne Parlent Pas de Bonbons : Les Mathématiques Derrière l'Art de l'Horlogerie », sur Pourton.info, (consulté le )
  36. Konstantin G. Mishagin, Vladimir A. Lysenko et Sergey Yur'evich Medvedev, « A Practical Approach to Optimal Control Problem for Atomic Clocks », IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control, vol. 67, no 5,‎ , p. 1080–1087 (ISSN 0885-3010 et 1525-8955, DOI 10.1109/TUFFC.2019.2957650, lire en ligne, consulté le )
  37. Kundan Kandhway et Joy Kuri, « Optimal control of information epidemics modeled as Maki Thompson rumors », Communications in Nonlinear Science and Numerical Simulation, vol. 19, no 12,‎ , p. 4135–4147 (ISSN 1007-5704, DOI 10.1016/j.cnsns.2014.04.022, lire en ligne, consulté le )
  38. (en) Amine El Bhih, Rachid Ghazzali, Soukaina Ben Rhila et Mostafa Rachik, « A Discrete Mathematical Modeling and Optimal Control of the Rumor Propagation in Online Social Network », Discrete Dynamics in Nature and Society, vol. 2020,‎ , p. 1–12 (ISSN 1026-0226 et 1607-887X, DOI 10.1155/2020/4386476, lire en ligne, consulté le )
  39. (en) Liang’an Huo, Tingting Lin, Chongjun Fan et Chen Liu, « Optimal control of a rumor propagation model with latent period in emergency event », Advances in Difference Equations, vol. 2015, no 1,‎ , p. 54 (ISSN 1687-1847, DOI 10.1186/s13662-015-0394-x, lire en ligne, consulté le )
  40. Shahriar Seddighi Chaharborj, Sarkhosh Seddighi Chaharborj, Jalal Hassanzadeh Asl et Pei See Phang, « Controlling of pandemic COVID-19 using optimal control theory », Results in Physics, vol. 26,‎ , p. 104311 (ISSN 2211-3797, DOI 10.1016/j.rinp.2021.104311, lire en ligne, consulté le )
  41. (en) Brittany H. Scheid, Arian Ashourvan, Jennifer Stiso et Kathryn A. Davis, « Time-evolving controllability of effective connectivity networks during seizure progression », Proceedings of the National Academy of Sciences, vol. 118, no 5,‎ (ISSN 0027-8424 et 1091-6490, PMID 33495341, PMCID PMC7865160, DOI 10.1073/pnas.2006436118, lire en ligne, consulté le )
  42. G Cembrano, G Wells, J Quevedo et R Pérez, « Optimal control of a water distribution network in a supervisory control system », Control Engineering Practice, vol. 8, no 10,‎ , p. 1177–1188 (ISSN 0967-0661, DOI 10.1016/s0967-0661(00)00058-7, lire en ligne, consulté le )
  43. Osiadacz et Swierczewski, « Optimal control of gas transportation systems », Proceedings of IEEE International Conference on Control and Applications CCA-94, IEEE,‎ (DOI 10.1109/cca.1994.381219, lire en ligne, consulté le )
  44. D. Bao Nguyen, Jacquelien M. A. Scherpen et Frits Bliek, « Distributed Optimal Control of Smart Electricity Grids With Congestion Management », IEEE Transactions on Automation Science and Engineering, vol. 14, no 2,‎ , p. 494–504 (ISSN 1545-5955 et 1558-3783, DOI 10.1109/TASE.2017.2664061, lire en ligne, consulté le )
  45. T.L. Feenstra, H.S.J. Cesar et P.M. Kort, « Optimal control theory in environmental economics », dans Handbook of Environmental and Resource Economics, Edward Elgar Publishing, , 1099–1107 p. (ISBN 978-1-85898-375-2, lire en ligne)

Voir aussi

modifier

Bibliographie

modifier

Livres en français

modifier
  • Frédéric Bonnans, Pierre Rouchon, Commande et optimisation de systemes dynamiques, Editions Ecole Polytechnique, , 280 p. (ISBN 978-2-7302-1251-9)
  • Nicole Berline, Claude Sabbah, Aspects de la théorie du contrôle, Editions Ecole Polytechnique, , 188 p. (ISBN 978-2-7302-1530-5)
  • Emmanuel Trélat, Contrôle optimal - Théorie et applications, Vuibert, , 250 p. (ISBN 978-2-7117-2219-8)
  • Laurent Praly, Delphine Bresch-Pietri, Fonctions de Lyapunov : stabilité, Spartacus-Idh, , 396 p. (ISBN 978-2-36693-116-7, lire en ligne)
  • Laurent Praly, Delphine Bresch-Pietri, Fonctions de Lyapunov : stabilisation, Spartacus-Idh, , 492 p. (ISBN 978-2-36693-118-1, lire en ligne)
  • Huyên Pham, Optimisation et contrôle stochastique appliqués à la finance, Springer, , 204 p. (ISBN 978-3540737360, lire en ligne)

Livres en anglais

modifier
  • (en) Hassan K. Khalil, Nonlinear Systems, Pearson, , 768 p. (ISBN 978-0130673893)
  • (en) Mathukumalli Vidyasagar, Nonlinear Systems Analysis, , 498 p. (ISBN 978-0-89871-526-2)
  • (en) Stephen Boyd, Laurent El Ghaoui, E. Feron, V. Balakrishnan, Linear Matrix Inequalities in System and Control Theory, Society for Industrial and Applied Mathematics (SIAM), , 193 p. (ISBN 978-0-89871-485-2, lire en ligne)
  • (en) Frank L. Lewis , Hongwei Zhang , Kristian Hengster-Movric , Abhijit Das, Cooperative Control of Multi-Agent Systems: Optimal and Adaptive Design Approaches, Springer London, (ISBN 978-1-4471-5574-4, lire en ligne)
  • (en) Fredi Tröltzsch, Optimal control of partial differential equations: theory, methods and applications, American Mathematical Society, , 399 p. (ISBN 978-0821849040)

Liens externes

modifier