• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 152
  • 61
  • 22
  • Tagged with
  • 224
  • 139
  • 124
  • 80
  • 64
  • 59
  • 51
  • 48
  • 33
  • 31
  • 31
  • 27
  • 24
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Robust predictive control by zonotopic set-membership estimation. / Commande prédictive robuste par des techniques d'observateurs à base d'ensembles zonotopiques

Le, Vu tuan hieu 22 October 2012 (has links)
L’objectif de cette thèse est d’apporter des réponses à deux problèmes importants dans le domaine de l’automatique : l'estimation d'état et la commande prédictive robuste sous contraintes pour des systèmes incertains, en se basant sur des méthodes ensemblistes, plus précisément liées aux ensembles zonotopiques. Les incertitudes agissant sur le système sont modélisées de façon déterministe, elles sont donc inconnues mais bornées par des ensembles connus.Dans ce contexte, la première partie de la thèse développe une méthode d’estimation afin d’élaborer à chaque instant un ensemble zonotopique contenant l’état du système malgré la présence de perturbations, de bruits de mesure et d’incertitudes paramétriques définies par intervalle. Cette méthode est fondée sur la minimisation du P-rayon d’un zonotope, critère original permettant de caractériser la taille de l’ensemble zonotopique et réalisant un bon compromis entre la complexité et la précision de l’estimation. Cette approche est tout d’abord développée pour les systèmes mono-sortie, puis étendue au cas des systèmes multi-sorties, dans un premier temps par des extensions directes de la solution mono-sortie (le système multi-sorties est considéré comme plusieurs systèmes mono-sortie). Une autre solution est ensuite proposée, qui conduit à résoudre un problème d’optimisation de type Inégalités Matricielles Polynomiales en utilisant une méthode de relaxation. Les approches précédentes n’étant que des extensions de la solution à une seule sortie, et malgré leurs bons résultats obtenus en simulation, une démarche originale, dédiée aux systèmes multi-sorties, fondée sur l’intersection entre un polytope et un zonotope, est finalement développée et validée.La deuxième partie de la thèse aborde la problématique de la commande robuste par retour de sortie pour des systèmes incertains. La commande prédictive est retenue du fait de son utilisation dans de nombreux domaines, de sa facilité de mise en œuvre et de sa capacité à traiter des contraintes. Parmi les démarches issues de la littérature, l’implantation de techniques robustes fondées sur des tubes de trajectoire est développée plus spécifiquement. Le recours à un observateur ensembliste à base de zonotopes permet d’améliorer la qualité de l’estimation, ainsi que la performance de la commande, dans le cas de systèmes soumis à des perturbations et des bruits de mesure inconnus, mais bornés.Dans une dernière partie, cette combinaison de l’estimation ensembliste et de la commande prédictive robuste est testée en simulation sur un système de suspension magnétique. Les résultats de simulation traduisent un comportement tout à fait satisfaisant validant les structures théoriques élaborées. / The aim of this thesis is answering to two significant problems in the field of automatic control: the state estimation and the robust model predictive control for uncertain systems in the presence of input and state constraints, based on the set-membership approach, more precisely related to zonotopic sets. Uncertainties acting on the system are modeled via the deterministic approach, and thus they are unknown but bounded by a known set.In this context, the first part of the thesis proposes an estimation method to compute a zonotope containing the real states of the system, which are consistent with the disturbances, the measurement noise and the interval parametric uncertainties. This method is based on the minimization of the P-radius of a zonotope, which is an original criterion to characterize the size of the zonotope, in order to obtain a good trade-off between the complexity and the precision of the estimation. This approach is first developed for single-output systems, and then extended to the case of multi-output systems. The first solution for multi-output systems is a direct extension of the solution for single-output systems (the multi-output system being considered as several single-output systems). Another solution is then proposed, leading to solve a Polynomial Matrix Inequality optimization problem using a relaxation technique. Due to the fact that the previous approaches are just extensions of the solution for a single-output system, and despite their good performance results obtained in simulation, a novel approach dedicated to multi-output systems based on the intersection of a polytope and a zonotope is finally developed and validated.The second part of the thesis deals with the problem of robust output feedback control for uncertain systems. Model predictive control is chosen due to its use in many areas, its ability to deal with constraints and uncertainties. Among the approaches from the literature, the implementation of robust predictive techniques based on tubes of trajectories is developed. The use of a zonotopic set-membership estimation improves the quality of the estimation, as well as the performance of the control, for systems subject to unknown, but bounded disturbances and measurement noise.In the last part, the combination of zonotopic set-membership estimation and robust model predictive control is tested in simulation on a magnetic levitation system. The simulation results reflect a satisfactory behavior validating the developed theoretical techniques.
62

Modélisation des données d'enquêtes cas-cohorte par imputation multiple : application en épidémiologie cardio-vasculaire / Modeling of case-cohort data by multiple imputation : application to cardio-vascular epidemiology

Marti soler, Helena 04 May 2012 (has links)
Les estimateurs pondérés généralement utilisés pour analyser les enquêtes cas-cohorte ne sont pas pleinement efficaces. Or, les enquêtes cas-cohorte sont un cas particulier de données incomplètes où le processus d'observation est contrôlé par les organisateurs de l'étude. Ainsi, des méthodes d'analyse pour données manquant au hasard (MA) peuvent être pertinentes, en particulier, l'imputation multiple, qui utilise toute l'information disponible et permet d'approcher l'estimateur du maximum de vraisemblance partielle.Cette méthode est fondée sur la génération de plusieurs jeux plausibles de données complétées prenant en compte les différents niveaux d'incertitude sur les données manquantes. Elle permet d'adapter facilement n'importe quel outil statistique disponible pour les données de cohorte, par exemple, l'estimation de la capacité prédictive d'un modèle ou d'une variable additionnelle qui pose des problèmes spécifiques dans les enquêtes cas-cohorte. Nous avons montré que le modèle d'imputation doit être estimé à partir de tous les sujets complètement observés (cas et non-cas) en incluant l'indicatrice de statut parmi les variables explicatives. Nous avons validé cette approche à l'aide de plusieurs séries de simulations: 1) données complètement simulées, où nous connaissions les vraies valeurs des paramètres, 2) enquêtes cas-cohorte simulées à partir de la cohorte PRIME, où nous ne disposions pas d'une variable de phase-1 (observée sur tous les sujets) fortement prédictive de la variable de phase-2 (incomplètement observée), 3) enquêtes cas-cohorte simulées à partir de la cohorte NWTS, où une variable de phase-1 fortement prédictive de la variable de phase-2 était disponible. Ces simulations ont montré que l'imputation multiple fournissait généralement des estimateurs sans biais des risques relatifs. Pour les variables de phase-1, ils approchaient la précision obtenue par l'analyse de la cohorte complète, ils étaient légèrement plus précis que l'estimateur calibré de Breslow et coll. et surtout que les estimateurs pondérés classiques. Pour les variables de phase-2, l'estimateur de l'imputation multiple était généralement sans biais et d'une précision supérieure à celle des estimateurs pondérés classiques et analogue à celle de l'estimateur calibré. Les résultats des simulations réalisées à partir des données de la cohorte NWTS étaient cependant moins bons pour les effets impliquant la variable de phase-2 : les estimateurs de l'imputation multiple étaient légèrement biaisés et moins précis que les estimateurs pondérés. Cela s'explique par la présence de termes d'interaction impliquant la variable de phase-2 dans le modèle d'analyse, d'où la nécessité d'estimer des modèles d'imputation spécifiques à différentes strates de la cohorte incluant parfois trop peu de cas pour que les conditions asymptotiques soient réunies.Nous recommandons d'utiliser l'imputation multiple pour obtenir des estimations plus précises des risques relatifs, tout en s'assurant qu'elles sont analogues à celles fournies par les analyses pondérées. Nos simulations ont également montré que l'imputation multiple fournissait des estimations de la valeur prédictive d'un modèle (C de Harrell) ou d'une variable additionnelle (différence des indices C, NRI ou IDI) analogues à celles fournies par la cohorte complète / The weighted estimators generally used for analyzing case-cohort studies are not fully efficient. However, case-cohort surveys are a special type of incomplete data in which the observation process is controlled by the study organizers. So, methods for analyzing Missing At Random (MAR) data could be appropriate, in particular, multiple imputation, which uses all the available information and allows to approximate the partial maximum likelihood estimator.This approach is based on the generation of several plausible complete data sets, taking into account all the uncertainty about the missing values. It allows adapting any statistical tool available for cohort data, for instance, estimators of the predictive ability of a model or of an additional variable, which meet specific problems with case-cohort data. We have shown that the imputation model must be estimated on all the completely observed subjects (cases and non-cases) including the case indicator among the explanatory variables. We validated this approach with several sets of simulations: 1) completely simulated data where the true parameter values were known, 2) case-cohort data simulated from the PRIME cohort, without any phase-1 variable (completely observed) strongly predictive of the phase-2 variable (incompletely observed), 3) case-cohort data simulated from de NWTS cohort, where a phase-1 variable strongly predictive of the phase-2 variable was available. These simulations showed that multiple imputation generally provided unbiased estimates of the risk ratios. For the phase-1 variables, they were almost as precise as the estimates provided by the full cohort, slightly more precise than Breslow et al. calibrated estimator and still more precise than classical weighted estimators. For the phase-2 variables, the multiple imputation estimator was generally unbiased, with a precision better than classical weighted estimators and similar to Breslow et al. calibrated estimator. The simulations performed with the NWTS cohort data provided less satisfactory results for the effects where the phase-2 variable was involved: the multiple imputation estimators were slightly biased and less precise than the weighted estimators. This can be explained by the interactions terms involving the phase-2 variable in the analysis model and the necessity of estimating specific imputation models in different strata not including sometimes enough cases to satisfy the asymptotic conditions. We advocate the use of multiple imputation for improving the precision of the risk ratios estimates while making sure they are similar to the weighted estimates.Our simulations also showed that multiple imputation provided estimates of a model predictive value (Harrell's C) or of an additional variable (difference of C indices, NRI or IDI) similar to those obtained from the full cohort.
63

Bioinformatic and modelling approaches for a system-level understanding of oxidative stress toxicity / Approches de bio-informatique et de modélisation pour une compréhension du stress oxydant au niveau systémique

Zgheib, Elias 18 December 2018 (has links)
Avec les nouvelles avancées en biologie et toxicologie, on constate de plus en plus la complexité des mécanismes et le grand nombre de voies de toxicité. Les concepts de ‘biologie systémique’ (SB) et de ‘voies des effets indésirables’ (adverse outcome pathway, AOP) pourraient être des outils appropriés pour l’étude de la toxicologie à ces niveaux de complexité élevés. Le point central du travail de cette thèse est le développement d’un modèle de SB du rôle de la voie de signalisation Nrf2 dans le contrôle du stress oxydant. Pour la calibration de ce modèle avec des données expérimentales (exposition des cellules rénales RPTEC/TERT1 à différentes doses de bromate de potassium), plusieurs cycles de proposition/vérification d’hypothèses ont progressivement contribué à l’ajout de nouvelles réactions. Ces nouvelles hypothèses (par exemple : action directe du bromate de potassium sur le DCF, atténuation de la fluorescence du DCF avec le temps, etc.) devraient être confirmées par de futures expérimentations. Ce modèle de SB a été ensuite utilisé pour la quantification d’un AOP de l’insuffisance rénale chronique et comparé à deux autres approches: l’utilisation de modèles statistiques empiriques et celle d’un réseau Bayésien dynamique. Les calibrations des paramètres ont été effectuées par chaînes de Markov simulées MCMC avec le logiciel GNU MCSim avec une quantification des incertitudes associées aux prédictions. Même si la mise au point du modèle SB a été une tâche complexe, la compréhension de la biologie qu’offre ce modèle n’est pas accessible aux deux autres approches. Nous avons aussi évalué les interactions entre Nrf2 et deux autres voies de toxicité, AhR et ATF4, dans le cadre d’une analyse utilisant des données de toxico-génomique provenant de trois projets différents. Les résultats de cette dernière analyse suggèrent d’ajouter au modèle SB de Nrf2 la co-activation par AhR de plusieurs gènes (par exemple, HMOX1, SRXN1 et GCLM) ainsi que d’associer (au moins partiellement) à ce modèle la voie ATF4. Malgré leur complexité, les modèles SB constituent un investissement intéressant pour le développement de la toxicologie prédictive. / New understanding of biology shows more and more that the mechanisms that underlie toxicity are complex and involve multiple biological processes and pathways. Adverse outcome pathways (AOPs) and systems biology (SB) can be appropriate tools for studying toxicology at this level of complexity. This PhD thesis focuses on the elaboration of a SB model of the role of the Nrf2 pathway in the control of oxidative stress. The model’s calibration with experimental data (obtained with RPTEC/TERT1 renal cells exposed to various doses of potassium bromate) comprised several rounds of hypotheses stating/verification, through which new reactions were progressively added to the model. Some of these new hypotheses (e.g., direct action of potassium bromate on DCF, bleaching of DCF with time, etc.) could be confirmed by future experiments. Considered in a wider framework, this SB model was then evaluated and compared to two other computational models (i.e., an empirical dose-response statistical model and a dynamic Bayesian model) for the quantification of a ‘chronic kidney disease’ AOP. All parameter calibrations were done by MCMC simulations with the GNU MCSim software with a quantification of uncertainties associated with predictions. Even though the SB model was indeed complex to conceive, it offers insight in biology that the other approaches could not afford. In addition, using multiple toxicogenomic databases; interactions and cross-talks of the Nrf2 pathway with two other toxicity pathways (i.e., AhR and ATF4) were examined. The results of this last analysis suggest adding new AhR contribution to the control of some of the Nrf2 genes in our SB model (e.g., HMOX1, SRXN1 and GCLM), and integrating in it description of the ATF4 pathway (partially at least). Despites their complexity, precise SB models are precious investments for future developments in predictive toxicology.
64

Les tests génétiques vendus en libre accès sur l'Internet : une médicalisation sans médecin ? / Direct-to-consumers genetic testing on Internet : a medicalisation without physician ?

Jautrou, Henri 14 December 2016 (has links)
La thèse porte sur les Tests Génétiques vendus en Accès Libre (TGAL), notamment sur l’Internet, et qui sont dédiés à la santé ou à la physiologie, aux performances ou aux comportements. En pleine expansion depuis la fin des années 1990, ce marché va à l’encontre de certaines législations nationales et génère des controverses. Il se construit en l'absence de prescription médicale lors de la vente, et d'accompagnement par un professionnel de santé lors de l’accès aux résultats. Pour autant, les auto-tests relèvent-ils d’une médicalisation sans médecin ? Pour comprendre la dynamique socio-économique de ce marché sur une dizaine d'années, nous avons répertorié 130 sites web (contre une soixantaine dans la littérature académique existante) et identifié 155 entrepreneurs, pour ensuite étudier l’évolution de leurs caractéristiques. La localisation du marché évolue, les sites web européens étant au final aussi nombreux que leurs homologues nord-américains. Que ce soit en matière de conception comme de distribution des dispositifs techniques, les TGAL marquent une progression de l’autonomie des outsiders du champ médical, voire leur intrusion dans ce champ. La distribution médicale se développe en parallèle des ventes en accès libre, entre autres via le recrutement de médecins en interne aux entreprises (i.e. ventes via une hotline). En outre, certains outsiders sont relativement nouveaux puisqu’il faut noter la présence de fonds d’investissement spécialisés en science, et plus ou moins indépendants des traditionnels groupes industriels. Il faut par ailleurs constater la présence de firmes de l’informatique et de l'Internet qui, jusqu'à présent, ne s'étaient pas vraiment intéressées au champ de la santé. Au final, les TGAL amènent à parler également de biomédicalisation et d’auto-médicalisation. / The thesis deals with Direct-To-Consumers Genetic Testing (DTCGTs) sold on the Internet, and more specifically with the ones for health, physiology, performance and behaviour. This market is booming since the end of the 90’s, and is sparking off controversies which are rooted in multiples scientific and medical uncertainties (“missing heritability”, informed consent, third parties, etc.). It doesn’t require for medical prescription, and health professional consultancy for test data and results is not systematically needed, which is not allowed by some national legislations. For all that, is it a medicalisation phenomenon without physician ?To understand the socio-economic dynamic of this market, we had listed 130 websites (for 60 in the academic literature) and identified 155 entrepreneurs, then we studied the evolution of theirs characteristics. The territorial localisation of the market changed, and european websites are finally as numerous as theirs north-american counterparts. Either in technical devices conception, or in commercialisation, DTCGTs are a sign of the autonomy progression of outsiders from the medical field, if not of their intrusion in this field. Medical dispensing systems are growing alongside of DTC selling, notably through the physician hiring by the DTCGT companies (i.e. hotline selling). Furthermore, some outsiders are relatively new, for they are related to investment funds which are specialized in science and more or less independent from industrial groups. Furthermore, one must notice the presence of informatics and Internet companies which, till now, didn’t really explore the health field. Finally, DTCGT relate also to biomedicalisation and automedicalisation.
65

Les réseaux de neurones pour la modélisation et le contrôle du procédé d'évaporation : expérimentations et applications industrielles en sucrerie de canne

Benne, Michel 10 July 1999 (has links) (PDF)
Ce travail de recherche, consacré à la synthèse d'une commande prédictive à modèle neuronal du procédé d'évaporation en multiple-effets, s'inscrit dans la continuité des travaux menés au L.G.I. depuis plusieurs années. Le mémoire de thèse s'articule en cinq chapitres : le premier présente l'atelier d'évaporation dans la chaîne de fabrication du sucre, et les développements théoriques et expérimentaux nécessaires à l'identification d'un modèle dynamique du procédé. Le chapitre 2 pose les bases théoriques du transfert technologique que constitue l'application des réseaux de neurones pour la modélisation et le contrôle des procédés industriels. La première partie de ce transfert technologique, décrite dans le chapitre 3, concerne l'identification de modèles du procédé d'évaporation, à partir de données expérimentales issues des campagnes de mesure menées à la sucrerie de Bois Rouge, La Réunion, en 1997 et 1998, et la simulation des modèles identifiés. Dans le chapitre 4, la problématique de l'automatisation du procédé, confrontée aux limites rencontrées par les schémas de régulation traditionnels, justifie la mise en oeuvre d'une stratégie de commande avancée. Cette démarche, qui constitue la deuxième partie du transfert technologique que nous avons entrepris, aboutit à la mise en oeuvre d'un schéma de commande prédictive mono variable basée sur un modèle à réseau de neurones, testé en simulation dans le chapitre 5. L'ensemble des résultats de simulation sont prometteurs, ce qui permet d'envisager l'implantation d'une stratégie similaire in situ dans les meilleurs délais.
66

Proposition de stratégies de commande pour la culture de microalgues dans un photobioréacteur continu

Becerra-Celis, Giuliana 07 April 2009 (has links) (PDF)
Cette thèse porte sur la commande d'un photobioréacteur continu pour la culture des microalgues. La modélisation du système et l'identification des paramètres du modèle ont été particulièrement abordées. Les paramètres cinétiques et de transfert de l'énergie lumineuse ont été obtenus à partir des données acquises le long de la phase exponentielle de la culture de Porphyridium purpureum en mode batch sous différentes conditions expérimentales dans un photobioréacteur de 2,5 litres. La concentration en biomasse est la quantité physique la plus importante à réguler. Puisque elle n'est pas toujours facile à mesurer en ligne, un capteur logiciel permettant d'estimer la quantité de biomasse produite à partir des mesures en ligne est proposé. Il s'agit d'un filtre de Kalman étendu (EKF) qui combine le modèle du système avec la mesure de la concentration du carbone inorganique total et d'autres variables physiques (pH, intensité lumineuse,...) afin d'estimer en ligne la concentration de la biomasse. Ce capteur logiciel a été validé expérimentalement en utilisant un nouveau photobioréacteur de 9,6 litres de type colonne à bulles, équipé de plusieurs dispositifs destinés à mettre en place un système de commande et de régulation, et de techniques de mesure permettant d'accéder à l'évolution des principales variables. Plusieurs démarches pour la commande de la culture de microalgues ont été également proposées : commande non-linéaire et linéaire, régulation par PID, commande par modèle générique GMC, commande linéarisante par retour d'état et commande prédictive non-linéaire. Ces différentes commandes ont été mises oeuvre en simulation ce qui nous a permis de choisir les stratégies les plus performantes et de les valider sur le photobioréacteur instrumenté.
67

Gestion énergétique des véhicules hybrides: de la simulation à la commande temps réel.

Kermani, Saida 17 September 2009 (has links) (PDF)
Le problème de la gestion énergétique des véhicules hybrides consiste essentiellement à développer des algorithmes appelés : stratégies de commande, dont le rôle est de choisir à chaque instant la meilleure répartition de puissance entre les différentes sources d'énergie d'une manière à minimiser la consommation de carburant et/ou les émissions de polluants. Le problème est formulé comme un problème de commande optimale qui, en connaissant a priori le profil de vitesse du véhicule, vise à trouver la répartition optimale de puissance en minimisant la consommation de carburant, sous contraintes. Il s'agit ici des algorithmes dits d'optimisation globale. Bien que ces deniers soient limités à la simulation, ils permettent, néanmoins de déduire des stratégies de commande « sous-optimales » applicables en ligne. <br />L'objectif de la thèse est d'élaborer des lois de gestion d'énergie applicable en ligne. Ceci revient à « prédire » le profil de vitesse du véhicule permettant d'estimer la demande de puissance du conducteur. A cette fin, Deux stratégies de commande temps réel basées sur l'algorithme d'optimisation globale ont été proposées. La première concerne le cas particulier d'un véhicule circulant sur le même trajet physique, et la seconde est une généralisation à tout types de parcours. Enfin, une mise en œuvre des stratégies temps réel proposées sur un banc moteur a permis de valider les résultats de simulation obtenus et d'évaluer le gain d'hybridation par rapport à un véhicule conventionnel équivalent.
68

Application de la commande prédictive non-linéaire à la commande de culture de bactéries escherichia coli

Hafidi, Ghizlane 29 September 2008 (has links) (PDF)
Cette thèse propose une méthodologie de commande d'un bioréacteur fed-batch de culture E. coli. La stratégie consiste à maximiser la croissance de la bactérie, c'est-à-dire à maintenir le bioréacteur à un point de fonctionnement « optimal », caractérisé par la frontière entre les régimes oxydatif et oxydo-fermentatif. La démarche proposée comprend une première étape de modélisation mathématique et de détermination d'un modèle paramétrique simplifié. Une deuxième phase consiste en une identification paramétrique du modèle en se basant sur l'analyse de sensibilité du modèle vis-à-vis de ses paramètres. Un profil optimal d'alimentation est ensuite élaboré pour la maximisation de la croissance de la biomasse. A partir de toutes ces données, la synthèse et l'application de la commande prédictive non-linéaire au bioprocédé E. coli sont mises en œuvre. L'objectif est de réguler la concentration en acétate à une valeur faible donnée, tout en forçant le débit d'alimentation à suivre un profil de référence. La stratégie de commande proposée se base sur la transformation du problème de commande prédictive non-linéaire classique en un problème de programmation non-linéaire non contraint, résolu par des techniques de CVP. Pour une meilleure robustesse de la structure proposée, la différence entre le système et le modèle est explicitement incluse dans l'algorithme. Enfin, une étude de robustesse par une approche statistique de type Monte Carlo permet de juger de l'applicabilité de la loi de commande proposée sur le système réel. Ce travail constitue une étude préliminaire en vue d'une implantation de cette loi de commande à un bioréacteur à l'échelle du laboratoire ou industrielle
69

Contribution à l'identification et à la commande des robots parallèles

VIVAS, Oscar Andrès 10 November 2004 (has links) (PDF)
Cette thèse est consacrée à l'identification et à la commande de machines parallèles (robot H4 du LIRMM). Les robots parallèles possèdent une dynamique élevée ce qui impose de lois de commande capables de prendre en compte cette dynamique. Ces lois sont bassées sur le modèle dynamique du robot et les paramètres dynamiques doivent être estimés d'abord. Nous avons proposé deux approches pour identifier ces paramètres : une première approche par moindres carrés pondérés et une deuxième approche dans un contexte à erreur bornée qui fourni un ensemble solution garantie. Dans ce dernier cas deux méthodologies sont mises en œuvre : estimation ellipsoïdale et estimation par intervalles. Une analyse expérimentale comparative des trois méthodes pour l'estimation des 14 paramètres du robot est alors presentée. Les paramètres sont alors utilisés pour la synthèse d'une commande prédictive fonctionnelle référencée sur un modèle linéaire. Une méthodologie originale a été développée : d´abord l'identification du modèle dynamique et linéarisation du système, puis l'identification du modèle interne pour la commande prédictive et synthèse de cette commande avec pré-bouclage en vitesse afin de stabiliser le processus linéarisé. Cette commande est comparée à deux stratégies classiques utilisées en robotique : la commande PID et la commande dynamique. Les performances de ces commandes ont été testées lors de mouvements simples et complexes. La stratégie prédictive fournit de meilleures réponses en termes de dynamique, précision et robustesse.
70

Commande prédictive distribuée. Approches appliquées à la régulation thermique des bâtiments.

Morosan, Petru-Daniel 30 September 2011 (has links) (PDF)
Les exigences croissantes sur l'efficacité énergétique des bâtiments, l'évolution du {marché} énergétique, le développement technique récent ainsi que les particularités du poste de chauffage ont fait du MPC le meilleur candidat pour la régulation thermique des bâtiments à occupation intermittente. Cette thèse présente une méthodologie basée sur la commande prédictive distribuée visant un compromis entre l'optimalité, la simplicité et la flexibilité de l'implantation de la solution proposée. Le développement de l'approche est progressif : à partir du cas d'une seule zone, la démarche est ensuite étendue au cas multizone et / ou multisource, avec la prise en compte des couplages thermiques entre les zones adjacentes. Après une formulation quadratique du critère MPC pour mieux satisfaire les objectifs économiques du contrôle, la formulation linéaire est retenue. Pour répartir la charge de calcul, des méthodes de décomposition linéaire (comme Dantzig-Wolfe et Benders) sont employées. L'efficacité des algorithmes distribués proposés est illustrée par diverses simulations.

Page generated in 0.0434 seconds