• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3101
  • 1453
  • 357
  • 22
  • 10
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 4883
  • 1942
  • 976
  • 879
  • 873
  • 763
  • 449
  • 424
  • 406
  • 405
  • 402
  • 380
  • 374
  • 345
  • 340
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Une approche de résolution à deux niveaux pour l'ordonnancement de la production dans les systèmes manufacturiers reconfigurables

Labidi, Safa 06 January 2023 (has links)
L'environnement industriel concurrentiel auquel font face les entreprises manufacturières les pousse à se doter d'un système de production hautement réactif capable de pallier aux incertitudes et aux fluctuations imprévisibles de la demande. La classe des systèmes manufacturiers reconfigurables (RMS pour Reconfigurable Manufacturing System en anglais) fournit une solution efficace et prometteuse à ce défi. Contrairement aux systèmes classiques comme les lignes de fabrication dédiées (DML) et les systèmes de fabrication flexibles (FMS), qui n'arrivent pas à surmonter ces challenges à cause de leurs conceptions qui limitent les options pour mieux gérer les variations de la demande et adapter la capacité du besoin du marché, les RMS présentent une bonne alternative possédant la capacité d'adapter la configuration du système manufacturier au fil du temps afin de répondre aux exigences du marché. Cela est assuré par les machines-outils reconfigurables (RMT pour Reconfigurable Machine Tools en anglais) qui sont considérées comme la composante fondamentale pour un RMS. Ce mémoire propose une nouvelle approche d'ordonnancement de la production en considérant les machines-outils reconfigurables. L'objectif est de minimiser le makespan. Un modèle linéaire mixte en nombres entiers ainsi qu'une heuristique adaptée à deux phases ont été proposés afin de résoudre le problème. Les performances des deux méthodes de résolution sont analysées et comparées pour différentes instances générées aléatoirement. Une analyse de performance des méthodes suite aux variations de certains paramètres est présentée. Finalement, un contexte dynamique (des nouvelles commandes qui surviennent au cours de la production) est considéré où la performance de l'approche heuristique surpasse celle de la méthode exacte pour les instances considérées. / The competitive manufacturing environment faced by manufacturing companies requires a highly responsive production system capable of dealing with uncertainties and unpredictable fluctuations of demand. Reconfigurable Manufacturing Systems (RMS) provide an effective and promising solution to this challenge. Unlike conventional systems such as Dedicated Manufacturing Lines (DML) and Flexible Manufacturing Systems (FMS) which fail to overcome these challenges due to their designs which do not support variations in demand and changes in capacity, RMS present a good alternative with the ability to change the system configuration over time to meet market demands. This is ensured by reconfigurable machine tools (RMT) which are considered as the fundamental component for an RMS. This thesis proposes a new approach to production scheduling for manufacturing systems with reconfigurable machine tools. The objective is to minimize the makespan. A linear mixed-integer model based on the sequence of operations as well as an adapted two-phase heuristic are proposed to solve the problem. The performances of the two resolution methods are analyzed and compared for different randomly generated instances. An analysis of the performance of the methods following variations in certain parameters is presented. Finally, a dynamic context (new orders arise during production) is considered where the heuristic outperforms the exact method.
172

L’éducation idéale et le système-modèle

Bouchard, Chantal 23 April 2018 (has links)
Les réformes du système d’éducation constituent le principal moyen d’action pour l’améliorer et l’adapter. Même si elles permettent des adaptations ponctuelles aux changements, les réformes ne correspondent pas toujours aux attentes des acteurs du milieu, de la population, des autres systèmes. Cette thèse aborde justement les paradoxes ou les problématiques qui caractérisent les systèmes d’éducation à notre époque. Elle examine l’évolution de la conception de l’éducation et les idées véhiculées dans les discours des acteurs ou des groupes d’acteurs. L’agrégation des idées ou des éléments de référence symboliques, notamment la structure de ces éléments, ont des effets sur la détermination du système d’éducation. Considérant que la société est composée de systèmes qui opèrent selon un mode de différenciation fonctionnelle, et que le système d’éducation est confronté à cette dynamique, sa capacité à se déterminer dans cette conjoncture est au cœur du propos de la thèse. Comment les systèmes d’éducation font face aux enjeux politiques, économiques et sociaux ? Dans les sociétés complexes qui constituent notre environnement, quelles conceptions de l’éducation coexistent ? Notre idéal humaniste est-il toujours considéré comme une finalité de l’éducation? / Reforms of the System of Education have been the concrete and the ultimate way to adapt and to improve regarding the actual challenges of our societies. Obviously, those adaptations do not satisfy neither all the partners, nor all the actors and users. This research examines the oppositions and the concerns that emerge from this situation, looking at the discourse of the actors to understand the systems of ideas that are driving and orienting the milieu : students, teachers, administrators and employers. According to the functionally differentiated systems, the aggregation of ideas plays a role. These symbolic structures participate in the determination of a system. Education System is facing this conjuncture and its capacity to determine itself is the main core of the thesis. How Education System manages social, economic and politic stakes ? Into complex societies like ours, what conception of Education coexists ? Is the human ideal still considered as a finality of Education?
173

Afférences cholinergiques au noyau sous-thalamique et leur altération dans la maladie de Parkinson

Chebl, Maya 18 March 2019 (has links)
Il existe dans le cerveau un regroupement de structures sous-corticales que l’on nomme ganglions de la base (GB) et qui contrôle de nombreuses fonctionnalités psychomotrices. L’apparition de débalancements neurochimiques dans l’une de ces structures est suffisante pour induire des phénotypes pathologiques extrêmement déstabilisants. L’un des syndromes les plus fréquemment rencontrés est la maladie de Parkinson (MP), une affection des GB dont la principale déterminante neuropathophysiologique implique principalement les neurones dopaminergiques (DA) de la substance noire pars compacta (SNc). La dégénérescence marquée de ces neurones ne peut pourtant pas, à elle seule, expliquer l’ensemble des symptômes dont font montre les patients. L’usage thérapeutique du précurseur de la DA, la L-dopa, ne se montre pas infaillible face aux troubles posturaux caractéristiques de la MP. Récemment, des études anatomiques et électrophysiologiques suggèrent que l’acétylcholine (ACh) pourrait jouer un rôle déterminant dans ce désordre neurologique. Ces travaux mettent l’emphase sur la dégénérescence des neurones ACh du noyau pédonculopontin, une structure du tronc cérébral dont les axones ascendants s’arborisent massivement dans le thalamus, mais aussi dans le noyau sous-thalamique (NST), une composante-clé des GB fortement dérégulée dans la MP. Ces données nous ont orientés vers l’étude de l’innervation ACh du NST en conditions normale et pathologique dans le tissu humain post-mortem. Nous avons eu recours à l’immunohistochimie et à la stéréologie pour obtenir des estimations non-biaisées du nombre de varicosités axonales ACh dans la région d’intérêt. Les résultats obtenus mettent en évidence, et ce pour la première fois, une baisse significative de la neurotransmission ACh dans le NST des sujets MP, une diminution important affectant tous les secteurs du NST. Ces résultats soulignent l’importance de tenir compte de l’impact fonctionnel de l’innervation ACh dans le NST et considérer son implication possible dans les dérèglements de l’activité neuronale du NST qui survient dans la MP. / The basal ganglia (BG) – a set of subcortical structures lying at the basis of the cerebral hemispheres – are known to play a crucial role in the control of psychomotor functions. A single neurochemical imbalance in one of the components of the BG can induce severe motor disabilities that range from hyperkinesia to hypokinesia. One of the most frequently encountered syndromes associated with BG malfunction is Parkinson’s disease (PD). The pathological hallmark of PD, clinically characterized by tremor, bradykinesia and rigidity, is the death of the dopaminergic (DA) neurons of the substantia nigra pars compacta (SNc). However, the marked reduction of the DA neurons does not, by itself, explain the entire symptomatic spectrum experienced by the patients. In fact, the main pharmacological treatment of PD, which is based on the administration of L-dopa, the metabolic precursor of DA, to restore the endogenous DA store, does not alleviate all symptoms of this neurodegenerative disease, postural instabilities being particularly resistant to L-dopa therapy. Recently, numerous anatomical and electrophysiological studies have revealed that acetylcholine (ACh) might also be involved in the pathogenesis of this neurodegenerative disorder. Of particular significance was the report of a loss of the ACh neurons contained in the peduculopontine nucleus, an upper brainstem nucleus that projects massively to the thalamus, but also to the subthalamic nucleus (STN), a key component of the BG that is markedly dysregulated in PD. These findings led us to analyze post-mortem brain tissue collected from normal individuals and PD patients in order to determine quantitatively the strength of the ACh innervation in the STN in normal and pathological conditions. Unbiased estimations of the number of ACh axonal varicosities in the different sectors of the STN were gathered by applying stereological methods to material immunostained for an ACh marker. Our results have provided a first direct evidence for a significant reduction of the ACh neurotransmission in the STN of parkinsonian patients, a decrease that is evident in all regions of the STN. These findings suggest that the ACh input plays an important role in the normal functioning of the STN and that it might even be involved in the induction of the abnormal neuronal activity that characterizes this nucleus in PD.
174

Assemblage adaptatif de génomes et de méta-génomes par passage de messages

Boisvert, Sébastien 20 April 2018 (has links)
De manière générale, les procédés et processus produisent maintenant plus de données qu’un humain peut en assimiler. Les grosses données (Big Data), lorsque bien analysées, augmentent la compréhension des processus qui sont opérationnels à l’intérieur de systèmes et, en conséquence, encouragent leur amélioration. Analyser les séquences de l’acide désoxyribonucléique (ADN) permet de mieux comprendre les êtres vivants, en exploitant par exemple la biologie des systèmes. Les séquenceurs d’ADN à haut débit sont des instruments massivement parallèles et produisent beaucoup de données. Les infrastructures informatiques, comme les superordinateurs ou l’informatique infonuagique, sont aussi massivement parallèles de par leur nature distribuée. Par contre, les ordinateurs ne comprennent ni le français, ni l’anglais – il faut les programmer. Les systèmes logiciels pour analyser les données génomiques avec des superordinateurs doivent être aussi massivement parallèles. L’interface de passage de messages permet de créer de tels logiciels et une conception granulaire permet d’entrelacer la communication et le calcul à l’intérieur des processus d’un système de calcul. De tels systèmes produisent des résultats rapidement à partir de données. Ici, les logiciels RayPlatform, Ray (incluant les flux de travail appelé Ray Meta et Ray Communities) et Ray Cloud Browser sont présentés. L’application principale de cette famille de produits est l’assemblage et le profilage adaptatifs de génomes par passage de messages. / Generally speaking, current processes – industrial, for direct-to-consumers, or researchrelated – yield far more data than humans can manage. Big Data is a trend of its own and concerns itself with the betterment of humankind through better understanding of processes and systems. To achieve that end, the mean is to leverage massive amounts of big data in order to better comprehend what they contain, mean, and imply. DNA sequencing is such a process and contributes to the discovery of knowledge in genetics and other fields. DNA sequencing instruments are parallel objects and output unprecedented volumes of data. Computer infrastructures, cloud and other means of computation open the door to the analysis of data stated above. However, they need to be programmed for they are not acquainted with natural languages. Massively parallel software must match the parallelism of supercomputers and other distributed computing systems before attempting to decipher big data. Message passing – and the message passing interface – allows one to create such tools, and a granular design of blueprints consolidate production of results. Herein, a line of products that includes RayPlatform, Ray (which includes workflows called Ray Meta and Ray Communities for metagenomics) and Ray Cloud Browser are presented. Its main application is scalable (adaptive) assembly and profiling of genomes using message passing.
175

Étude paramétrique de l'agglomération des systèmes granulaires pharmaceutiques secs lors de l'étape de mélange

Vachon Lachance, Emmanuel January 2014 (has links)
La motivation principale de la présente étude est la compréhension des phénomènes d’agglomération particulaire des systèmes granulaires pharmaceutiques secs dans l’étape de mélange. Une meilleure compréhension des phénomènes d’agglomération est nécessaire puisqu’ils peuvent créer un problème lors de la production pharmaceutique. La traduction de ces connaissances en méthodes peut minimiser les phénomènes d’agglomération non désirés pendant les procédés de production de mélanges particulaires pharmaceutiques secs. Cette étude pourrait contribuer à une meilleure qualité du médicament au patient tout en réduisant les délais et les coûts causés par les mesures correctives en production. Ces travaux de recherche visent à comprendre quelle est la cause fondamentale et quelle est l’influence des différents paramètres sur l’agglomération dans les systèmes granulaires pharmaceutiques secs. L’état de l’art résume les éléments-clés tels que les facteurs intrinsèques, la théorie du mélange particulaire, la ségrégation, la théorie de l’agglomération particulaire, les mécanismes d’agglomération, les forces d’adhésion, les facteurs extrinsèques, les techniques d’analyse de laboratoire et l’analyse multivariée. Plusieurs paramètres pouvant avoir un impact sur l’agglomération lors d’un mélange complexe pharmaceutique ont été étudiés par imagerie dans un tambour rotatif. L’humidité de la poudre favorise l’agglomération, une petite distribution des tailles de particules tend à rendre le mélange cohésif et une valeur élevée de temps de mélange ainsi que de vitesse de rotation du mélangeur tend à désagglomérer. Certaines matières premières ont été identifiées comme problématiques lors de l’ajout dans un mélange. Une forte humidité de 90 %HR du milieu ambiant protège contre la désagglomération. Cependant, tous ces paramètres ont montré des tendances peu significatives. Le temps statique (chargement) est le paramètre dominant ayant eu le plus d’influence sur l’agglomération lors de l’étude du mélange. Étant donné la découverte du fort comportement agglomératif du chlorure de potassium comme résultat, une autre étude paramétrique a permis de comprendre davantage son mécanisme d’agglomération. Les paramètres significatifs de l’étude sont l’humidité de conditionnement, le séchage, le temps de conditionnement et la distribution de taille de particules. La pression exercée à l’échantillon n’est pas un paramètre significatif pour l’agglomération. Le présent mémoire permettra d’enrichir la connaissance dans cette science particulaire et celle de l’agglomération qui sont omniprésentes. Ce mémoire propose deux méthodes pour étudier l’agglomération ; par imagerie en milieu dynamique et par des tests de rupture d’agglomérat en milieu statique. Ce projet démontre le désir et l’initiative canadienne pharmaceutique de poursuivre l’avancement des technologies d’analyse des procédés (PAT) dans les domaines novateurs reliés à l’assurance qualité et à la production. L’industrie pharmaceutique arrivera à mieux maîtriser leur procédé de mélange et à éviter les problèmes engendrés par l’agglomération.
176

Conception basée modèle des systèmes temps réel et distribués

De Saqui-Sannes, Pierre 07 July 2005 (has links) (PDF)
Les systèmes temps réel et distribués posent des problèmes complexes en termes de conception d'architecture et de description de comportements. De par leur criticité en vies humaines et leurs coûts de prototypage, ces systèmes ont motivé le développement d'une activité de recherche sur les langages de modélisation formelle et les techniques de validation basées modèle qui contribuent à la détection au plus tôt des erreurs de conception. Néanmoins, les langages formels ont eu un succès plus que limité dans l'industrie. L'arrivée du langage UML (Unified Modeling Language) a ouvert de nouveaux horizons pour l'intégration de langages de modélisation formelle dans une méthodologie de conception susceptible d'être mieux acceptée par les praticiens du domaine. En s'appuyant sur une expérience antérieure de la technique de description formelle Estelle et des extensions temporelles des réseaux de Petri, notre activité de recherche sur les cinq dernières années a débouché sur la production d'un profil UML nommé TURTLE (Timed UML and RT-LOTOS Environment). TURTLE surpasse UML 2.0 par ses extensions aux diagrammes d'analyse et de conception UML, sa sémantique formelle exprimée en RT-LOTOS, et ses outils de support (éditeur de diagrammes et outil de validation formelle combinant simulation et vérification basée sur une analyse daccessibilité). La méthodologie TURTLE trouve son champ d'application naturel dans la conception de systèmes temps réel et la validation d'architectures de communication en particulier. L'approche proposée a été appliquée avec succès à des systèmes satellitaires et des protocoles d'authentification.
177

Conception de nano-objets adaptatifs à base de polypeptides

Agut, Willy 12 December 2008 (has links)
Les copolymères à blocs représentent de bons candidats pour des applications biomédicales, notamment pour l’encapsulation et le relargage contrôlé de médicaments. Depuis quelques années, les équipes de recherche tentent de concevoir des nanoparticules fonctionnelles « sur mesure » de façon à augmenter leur efficacité en tant que nano-vecteurs. C’est dans ce contexte que s’est s’inscrit ce travail dont le but est de concevoir des copolymères à blocs multi-stimulables en vue d’obtenir des nano-objets adaptatifs en milieu aqueux, capables d’encapsuler des molécules actives et de les relarguer de manière contrôlée en jouant sur différents paramètres extérieurs (pH, T...). Ce manuscrit traite en premier lieu d’une nouvelle stratégie de synthèse des copolymères à blocs stimulables “hybrides”, c’est à dire comprenant un bloc vinylique stimulable et un bloc peptidique. Celle-ci, fondée sur le couplage par « chimie click » d’homopolymères fonctionnalisés eux-mêmes obtenus par polymérisation « vivante / contrôlée », s’est révélée très efficace pour l’obtention de copolymères de structure moléculaire très bien définie. . L'autre partie, dédiée à l'étude complète du comportement en milieu aqueux des copolymères à blocs “hybrides”, en fonction de divers paramètres extérieurs (pH, T), illustre leurs propriétés singulières d’auto-assemblage. Ils forment, en effet, une multitude de morphologies différentes mises en évidence par des techniques de caractérisation complémentaires. Cette partie traite également de l’incorporation de particules magnétiques au sein des nanoparticules polymères, afin de concevoir des nano-vecteurs utilisables pour l’imagerie médicale ou pour leurs propriétés d’hyperthermie. Ce projet ambitieux, croisant les concepts de l’auto-assemblage, de l’ingénierie macromoléculaire, de l’encapsulation, des systèmes hybrides organique-inorganique et des systèmes stimulables, constitue une thématique de recherche novatrice. / Abstract
178

Exploitation du contenu pour l'optimisation du stockage distribué / Leveraging content properties to optimize distributed storage systems

Kloudas, Konstantinos 06 March 2013 (has links)
Les fournisseurs de services de cloud computing, les réseaux sociaux et les entreprises de gestion des données ont assisté à une augmentation considérable du volume de données qu'ils reçoivent chaque jour. Toutes ces données créent des nouvelles opportunités pour étendre la connaissance humaine dans des domaines comme la santé, l'urbanisme et le comportement humain et permettent d'améliorer les services offerts comme la recherche, la recommandation, et bien d'autres. Ce n'est pas par accident que plusieurs universitaires mais aussi les médias publics se référent à notre époque comme l'époque “Big Data”. Mais ces énormes opportunités ne peuvent être exploitées que grâce à de meilleurs systèmes de gestion de données. D'une part, ces derniers doivent accueillir en toute sécurité ce volume énorme de données et, d'autre part, être capable de les restituer rapidement afin que les applications puissent bénéficier de leur traite- ment. Ce document se concentre sur ces deux défis relatifs aux “Big Data”. Dans notre étude, nous nous concentrons sur le stockage de sauvegarde (i) comme un moyen de protéger les données contre un certain nombre de facteurs qui peuvent les rendre indisponibles et (ii) sur le placement des données sur des systèmes de stockage répartis géographiquement, afin que les temps de latence perçue par l'utilisateur soient minimisés tout en utilisant les ressources de stockage et du réseau efficacement. Tout au long de notre étude, les données sont placées au centre de nos choix de conception dont nous essayons de tirer parti des propriétés de contenu à la fois pour le placement et le stockage efficace. / Cloud service providers, social networks and data-management companies are witnessing a tremendous increase in the amount of data they receive every day. All this data creates new opportunities to expand human knowledge in fields like healthcare and human behavior and improve offered services like search, recommendation, and many others. It is not by accident that many academics but also public media refer to our era as the “Big Data” era. But these huge opportunities come with the requirement for better data management systems that, on one hand, can safely accommodate this huge and constantly increasing volume of data and, on the other, serve them in a timely and useful manner so that applications can benefit from processing them. This document focuses on the above two challenges that come with “Big Data”. In more detail, we study (i) backup storage systems as a means to safeguard data against a number of factors that may render them unavailable and (ii) data placement strategies on geographically distributed storage systems, with the goal to reduce the user perceived latencies and the network and storage resources are efficiently utilized. Throughout our study, data are placed in the centre of our design choices as we try to leverage content properties for both placement and efficient storage.
179

Développement de méthodologies génériques pour la conception optimale et durable des parcs hybrides d'énergies renouvelables

Roth, Anastasia 10 May 2019 (has links) (PDF)
Les enjeux planétaires du développement durable et du réchauffement climatique remettent en cause le fonctionnement de nos sociétés. La transition énergétique se traduit notamment par l’augmentation de l’utilisation des énergies renouvelables et constitue ainsi le contexte de nos travaux. Dans le cadre d’un contrat CIFRE avec l’entreprise VALOREM, nous proposons des méthodologies pour le développement et la conception d’installations renouvelables soutenables. L’approche d’Ingénierie Des Modèles mise en place nous permet de garder une démarche scientifique cohérente entre une vue très générale du contexte d’insertion des renouvelables et une vision plus technique et opérationnelle pour le développement d’installations renouvelables. Dans un premier temps, nous avons décrit de manière macroscopique le contexte d’insertion des énergies renouvelables en France, en proposant un cadre conceptuel pour le développement de projet d’aménagement du territoire. Il permet l’analyse des systèmes sociotechniques en transition grâce à une formalisation UML2 d’une part, et une méthode d’évaluation de la durabilité d’un processus d’autre part. Nous avons illustré ce cadre sur deux cas d’étude : le succès du développement de la centrale hydro-éolienne de l’île d’El Hierro dans les Canaries et l’échec du barrage de Sivens dans le Tarn en France. Par comparaison, nous montrons que l’implication des parties prenantes sur l’ensemble du processus de développement est cruciale pour le succès d’un projet. Nous avons ensuite proposé une implémentation logicielle permettant le suivi et le pilotage de projet d’aménagement du territoire en temps réel à l’aide d’outils d’intelligence artificielle. Conscient des limites opérationnelles de notre proposition, nous avons décidé de changer de point de vue pour adopter une vision plus technique sur les énergies renouvelables. La transition énergétique fait évoluer le système électrique français d’un modèle centralisé vers un modèle décentralisé, ce qui amène VALOREM à reconsidérer ses propositions techniques de production d’énergies renouvelables. Entre autre, l’entreprise tend vers l’hybridation de ses centrales et constate le besoin d’un outil de dimensionnement en phase d’avant-projet, afin d’identifier les opportunités d’activités. Nous faisons donc la proposition d’un prototype logiciel qui se veut flexible en termes de modélisation des centrales de production hybrides renouvelables et en termes de définition des objectifs et contraintes à satisfaire. Il est codé en C++ et basé sur des modèles d’optimisation linéaires. Nous illustrons son opérationnalité sur quatre cas d’étude : deux orientés marché électrique et deux en autoconsommation (l’un isolé, l’autre connecté au réseau). Les résultats des études montrent que les coûts de stockage batterie sont trop élevés pour pouvoir envisager l’installation de batteries dans les centrales hybrides renouvelables. Les systèmes en autoconsommation connectés au réseau semblent être plus prometteurs. Enfin, nous terminons par une analyse environnementale de différentes sources de production électrique afin de déterminer celles vers lesquelles la transition énergétique doit être axée. Les résultats montrent que la biomasse, l’éolien et le PV au sol sont les moyens de production les plus propres. La conclusion de la thèse propose une réflexion ascendante en complexité vers l’implication des acteurs dans les modèles de processus de développement territoriaux.
180

Contributions à l'identification de modèles paramétriques non linéaires. Application à la modélisation de bassins versants ruraux. / Identification of parametric nonlinear models. Modelling of the rainfall/runoff relationship in rural catchments

Laurain, Vincent 19 October 2010 (has links)
La procédure d'identification consiste à rechercher un modèle mathématique adéquat pour un système dynamique donné à partir de données expérimentales. L'identification de systèmes naturels est cruciale pour une meilleure compréhension de notre environnement et cette thèse vise à apporter une solution au problème de modélisation de la relation pluie/débit dans un bassin versant rural. A cet effet, deux structures de modèles non-linéaires sont étudiées : les modèles Hammerstein et les modèles Linéaires à Paramètres variants (LPV). La contribution principale réside dans le développement de méthodes dédiées à l'estimation de ces modèles, à temps discret ou continu, opérant en boucle ouverte ou fermée, en se concentrant sur le cas réaliste Box--Jenkins (BJ). De plus, les méthodes proposées ont été conçues spécialement pour fournir des résultats utiles dans le cas réel où le modèle de bruit est inconnu ou mal évalué. Le premier chapitre constitue une introduction à la problématique de l'identification de systèmes naturels et motive les développements théoriques impliqués. Le deuxième chapitre présente une méthode sous optimale de variable instrumentale pour l'estimation des modèles Hammerstein BJ grâce à l'augmentation du modèle considéré. Le troisième chapitre se concentre sur l'identification de modèles LPV-BJ, soulève les problèmes rencontrés par les méthodes existantes, et propose une solution via une reformulation du modèle. Enfin, le dernier chapitre est dédié à l'application de ces méthodes sur des données réelles pour la modélisation de la relation pluie/débit / System identification is an established field in the aera of system analysis and control. It aims at determining mathematical models for dynamical systems based measured data. The identification of natural systems is crucial for a better understanding of our environment and this work aims at solving the modelling problem of the rainfall/flow relationship in rural catchments. In order to achieve this goal, two nonlinear model structures are studied: the Hammerstein and the Linear Parameter Varying (LPV) models. The contribution of this work lies in the development of identification methods dealing robustly with estimation problem of such models, both in discrete-time and continuous-time, in open-loop and closed-loop configuration, focusing on the realistic Box--Jenkins (BJ) case. Moreover, the methods are especially designed to result in relevant estimates in case the noise model is unknown, which is the case in most practical applications. The first chapter is an introduction defining the problems encountered with natural systems and motivating the theoretical work induced. The second chapter presents a suboptimal Refined Instrumental Variable based method for Hammerstein BJ models. The third chapter focuses on the identification of LPV-BJ models, highlights the problems encountered by the existing methods and proposes a solution via a reformulation of the model. Finally, the last chapter is dedicated to the application of the presented methods on some real rainfall/flow data set acquired from a rural catchment situated in Rouffach, Alsace, France for the identification of the rainfall/runoff relationship

Page generated in 0.0705 seconds