• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 122
  • 45
  • 17
  • Tagged with
  • 181
  • 181
  • 78
  • 76
  • 48
  • 44
  • 44
  • 44
  • 38
  • 34
  • 33
  • 32
  • 31
  • 28
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Commande de suivi de trajectoire pour les systèmes complexes et /ou incertains / Trajectory tracking control for complex and / or uncertain systems

Chamekh Hammami, Yosr 20 September 2012 (has links)
Ce travail présente une nouvelle approche basée sur l’étude de la stabilité du mouvement de systèmes continus, multivariables, non linéaires. Elle repose sur l’utilisation de la seconde méthode de Lyapunov pour le calcul d’une loi de commande de suivi de trajectoire d’un processus dont l’évolution est décrite par son équation d’état. Cette commande est réalisée à partir d’informations accessibles concernant le processus et son évolution désirée.Cette approche est étudiée dans le cas où cette commande n’est pas définie.Afin d’étudier la robustesse de cette commande, nous présentons une approche basée sur la stabilité des systèmes non linéaires par le calcul des systèmes majorants. Cette approche est appliquée sur les systèmes décrivant l’erreur entre le système perturbé réel présentant d’importantes imprécisions et/ou incertitudes et le modèle théorique / This work presents a new approach based on the study of the stability of motion of continuous, multivariable, nonlinear systems. It relies on the use of the second Lyapunov method for computing a control law trajectory tracking of a process whose evolution is described by the equation of state. This control is made from accessible information about the process and its desired evolution. This approach is studied in the case where the command is not defined. To investigate the robustness of this control, we present an approach based on the stability of nonlinear systems by calculating the overvaluing systems. This approach is applied to the systems describing the error between the actual perturbed system with significant inaccuracies and / or uncertainties and the theoretical model
122

Simulation à base d'agents de la propagation de la Schistosomiase : une approche de composition et de déploiement de modèles / Agent-based simulation of the spread of schistosomiasis : a composition and deployment approach of models

Cissé, Papa Alioune 09 December 2016 (has links)
Nos travaux de thèse portent sur la modélisation et la simulation à base d'agents de systèmes complexes, appliquées au phénomène de propagation de la Schistosomose. Plus particulièrement, nous nous sommes intéressés aux aspects spatiaux et sociaux de la propagation de cette maladie, en utilisant une approche de couplage de modèles à base d'agents. En effet, nous avons initialement étudié la modélisation mathématique de la Schistosomose et la complexité du phénomène de sa propagation. Ce qui nous a permis d'identifier deux dynamiques épidémiologiques (dynamiques spatiale et sociale) sous-jacentes à la propagation de la Schistosomose pour lesquelles, les modèles mathématiques présentent des limites. Cette problématique nous a poussés à étudier isolément ces deux dynamiques et à proposer un modèle multi-agents pour chacune d'elles. Ces deux modèles à base d'agents, représentant deux dynamiques complémentaires d'un même système, ont été implémentés selon des formalismes et des plateformes différentes : un modèle dans GAMA, une plateforme de simulation à base d'agents ; et un autre dans JASON, une plateforme de programmation d'agents BDI (Belief, Desire, Intention). Le modèle GAMA implémente l'aspect comportemental (pour la dynamique spatiale) qui se penche sur la réactivité des individus face à l'environnement physique et le suivi de l'infection. Le modèle JASON implémente l'aspect décisionnel (pour la dynamique sociale) qui introduit la dimension cognitive et mentale des individus en assurant leur capacité de décision et de sélection qui sont déterminées par leur environnement social, culturel, économique, etc. Pour assurer la composition des deux modèles, nous avons proposé une solution de couplage (par Co-simulations) des deux plateformes GAMA et JASON. Nous avons finalement expérimenté le modèle avec un cas de dynamique de propagation de la maladie à Niamey (au Niger) pour lequel les données étaient accessibles. / Our thesis work focuses on agent-based modeling and simulation of complex systems, applied to the spread of schistosomiasis. Specially, we were interested in the spatial and social aspects of the spread of the disease, using an agent-based coupling approach of models.Indeed, we initially studied the mathematical modeling of schistosomiasis and the complexity of its propagation, which allowed us to identify two epidemiological dynamics (spatial and social dynamics) underlying the spread of schistosomiasis for which mathematical models have limits. This problematic led us to study separately these two dynamics and propose an agent-based model for each. These two agent-based models, representing two complementary dynamics of a system, were implemented according different formalisms and different platforms: one model on GAMA (an agent-based simulation platform); and another on JASON (a programming platform of BDI agents). The GAMA model implements the behavioral aspect (for the spatial dynamic) that focuses on individuals reactivity with regards to the physical environment, and the monitoring of the infection. The JASON model implements the decisional aspect (for the social dynamic) that introduces the cognitive and mental dimension of individuals, ensuring their decision and selection capacities which are determined by their social, cultural and economic environment. To ensure the composition of the two models, we proposed an agent-based coupling solution (co-simulation) of the two platforms (GAMA and JASON). We finally experienced the model with a case of dynamic spread of the disease in Niamey (Niger) for which data were available.
123

Vers un système de vision auto-adaptatif à base de systèmes multi-agents. / Towards an auto-adaptive vision system based on multi-agents systems.

Mahdjoub, Jason 15 December 2011 (has links)
Il existe une multitude de traitements d'images dans la littérature, chacun étant adapté à un ensemble plus ou moins grand de cadres d'application. Les traitements d'images sont fondamentalement trop différents les uns par rapport aux autres pour être mis en commun de façon naturelle. De plus, ces derniers sont trop rigides pour pouvoir s'adapter d'eux mêmes lorsqu'un problème non prévu à l'avance par le concepteur apparaît. Or la vision est un phénomène autoadaptatif, qui sait traiter en temps réel des situations singulières, en y proposant des traitements particuliers et adaptés. Elle est aussi un traitement complexe des informations, tant ces dernières ne peuvent être réduites à des représentations réductionnistes et simplifiantes sans être mutilées.Dans cette thèse, un système de vision est entrepris comme un tout où chaque partie est adaptée à l'autre, mais aussi où chaque partie ne peut s'envisager sans l'autre dans les tensions les plus extrêmes générées par la complexité et l'intrication des informations. Puisque chaque parcelle d'information joue un rôle local dans la vision, tout en étant dirigée par un objectif global peu assimilable à son niveau, nous envisageons la vision comme un système où chaque agent délibère selon une interférence produite par le potentiel décisionnel de chacun de ses voisins. Cette délibération est entreprise comme le résultat produit par l'interférence d'une superposition de solutions. De cette manière, il émerge du système à base d'agents une décision commune qui dirige les actions locales faites par chaque agent ou chaque partie du système. En commençant par décrire les principales méthodes de segmentation ainsi que les descripteurs de formes, puis en introduisant les systèmes multi-agents dans le domaine de l'image, nous discutons d'une telle approche où la vision est envisagée comme un système multi-agent apte à gérer la complexité inhérente de l'information visuelle tant en représentation qu'en dynamisme systémique. Nous encrons dans ces perspectives deux modèles multi-agents. Le premier modèle traite de la segmentation adaptative d'images sans calibration manuelle par des seuils. Le deuxième modèle traite de la représentation de formes quelconques à travers la recherche de coefficients d'ondelettes pertinents. Ces deux modèles remplissent des critères classiques liés au traitement d'images, et à la reconnaissance de formes, tout en étant des cas d'études à développer pour la recherche d'un système de vision auto-adaptatif tel que nous le décrivons. / Although several image processing approaches exist, each of them was introduced in order to be used in a specific set of applications. In fact, image processing algorithms are fundamentally too different in order to be merged in a natural way. Moreover, due to their rigidity, they are unable to adapt themselves when a non-previously programmed problem appears as it could be the case in our framework. Indeed vision is an auto-adaptive phenomenon which can deal with singular situations by providing particular and adapted treatments. It is also a complex information processing. Therefore, vision should not be reduced to reductionist and simplifying representation. According to this thesis, a vision system could be developed as a whole in which each part adapts itself with others. Its parts cannot be considered separately due to the extreme tensions generated by the complexity and the intricacy of information. Each of them contributes locally to the vision and it is directed by a global objective incomprehensible at its level. We consider vision as a system whose agents deliberate according to an interference produced by the decision potential of each agent. This deliberation is undertaken as the result produced by interferences of a solution superposition. Then, it emerges from the agent-based system a common decision which directs local actions of each agent or of each part of the system. After describing the main shape descriptors and segmentation algorithms and after introducing multi-agent systems on the image processing domain, we discuss on approaches for which vision is considered as a multi-agent system able to manage the inherent complexity of visual information. Then, we give two multi-agent models. The first one deals with an adaptive segmentation which doesn't need manual calibration through thresholds. The second one deals with shape representations through the search of pertinent wavelet coefficients. These two models respect classical image processing criteria. They also are case studies that should be developed in the search of an auto-adaptive vision system.
124

Prédiction des éruptions solaires par assimilation de données avec les modèles d’avalanches

Thibeault, Christian 08 1900 (has links)
Les éruptions solaires sont des tempêtes de rayonnement électromagnétique, de particules relativistes et parfois de masse coronale provoquées par la libération d’énergie magnétique provenant de la couronne solaire. Si ces tempêtes atteignent l'environnement terrestre, elles peuvent poser un danger à la santé des astronautes en hautes orbites et causer des perturbations importantes sur les systèmes GPS. Dans certains cas, elles peuvent même induire des dommages aux infrastructures technologiques, dont les réseaux électriques. La prédiction des éruptions solaires est donc considérée comme un des plus importants défis de la météorologie spatiale. Par contre, à ce jour, aucune méthode présentée dans la littérature n’est capable de produire des prédictions fiables, ce qui met en évidence la nature complexe du déclenchement des éruptions solaires. Nous présentons donc dans ce mémoire une méthode alternative aux techniques statistiques habituelles, basée sur l'assimilation de données couplée avec des modèles rapides en automate cellulaire appelés modèles d'avalanche. Les modèles d'avalanche sont une simplification drastique de la physique du déclenchement des éruptions solaires. Malgré leur simplicité, ils reproduisent assez bien les statistiques à long terme de la taille des éruptions. Nous présentons dans ce mémoire des analyses empiriques de la capacité prédictive de quatre modèles: le modèle de Lu et Hamilton (LH) (Lu & Hamilton, 1991, ApJ, 412, 841-852), deux modèles à forçage déterministes (D) (Strugarek & Charbonneau, 2014, SoPh, 289(8), 2993-3015) et finalement deux modèles maximisant l'énergie libérée, appelées modèles DMC, qui sont fortement inspirés du modèle présenté par Farhang et al. (2018, ApJ, 859(1), 41). Les modèles DMC ont été développés dans le cadre de cette maîtrise et donc un chapitre de ce mémoire est dédié à leur présentation et aux analyses plus détaillées de leurs caractéristiques. Nous montrons que pour les modèles D ainsi que les modèles DMC, une mémoire existe entre les évènements simulés de grandes tailles, malgré la forte stochasticité de chacun de ces modèles. Nous présentons de plus dans ce mémoire un nouveau protocole de prédiction des éruptions solaires, utilisant l'assimilation de données couplée avec les modèles d'avalanches. Notre protocole se base sur une méthode de recuit simulé pour ajuster la condition initiale du modèle jusqu'à ce qu'elle reproduise de façon satisfaisante une série d'évènements observés. Une fois cette condition initiale optimisée produite, la simulation qui en résulte représente notre prédiction. Nous montrons dans ce mémoire le succès de notre protocole à bien assimiler une centaine d'observations synthétiques (produit par les modèles d'avalanche eux-mêmes). / Solar flares are sudden releases of electromagnetic radiation, relativistic particles and occasionally coronal mass, caused by the release of magnetic energy from the solar corona. They pose a danger to astronauts in high orbits and directly impact the Earth, including significant disturbances on GPS systems, and can even cause damage to technological infrastructures, including electrical networks. Predicting solar flares is therefore considered to be one of the most critical challenges in space weather. However, no method presented in the literature can produce reliable predictions, highlighting the complex nature of the triggering of solar flares. We, therefore, present in this thesis an alternative method to the usual statistical forecasting techniques. Our method is based on data assimilation coupled with computationally inexpensive cellular automaton models called avalanche models. Avalanche models are a drastic simplification of the physics underlying the triggering of solar flares. Despite their simplicity, they reproduce reasonably well the long-term statistics of solar flares sizes. In this thesis, we present empirical analyses of the predictive capabilities of four models: the Lu and Hamilton (LH) model (Lu & Hamilton, 1991, ApJ, 412, 841-852), two deterministic-driven (D) models (Strugarek & Charbonneau, 2014, SoPh, 289(8), 2993-3015) and finally two models using the principle of minimum energy during magnetic reconnection, called DMC models, which are strongly inspired by the models presented by Farhang et al. (2018, ApJ, 859(1), 41). The DMC models were developed during this project; therefore, a chapter of this thesis is dedicated to their presentation and more detailed analyses of their characteristics. We show that for D and DMC models, a memory exists between large simulated events, despite the high stochasticity present within each of these models. We finally present in this thesis a new protocol for predicting solar flares, using data assimilation coupled with avalanche models. Our protocol is based on a simulated annealing method to adjust the initial condition of the model until it satisfactorily reproduces a series of observed events. Once this optimal initial condition is found, the resulting simulation produces our prediction. In this thesis, we show our algorithm's success in assimilating hundreds of synthetic observations (produced by the avalanche models themselves).
125

Cartographie globale des essais cliniques / World mapping of clinical trials

Atal, Ignacio 23 November 2017 (has links)
Pour comprendre comment se construisent les connaissances sur l’effet des interventions en médecine, il est nécessaire de savoir où est faite la recherche clinique dans le monde, quelles maladies sont étudiées, et quels acteurs la mettent en place. Une vision globale du système de recherche peut aider à identifier des lacunes dans la production de connaissances et à orienter l’activité de recherche vers les priorités de santé, en particulier dans les régions où les ressources sont limitées. Dans ce travail nous avons construit des cartographies de la recherche clinique, c’est-à-dire des analyses agrégées de ce système complexe visant à extraire de l’information sur l’activité globale de recherche. Nous avons utilisé les registres d’essais cliniques inclus dans l’International Clinical Trials Registry Platform de l’Organisation Mondiale de la Santé pour cartographier l’activité de recherche. Dans un premier travail nous avons évalué pour 7 régions l’alignement entre l’effort local de recherche sur 10 ans et le fardeau de 27 groupes de maladies. Ce travail a nécessité le développement d’un algorithme de classification automatique des maladies étudiées dans les essais clinique basé sur des méthodes de traitement automatique du langage. À partir des données de 117,180 essais randomisés, nous avons montré que la recherche faite dans les pays riches était bien alignée avec leurs besoins. Dans toutes les autres régions nous avons identifié des lacunes dans l’effort de recherche. En particulier, en Afrique Subsaharienne, même si des causes majeures de fardeau comme le VIH et le paludisme reçoivent un effort de recherche important, d’autres priorités locales, les maladies infectieuses communes et les pathologies du nouveau-né, ont été négligées par l’effort de recherche. Dans un deuxième travail nous avons évalué l’influence du type de promoteur (industriel ou non-industriel) dans l’utilisation de réseaux de pays pour recruter des patients dans des essais cliniques multi-pays. Nous avons montré que 30% contre 3% des essais à promoteur industriel et non-industriel sont multi-pays, respectivement. Les pays d’Europe de l’Est participent dans leur ensemble de façon surreprésentée dans la recherche multi-pays industrielle. Ceci suggère les grandes capacités des industriels à globaliser leur recherche en s’appuyant sur des réseaux de pays bien définis. À l’échelle de tous les essais clinique enregistrés, nos travaux ont mis en évidence des lacunes majeures dans l’effort de recherche mondial, et montré l’influence des différents acteurs dans la globalisation de celle-ci. Ces travaux forment une brique pour le développement d’un observatoire global de la recherche médicale. / By knowing what clinical research is undertaken worldwide, where it is conducted, which diseases are studied, and who is supporting it, we could have a better understanding on how is created the knowledge concerning health interventions. A global landscape of health research may inform policy makers on knowledge gaps and on how to reallocate resources to address health needs, in particular in low-resource settings. In this thesis we mapped clinical research, i.e. we analyzed at a macro-level the complex system of health research to bring information on the global landscape of health research effort. We based our analyses on clinical trial registries included in the International Clinical Trials Registry Platform from the World Health Organization. In a first project, we evaluated within 7 regions the local alignment between the effort of research and the burden for 27 groups of diseases. This work needed the development of a knowledge-based classifier of clinical trial registries according to diseases studied based on natural language processing methods. We mapped 117,180 randomized controlled trials. For high-income countries, the research effort was well aligned with the needs. In all other regions we identified research gaps. In particular, for Sub-Saharan Africa, where major causes of burden such as HIV and malaria received a high research attention, research was lacking for major causes of burden, especially for common infectious diseases and neonatal disorders. In a second project, we compared the mappings of multi-country trials for industry- and non-industry–sponsored clinical trials, and analyzed the networks of collaboration of countries participating together to the same multi-country trials. We showed that among industry- and non-industry–sponsored trials, 30% and 3% were multi-country, respectively. The collaboration within Eastern European countries was particularly over-represented for industry-sponsored research. Industry sponsors may thus have a greater capacity to conduct globalized research, using well-defined networks of countries. Our large-scale mappings of all registered clinical trials shed light on major gaps in the effort of health research as compared to health needs. In addition, we showed the influence of different sponsors in the globalization of clinical research. These projects are in-line with the development of a global observatory for health research.
126

Mind Ergonomy for the Knowledge Economy : software Neuroergonomics and Biomimetics for the Knowledge Economy. Why? How? What? / Neuroergonomie et biomimétique logicielle pour l'économie de la connaissance : Pourquoi ? Comment ? Quoi ?

Aberkane, Idriss Jamil 03 February 2016 (has links)
La connaissance mondiale déclarée double environ tous les 9 ans (Kozmetsky, Smilor 1999) Parallèlement, le langage écrit ou verbal demeure le mode de transmission privilégié de la connaissance dans les organisations et sur le Web où aucune lingua franca n’a émergé, et qui est dès lors fractionné en contenus sinophone, anglophone, hispanophone, arabophone, hindiphone etc. Nous utilisons les travaux de Dehaene et al sur la mémoire épisodique dans son détournement par les calculateurs prodiges pour théoriser et concevoir une nouvelle interface homme-machine spatialisée qui permette à l’utilisateur individuel et en groupe de visualiser, de manipuler mentalement et d’échanger plus de connaissances. La théorisation et la conception de cette gamme d’interfaces, basées sur des algorithmes de spatialisation de listes, et l’unique objet de notre thèse. / Could we flow knowledge faster and better? Why is this a problem in the first place? How can we tackle it technologically? What could be a prototype solution? This work unifies these questions in the outline of a single, refutable paradigm of noodynamics - the study of knowledge flows - and nooconomics, the economy of knowledge. This paradigm will answer the question “Why”. Neuroergonomics (“brain ergonomics”), and biomimicry, will be summoned in answer to the question “How”. Their contribution will follow from the simplest knowledge flow equation that is proposed in this work. Two original optimisation problems are also posed in software neuroergonomics and biomimetics: the Mindscape and Serendipity Problem. A case of theoretical neuroergonomics, or neuroergonomics ex ante is proposed with the study of Hyperwriting, a written grapheme-loceme association, or a glyphic method for externalising spatial memory. Its application to the design of user interface will finally found neuroergonomic design, or neuromimicry, with the example of a collegial interface to augment multiscale knowledge flows: Chréage. The anatomy of this prototype mindscape will be the conclusion of this work, and its answer to the question “What”?
127

Méthode de simulation appropriée aux systèmes complexes : preuve de concept auto-adaptative et auto-apprenante appliquée aux transferts thermiques / Suitable method for complex systems simulation : self-adaptive and self-learning proof-of-concept applied to coupled heat transfer

Spiesser, Christophe 20 June 2017 (has links)
L’augmentation de la puissance informatique disponible permet aux ingénieurs et designers d’aborder par simulation des problèmes de plus en plus complexes (multi-physiques, multi-échelles, géométries intriquées ...). Dans ce contexte, les quadratures à base de discrétisation (FDM, FEM, FVM) montrent leur limite : le besoin d’un grand nombre de sous-domaines qui implique des coûts RAM et CPU prohibitifs. La méthode de Monte-Carlo apparaît plus appropriée, mais son utilisation est verrouillée par la difficulté de générer des modèles probabilistes de systèmes complexes. Pour surpasser ceci, une approche systémique est proposée et implémentée pour créer une preuve de concept appliquée à la simulation des transferts thermiques couplés. Après une étape de validation vis-à-vis de solutions analytiques, l’outil est employé; sur des cas d’illustration (transferts thermiques au sein de bâtiments et dans une centrale solaire) pour étudier ses capacités. L’approche mise en œuvre présente un comportement particulièrement avantageux pour la simulation de systèmes complexes : son temps de calcul ne dépend que des parties influentes du problème. De plus, elles sont automatiquement identifiées, même en présence de géométries étendues ou intriquées, ce qui rend les simulations auto-adaptatives. Par ailleurs, ses performances de calcul ne sont pas corrélées avec le rapport d’échelle caractérisant le système simulé. Ceci en fait une approche douée d’une remarquable capacité à traiter les problèmes à la fois multi-physiques et multi-échelles. En parallèle de l’estimation d’une observable par des chemins d’exploration, l’outil analyse également ces derniers de manière statistique. Ceci lui permet de générer un modèle prédictif réduit de l’observable, procurant ainsi une capacité d’auto-apprentissage à la simulation. Son utilisation peut améliorer les processus d’optimisation et de contrôle-commande, ou simplifier les mesures par méthodes inverses. De plus, elle a aussi permis de mener une analyse par propagation d’incertitudes, affectant les conditions aux frontières, vers l’observable. Enfin, une démonstration d’optimisation, utilisant des modèles réduits générés, a été réalisée. / As computing power increases, engineers and designers tackle increasingly complex problems using simulation (multiphysics, multiscale, intricated geometries ...). In this context, discretization-based quadratures (FDM, FEM, FVM) show their limit: the need of a great number of sub-domains which induces prohibitive consumption of RAM and CPU power. The Monte Carlo method appears to be more appropriate, but the difficulty to build probabilistic models of complex systems forms a bottleneck. A systemic approach is proposed to alleviate it and is implemented to create a proof-of-concept dedicated to the coupled heat transfer simulation. After a successful validation step against analytical solutions, this tool is applied to illustrative cases (emulating heat transfer in buildings and in solar heating systems) in order to study its simulation capabilities.This approach presents a major beneficial behavior for complex systems simulation: the computation time only depends on the influential parts of the problem. These parts are automatically identified, even in intricate or extensive geometries, which makes the simulation self-adaptive. In addition, the computational performance and the system scale ratio are completely uncorrelated. Consequently, this approach shows an exceptional capacity to tackle multiphysics and multiscale problems. Each temperature is estimated using exploration paths. By statistically analyzing these paths during the process, the tool is able to generate a reduced predictive model of this physical quantity, which is bringing a self-learning capacity to the simulation. Its use can significantly improve optimization and control of processes, or simplify inverse measurements. Furthermore, based on this model, an uncertainty propagation analysis has been performed. It quantifies the effect of uncertainties affecting boundary conditions on the temperature. Finally a Particle Swarm Optimization (PSO) process, based on simulations done by the framework, is successfully carried out.
128

Approche multi-agents de couplage de modèles pour la modélisation des systèmes complexes spatiaux : application à l'aménagement urbain de la ville de Métouia / Coupling multi-agent based approach for modeling spatial complex systems : application to urban planning of the city of Metouia

Hassoumi, Inès 29 January 2015 (has links)
Dans ce travail, nous présentons une approche de couplage de modèles orientée agent pour la modélisation des systèmes complexes spatiaux. L’idée principale est d’utiliser l’espace comme medium d’interaction entre les modèles à coupler pour leur permettre de coexister et d’interagir conformément à un ensemble de règles qui régissent ces interactions. En jouant le rôle de facteur de couplage, l’espace permet aux agents chargés du couplage d’échanger des données et nous permet d’observer les résultats concrets du couplage des différents modèles constituant le système complexe spatial étudié. Cette approche est composée d’une méthodologie et d’un métamodèle de couplage orienté-agent. Notre métamodèle est basé sur une architecture organisationnelle (AGRE) et de type holonique qui prend en considération la spécificité, l’autonomie et l’échelle de calcul de chaque modèle. Cette notion de holon nous permet de gérer l’hétérogénéité des formalismes et des échelles spatio-temporelles des modèles. En effet, l’hétérogénéité spatiale est gérée par la décomposition des agents de collecte et de spatialisation jusqu’à atteindre le niveau d’abstraction souhaité. Ces agents peuvent passer d’un niveau à l’autre en adaptant l’échelle spatiale de l’espace à l’échelle spatiale du modèle grâce à des fonctions de conversion. L’hétérogénéité temporelle est gérée par un agent de temps qui permettra de calculer la future date d’exécution du modèle et un agent scheduler qui se chargera de l’ordonnancement de ces dates sur l’échelle de temps de la simulation. Nous prenons le système urbain de Métouia (Tunisie), comme exemple de système complexe spatial à étudier pour répondre aux besoins des urbanistes en termes d’aide à la décision en aménagement et tester notre approche de couplage coupling4modeling. / In This work we present an agent-based approach for coupling models in the context of complex spatial systems. The main idea of our approach called Coupling4Modeling is the use of the space as a medium of interactions between the coupling agents to allow them to co-exist and interact according to a set of rules that govern these interactions. By playing the role of coupling factor, space allows coupling agents to exchange data and to observe the results of pragmatic coupling of different models constituting the studied spatial complex sys-tem. This approach consisting in a methodology and an agent-oriented metamodel of coupling. Our metamodel is based on an organizational (AGRE) with holonic architecture that takes into consideration the specificity, autonomy and the calculation scale of each model. This notion of holon allows us to manage the heterogeneity of formalisms and spatio-temporal scales of models. In fact, spatial heterogeneity is managed by the decomposition of the collector and the interpreter agents until reaching the desired level of abstraction. These agents can move from one level to another by adapting the spatial scale of the space to the spatial scale of the model through conversion functions. The temporal heterogeneity is managed by a time agent that will calculate the future date in the execution of the model and a scheduler agent that will schedule these dates following the time scale of the simulation. We take the urban system of Metouia (Tunisia) as an example of spatial complex system, to study with details and to test our coupling4modeling approach. The main goal is to meet the needs of urbanists in terms of decision support in urban planning and to test our coupling approach coupling4modeling.
129

Modeling and optimizing a distributed power network : a complex system approach of the "prosumer" management in the smart grid / Modéliser et optimiser un réseau électrique distribué : une approche des systèmes complexes des "prosumers" dans le smart grid

Gensollen, Nicolas 07 October 2016 (has links)
Cette thèse est consacrée à l'étude d’agents appelés prosumers parce qu’ils peuvent, à partir d’énergies renouvelables, à la fois produire et consommer de l’électricité. Si leurs productions excèdent leurs propres besoins, ceux-ci cherchent à vendre leur surplus sur des marchés de l’électricité. Nous proposons de modéliser ces prosumers à partir de données météorologiques, ce qui nous a permit de mettre en évidence des corrélations spatio-temporelles non triviales, d'une grande importance pour les agrégateurs qui forment des portefeuilles d’équipements afin de vendre des services à l'opérateur du réseau. Comme un agrégateur est lié par un contrat avec l'opérateur, il peut faire l'objet de sanctions s’il ne remplit pas son rôle. Nous montrons que ces corrélations impactent la stabilité des agrégats, et donc le risque encouru par les agrégateurs. Nous proposons un algorithme minimisant le risque d'un ensemble d’agrégations, tout en maximisant le gain attendu. La mise en place de dispositifs de stockage dans un réseau où les générateurs et les charges sont dynamiques et stochastiques est complexe. Nous proposons de répondre à cette question grâce à la théorie du contrôle. Nous modélisons le système électrique par un réseau d'oscillateurs couplés, dont la dynamique des angles de phase est une approximation de la dynamique réelle du système. Le but est de trouver le sous-ensemble des nœuds du graphe qui, lors d'une perturbation du système, permet le retour à l'équilibre si les bons signaux sont injectés, et ceci avec une énergie minimum. Nous proposons un algorithme pour trouver un placement proche de l'optimum permettant de minimiser l'énergie moyenne de contrôle / This thesis is devoted to the study of agents called prosumers because they can, from renewable, both produce and consume electricity. If their production exceeds their own needs, they are looking to sell their surplus on electricity markets. We propose to model these prosumers from meteorological data, which has allowed us to highlight non trivial spatial and temporal correlations. This is of great importance for aggregators that form portfolios of equipments to sell services to the network operator. As an aggregator is bound by a contract with the operator, it can be subject to penalties if it does not fulfill its role. We show that these correlations impact the stability of aggregates, and therefore the risk taken by the aggregators. We propose an algorithm minimizing the risk of the aggregations, while maximizing the expected gain. The placement of storage devices in a network where generators and loads are stochastic and not fixed is complex. We propose to answer this question with control theory. We model the electrical system as a network of coupled oscillators, whose phase angles dynamics is an approximation of the actual dynamics of the system. The goal is to find the subset of nodes in the graph that, during a disturbance of the system, allows returning to equilibrium if the right signals are injected and this with a minimum energy. We propose an algorithm to find a near optimal placement to minimize the average energy control
130

Modeling economic resilience / Modéliser la résilience économique

Colon, Célian 02 December 2016 (has links)
De grandes transformations écologiques et climatiques sont aujourd'hui à l’œuvre. Elles sont sources d’instabilité environnementale, à l’image d’évènements climatiques extrêmes devenus plus fréquents, plus intenses, et touchant de nouvelles régions du globe. A défaut de pouvoir empêcher ces changements, comment les sociétés humaines pourraient-elles s'y adapter ? Pour beaucoup de chercheurs et de décideurs, c’est par la résilience qu’elles y parviendront. Ce concept semble renfermer des solutions nouvelles, adaptées à un monde turbulent et incertain. Par définition, les systèmes résilients sont capables de rebondir face à des chocs inattendus, d’apprendre rapidement et de s'adapter à des conditions inédites. Malgré l’intérêt suscité par cette notion, les processus qui permettent à une société d’être résiliente restent encore mal connus. Cette thèse développe un cadre conceptuel nouveau permettant, via la modélisation mathématique, d'explorer les liens théoriques entre mécanismes économiques et résilience. Ce cadre repose sur une analyse critique de la résilience en écologie — domaine d’origine du concept — et en économie — notre champ d’application. Nous l’appliquons aux systèmes de production économique, modélisés comme des réseaux de firmes et analysés à travers la théorie des systèmes dynamiques. Cette thèse évalue l’aptitude de tels modèles, dits multi-agents, à générer des profils de bifurcations, étape incontournable de l’analyse mathématique de la résilience. Nous étudions pour cela une dynamique proie–prédateur très générale en écologie et en économie. Ensuite, cette thèse s'attaque à un facteur majeur qui entrave la résilience : les fortes interdépendances entre activités économiques, par lesquelles les retards et interruptions de production se propagent d’une entreprise à l’autre. En utilisant des réseaux de production réalistes, nous montrons comment les délais d'approvisionnement, lorsque intégrés dans des topologies particulières, démultiplient ces phénomènes de propagation. Ensuite, grâce à un modèle évolutionnaire, nous mettons en lumière l’existence d’un risque systémique : les cascades d’incidents ont lieu alors même que tous les agents possèdent des inventaires adaptés au niveau de risque. Ce phénomène s’amplifie lorsque les chaînes d'approvisionnement se spécialisent et se fragmentent. Ces résultats théoriques ont une valeur générale, et pourront servir à orienter de futures recherches empiriques. Cette thèse fait en outre avancer les connaissances sur des méthodes et objets mathématiques très récents, comme les équations booléennes à retard formant un réseau complexe, et les dynamiques évolutionnaires sur les graphes. Les modèles et le cadre conceptuel proposés ouvrent de nouvelles perspectives de recherche sur la résilience, en particulier sur l’impact des rétroactions environnementales sur l'évolution structurelle des réseaux de production. / A wide range of climatic and ecological changes are unfolding around us. These changes notably manifest themselves through an increased environmental variability, such as shifts in the frequency, intensity, and spatial distribution of weather-related extreme events. If human societies cannot mitigate these transformations, to which conditions should they adapt? To many researchers and stakeholders, the answer is resilience. This concept seems to subsume a variety of solutions for dealing with a turbulent and uncertain world. Resilient systems bounce back after unexpected events, learn novel conditions and adapt to them. Theoretical models, however, to explore the links between socioeconomic mechanisms and resilience are still in their infancy. To advance such models, the present dissertation proposes a novel conceptual framework. This framework relies on an interdisciplinary and critical review of ecological and economic studies, and it is based on the theory of dynamical systems and on the paradigm of complex adaptive systems. We identify agent-based models as crucial for socioeconomic modeling. To assess their applicability to the study of resilience, we test at first whether such models can reproduce the bifurcation patterns of predator–prey interactions, which are a very important factor in both ecological and economic systems. The dissertation then tackles one of the main challenges for the design of resilient economic system: the large interconnectedness of production processes, whereby disruption may propagate and amplify. We next investigate the role of delays in production and supply on realistic economic networks, and show that the interplay between time delays and topology may greatly affect a network’s resilience. Finally, we investigate a model that encompasses adaptive responses of agents to shocks, and describes how disruptions propagate even though all firms do their best to mitigate risks. In particular, systemic amplification gets more pronounced when supply chains are fragmented. These theoretical findings are fairly general in character and may thus help the design of novel empirical studies. Through the application of several recent ideas and methods, this dissertation advances knowledge on innovative mathematical objects, such as Boolean delay equations on complex networks and evolutionary dynamics on graphs. Finally, the conceptual models herein open wide perspectives for further theoretical research on economic resilience, especially the study of environmental feedbacks and their impacts on the structural evolution of production networks.

Page generated in 0.0544 seconds