• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • 1
  • 1
  • Tagged with
  • 9
  • 9
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La théorie de la viabilité au service de la modélisation mathématique du développement durable. Application au cas de la forêt humide de Madagascar

Bernard, Claire 19 September 2011 (has links) (PDF)
Le développement durable, défini à l'origine comme un mode de développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs, souffre aujourd'hui des limites de cette définition. On dénombre en effet des centaines de définitions rendant le concept flou au point que mesures politiques et économiques les plus diverses se revendiquent durables.L'objectif de cette thèse est de modéliser le développement durable à l'aide des outils mathématiques de la théorie de la viabilité et de rendre sa définition opérationnelle. La théorie de la viabilité permet en effet d'intégrer les principales caractéristiques d'un développement durable : l'approche multi-objectifs, la prise en compte d'un horizon temporel infini, la possibilité de déterminer plusieurs politiques d'actions viables et le respect de l'équité intergénérationnelle. Le principe de la viabilité est l'étude de systèmes dynamiques contrôlés soumis à un ensemble de contraintes. Le concept central est celui de noyau de viabilité, ensemble regroupant tous les états initiaux à partir desquels il existe une évolution restant dans l'ensemble de contraintes. Après avoir mis en évidence les limites des méthodes utilisées dans la modélisation du développement durable telles que l'analyse multicritères, notre démarche scientifique s'appuie sur le développement de deux modèles mathématiques appliqués à la gestion durable du corridor forestier de Fianarantsoa (Madagascar). L'enjeu est alors de déterminer des politiques d'actions permettant de satisfaire un double objectif : la conservation de la forêt et la satisfaction des besoins de la population locale. Nous démontrons alors l'utilité de la théorie de la viabilité pour atteindre ces objectifs en définissant les contraintes adaptées et en calculant des noyaux de viabilité.
2

Optimisation et contrôle viable de modèles épidémiologiques de dengue / Optimization and viable control of dengue epidemics models / Manejo optimo y viable en modelos epidemiologicos de dengue

Sepulveda, Lilian Sofia 29 August 2015 (has links)
Les épidémies humaines sont un problème important de santé publique dans le monde. La modélisation mathématique fait partie de la panoplie des instruments pour les combattre. La thèse "Optimisation et contrôle viable de modèles épidémiologiques de dengue" se penche sur le cas de la dengue, une maladie endémique en Colombie. Le document de thèse est organisé en deux grandes parties, une partie I plus théorique et une partie II plus appliquée. Dans la partie I théorique, la dynamique de propagation d’une maladie infectieuse transmise par vecteur (comme la dengue, par moustiques) est représentée par des systèmes d'équations différentielles, reliant populations d'individus et de vecteurs. Nous considérons le modèle épidémique de Ross-Macdonald et le modèle endémique SIR SI. Après l'analyse quantitative de ces modèles, ce travail de thèse comporte deux contributions théoriques originales. L’étude du comportement transitoire traite du contrôle d'un épisode épidémique dans sa phase aiguë, avant son éventuelle extinction asymptotique. Nous cherchons, en jouant sur la variable de contrôle qu'est la mortalité du vecteur, à maintenir la proportion d'humains infectés (état) sous un seuil donné pour tous les temps (contrainte de viabilité). Par définition, le noyau de viabilité est l'ensemble des états initiaux pour lesquels il existe au moins une trajectoire de contrôles qui permette de satisfaire la contrainte de viabilité. Notre principale contribution est une description complète du noyau. Nous discutons de possibles contrôles viables, dont l'application garantit la satisfaction de la contrainte. Ensuite, nous analysons deux problèmes de contrôle optimal. L’un est la gestion d'un épisode épidémique à une échelle de temps courte. L’autre traite d'une maladie infectieuse endémique à une échelle plus longue où sont prises en complètes naissances et les morts des populations (humains et vecteurs).Nous déterminons les conditions nécessaires d'existence d'une solution optimale en utilisant le principe du maximum de Pontryagin. Nous abordons aussi l'analyse du cas de ressources limitées dans le temps. Dans la partie II, nous appliquons les approches de la partie I théorique à la gestion d'épisodes de dengue dans la ville de Santiago de Cali. Nous estimons les paramètres des modèles par moindres carrés, avec les données fournies par le Programme de vigilance épidémiologique du Secrétariat municipal de santé. Nous calculons numériquement le noyau de viabilité ajusté aux données observées durant les épisodes épidémiques de 2010 et 2013.Pour ce qui est du contrôle optimal, nous utilisons l'algorithme traditionnel de balayage avant et arrière, et comparons plusieurs alternatives pour le contrôle chimique du moustique. La meilleure stratégie est une combinaison d'aspersion d'un insecticide de faible létalité et d'implémentation de mesures de protection qui réduisent modérément le taux de piqûre du moustique. Enfin, nous abordons le problème de contrôle dynamique de la dengue sous incertitude. Nous développons un modèle de type Ross-Macdonald en temps discret avec incertitudes. Le noyau robuste de viabilité est l'ensemble des états initiaux tels qu'il existe au moins une stratégie d'aspersion d’insecticide qui garantisse que le nombre de personnes infectées se maintienne au-dessous d'un seuil, pour tous les temps, et ce quelles que soient les incertitudes. Sous des hypothèses appropriées sur l'ensemble des scénarios d'incertitudes(correspondant à l'indépendance temporelle), une équation de programmation dynamique permet de calculer numériquement des noyaux. Après avoir choisi trois ensembles d'incertitudes emboîtés, un déterministe (sans incertitude), un moyen et un grand, nous pouvons mesurer l'incidence des incertitudes sur la taille du noyau, notamment sur sa réduction par rapport au cas déterministe (sans incertitude) / Human epidemics are an important problem of public health in the world. Mathematical modelling is part of the instruments to fight them. The thesis «Optimization and viable control of epidemiological models of dengue» deals with the case of the dengue, an endemic disease in Colombia. The document is organized in two parts, a more theoretical Part I, and a Part II centered on applications. In Part I, the dynamics of propagation of an infectious vector-borne disease (such as dengue, transmitted by mosquitoes) is represented by systems of differential equations, connecting populations of individuals and vectors. We consider the epidemic model of Ross-Macdonald, and an endemic model of SIR-SI type. After the stability analysis of these dynamical models, this work brings forward two original theoretical contributions. The study of the transitory behavior deals with the control of an epidemic episode in its acute phase, before its possible asymptotic extinction. We look, by playing on the variable of control that is the mortality of the vector, to maintain human infected proportion (state) under a given threshold for all times (viability constraint). By definition, the viability kernel is the set of all initial states for which there is at least a trajectory of controls which allows to satisfy the viability constraint. Our main contribution is a complete description of the kernel. We discuss possible viable controls, whose application guarantees the satisfaction of the constraint. Then, we analyze two problems of optimal control. First problem is concerned with handling of an epidemic outbreak over a short timescale. Second one deals with an endemic infectious disease over a longer scale, where births and deaths within both populations (human and vector) are taken into account. We determine the necessary conditions of existence of an optimal solution by using the maximum principle of Pontryagin. We also tackle the case of resources limited over the time span. In part II, we apply the theoretical approaches of part I to the management of episodes of dengue in the city of Santiago of Cali. We estimate the parameters of the models by least squares, with the data supplied by the Program of epidemiological vigilance of the Municipal Secretariat of Public Health. We calculate numerically the viability kernel, fitted to the data observed during the epidemic episodes of 2010 and 2013.As for optimal control, we use the traditional forward-backward sweep algorithm, and compare several alternatives for the chemical control of the mosquito. The best strategy is a combination of spraying of an insecticide of low lethality, together with implementation of protective measures, which moderately reduce the biting rate of the mosquitos. Finally, we tackle the problem of dynamic control of the dengue under uncertainty. We develop a Ross-Macdonald model at discrete time with uncertainties. The robust viability kernel is the set of all initial states such as there is at least a strategy of insecticide spraying which guarantees that the number of infected people remains below a threshold, for all times, and whatever the uncertainties. Under proper assumptions on the set of scenarios of uncertainties (corresponding to temporal independence), an equation of dynamic programming allows to numerically calculate kernels. Having chosen three nested subsets of uncertainties a deterministic one (without uncertainty), a medium one and a large one we can measure the incidence of the uncertainties on the size of the kernel, in particular on its reduction with respect to the deterministic case (without uncertainty)
3

La théorie de la viabilité au service de la modélisation mathématique du développement durable. Application au cas de la forêt humide de Madagascar / Viability theory for mathematical modeling of sustainable development; Application to the case of the rain forest of Madagascar.

Bernard, Claire 19 September 2011 (has links)
Le développement durable, défini à l'origine comme un mode de développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs, souffre aujourd'hui des limites de cette définition. On dénombre en effet des centaines de définitions rendant le concept flou au point que mesures politiques et économiques les plus diverses se revendiquent durables.L'objectif de cette thèse est de modéliser le développement durable à l'aide des outils mathématiques de la théorie de la viabilité et de rendre sa définition opérationnelle. La théorie de la viabilité permet en effet d'intégrer les principales caractéristiques d'un développement durable : l'approche multi-objectifs, la prise en compte d'un horizon temporel infini, la possibilité de déterminer plusieurs politiques d'actions viables et le respect de l'équité intergénérationnelle. Le principe de la viabilité est l'étude de systèmes dynamiques contrôlés soumis à un ensemble de contraintes. Le concept central est celui de noyau de viabilité, ensemble regroupant tous les états initiaux à partir desquels il existe une évolution restant dans l'ensemble de contraintes. Après avoir mis en évidence les limites des méthodes utilisées dans la modélisation du développement durable telles que l'analyse multicritères, notre démarche scientifique s'appuie sur le développement de deux modèles mathématiques appliqués à la gestion durable du corridor forestier de Fianarantsoa (Madagascar). L'enjeu est alors de déterminer des politiques d'actions permettant de satisfaire un double objectif : la conservation de la forêt et la satisfaction des besoins de la population locale. Nous démontrons alors l'utilité de la théorie de la viabilité pour atteindre ces objectifs en définissant les contraintes adaptées et en calculant des noyaux de viabilité. / Sustainable development, initially defined as a mode of development that meets present needs without compromising the ability of future generations to meet their own needs, now suffers from the limitations of this definition. Since then, there are hundreds of definitions making the concept so vague that the most diverse political and economic measures claim to be sustainable. The aim of this thesis is to develop a model for sustainable development using the mathematical tools of the viability theory and to make this definition operational. The viability theory enables to integrate the main features of sustainable development : the multi-objective approach, the infinite time horizon, the possibility of determining several viable policies and actions and the respect of generational equity. The principle of viability is the study of dynamical controlled systems subjected to a constraint set. The main concept is the viability kernel, which is the set of all the initial states from which there is an evolution that remain in the constraint set. After underlying the limits of methods used in the modeling of sustainable development such as multi-criteria analysis, our scientific approach is based on the development of two mathematical models applied to the sustainable management of the forest corridor of Fianarantsoa (Madagascar). The challenge is to determine policy actions that meet two objectives : the conservation of the forest and the satisfaction of the needs of local people. Then, we demonstrate the usefulness of the theory of viability to achieve these objectives by defining the appropriate constraints and calculating the viability kernels.
4

Méthodes, concepts et outils des systèmes complexes pour maitriser les procédés alimentaires. Application à l'affinage de camemberts.

Sicard, Mariette 08 January 2010 (has links) (PDF)
De nombreux procédés alimentaires comme l'affinage de Camembert peuvent être considérés comme des systèmes complexes. De nombreuses variables sont en interactions dynamiques à différents niveaux d'échelle (microscopique, macroscopique...). Contrôler ces procédés pour maintenir la qualité nutritionnelle, sanitaire et organoleptique des produits est un enjeu primordial pour l'industrie alimentaire. Les connaissances manquent toujours pour le permettre. Dans cette thèse, les approches utilisées par la communauté des systèmes complexes ont été envisagées pour résoudre cette problématique. La première piste a été de reconstuire les dynamiques des phénomènes pour différentes conditions de température et d'humidité relative d'affinage. Les réactions microbiologiques, physicochimiques et biochimiques ont été étudiées en hâloir pilote. Puis les évolutions des propriétés organoleptiques durant l'affinage ont été étudiées grâce au recueil de connaissances expertes et à la formalisation d'indicateurs sensoriels. Les dynamiques recueillis à ces différents niveaux d'échelle ont permis de modéliser de manière globale l'affinage. La seconde piste a été d'explorer l'affinage à partir d'un modèle mécanistique en utilisant les méthodes développées dans le cadre de la théorie de la viabilité. Cette théorie a été appliquée à l'affinage avec deux objectifs, connaître les domaines de viabilité du système en fonction des contraintes de contrôle (durée d'affinage) et évaluer la sensibilité du procédé à des perturbations dans ces domaines. Cette étude a permis de proposer une trajectoire optimisée d'affinage avec un temps réduit de 4 jours. Cette trajectoire a été testée avec succès en hâloir pilote, les équilibres microbiens ont été préservés ainsi que les propriétés organoleptiques des fromages. Les concepts, méthodes et outils des systèmes complexes ont ainsi été utilisés avec succès pour le contrôle de l'affinage de Camembert. D'autres procédés alimentaires pourront à l'avenir être étudiés de la même manière pour envisager une généralisation des méthodes.
5

Maintenir la viabilité ou la résilience d'un système : les machines à vecteurs de support pour rompre la malédiction de la dimensionnalité ?

Chapel, Laëtitia 19 October 2007 (has links) (PDF)
La théorie de la viabilité propose des concepts et méthodes pour contrôler un système dynamique afin de le maintenir dans un ensemble de contraintes de viabilité. Les applications sont nombreuses en écologie, économie ou robotique, lorsqu'un système meurt ou se détériore lorsqu'il quitte une certaine zone de son espace d'états. A partir du calcul du noyau de viabilité ou du bassin de capture d'un système, elle permet de définir des politiques d'action qui maintiennent le système dans l'ensemble de contraintes choisi. Cependant, les algorithmes classiques d'approximation de noyaux de viabilité ou de bassins de capture présentent certaines limitations ; notamment, ils souffrent de la malédiction de la dimensionnalité et leur application est réservée à des problèmes en petite dimension (dans l'espace d'état et des contrôles). L'objectif de cette thèse est de développer des algorithmes d'approximation de noyaux de viabilité et de bassin de capture plus performants, en utilisant une méthode d'apprentissage statistique particulière : les machines à vecteurs de support (Support Vector Machines - SVMs). Nous proposons un nouvel algorithme d'approximation d'un noyau de viabilité, basé sur l'algorithme de Patrick Saint-Pierre, qui utilise une méthode d'apprentissage pour définir la frontière du noyau. Après avoir rappelé les conditions mathématiques que la procédure doit respecter, nous considérons les SVMs dans ce contexte. Cette méthode d'apprentissage fournit une sorte de fonction barrière à la frontière du noyau, ce qui permet d'utiliser des méthodes d'optimisation pour trouver un contrôle viable, et ainsi de travailler dans des espaces de contrôle plus importants. Cette fonction "barrière" permet également de dériver des politiques de contrôle plus ou moins prudentes. Nous appliquons la procédure à un problème de gestion des pêches, en examinant quelles politiques de pêche permettent de garantir la viabilité d'un écosystème marin. Cet exemple illustre les performances de la méthode proposée : le système comporte 6 variables d'états et 51 variables de contrôle. A partir de l'algorithme d'approximation d'un noyau de viabilité utilisant les SVMs, nous dérivons un algorithme d'approximation de bassin de capture et de résolution de problèmes d'atteinte d'une cible en un temps minimal. Approcher la fonction de temps minimal revient à rechercher le noyau de viabilité d'un système étendu. Nous présentons une procédure qui permet de rester dans l'espace d'état initial, et ainsi d'éviter le coût (en temps de calcul et espace mémoire) de l'addition d'une dimension supplémentaire. Nous décrivons deux variantes de l'algorithme : la première procédure donne une approximation qui converge par l'extérieur et la deuxième par l'intérieur. La comparaison des deux résultats donne une évaluation de l'erreur d'approximation. L'approximation par l'intérieur permet de définir un contrôleur qui garantit d'atteindre la cible en un temps minimal. La procédure peut être étendue au problème de minimisation d'une fonction de coût lorsque celle-ci respecte certaines conditions. Nous illustrons cet aspect sur le calcul de valeurs de résilience. Nous appliquons la procédure sur un problème de calcul de valeurs de résilience sur un modèle d'eutrophication des lacs. Les algorithmes proposés permettent de résoudre le problème de l'augmentation exponentielle du temps de calcul avec la dimension de l'espace des contrôles mais souffrent toujours de la malédiction de la dimensionnalité pour l'espace d'état : la taille du vecteur d'apprentissage augmente exponentiellement avec la dimension de l'espace. Nous introduisons des techniques d'apprentissage actif pour sélectionner les états les plus "informatifs" pour définir la fonction SVM, et ainsi gagner en espace mémoire, tout en gardant une approximation précise du noyau. Nous illustrons la procédure sur un problème de conduite d'un vélo sur un circuit, système défini par six variables d'état.
6

Intégrer des modèles de viabilité dans les outils d'aide à la gestion participative de territoires protégés

Wei, Wei 11 December 2012 (has links) (PDF)
Un défi important pour la gestion participative est de gérer des ressources renouvelables et la biodiversité. Dans le cadre de l'aide la la décision pour la gestion participative des territoires protégés, nous proposons dans cette thèse un agent expert qui fournit des informations sur la viabilité des solutions envisagées pour aider les joueurs à prendre une décision. C'est une nouvelle application de la théorie de la viabilité qui propose des concepts et méthodes pour contrôler un système dynamique afin de le maintenir dans un ensemble de contraintes de viabilité. Tout d'abord, nous avons étudié en quoi la théorie de la viabilité est particulièrement adaptée la la problématique de la gestion durable. L'analyse de viabilité prend en compte à la fois les comportements asymptotiques et transitoires qui doivent tous deux être considérés dans le cadre de la gestion de systèmes environnementaux. C'est l'intérêt de cette étude qui motive l'introduction d'un agent "viabilité" dans le cadre d'aide à la gestion participative. Nous décrivons ensuite un algorithme d'approximation du noyau de viabilité qui se concentre sur la réduction du temps de calcul. Cet algorithme utilise une procédure de classification du type "plus proche voisin", qui satisfait les conditions nécessaires pour garantir la convergence asymptotique de l'approximation. Nous comparons les résultats obtenus pour des problèmes de viabilité pour lesquels les noyaux théoriques ont été calculés. La fidélité de cet algorithme est toujours supérieure à 90 %. Le temps de calcul, relativement rapide, est très intéressant dans l'objectif d'intégrer ces calculs de noyaux dans des outils d'aide à la décision. Nous développons également un support logiciel qui est facile à utiliser par les joueurs pour les aider à analyser le problème de viabilité. Les joueurs définissent leur problème de viabilité grâce à une influence interface graphique utilisateur, puis lancent les simulations. Le logiciel permet aussi de visualiser les noyaux de viabilité et d'observer les trajectoires en 2D et 3D. Enfin nous étudions un agent expert viabilité dans un jeu de SimParc pour observer ses influences. Nous présentons des résultats fournis par l'agent expert viabilité en utilisant un modèle abstrait qui est axé sur la biodiversité. Puis nous présentons une expérimentation avec et sans agent expert viabilité.
7

Intégrer des modèles de viabilité dans les outils d'aide à la gestion participative de territoires protégés / Integrate sustainability models into tools to support participatory management of protected areas

Wei, Wei 11 December 2012 (has links)
Un défi important pour la gestion participative est de gérer des ressources renouvelables et la biodiversité. Dans le cadre de l'aide la la décision pour la gestion participative des territoires protégés, nous proposons dans cette thèse un agent expert qui fournit des informations sur la viabilité des solutions envisagées pour aider les joueurs à prendre une décision. C'est une nouvelle application de la théorie de la viabilité qui propose des concepts et méthodes pour contrôler un système dynamique afin de le maintenir dans un ensemble de contraintes de viabilité. Tout d'abord, nous avons étudié en quoi la théorie de la viabilité est particulièrement adaptée la la problématique de la gestion durable. L'analyse de viabilité prend en compte à la fois les comportements asymptotiques et transitoires qui doivent tous deux être considérés dans le cadre de la gestion de systèmes environnementaux. C'est l'intérêt de cette étude qui motive l'introduction d'un agent "viabilité" dans le cadre d'aide à la gestion participative. Nous décrivons ensuite un algorithme d'approximation du noyau de viabilité qui se concentre sur la réduction du temps de calcul. Cet algorithme utilise une procédure de classification du type "plus proche voisin", qui satisfait les conditions nécessaires pour garantir la convergence asymptotique de l'approximation. Nous comparons les résultats obtenus pour des problèmes de viabilité pour lesquels les noyaux théoriques ont été calculés. La fidélité de cet algorithme est toujours supérieure à 90 %. Le temps de calcul, relativement rapide, est très intéressant dans l'objectif d'intégrer ces calculs de noyaux dans des outils d'aide à la décision. Nous développons également un support logiciel qui est facile à utiliser par les joueurs pour les aider à analyser le problème de viabilité. Les joueurs définissent leur problème de viabilité grâce à une influence interface graphique utilisateur, puis lancent les simulations. Le logiciel permet aussi de visualiser les noyaux de viabilité et d'observer les trajectoires en 2D et 3D. Enfin nous étudions un agent expert viabilité dans un jeu de SimParc pour observer ses influences. Nous présentons des résultats fournis par l'agent expert viabilité en utilisant un modèle abstrait qui est axé sur la biodiversité. Puis nous présentons une expérimentation avec et sans agent expert viabilité. / An important challenge for participatory management is to manage renewable resources and biodiversity. In the framework of the decision support for participatory management of protected areas, we propose in this thesis an expert agent who provides information on the viability of the proposed solutions to help players to make a decision. This is a new application of the viability theory that provides concepts and methods for controlling a dynamic system in order to maintain the system in a set of viability constraints. Firstly, we study how the viability theory is particularly adapted to the problem of sustainable management. Sustainability analysis takes into account both the asymptotical dynamics and transient behaviors that have both to be considered in the context of environmental management systems. This study motivates the introduction of agent "viability" in the context of support participatory management. Then, we describe an algorithm of approximation of the viability kernel, which focuses on the reduction of computing time. This algorithm uses the "nearest neighbors" as a classification method, which satisfies the conditions guaranteeing the asymptotic convergence of the approximation. We compare the results obtained in cases where the theoretic viability kernel could be calculated. The accuracy of this algorithm is always higher than 90 percent. The computing time is relatively short, which is very interesting in the aim of integrating these calculations of viability kernel in tools of decision support. We also develop a software that is easy to use by players to help analyze the problem of sustainability. Players define their sustainability problem through a graphical user interface and launch simulations. The software also allows users to visualize the viability kernels and to observe the trajectories in 2D and 3D. Finally we study a viability expert agent in a game SimParc to observe these influences. We present the results provided by the viability expert agent using an abstract model which focuses on biodiversity. Then we present an experiment with and without viability expert agent.
8

Conjurer la malédiction de la dimension dans le calcul du noyau de viabilité à l'aide de parallélisation sur carte graphique et de la théorie de la fiabilité : application à des dynamiques environnementales / Dispel the dimensionality curse in viability kernel computation with the help of GPGPU and reliability theory : application to environmental dynamics

Brias, Antoine 15 December 2016 (has links)
La théorie de la viabilité propose des outils permettant de contrôler un système dynamique afin de le maintenir dans un domaine de contraintes. Le concept central de cette théorie est le noyau de viabilité, qui est l’ensemble des états initiaux à partir desquels il existe au moins une trajectoire contrôlée restant dans le domaine de contraintes. Cependant, le temps et l’espace nécessaires au calcul du noyau de viabilité augmentent exponentiellement avec le nombre de dimensions du problème considéré. C’est la malédiction de la dimension. Elle est d’autant plus présente dans le cas de systèmes incorporant des incertitudes. Dans ce cas-là, le noyau de viabilité devient l’ensemble des états pour lesquels il existe une stratégie de contrôle permettant de rester dans le domaine de contraintes avec au moins une certaine probabilité jusqu’à l’horizon de temps donné. L’objectif de cette thèse est d’étudier et de développer des approches afin de combattre cette malédiction de la dimension. Pour ce faire, nous avons proposé deux axes de recherche : la parallélisation des calculs et l’utilisation de la théorie de la fiabilité. Les résultats sont illustrés par plusieurs applications. Le premier axe explore l’utilisation de calcul parallèle sur carte graphique. La version du programme utilisant la carte graphique est jusqu’à 20 fois plus rapide que la version séquentielle, traitant des problèmes jusqu’en dimension 7. Outre ces gains en temps de calcul, nos travaux montrent que la majeure partie des ressources est utilisée pour le calcul des probabilités de transition du système. Cette observation fait le lien avec le deuxième axe de recherche qui propose un algorithme calculant une approximation de noyaux de viabilité stochastiques utilisant des méthodes fiabilistes calculant les probabilités de transition. L’espace-mémoire requis par cet algorithme est une fonction linéaire du nombre d’états de la grille utilisée, contrairement à l’espace-mémoire requis par l’algorithme de programmation dynamique classique qui dépend quadratiquement du nombre d’états. Ces approches permettent d’envisager l’application de la théorie de la viabilité à des systèmes de plus grande dimension. Ainsi nous l’avons appliquée à un modèle de dynamique du phosphore dans le cadre de la gestion de l’eutrophisation des lacs, préalablement calibré sur les données du lac du Bourget. De plus, les liens entre fiabilité et viabilité sont mis en valeur avec une application du calcul de noyau de viabilité stochastique, autrement appelé noyau de fiabilité, en conception fiable dans le cas d’une poutre corrodée. / Viability theory provides tools to maintain a dynamical system in a constraint domain. The main concept of this theory is the viability kernel, which is the set of initial states from which there is at least one controlled trajectory remaining in the constraint domain. However, the time and space needed to calculate the viability kernel increases exponentially with the number of dimensions of the problem. This issue is known as “the curse of dimensionality”. This curse is even more present when applying the viability theory to uncertain systems. In this case, the viability kernel is the set of states for which there is at least a control strategy to stay in the constraint domain with some probability until the time horizon. The objective of this thesis is to study and develop approaches to beat back the curse of dimensionality. We propose two lines of research: the parallel computing and the use of reliability theory tools. The results are illustrated by several applications. The first line explores the use of parallel computing on graphics card. The version of the program using the graphics card is up to 20 times faster than the sequential version, dealing with problems until dimension 7. In addition to the gains in calculation time, our work shows that the majority of the resources is used to the calculation of transition probabilities. This observation makes the link with the second line of research which proposes an algorithm calculating a stochastic approximation of viability kernels by using reliability methods in order to compute the transition probabilities. The memory space required by this algorithm is a linear function of the number of states of the grid, unlike the memory space required by conventional dynamic programming algorithm which quadratically depends on the number of states. These approaches may enable the use of the viability theory in the case of high-dimension systems. So we applied it to a phosphorus dynamics for the management of Lake Bourget eutrophication, previously calibrated from experimental data. In addition the relationship between reliability and viability is highlighted with an application of stochastic viability kernel computation, otherwise known as reliability kernel, in reliable design in the case of a corroded beam.
9

Viab-Cell, développement d'un logiciel viabiliste sur processeur multicoeurs pour la simulation de la morphogénèse / Development of a viabilist software on multi-core CPU for morhogenesis simulation

Sarr, Abdoulaye 08 December 2016 (has links)
Ce travail présente un modèle théorique de morphogenèse animale, sous la forme d’un système complexe émergeant de nombreux comportements, processus internes, expressions et interactions cellulaires. Son implémentation repose sur un automate cellulaire orienté système multi-agents avec un couplage énergico-génétique entre les dynamiques cellulaires et les ressources.Notre objectif est de proposer des outils permettant l’étude numérique du développement de tissus cellulaires à travers une approche hybride (discrète/continue et qualitative/quantitative) pour modéliser les aspects génétiques, énergétiques et comportementaux des cellules. La modélisation de ces aspects s’inspire des principes de la théorie de la viabilité et des données expérimentales sur les premiers stades de division de l’embryon du poisson-zèbre.La théorie de la viabilité appliquée à la morphogenèse pose cependant de nouveaux défis en informatique pour pouvoir implémenter des algorithmes dédiés aux dynamiques morphologiques. Le choix de données biologiques pertinentes à considérer dans le modèle à proposer, la conception d’un modèle basé sur une théorie nouvelle, l’implémentation d’algorithmes adaptés reposant sur des processeurs puissants et le choix d’expérimentations pour éprouver nos propositions sont les enjeux fondamentaux de ces travaux. Les hypothèses que nous proposons sont discutées au moyen d’expérimentations in silico qui ont porté principalement sur l’atteignabilité et la capturabilité de formes de tissus ; sur la viabilité de l’évolution d’un tissu pour un horizon de temps ; sur la mise en évidence de nouvelles propriétés de tissus et la simulation de mécanismes tissulaires essentiels pour leur contrôlabilité face à des perturbations ; sur de nouvelles méthodes de caractérisation de tissus pathologiques, etc. De telles propositions doivent venir en appoint aux expérimentations in vitro et in vivo et permettre à terme de mieux comprendre les mécanismes régissant le développement de tissus. Plus particulièrement, nous avons mis en évidence lors du calcul de noyaux de viabilité les relations de causalité ascendante reliant la maintenance des cellules en fonction des ressources énergétiques disponibles et la viabilité du tissu en croissance. La dynamique de chaque cellule est associée à sa constitution énergétique et génétique. Le modèle est paramétré à travers une interface permettant de prendre en compte le nombre de coeurs à solliciter pour la simulation afin d’exploiter la puissance de calcul offerte par les matériels multi-coeurs. / This work presents a theoretical model of animal morphogenesis, as a complex system from which emerge cellular behaviors, internal processes, interactions and expressions. Its implementation is based on a cellular automaton oriented multi-agent system with an energico-genetic coupling between the cellular dynamics and resources. Our main purpose is to provide tools for the numerical study of tissue development through a hybrid approach (discrete/continuous and qualitative/quantitative) that models genetic, behavioral and energetic aspects of cells. The modeling of these aspects is based on the principles of viability theory and on experimental data on the early stages of the zebrafish embryo division. The viability theory applied to the morphogenesis, however, raises new challenges in computer science to implement algorithms dedicated to morphological dynamics. The choice of relevant biological data to be considered in the model to propose, the design of a model based on a new theory, the implementation of suitable algorithms based on powerful processors and the choice of experiments to test our proposals are fundamental issues of this work. The assumptions we offer are discussed using in silico experiments that focused on the reachability and catchability of tissue forms ; on the viability of the evolution of a tissue for a time horizon ; on the discovery of new tissue properties and simulation of tissue mechanisms that are fondamental for their controllability face to disruptions ; on new pathological tissue characterization methods, etc. Such proposals must come extra to support experiments in vitro and in vivo and eventually allow a better understanding of the mechanisms governing the development of tissues.In particular, we have highlighted through the computing of viability kernels the bottom causal relationship between the maintenance of cells according to available energy resources and the viability of the tissue in growth. The model is set through an interface that takes into account the number of cores to solicit for simulation in order to exploit the computing power offered by multicore hardware.

Page generated in 0.4646 seconds