• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • 1
  • Tagged with
  • 6
  • 6
  • 6
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Optimisation et contrôle viable de modèles épidémiologiques de dengue / Optimization and viable control of dengue epidemics models / Manejo optimo y viable en modelos epidemiologicos de dengue

Sepulveda, Lilian Sofia 29 August 2015 (has links)
Les épidémies humaines sont un problème important de santé publique dans le monde. La modélisation mathématique fait partie de la panoplie des instruments pour les combattre. La thèse "Optimisation et contrôle viable de modèles épidémiologiques de dengue" se penche sur le cas de la dengue, une maladie endémique en Colombie. Le document de thèse est organisé en deux grandes parties, une partie I plus théorique et une partie II plus appliquée. Dans la partie I théorique, la dynamique de propagation d’une maladie infectieuse transmise par vecteur (comme la dengue, par moustiques) est représentée par des systèmes d'équations différentielles, reliant populations d'individus et de vecteurs. Nous considérons le modèle épidémique de Ross-Macdonald et le modèle endémique SIR SI. Après l'analyse quantitative de ces modèles, ce travail de thèse comporte deux contributions théoriques originales. L’étude du comportement transitoire traite du contrôle d'un épisode épidémique dans sa phase aiguë, avant son éventuelle extinction asymptotique. Nous cherchons, en jouant sur la variable de contrôle qu'est la mortalité du vecteur, à maintenir la proportion d'humains infectés (état) sous un seuil donné pour tous les temps (contrainte de viabilité). Par définition, le noyau de viabilité est l'ensemble des états initiaux pour lesquels il existe au moins une trajectoire de contrôles qui permette de satisfaire la contrainte de viabilité. Notre principale contribution est une description complète du noyau. Nous discutons de possibles contrôles viables, dont l'application garantit la satisfaction de la contrainte. Ensuite, nous analysons deux problèmes de contrôle optimal. L’un est la gestion d'un épisode épidémique à une échelle de temps courte. L’autre traite d'une maladie infectieuse endémique à une échelle plus longue où sont prises en complètes naissances et les morts des populations (humains et vecteurs).Nous déterminons les conditions nécessaires d'existence d'une solution optimale en utilisant le principe du maximum de Pontryagin. Nous abordons aussi l'analyse du cas de ressources limitées dans le temps. Dans la partie II, nous appliquons les approches de la partie I théorique à la gestion d'épisodes de dengue dans la ville de Santiago de Cali. Nous estimons les paramètres des modèles par moindres carrés, avec les données fournies par le Programme de vigilance épidémiologique du Secrétariat municipal de santé. Nous calculons numériquement le noyau de viabilité ajusté aux données observées durant les épisodes épidémiques de 2010 et 2013.Pour ce qui est du contrôle optimal, nous utilisons l'algorithme traditionnel de balayage avant et arrière, et comparons plusieurs alternatives pour le contrôle chimique du moustique. La meilleure stratégie est une combinaison d'aspersion d'un insecticide de faible létalité et d'implémentation de mesures de protection qui réduisent modérément le taux de piqûre du moustique. Enfin, nous abordons le problème de contrôle dynamique de la dengue sous incertitude. Nous développons un modèle de type Ross-Macdonald en temps discret avec incertitudes. Le noyau robuste de viabilité est l'ensemble des états initiaux tels qu'il existe au moins une stratégie d'aspersion d’insecticide qui garantisse que le nombre de personnes infectées se maintienne au-dessous d'un seuil, pour tous les temps, et ce quelles que soient les incertitudes. Sous des hypothèses appropriées sur l'ensemble des scénarios d'incertitudes(correspondant à l'indépendance temporelle), une équation de programmation dynamique permet de calculer numériquement des noyaux. Après avoir choisi trois ensembles d'incertitudes emboîtés, un déterministe (sans incertitude), un moyen et un grand, nous pouvons mesurer l'incidence des incertitudes sur la taille du noyau, notamment sur sa réduction par rapport au cas déterministe (sans incertitude) / Human epidemics are an important problem of public health in the world. Mathematical modelling is part of the instruments to fight them. The thesis «Optimization and viable control of epidemiological models of dengue» deals with the case of the dengue, an endemic disease in Colombia. The document is organized in two parts, a more theoretical Part I, and a Part II centered on applications. In Part I, the dynamics of propagation of an infectious vector-borne disease (such as dengue, transmitted by mosquitoes) is represented by systems of differential equations, connecting populations of individuals and vectors. We consider the epidemic model of Ross-Macdonald, and an endemic model of SIR-SI type. After the stability analysis of these dynamical models, this work brings forward two original theoretical contributions. The study of the transitory behavior deals with the control of an epidemic episode in its acute phase, before its possible asymptotic extinction. We look, by playing on the variable of control that is the mortality of the vector, to maintain human infected proportion (state) under a given threshold for all times (viability constraint). By definition, the viability kernel is the set of all initial states for which there is at least a trajectory of controls which allows to satisfy the viability constraint. Our main contribution is a complete description of the kernel. We discuss possible viable controls, whose application guarantees the satisfaction of the constraint. Then, we analyze two problems of optimal control. First problem is concerned with handling of an epidemic outbreak over a short timescale. Second one deals with an endemic infectious disease over a longer scale, where births and deaths within both populations (human and vector) are taken into account. We determine the necessary conditions of existence of an optimal solution by using the maximum principle of Pontryagin. We also tackle the case of resources limited over the time span. In part II, we apply the theoretical approaches of part I to the management of episodes of dengue in the city of Santiago of Cali. We estimate the parameters of the models by least squares, with the data supplied by the Program of epidemiological vigilance of the Municipal Secretariat of Public Health. We calculate numerically the viability kernel, fitted to the data observed during the epidemic episodes of 2010 and 2013.As for optimal control, we use the traditional forward-backward sweep algorithm, and compare several alternatives for the chemical control of the mosquito. The best strategy is a combination of spraying of an insecticide of low lethality, together with implementation of protective measures, which moderately reduce the biting rate of the mosquitos. Finally, we tackle the problem of dynamic control of the dengue under uncertainty. We develop a Ross-Macdonald model at discrete time with uncertainties. The robust viability kernel is the set of all initial states such as there is at least a strategy of insecticide spraying which guarantees that the number of infected people remains below a threshold, for all times, and whatever the uncertainties. Under proper assumptions on the set of scenarios of uncertainties (corresponding to temporal independence), an equation of dynamic programming allows to numerically calculate kernels. Having chosen three nested subsets of uncertainties a deterministic one (without uncertainty), a medium one and a large one we can measure the incidence of the uncertainties on the size of the kernel, in particular on its reduction with respect to the deterministic case (without uncertainty)
2

La théorie de la viabilité au service de la modélisation mathématique du développement durable. Application au cas de la forêt humide de Madagascar / Viability theory for mathematical modeling of sustainable development; Application to the case of the rain forest of Madagascar.

Bernard, Claire 19 September 2011 (has links)
Le développement durable, défini à l'origine comme un mode de développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs, souffre aujourd'hui des limites de cette définition. On dénombre en effet des centaines de définitions rendant le concept flou au point que mesures politiques et économiques les plus diverses se revendiquent durables.L'objectif de cette thèse est de modéliser le développement durable à l'aide des outils mathématiques de la théorie de la viabilité et de rendre sa définition opérationnelle. La théorie de la viabilité permet en effet d'intégrer les principales caractéristiques d'un développement durable : l'approche multi-objectifs, la prise en compte d'un horizon temporel infini, la possibilité de déterminer plusieurs politiques d'actions viables et le respect de l'équité intergénérationnelle. Le principe de la viabilité est l'étude de systèmes dynamiques contrôlés soumis à un ensemble de contraintes. Le concept central est celui de noyau de viabilité, ensemble regroupant tous les états initiaux à partir desquels il existe une évolution restant dans l'ensemble de contraintes. Après avoir mis en évidence les limites des méthodes utilisées dans la modélisation du développement durable telles que l'analyse multicritères, notre démarche scientifique s'appuie sur le développement de deux modèles mathématiques appliqués à la gestion durable du corridor forestier de Fianarantsoa (Madagascar). L'enjeu est alors de déterminer des politiques d'actions permettant de satisfaire un double objectif : la conservation de la forêt et la satisfaction des besoins de la population locale. Nous démontrons alors l'utilité de la théorie de la viabilité pour atteindre ces objectifs en définissant les contraintes adaptées et en calculant des noyaux de viabilité. / Sustainable development, initially defined as a mode of development that meets present needs without compromising the ability of future generations to meet their own needs, now suffers from the limitations of this definition. Since then, there are hundreds of definitions making the concept so vague that the most diverse political and economic measures claim to be sustainable. The aim of this thesis is to develop a model for sustainable development using the mathematical tools of the viability theory and to make this definition operational. The viability theory enables to integrate the main features of sustainable development : the multi-objective approach, the infinite time horizon, the possibility of determining several viable policies and actions and the respect of generational equity. The principle of viability is the study of dynamical controlled systems subjected to a constraint set. The main concept is the viability kernel, which is the set of all the initial states from which there is an evolution that remain in the constraint set. After underlying the limits of methods used in the modeling of sustainable development such as multi-criteria analysis, our scientific approach is based on the development of two mathematical models applied to the sustainable management of the forest corridor of Fianarantsoa (Madagascar). The challenge is to determine policy actions that meet two objectives : the conservation of the forest and the satisfaction of the needs of local people. Then, we demonstrate the usefulness of the theory of viability to achieve these objectives by defining the appropriate constraints and calculating the viability kernels.
3

Résilience et vulnérabilité dans le cadre de la théorie de la viabilité et des systèmes dynamiques stochastiques contrôlés / Resilience and vulnerability in the framework of viability theory and stochastic controlled dynamical systems

Rougé, Charles Jacques Jean 17 December 2013 (has links)
Cette thèse propose des définitions mathématiques des concepts de résilience et de vulnérabilité dans le cadre des systèmes dynamiques stochastiques contrôlés, et en particulier celui de la viabilité stochastique en temps discret. Elle s’appuie sur les travaux antérieurs définissant la résilience dans le cadre de la viabilité pour des dynamiques déterministes. Les définitions proposées font l’hypothèse qu’il est possible de distinguer des aléas usuels, inclus dans la dynamique, et des événements extrêmes ou surprenants dont on étudie spécifiquement l’impact. La viabilité stochastique et la fiabilité ne mettent en jeu que le premier type d’aléa, et s’intéressent à l’évaluation de la probabilité de sortir d’un sous-ensemble de l’espace d’état dans lequel les propriétés d’intérêt du système sont satisfaites. La viabilité stochastique apparaît ainsi comme une branche de la fiabilité. Un objet central en est le noyau de viabilité stochastique, qui regroupe les états contrôlables pour que leur probabilité de garder les propriétés sur un horizon temporel défini soit supérieure à un seuil donné. Nous proposons de définir la résilience comme la probabilité de revenir dans le noyau de viabilité stochastique après un événement extrême ou surprenant. Nous utilisons la programmation dynamique stochastique pour maximiser la probabilité d’être viable ainsi que pour optimiser la probabilité de résilience à un horizon temporel donné. Nous proposons de définir ensuite la vulnérabilité à partir d’une fonction de dommage définie sur toutes les trajectoires possibles du système. La distribution des trajectoires définit donc une distribution de probabilité des dommages et nous définissons la vulnérabilité comme une statistique sur cette distribution. Cette définition s’applique aux deux types d’aléas définis précédemment. D’une part, en considérant les aléas du premier type, nous définissons des ensembles tels que la vulnérabilité soit inférieure à un seuil, ce qui généralise la notion de noyau de viabilité stochastique. D’autre part, après un aléa du deuxième type, la vulnérabilité fournit des indicateurs qui aident à décrire les trajectoires de retour (en considérant que seul l’aléa de premier type intervient). Des indicateurs de vulnérabilité lié à un coût ou au franchissement d’un seuil peuvent être minimisés par la programmation dynamique stochastique. Nous illustrons les concepts et outils développés dans la thèse en les appliquant aux indicateurs pré-existants de fiabilité et de vulnérabilité, utilisés pour évaluer la performance d’un système d’approvisionnement en eau. En particulier, nous proposons un algorithme de programmation dynamique stochastique pour minimiser un critère qui combine des critères de coût et de sortie de l’ensemble de contraintes. Les concepts sont ensuite articulés pour décrire la performance d’un réservoir. / This thesis proposes mathematical definitions of the resilience and vulnerability concepts, in the framework of stochastic controlled dynamical system, and particularly that of discrete time stochastic viability theory. It relies on previous works defining resilience in the framework of deterministic viability theory. The proposed definitions stem from the hypothesis that it is possible to distinguish usual uncertainty, included in the dynamics, from extreme or surprising events. Stochastic viability and reliability only deal with the first kind of uncertainty, and both evaluate the probability of exiting a subset of the state space in which the system’s properties are verified. Stochastic viability thus appears to be a branch of reliability theory. One of its central objects is the stochastic viability kernel, which contains all the states that are controllable so their probability of keeping the properties over a given time horizon is greater than a threshold value. We propose to define resilience as the probability of getting back to the stochastic viability kernel after an extreme or surprising event. We use stochastic dynamic programming to maximize both the probability of being viable and the probability of resilience at a given time horizon. We propose to then define vulnerability from a harm function defined on every possible trajectory of the system. The trajectories’ probability distribution implies that of the harm values and we define vulnerability as a statistic over this latter distribution. This definition is applicable with both the aforementioned uncertainty sources. On one hand, considering usual uncertainty, we define sets such that vulnerability is below a threshold, which generalizes the notion of stochastic viability kernel. On the other hand, after an extreme or surprising event, vulnerability proposes indicators to describe recovery trajectories (assuming that only usual uncertainty comes into play then). Vulnerability indicators related to a cost or to the crossing of a threshold can be minimized thanks to stochastic dynamic programming. We illustrate the concepts and tools developed in the thesis through an application to preexisting indicators of reliability and vulnerability that are used to evaluate the performance of a water supply system. We focus on proposing a stochastic dynamic programming algorithm to minimize a criterion that combines criteria of cost and of exit from the constraint set. The concepts are then articulated to describe the performance of a reservoir.
4

Intégrer des modèles de viabilité dans les outils d'aide à la gestion participative de territoires protégés / Integrate sustainability models into tools to support participatory management of protected areas

Wei, Wei 11 December 2012 (has links)
Un défi important pour la gestion participative est de gérer des ressources renouvelables et la biodiversité. Dans le cadre de l'aide la la décision pour la gestion participative des territoires protégés, nous proposons dans cette thèse un agent expert qui fournit des informations sur la viabilité des solutions envisagées pour aider les joueurs à prendre une décision. C'est une nouvelle application de la théorie de la viabilité qui propose des concepts et méthodes pour contrôler un système dynamique afin de le maintenir dans un ensemble de contraintes de viabilité. Tout d'abord, nous avons étudié en quoi la théorie de la viabilité est particulièrement adaptée la la problématique de la gestion durable. L'analyse de viabilité prend en compte à la fois les comportements asymptotiques et transitoires qui doivent tous deux être considérés dans le cadre de la gestion de systèmes environnementaux. C'est l'intérêt de cette étude qui motive l'introduction d'un agent "viabilité" dans le cadre d'aide à la gestion participative. Nous décrivons ensuite un algorithme d'approximation du noyau de viabilité qui se concentre sur la réduction du temps de calcul. Cet algorithme utilise une procédure de classification du type "plus proche voisin", qui satisfait les conditions nécessaires pour garantir la convergence asymptotique de l'approximation. Nous comparons les résultats obtenus pour des problèmes de viabilité pour lesquels les noyaux théoriques ont été calculés. La fidélité de cet algorithme est toujours supérieure à 90 %. Le temps de calcul, relativement rapide, est très intéressant dans l'objectif d'intégrer ces calculs de noyaux dans des outils d'aide à la décision. Nous développons également un support logiciel qui est facile à utiliser par les joueurs pour les aider à analyser le problème de viabilité. Les joueurs définissent leur problème de viabilité grâce à une influence interface graphique utilisateur, puis lancent les simulations. Le logiciel permet aussi de visualiser les noyaux de viabilité et d'observer les trajectoires en 2D et 3D. Enfin nous étudions un agent expert viabilité dans un jeu de SimParc pour observer ses influences. Nous présentons des résultats fournis par l'agent expert viabilité en utilisant un modèle abstrait qui est axé sur la biodiversité. Puis nous présentons une expérimentation avec et sans agent expert viabilité. / An important challenge for participatory management is to manage renewable resources and biodiversity. In the framework of the decision support for participatory management of protected areas, we propose in this thesis an expert agent who provides information on the viability of the proposed solutions to help players to make a decision. This is a new application of the viability theory that provides concepts and methods for controlling a dynamic system in order to maintain the system in a set of viability constraints. Firstly, we study how the viability theory is particularly adapted to the problem of sustainable management. Sustainability analysis takes into account both the asymptotical dynamics and transient behaviors that have both to be considered in the context of environmental management systems. This study motivates the introduction of agent "viability" in the context of support participatory management. Then, we describe an algorithm of approximation of the viability kernel, which focuses on the reduction of computing time. This algorithm uses the "nearest neighbors" as a classification method, which satisfies the conditions guaranteeing the asymptotic convergence of the approximation. We compare the results obtained in cases where the theoretic viability kernel could be calculated. The accuracy of this algorithm is always higher than 90 percent. The computing time is relatively short, which is very interesting in the aim of integrating these calculations of viability kernel in tools of decision support. We also develop a software that is easy to use by players to help analyze the problem of sustainability. Players define their sustainability problem through a graphical user interface and launch simulations. The software also allows users to visualize the viability kernels and to observe the trajectories in 2D and 3D. Finally we study a viability expert agent in a game SimParc to observe these influences. We present the results provided by the viability expert agent using an abstract model which focuses on biodiversity. Then we present an experiment with and without viability expert agent.
5

Conjurer la malédiction de la dimension dans le calcul du noyau de viabilité à l'aide de parallélisation sur carte graphique et de la théorie de la fiabilité : application à des dynamiques environnementales / Dispel the dimensionality curse in viability kernel computation with the help of GPGPU and reliability theory : application to environmental dynamics

Brias, Antoine 15 December 2016 (has links)
La théorie de la viabilité propose des outils permettant de contrôler un système dynamique afin de le maintenir dans un domaine de contraintes. Le concept central de cette théorie est le noyau de viabilité, qui est l’ensemble des états initiaux à partir desquels il existe au moins une trajectoire contrôlée restant dans le domaine de contraintes. Cependant, le temps et l’espace nécessaires au calcul du noyau de viabilité augmentent exponentiellement avec le nombre de dimensions du problème considéré. C’est la malédiction de la dimension. Elle est d’autant plus présente dans le cas de systèmes incorporant des incertitudes. Dans ce cas-là, le noyau de viabilité devient l’ensemble des états pour lesquels il existe une stratégie de contrôle permettant de rester dans le domaine de contraintes avec au moins une certaine probabilité jusqu’à l’horizon de temps donné. L’objectif de cette thèse est d’étudier et de développer des approches afin de combattre cette malédiction de la dimension. Pour ce faire, nous avons proposé deux axes de recherche : la parallélisation des calculs et l’utilisation de la théorie de la fiabilité. Les résultats sont illustrés par plusieurs applications. Le premier axe explore l’utilisation de calcul parallèle sur carte graphique. La version du programme utilisant la carte graphique est jusqu’à 20 fois plus rapide que la version séquentielle, traitant des problèmes jusqu’en dimension 7. Outre ces gains en temps de calcul, nos travaux montrent que la majeure partie des ressources est utilisée pour le calcul des probabilités de transition du système. Cette observation fait le lien avec le deuxième axe de recherche qui propose un algorithme calculant une approximation de noyaux de viabilité stochastiques utilisant des méthodes fiabilistes calculant les probabilités de transition. L’espace-mémoire requis par cet algorithme est une fonction linéaire du nombre d’états de la grille utilisée, contrairement à l’espace-mémoire requis par l’algorithme de programmation dynamique classique qui dépend quadratiquement du nombre d’états. Ces approches permettent d’envisager l’application de la théorie de la viabilité à des systèmes de plus grande dimension. Ainsi nous l’avons appliquée à un modèle de dynamique du phosphore dans le cadre de la gestion de l’eutrophisation des lacs, préalablement calibré sur les données du lac du Bourget. De plus, les liens entre fiabilité et viabilité sont mis en valeur avec une application du calcul de noyau de viabilité stochastique, autrement appelé noyau de fiabilité, en conception fiable dans le cas d’une poutre corrodée. / Viability theory provides tools to maintain a dynamical system in a constraint domain. The main concept of this theory is the viability kernel, which is the set of initial states from which there is at least one controlled trajectory remaining in the constraint domain. However, the time and space needed to calculate the viability kernel increases exponentially with the number of dimensions of the problem. This issue is known as “the curse of dimensionality”. This curse is even more present when applying the viability theory to uncertain systems. In this case, the viability kernel is the set of states for which there is at least a control strategy to stay in the constraint domain with some probability until the time horizon. The objective of this thesis is to study and develop approaches to beat back the curse of dimensionality. We propose two lines of research: the parallel computing and the use of reliability theory tools. The results are illustrated by several applications. The first line explores the use of parallel computing on graphics card. The version of the program using the graphics card is up to 20 times faster than the sequential version, dealing with problems until dimension 7. In addition to the gains in calculation time, our work shows that the majority of the resources is used to the calculation of transition probabilities. This observation makes the link with the second line of research which proposes an algorithm calculating a stochastic approximation of viability kernels by using reliability methods in order to compute the transition probabilities. The memory space required by this algorithm is a linear function of the number of states of the grid, unlike the memory space required by conventional dynamic programming algorithm which quadratically depends on the number of states. These approaches may enable the use of the viability theory in the case of high-dimension systems. So we applied it to a phosphorus dynamics for the management of Lake Bourget eutrophication, previously calibrated from experimental data. In addition the relationship between reliability and viability is highlighted with an application of stochastic viability kernel computation, otherwise known as reliability kernel, in reliable design in the case of a corroded beam.
6

Viab-Cell, développement d'un logiciel viabiliste sur processeur multicoeurs pour la simulation de la morphogénèse / Development of a viabilist software on multi-core CPU for morhogenesis simulation

Sarr, Abdoulaye 08 December 2016 (has links)
Ce travail présente un modèle théorique de morphogenèse animale, sous la forme d’un système complexe émergeant de nombreux comportements, processus internes, expressions et interactions cellulaires. Son implémentation repose sur un automate cellulaire orienté système multi-agents avec un couplage énergico-génétique entre les dynamiques cellulaires et les ressources.Notre objectif est de proposer des outils permettant l’étude numérique du développement de tissus cellulaires à travers une approche hybride (discrète/continue et qualitative/quantitative) pour modéliser les aspects génétiques, énergétiques et comportementaux des cellules. La modélisation de ces aspects s’inspire des principes de la théorie de la viabilité et des données expérimentales sur les premiers stades de division de l’embryon du poisson-zèbre.La théorie de la viabilité appliquée à la morphogenèse pose cependant de nouveaux défis en informatique pour pouvoir implémenter des algorithmes dédiés aux dynamiques morphologiques. Le choix de données biologiques pertinentes à considérer dans le modèle à proposer, la conception d’un modèle basé sur une théorie nouvelle, l’implémentation d’algorithmes adaptés reposant sur des processeurs puissants et le choix d’expérimentations pour éprouver nos propositions sont les enjeux fondamentaux de ces travaux. Les hypothèses que nous proposons sont discutées au moyen d’expérimentations in silico qui ont porté principalement sur l’atteignabilité et la capturabilité de formes de tissus ; sur la viabilité de l’évolution d’un tissu pour un horizon de temps ; sur la mise en évidence de nouvelles propriétés de tissus et la simulation de mécanismes tissulaires essentiels pour leur contrôlabilité face à des perturbations ; sur de nouvelles méthodes de caractérisation de tissus pathologiques, etc. De telles propositions doivent venir en appoint aux expérimentations in vitro et in vivo et permettre à terme de mieux comprendre les mécanismes régissant le développement de tissus. Plus particulièrement, nous avons mis en évidence lors du calcul de noyaux de viabilité les relations de causalité ascendante reliant la maintenance des cellules en fonction des ressources énergétiques disponibles et la viabilité du tissu en croissance. La dynamique de chaque cellule est associée à sa constitution énergétique et génétique. Le modèle est paramétré à travers une interface permettant de prendre en compte le nombre de coeurs à solliciter pour la simulation afin d’exploiter la puissance de calcul offerte par les matériels multi-coeurs. / This work presents a theoretical model of animal morphogenesis, as a complex system from which emerge cellular behaviors, internal processes, interactions and expressions. Its implementation is based on a cellular automaton oriented multi-agent system with an energico-genetic coupling between the cellular dynamics and resources. Our main purpose is to provide tools for the numerical study of tissue development through a hybrid approach (discrete/continuous and qualitative/quantitative) that models genetic, behavioral and energetic aspects of cells. The modeling of these aspects is based on the principles of viability theory and on experimental data on the early stages of the zebrafish embryo division. The viability theory applied to the morphogenesis, however, raises new challenges in computer science to implement algorithms dedicated to morphological dynamics. The choice of relevant biological data to be considered in the model to propose, the design of a model based on a new theory, the implementation of suitable algorithms based on powerful processors and the choice of experiments to test our proposals are fundamental issues of this work. The assumptions we offer are discussed using in silico experiments that focused on the reachability and catchability of tissue forms ; on the viability of the evolution of a tissue for a time horizon ; on the discovery of new tissue properties and simulation of tissue mechanisms that are fondamental for their controllability face to disruptions ; on new pathological tissue characterization methods, etc. Such proposals must come extra to support experiments in vitro and in vivo and eventually allow a better understanding of the mechanisms governing the development of tissues.In particular, we have highlighted through the computing of viability kernels the bottom causal relationship between the maintenance of cells according to available energy resources and the viability of the tissue in growth. The model is set through an interface that takes into account the number of cores to solicit for simulation in order to exploit the computing power offered by multicore hardware.

Page generated in 0.0501 seconds