Spelling suggestions: "subject:"modélisation"" "subject:"odélisation""
41 |
Simulation et expérimentation en mise en forme de renforts composites 3D interlocksDe Luycker, Emmanuel January 2009 (has links) (PDF)
De par leur ratio résistance/poids très avantageux, les matériaux composites trouvent de plus en plus d’applications notamment, dans le domaine aéronautique. Or la sensibilité des multicouches aux délaminages limite leur usage principalement à des parties non structurelles. Pour éviter ce problème et étendre le domaine d’application des matériaux composites, les tissés interlock ont été développés ; leur tissage « dans l’épaisseur » donne à ces matériaux une meilleure tolérance aux dommages et leur ouvre des applications telles que les aubes de soufflantes de ré-acteurs d’avions. De plus, le procédé R.T.M. utilisé dans ce cas permet de produire à moindre coût des pièces de géométrie complexe. Dans ce contexte, il est capital de bien connaître les propriétés des pièces finies, que ce soit du point de vue du comportement dynamique ou de la tenue à l’impact. La simulation du formage des renforts 3D présente donc un intérêt majeur connaissant l’influence des directions de mèches sur le propriétés de la pièce finie. Dans ce travail de recherche, nous introduisons un élément fini Lagrangien, semi discret permettant de simuler la mise en forme de préformes interlocks. Deux modèles sont considérés pour prendre en compte l’intégralité du comportement ; la tension dans les mèches est modélisée de manière discrète alors que les autres contributions le sont par un modèle continu. L’autre volet de ce travail est consacré à la caractérisation expérimentale de ces matériaux en traction, compression et cisaillement. Puis à l’identification du modèle. L’élément, implémenté et validé dans un code de calcul en dynamique explicite développé au laboratoire, permet alors des simulations de mise en forme validées par l’expérience.
|
42 |
Proposition d’un cadre de modélisation pour les applications PLM : application à la gestion de configurations / Proposal of a modeling framework for PLM applications : application to the configuration managementZina, Souheil 14 November 2007 (has links)
La maîtrise de l'information technique se situe au centre des préoccupations actuelles des entreprises. Les réglementations de plus en plus contraignantes et la concurrence forte demandent une rigueur et une réactivité accrue pour répondre aux demandes des clients. L'amélioration de la qualité des produits et la réduction des cycles et des coûts passent par la mise en oeuvre de règles et de moyens de gestion des données techniques tout au long de leur cycle de vie. Cependant, la mise en place d'une solution de gestion du cycle de vie de produit (PLM ou Product Lifecycle Management) reste un exercice difficile. En effet, les problématiques auxquelles les éditeurs et les intégrateurs des applications PLM doivent faire face proviennent du caractère spécifique inhérent aux projets clients, même si la plupart des besoins fonctionnels sont souvent génériques. La complexité croissante des données et le besoin de systèmes évolutifs et flexibles imposent aux éditeurs des applications PLM de capitaliser les connaissances liées à l'ingénierie de leurs produits. Le but de ce travail de recherche consiste à définir un cadre de modélisation et des méthodes de déploiement qui permettent à l'intégrateur de spécifier, concevoir, réaliser et faire évoluer rapidement les applications PLM en prenant en compte les spécificités des clients. L’étude effectuée chez LASCOM sur le progiciel Advitium a consisté, à partir d'un ensemble d'applications PLM existantes, à mettre en place une démarche de « Reverse Engineering » qui a permis de formaliser les concepts nécessaires à la gestion des données techniques, et les spécificités liées à la gestion de configurations de produits. / Monitoring the technical information is one of the main preoccupations of the companies. Indeed, the increasingly constraining regulations and the higher competition level require being more rigorous and reactive to the customers’ requests. The product quality improvement and the reduction of costs and of cycles require applying rules and means of technical data management. However, the installation of a PLM (Product Lifecycle Management) solution remains a difficult exercise in order to take into account the complexity and the diversity of the customer requirements. The issues faced by both editors and integrators of PLM applications arise from the specific aspect of customers’ projects, even though most functional needs are often generic. The increasing data complexity and the need for flexible and scalable systems require PLM applications editors to capitalize knowledge related to their products engineering and to rationalize the working methods of design and development teams. This research work is interested in defining a modeling framework and deployment methods to help the integrator to specify, design, implement and make PLM applications evolve quickly by taking into account the customers’ specificities. The study carried out at LASCOM on the Advitium software package, consisted in setting a step of reverse engineering which made it possible to formalize the concepts needed for technical data management, and the specifics related to the product configuration management. This fundamental stage made possible to validate the handled concepts.
|
43 |
Détermination des propriétés mécaniques et des lois de comportement en fluage par indentation instrumentée / Mechanical properties determination and creep behavior by depth-sensing indentationMendoza Delgado, Johnny Angel 26 November 2009 (has links)
Le développement de nouveaux matériaux nécessite la détermination de leurs propriétés mécaniques aux échelles macro, micro et nanométrique. Parmi les méthodes expérimentales les plus courantes, l’essai d’indentation instrumentée permettant de déterminer le module d’élasticité et la dureté du matériau à toutes ces échelles de mesure est sans doute le plus utilisé. Cependant, les valeurs obtenues en micro et en nanoindentation sont souvent en apparente contradiction. Cela a conduit de nombreux auteurs à s’interroger sur la validité des mesures expérimentales, sur l’identification des processus physiques mis en jeu lors de l’enfoncement de l’indenteur ou encore sur la pertinence des propriétés mesurées et des échelles de mesure. Sans prétendre étudier tous les aspects de manière exhaustive ce problème complexe, nous proposons cependant quelques pistes de réflexions en particulier sur le passage nano/micro en dureté. Sur la base de la théorie du gradient de plasticité développé par Nix et Gao, nous définissons un facteur d’échelle qui relie certaines données expérimentales à des propriétés fondamentales du matériau. Nous montrons également que ce facteur d’échelle, capable de caractériser la résistance à la déformation plastique, peut donner des informations complémentaires pour étudier le comportement des matériau soumis à différentes conditions d’indentation. Dans une deuxième partie, nous étudions le fluage par indentation comme une alternative aux essais classiques de fluage qui durent généralement plusieurs mois. Même si le résultat ne répond pas complètement aux objectifs fixés, nous montrons qu’un modèle rhéologique adapté permet de retrouver le module d’élasticité et de calculer un coefficient de viscosité à température ambiante du matériau. / Development of new materials often requires the determination of their mechanical properties at macro, micro and nanometric scales. Among the usual experimental methods, the depth-sensing indentation test allowing determining the elastic modulus and the hardness of the material over all the scales of measurement is probably the most employed. However, the values obtained in nano and microindentation ranges are in apparent contradiction. As a consequence, numerous authors have some questioning on the validity of the experimental data, on the identification of the physical phenomenon taking place during the indenter penetration, on the pertinence of the mechanical properties and on the scales of measurement. Without pretending to study exhaustively all the aspects of this complex problem, we can propose some paths for further research in particular on the comparison between nano and microhardness. Starting from the strain gradient plasticity theory developed by Nix and Gao, we defined a hardness length-scale factor which allows connecting some experimental data to fundamental properties of the material. We also show that this factor, able to represent the plastic deformation resistance, can give additional information to study the mechanical behavior of materials submitted to various indentation conditions. In a second part, we study creep by indentation as an alternative method to the usual creep test which generally requires some months of testing. Even if the result does not agree well with this objective, we show that a rheological model can be helpful to determine the elastic modulus and to calculate the coefficient of viscosity at room temperature of the material.
|
44 |
Améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs / Enhance software comprehension with dynamic and interactive diagramsDuruisseau, Mickaël 16 July 2019 (has links)
Les développeurs occupent une place prépondérante dans le développement logiciel. Dans ce cadre, ils doivent réaliser une succession de tâches élémentaires (analyse, codage, liaison avec le code existant...), mais pour effectuer ces tâches, un développeur doit régulièrement changer de contexte de travail (recherche d’information, lecture de code…) et analyser du code qui n’est pas le sien. Ces actions nécessitent un temps d’adaptation élevé et réduisent l’efficacité du développeur. La modélisation logicielle est une solution à ce type de problème. Elle propose une vue abstraite d’un logiciel, des liens entre ses entités ainsi que des algorithmes utilisés. Cependant, l’Ingénierie Dirigée par les Modèles (IDM) est encore trop peu utilisée en entreprise. Dans cette thèse, nous proposons un outil pour améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs. Cet outil se nomme VisUML et est centré sur l’activité principale de codage du développeur. VisUML fournit des vues (sur des pages web ou sur des outils de modélisation) synchronisées avec le code. Les diagrammes UML générés sont interactifs et permettent une navigation rapide avec et dans le code. Cette navigation réduit les pertes de temps et de contextes dues aux changements d’activités en fournissant à tout moment une vue abstraite sous forme de diagramme des éléments actuellement ouverts dans l’outil de codage du développeur. Au final, VisUML a été évalué par vingt développeurs dans le cadre d’une expérimentation qualitative de l’outil afin d’estimer l’utilité d’un tel outil. / Developers dominate in software development. In this context, they must perform a succession of elementary tasks (analysis, coding, linking with existing code ...), but in order to perform these tasks, a developer must regularly change his context of work (search information, read code ...) and analyze code that is not his. These actions require a high adaptation time and reduce the efficiency of the developer. Software modeling is a solution to this type of problem. It offers an abstract view of a software, links between its entities as well as algorithms used. However, Model-Driven Engineering (MDE) is still underutilized in business. In this thesis, we propose a tool to improve the understanding of a program using dynamic and interactive diagrams. This tool is called VisUML and focuses on the main coding activity of the developer. VisUML provides views (on web pages or modeling tools) synchronized with the code.The generated UML diagrams are interactive and allow fast navigation with and in the code. This navigation reduces the loss of time and context due to activity changes by providing at any time an abstract diagram view of the elements currently open in the developer’s coding tool. In the end, VisUML was evaluated by twenty developers as part of a qualitative experimentation of the tool to estimate the usefulness of such a tool.
|
45 |
La taxation des applications complexes dans le nouvel environnement de réseaux de télécommunications 3GPPP IP multimedia subsystem (IMS) / Charging complex applications in the new telecommunication networks environment 3GPP IP multimedia subsystem (IMS)Oumina, Hanane Ez-Zahra 17 December 2009 (has links)
La taxation est l'une des activités principales de la livraison des services de télécommunications. C'est la machine de génération de revenus pour l'opérateur. Le concept de taxation a connu des évolutions pour s'adapter aux évolutions des réseaux, des services et applications, des médias et comportements des utilisateurs. Les réseaux convergent vers le tout-IP concrétisé par le paradigme de l'IMS, mettant ainsi la qualité de service au coeur des préoccupations des opérateurs. Les applications peuvent intégrer plusieurs services en même temps et sont livrées dans un contexte de session permettant de véhiculer plusieurs flux, contenus et médias en même temps. Les médias sont devenus de plus en plus riches avec la combinaison de la voix, du texte, de l'image et de la vidéo dans un même contenu livré à l'utilisateur. Le comportement des utilisateurs par rapport au produit de télécommunications a changé d'un moyen de communication de base à un outil d'information et de divertissement. Ceci rend la qualité d'expérience des applications un facteur de réussite des opérateurs et une taxation équitable est l'un des premiers paramètres à considérer afin d'améliorer l'expérience client.Ce travail consiste à adresser la complexité de la taxation des services de télécommunication d'une manière équitable, sans pénalisation pour l'utilisateur ni perte de revenu pour l'opérateur. Pour ce faire nous proposons une modélisation des applications multimédia complexes. Puis nous construisons la fonction de tarification qui est la fonction principale du module de taxation. Cette fonction permettra d'adresser la problématique de la taxation équitable dans le contexte du tout-IP. / Charging of services is one of the most important activities of service delivery in telecommunications. It is the revenue generator engine for operators. The concept of charging has evolved with the evolution of networks, applications, media types and end-user behaviors. Telecommunications networks have converged to All-IP with the introduction of IP Multimedia Subsystem. Hence, the Quality of Service has become a core concern of operators. Applications have become richer, including many services, contents and media types in a single session. A variety of content could be used by end-user, voice, data, text, image, and video. New content could be created with the combination of two or more basic content types. The behavior of end users in front of telecommunications services has evolved from a basic communication tool to information and entertainment tool. Consequently, the Quality of Experience is standing in the first stage to scale the success of one application. In this new context, a clear and fair charging is one of the first parameters to consider in Quality of Experience building. In our work, we will address the complexity of charging of new generation of telecommunications services. First, we propose a modeling of these new complex multimedia applications. Then, we construct the Rating Function which is the main module of charging. This function will address accurately the question of fair charging in All-IP context.
|
46 |
Mise en place d'un modèle d'étude de l'amyotrophie spinale infantile à partir de cellules souches pluripotentes humaines / Use of pluripotent stem cells to model spinal muscular atrophyCôme, Julien 08 July 2016 (has links)
Les cellules souches pluripotentes humaines (hPSC) ont pour caractéristiques principales l'auto-renouvellement permettant de les avoir de manière quasi-illimité ainsi qu'un potentiel de différenciation, qui en théorie, peut permettre de générer l’ensemble de cellules de l'organisme. Ces deux caractéristiques en font un outil de choix pour une utilisation en médecine régénérative, disséquer certains mécanismes du développement humain, l'étude de maladies génétiques et la recherche de nouveaux médicaments. Durant mes travaux de thèse, j'ai utilisé les hPSC afin de mettre en place un nouveau modèle d'étude de l'amyotrophie spinale infantile (SMA). La SMA est une maladie neurodégénérative due à la mort spécifique des motoneurones (MN) de la moelle épinière qui provoque une atrophie des muscles striés. La première étape a consisté à la mise en place d'un protocole de différenciation efficace en motoneurones à partir des hPSC. A l'issue d'un criblage combinatoire de morphogènes, nous avons identifié une condition permettant la production de motoneurones spinaux de façon efficace (70%) et rapide (14 jours). Des conditions de génération de motoneurones craniaux (50%), sensitifs (65%) et inter-neurones (75%) ont également été identifiées. Ce protocole de différenciation optimisé a ensuite été appliqué sur des lignées de cellules souches induites à la pluripotence (hIPS) reprogrammées à partir de fibroblastes porteurs de la mutation causale de la SMA ainsi que sur des fibroblastes contrôles. Nous avons mis en place un système d'étude des motoneurones en plaque 384 afin d'étudier le phénotype de dégénérescence spécifique des MN-SMA sur des cultures à long terme, via des approches d'analyse à haut débit. Nos travaux montrent que notre modèle de la SMA récapitule certains des phénotypes connus de la SMA et peut être utilisé pour des approches de criblage pharmacologique. En parallèle, nous avons également utilisé les caractéristiques des hPSC afin d'étudier un mécanisme intervenant dans les étapes précoces du développement embryonnaire. Nous avons travaillé en collaboration avec l'équipe du Dr. Rougeulle afin d'étudier les mécanismes de l'inactivation du chromosome X. Nous avons notamment déterminé l'implication du facteur Xact dans la mise en place des évènements menant à la ré-activation du chromosome X.En conclusion, les hPSC sont donc devenue des outils primordiaux pour la modélisation, qu'elle soit développementale ou pathologique et devraient permettre d'accélérer la compréhension des mécanismes physiologiques. / Human pluripotent stem cells (hPSCs) are characterized by self-renewal and pluripotency abilities that refer to the capacity to proliferate indefinitively without commitment in vitro and to the ability to differentiate into multiple and specialized cell lineages. hPSCs are a useful tool for regenerative medicine, pathological modelling and new therapeutic molecule identification.My thesis project mainly focused on the development of a new cellular model for the study of spinal muscular atrophy (SMA). SMA is mainly characterized by a specific loss of spinal motor-neurons (sMN) that induces a progressive muscle weakness. The initial objective has been to define a protocol allowing the differentiation of sMN starting from hPSC. Using combinatorial analysis, we identified experimental condition that induced an efficient (70%) and rapid (14 days) generation of sMN. In parallel, we setted up the condition needed for the specification of different subtype of MN, such as spinal interneurons (77%) and sensory neurons (64%) in the same timeline.Then, we used human induced pluripotent stem cells (hIPS) from skin biopsies of SMA patients and unaffected fibroblasts. Characterization of the MNs viability was performed in 384 wells plates with high throughput screening. Moreover, our new system allowed us to reproduce in well characterized human PSC-derived MNs specific phenotype described for SMA thus providing a new tool for HT pharmacological screening and drug discovery. In addition, in collaboration with Dr.Rougeulle, we used hPSC to study specific mechanism occurring during early stages of embryonic development. In particular, we characterized the implication of Xact in the reactivation of chromosome X.
|
47 |
3D Reasoning for Indoor Lighting EstimationWeber, Henrique 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Comprendre l'éclairage intérieur est fondamental pour une variété de tâches. Cela peut avoir un impact significatif sur la segmentation sémantique, la décomposition intrinsèque des images, la navigation des robots, les effets spéciaux pour les films, et bien plus encore. L'estimer à partir d'une seule photographie est un problème mal posé, car de nombreuses combinaisons de lumière, de géométrie et de propriétés des matériaux peuvent conduire à la même image. Les travaux antérieurs se concentrent principalement sur le placement de matériel spécialisé dans la scène avant la séance photo, ce qui nécessite d'avoir accès à la scène, ou de modéliser la lumière avec des caractéristiques conçues manuellement. Récemment, l'apprentissage profond a été utilisé pour récupérer automatiquement ces caractéristiques à partir d'ensembles de données sans avoir besoin de matériel supplémentaire, et a fourni des résultats prometteurs. La majorité des travaux, cependant, ne se concentrent que sur l'aspect couleur de l'image et négligent d'autres propriétés comme la géométrie de la scène, qui peut maintenant être facilement estimée avec des approches standard. Dans cette thèse, nous explorons les avantages de l'intégration d'informations 3D dans le processus d'estimation de la lumière. Cela se fait avec les trois sous-objectifs suivants : 1) récupérer automatiquement une texture d'environnement HDR à partir de la couleur et de la géométrie d'un objet connu, 2) estimer une lumière éditable qui combine une représentation paramétrique et non paramétrique à l'aide de la disposition 3D de la scène, et 3) développer une représentation personnalisée conçue spécifiquement pour les panoramas 360° RGB-D. Nous effectuons des expériences approfondies pour valider nos hypothèses, les comparer à d'autres approches et montrer les contributions de l'utilisation de la 3D pour l'estimation de la lumière. / Understanding indoor lighting is fundamental for a variety of tasks. It can significantly impact semantic segmentation, intrinsic image decomposition, robot navigation, special effects for movies, and much more. Estimating it from a single photograph is an ill-posed problem, since many combinations of light, geometry, and material properties can lead to the same picture. Previous work mainly focus on placing specialized hardware in the scene before the photo shoot, which requires having access to the scene, or to model light with hand-crafted features. Recently, Deep Learning has been used to automatically retrieve these features from datasets without the need of additional hardware, and delivered promissing results. The majority of works, however, only focus on the color intensity of the photograph and neglect other properties like the scene geometry, which can be now easily estimated with off-the-shelf approaches. In this thesis, we explore the benefits of incorporating 3D information into the light estimation process. This is done with the following three sub-objectives: 1) automatically recover an HDR environment texture from the color and geometry of a known object, 2) estimate an editable light that combines a parametric and a non-parametric representation with the help of indoor 3D layouts, and 3) develop a customized representation designed specifically for 360° RGB-D panoramas. We perform extensive experiments to validate our assumptions, compare to other approaches, and show the contributions of leveraging 3D for light estimation.
|
48 |
Modélisation multiphysique de différentes phases de l'électro-aérospray : de la génération à l'atomisation / Multiphysical modeling of the different steps of an electro-pneumo-hydrodynamical atomization device : From generation to nebulizationMamet, Victorien 10 January 2019 (has links)
Afin de lutter contre les allergies alimentaires, la société pharmaceutique DBV Technologies propose un patch épicutané permettant un traitement efficace, la plateforme Viaskin ®.Pour envisager de nouveaux moyens de production de ce patch, nous avons étudié dans cette thèse le procédé d'aérospray (AS).Pour cela, nous avons développé des modèles numériques des différentes parties spatiales de l'AS.Dans un premier temps, nous étudions le cône de liquide formé à la sortie de buse d'AS. L'approche diphasique est traitée à l'aide de la méthode de champ de phase (dite à interface diffuse), dans laquelle l'équation de Cahn-Hilliard gouverne la fonctionnelle d'interface.Deux régimes principaux sont identifiés : le régime Stationnaire Dynamique, où le cône de liquide est stable, et le régime Transitoire, où sa dynamique est périodique.Dans ce second régime, les résultats du modèle ont montré une évolution discontinue de la période d'oscillation du cône en fonction du débit liquide. Nous avons corrélé ce phénomène avec des oscillations capillaires du cône, et comparé avec succès les résultats des simulations numériques aux résultats expérimentaux.Dans un second temps, la fragmentation du jet de liquide produit par le cône est étudiée numériquement, et comparée aux résultats d'analyses de stabilité linéaire produites dans la littérature. Le modèle proposé est une méthode utilisant un maillage mobile, à interface nette.Nous avons montré que la taille des gouttelettes produites variait peu en fonction de la pression de gaz appliquée.L'ensemble des travaux permet de comprendre les phénomènes physiques sous-jacents à l'AS, et à sélectionner dans une optique industrielle les modes optimaux de fonctionnement. / In order to fight against food allergies, the pharmaceutical company DBV Technologies offers an epicutaneous patch for effective treatment, the Viaskin ® platform.To consider new ways of producing this patch, we studied in this thesis the aerospray (AS) process.For this, we have developed numerical models of the different spatial parts of the AS.First, we study the cone of liquid formed at the nozzle exit of AS. The two-phase approach is processed using the so-called diffuse interface phase field method, in which the Cahn-Hilliard equation governs the interface functional.Two main regimes are identified: the Stationary Dynamic flow regime, where the liquid cone is stable, and the Transient regime, where its motion is periodic.In this second regime, the results of the model showed a discontinuous evolution of the oscillation period of the cone as a function of the liquid flow. We have correlated this phenomenon with capillary oscillations of the cone, and successfully compared the results of the numerical simulations to the experimental results.In a second time, the fragmentation of the liquid jet produced by the cone is studied numerically, and compared to the results of linear stability analyzes produced in the literature. The proposed model is a method using a mobile mesh, with a net interface.We have shown that the size of droplets produced varies little according to the applied gas pressure.All of this work improves the understanding of the physical phenomena underlying the AS, and to select from an industrial point of view the optimal modes of operation.
|
49 |
Analyse de la stabilité des modèles intra-hôtes avec retard : application à des modèles intra-hôtes de paludisme et de V.I.H-1 / Stability analysis of within-host models with delays : application to within-host models of H.I.V-1Mbang, Joseph 20 March 2009 (has links)
Dans cette thèse, nous analysons certains modèles épidémiologiques comportant des retards distribués. Le phénomène du retard est omniprésent en biologie. Les équations différentielles avec retard constant discret encore appelées "lag", ont été beaucoup étudiées. Cependant les retards distribués sont plus adaptés aux phénomènes biologiques. Nous entendons par retards distribués, des retards qui sont décrits par une fonction continue de densité de probabilité. Les retards jouent un rôle important en biologie plus particulièrement en épidémiologie. Par exemple dans le cas d'une maladie infectieuse, le temps d'incubation c'est-à-dire le temps entre le moment où l'individu est infecté et celui où il transmet cette maladie joue un rôle important dans l'analyse de la transmission. Un autre exemple est celui des modèles intra-hôtes d'une infection. Un parasite a besoin d'envahir une cellule cible pour se reproduire. C'est le cas de Plasmodium falciparum, le parasite du paludisme qui envahit les globules rouges, ou le virus VIH dont les cellules cibles sont les lymphocytes CD+4. Quand le parasite rentre dans la cellule cible cela déclenche toute une cascade d'évènements qui aboutiront à la production de nouveaux parasites par bourgeonnement ou lyse de la cellule. (HIV, HBV, Paludisme). La production de nouveaux parasites n'est pas instantanée. Plus généralement le mouvement de quantité de matières d'un endroit à un autre prend du temps. Si l'on veut modéliser une injection de substance dans le flot sanguin, le temps d'apparition dans les capillaires introduit un retard. Les modèles étudiés dans cette thèse sont des modèles intra-hôtes avec retard. Les modèles intra-hôtes ont pour objectif de décrire la dynamique des différents niveaux d'étapes de parasites ainsi que leur interaction avec les cellules cibles du parasite. Pour les modèles biologiques les systèmes compartimentaux sont naturellement utilisés dans la modélisation. Le retard est modélisé par la fonction d'Erlang comme fonction de densité de probabilité. Les modèles intra-hôtes de parasite avec retard peuvent aussi être vus comme les systèmes provenant des modèles SE1...En I, où les Ei sont les classes latentes des infectés. Les classes latentes sont représentées par des chaînes linéaires parallèles de différentes longueurs qui sont insérées entre le compartiment des susceptibles et celui des infectieux. Dans cette thèse, nous utilisons quelques outils de la théorie du contrôle pour "généraliser" le "linear chain trick". Nous calculons le nombre de reproduction de base R0 pour ces systèmes considérés et nous établissons les résultats suivants : – si R0 < 1 les parasites disparaissent et l'équilibre sans parasite (PFE) est globalement asymptotiquement stable dans l'orthant positif ; – si R0 > 1 et avec une hypothèse supplémentaire, il existe un équilibre endémique (EE) qui est globalement asymptotiquement stable dans l’orthant positif hormis l’axe des « susceptibles ». Ces résultats donnent une possibilité de relecture de certains modèles de parasites incluant le retard intracellulaire et d'étude de leur stabilité globale. Comme application de ce résultat, nous reprenons et améliorons les résultats de Nelson et Perelson dans sur les modèles intra-hôtes de l'infection au VIH / In this thesis, we analyze certain epidemiologic models with delays. The phenomenon of delay is omnipresent in biology. The differential equations with constant discrete delay called by Jacquez "lag"have been much studied. However the distributed delays are adapted to many biology phenomena. By distributed delays, we mean delays described by a continuous probability density function. Indeed for example the incubation time for a germs is not constant. The delays are very important in biology particulary in epidemiologic. For example in the case of infectious disease the time of incubation is very important for the analysis of the transmission. The entrance of a parasite into a targetcell initiates a cascade of events that ultimately lead to the production of new parasites by the infected cell. The production of new parasites is not instantaneous. The models studied in this thesis are within-host models with delays. The objectives of within-host parasite models is to describe the dynamic of various stages of the parasites and their interaction with the host cells like red blood cells and the immunity effectors. the delay used in this thesis is the probability density functions of Erlang. The within-host parasite models with distributed delays can also be see as the systems arising from systems with parallel classes of different length of latently infected target cells SE1... EnI where, Ei are latently infected classes. We used some tools of control theory to "generalize" the "linear chain trick". We computed the basic reproduction ratio R0 for systems under consideration. We established the following results : – if R< 1, the parasite is cleared and the parasite free equilibrium is glabal asymptotic stability on the positive orthan ; – if R > 1 and with a sufficient condition is satis fied, we conclude to the global asymptotic stability of the endemic equilibrium. In application, we improve the results of Nelson and Perelson
|
50 |
Modélisation par automates cellulaires de brèches hydrothermalesLalonde, Martin January 2006 (has links) (PDF)
Une brèche est un ensemble de blocs anguleux noyés dans un ciment de nature variable. Les brèches hydrothermales sont générées par un processus de fracturation, de dissolution des fragments, ainsi que des changements de composition causés par des eaux souterraines sous pression à haute température. La nature de la majorité des processus impliqués dans la formation des brèches hydrothermales est bien comprise d'un point de vue géochimique et plusieurs modèles basés sur cette perspective existent. Par contre, il n'existe pas de modèles approchant ces processus d'un point de vue géométrique. Dans ce mémoire, nous proposons un modèle basé sur les automates cellulaires, capable de simuler les principaux processus qui interviennent dans la formation des brèches. Un automate cellulaire est un modèle discret qui consiste en une grille de cellules pouvant chacune prendre à un instant donné un nombre fini d'états. Le temps est également discret et l'état d'une cellule au temps t est fonction de l'état au temps t -1 d'un nombre fini de cellules appelé son voisinage. À chaque nouvelle unité de temps, les mêmes règles sont appliquées pour toutes les cellules de la grille, produisant une nouvelle génération de cellules dépendant entièrement de la génération précédente. Cette approche est compatible avec l'aspect discret de la dissolution des minéraux et permet l'étude de l'évolution géométrique de fragments de roche virtuelle. Plus spécifiquement, on veut mesurer la complexité morphologique des fragments par leur dimension fractale de bordure, une méthode de mesure utilisée sur des échantillons réels et permettant de valider notre modèle avec des données analogiques. Un simulateur a été conçu pour mettre en oeuvre un tel modèle. Celui-ci est codé en Java et l'interface graphique est en HTML. Des expériences sur le simulateur ont mis en évidence deux régimes de dissolution: l'un limité par la diffusion (Diffusion Limited Regime -DLR), l'autre cinétique. Le premier régime dépend de la surface exposée et on y observe l'arrondissement et le lissage progressif des fragments. Le second régime est indépendant de la surface et on observe la formation de cavités dendritiques et une augmentation progressive de la complexité morphologique. D'un point de vue géochimique, le régime DLR est dit «contrôlé par la surface» alors que le régime cinétique est dit «contrôlé par le transport». Les extensions possibles au modèle sont variées et nombreuses. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Brèche hydrothermale, Automate cellulaire, Modélisation, Dissolution, Dimension
fractale.
|
Page generated in 0.347 seconds