Spelling suggestions: "subject:"modélisation"" "subject:"odélisation""
291 |
Contributions à la modélisation mathématique et numérique de problèmes issus de la biologie : applications aux Prions et à la maladie d’Alzheimer / Contributions to the mathematical and numerical modelling of biological problems : applications to Prions and Alzheimer's diseaseHingant, Erwan 17 September 2012 (has links)
L’objectif de cette thèse est d’étudier, sous divers aspects, le processus de formation d’amyloïde à partir de la polymérisation de protéines. Ces phénomènes, aussi bien in vitro que in vivo, posent des questions de modélisation mathématique. Il s’agit ensuite de conduire une analyse des modèles obtenus. Dans la première partie nous présentons des travaux effectués en collaboration avec une équipe de biologistes. Deux modèles sont introduits, basés sur la théorie en vigueur du phénomène Prions, que nous ajustons aux conditions expérimentales. Ces modèles nous permettent d’analyser les données obtenues à partir d’expériences conduites en laboratoire. Cependant celles-ci soulèvent certains phénomènes encore inexpliqués par la théorie actuelle. Nous proposons donc un autre modèle qui corrobore les données et donne une nouvelle approche de la formation d’amyloïde dans le cas du Prion. Nous terminons cette partie par l’analyse mathématique de ce système compose d’une infinité d’équations différentielles. Ce dernier consiste en un couplage entre un système de type Becker-Doring et un système de polymérisation-fragmentation discrète. La seconde partie s’attache à l’analyse d’un nouveau modèle pour la polymérisation de protéines dont la fragmentation est sujette aux variations du fluide environnant. L’idée est de décrire au plus près les conditions expérimentales mais aussi d’introduire de nouvelles quantités macroscopiques mesurables pour l’étude de la polymérisation. Le premier chapitre de cette partie présente une description stochastique du problème. On y établit les équations du mouvement des polymères et des monomères (de type Langevin) ainsi que le formalisme pour l’étude du problème limite en grand nombre. Le deuxième chapitre pose le cadre fonctionnel et l’existence de solutions pour l équation de Fokker-Planck- Smoluchowski décrivant la densité de configuration des polymères, elle-même couplée a une équation de diffusion pour les monomères. Le dernier chapitre propose une méthode numérique pour traiter ce problème. On s’intéresse dans la dernière partie à la modélisation de la maladie d’Alzheimer. On construit un modèle qui décrit d’une part la formation de plaque amyloïde in vivo, et d’autre part les interactions entre les oligomères d’Aβet la protéine prion qui induiraient la perte de mémoire. On mène l’analyse mathématique de ce modèle dans un cas particulier puis dans un cas plus général ou le taux de polymérisation est une loi de puissance / The aim of this thesis is to study, under several aspects, the formation of amyloids from proteins polymerization. The mathematical modelling of these phenomena in the case of in vitro or in vivo polymerisation remains questioned. We then propose here several models, which are also investigated from theoritical and numerical point of view. In the first part we present works done in collaboration with biologists. We propose two models based on the current theory on Prion phenomena that are designed for specific experimental conditions. These models allow us to analyse the experimental data obtained in laboratory and raise phenomena that remain unexplained by the theory. Then, from these results and biophysical considerations, we introduce a model which corroborates with data and provides a new approach on the amyloid formation in the particular case of Prion. This part is ended by the mathematical analysis of the model consisting of an infinite set of differentials equations. The system analysed is a Becker-Doring system coupled to a discrete growth-fragmentation system. The second part is dedicated to the analysis of a new model for polymerization of proteins with fragmentation subject to the surrounding variations of the fluid. Thus, we propose a model which is close to the experimental conditions and introduce new measurable macroscopic quantities to study the polymerization. The first introductory chapter states the stochastic description of the problem. We give the equations of motion for each polymers and monomers as well as a general formalism to study the limit in large number. Next, we give the mathematical framework and prove the existence of solutions to the Fokker-Planck-Smoluchowski equation for the configurational density of polymers coupled to the diffusion equation for monomers. The last chapter provides a numerical method adapted to this problem with numerical simulations In the last part, we are interested in modelling Alzheimer’s disease. We introduce a model that describes the formation of amyloids plaques in the brain and the interactions between Aβ-oligomers and Prion proteins which might be responsible of the memory impairment. We carry out the mathematical analysis of the model. Namely, for a constant polymerization rate, we provide existence and uniqueness together with stability of the equilibrium. Finally we study the existence in a more general and biological relevant case, that is when the polymerization depends on the size of the amyloid
|
292 |
Étude et modélisation du conducteur pour la conception de systèmes d’assistance à la conduite / Driver study and modeling for driving assistance systems developementAbrashov, Sergey 21 March 2017 (has links)
Le confort et la sécurité de conduite sont les principaux critères de vente de l’industrie automobile actuelle. De nombreux projets de recherche sont mis en place afin de les améliorer et pour faire face aux mesures de législation et de contrôle mises en place pour réduire le nombre d’accidents routiers. Les mesures semblent efficaces : en France,par exemple, le nombre des accidents mortels diminue de 11% en moyenne chaque année.D’après de récentes études, 90% de ces accidents ont pour cause le facteur humain et il devient nécessaire de prendre en compte le conducteur pendant la phase de conception des systèmes de sécurité et d’aide à la conduite. Une assistance à la conduite basée sur le partage du contrôle du véhicule entre le conducteur et l’automate est un des axes de recherche privilégiés de l’industrie, notamment pour améliorer la sécurité.Il est maintenant devenu possible de récupérer une très grande quantité d’information sur l’environnement et de réaliser une interaction intelligente entre les différents acteurs du trafic. Les techniques existantes permettent même la conduite partagée entre le véhicule et le conducteur et, dans un horizon plus lointain, d’envisager un véhicule complètement autonome. Dans les situations de conduite automatisée, un algorithme adéquat est nécessaire pour remplacer le conducteur.L’intérêt principal de cette recherche se situe au niveau de l’interaction entre le conducteur et l’algorithme d’assistance ou de conduite automatisée. Il est indispensable de connaître et de comprendre le comportement du conducteur dans sa façon de conduire,de contrôler le véhicule et de prendre une décision. Par conséquent, un modèle adapté aux besoins est nécessaire. En plus de la nécessité de disposer d’un modèle suffisamment riche pour décrire le comportement de différents conducteurs dans les situations routières les plus fréquentes, il est indispensable de disposer d’une méthode de synthèse des systèmes d’assistance sur la base de ces modèles. / Driving comfort and safety are the main points of interest for the automotive industry. Many research projects were realized in order to improve them and to reduce the number of road accidents. The measures seem to be effective : in France, for example, the number of fatal accidents decreases by 11% on average each year. According to recent studies, 90% of these accidents are caused by the human factor. As a consequence, it becomes necessary to take the driver into account during the design of driving assistance systems. An assistance based on the control sharing between the driver and the automatic pilot is one of the main topics of research and a way to improve safety. It has now become possible to recover a very large amount of information on the environment and to achieve intelligent interaction between the various actors in the traffic. Existing technologies even allow imagining a completely autonomous driving in a more distant horizon. In such a situation, an adequate algorithm is required to replace the human driver.The main interest of this research is the interaction between the driver and the driver assistance algorithm. It is essential to know and to understand the behavior of the humanin his / her way to control the vehicle and to make a decision. Therefore, his model is necessary. Moreover, it is essential to develop a design method for such assistance systems on the basis of these driver models.
|
293 |
Enfouir des déchets nucléaires dans un monde conflictuel. Une histoire de la démonstration de sûreté de projets de stockage géologique, en France (1982-2013) / Bury nuclear waste in a conflict world. A history of the safety demonstration of geological disposal projects in France (1982-2013)Patinaux, Leny 11 December 2017 (has links)
Le temps de la décroissance de l'activité radioactive de certains radionucléides contenus dans les déchets nucléaires, en dessous d'un seuil considéré comme acceptable, se compte parfois jusqu'en centaines de milliers d'années. Comment les salarié.es de l'Agence Nationale pour la gestion des Déchets Radioactifs (Andra) montrent la sûreté d'un dépôt géologique de ces déchets sur de telles temporalités ? C'est à cette question qu'entreprend de répondre cette thèse, à partir d'une étude des archives de cette agence et d'observation menées au sein de celle-ci.Cette thèse est d'abord une histoire sociale des pratiques savantes mobilisées, depuis les années 1980 jusqu'à 2013, pour étudier l'évolution d'un stockage (géologie, étude des matériaux, simulation numérique...) Elle analyse également le rôle de la recherche dans le gouvernement de l'aval du cycle nucléaire depuis la loi de 1991 qui, en France, encadre la gestion des déchets nucléaires.Bien que l'évacuation géologique soit la seule solution de gestion envisagée pour les déchets radioactifs, la dissociation entre les recherches menées dans le laboratoire souterrain de Bure et leur finalité a permis à l'Andra de s'implanter localement. Cependant, l'Andra se heurte à l'impossibilité épistémique d'appréhender exhaustivement l'évolution d'un stockage sur des centaines de milliers d'années. Désormais, les recherches accompagnent l'implantation du stockage, transformant sans cesse la compréhension de son comportement. Alors que la démonstration publique de la sûreté d'un stockage devient une condition d'acceptation d'un tel ouvrage, l'Andra abandonne peu à peu la prétention à produire une preuve formelle sur le modèle d'une démonstration mathématique : à partir des années 2000, la sûreté repose sur un « faisceau d'arguments » apportant la garantie d'une certaine maîtrise de l'évolution du stockage. Enfin, cette thèse montre au prix de quelles hypothèses la gestion des déchets nucléaires a été promue, durant les années 2000, comme un exemple parfait de démocratie technique. / It takes up to hundreds of thousands of years for the radioactivity contained in some nuclear waste to decrease under acceptable threshold. How engineers and scientists from the French agency for nuclear waste management (Andra) prove the safety of an underground disposal on such a temporality? Based on the study of the Andra's archives and on internal observation, this thesis intends to address and answer the above question.This thesis is first and foremost a social history of scientific practices used to study the evolution of storage (geology, materials science, numerical simulation...) between the 1980’s and 2013. It's also a study of the role of research in governing the back end of the nuclear fuel cycle, after the French law of 1991 provided nuclear waste management with legal framework. Burying nuclear waste is the only option to manage them. However, the distinction between the research undertaken in Bure underground laboratory and their purpose, has allowed Andra's siting. Engineers and scientists from this agency are faced with the epistemic inability to understand exhaustively the evolution of storage during hundreds of thousands years. The progress of the project and researches work jointly and the pursuit of science constantly disrupts the understanding of the storage evolution. When, in the 1990s, the public demonstration of storage safety became a condition of its acceptance, the Andra progressively gave up the idea that a formal demonstration, like a mathematical one, could be produced. Since the 2000s, the storage safety has been based on a “cluster of arguments” which ensures a degree of control over the deposit evolution. Finally, this thesis shows how the French nuclear waste management has been promoted as a prime example of technical democracy.
|
294 |
Modélisation multi-ports des transistors hyperfréquences / Multiport modeling of microwave transitorKhelifi, Wafa 17 December 2018 (has links)
Ce document traite de la caractérisation et la modélisation des transistors multi-ports. Une caractérisation des transistors pHEMT à base de l'AsGa est réalisée. Une importance particulière est donné aux méthodes de caractérisation RF sous pointes. En effet, une étude sur les méthodes d’épluchage est réalisée. Ensuite, après avoir relevé un défaut dans la méthode choisie (à savoir la méthode Pad-Open-Short), une solution est proposée concernant les standards non idéaux. Finalement, des modèles non linéaires 3 et 4 ports sont développés, ils ont pour objectifs de réduire le temps, des phases de conception et de fiabiliser le prototypage des fonctions micro-ondes utilisant ces composants. Les travaux présentés ici sont dédiés à l’amélioration de la modélisation électrique des transistors axée, comme leur application, sur la bande Ku. / This paper presents an approach for the de-embedding and modeling of multi-port transistors. First, the proposed de-embedding method is an extension of a three step method (Pad-Open-Short) for accurate on wafer (MMIC) S-parameters measurements. The novelty of this approach lies in the fact that the proposed de-embedding method for multi-port devices takes into account the imperfections of the standards. Then, we present two approach for the modeling of 3 and 4 ports GaAs HEMT transistors. The non-linear model was developed from I-V and S-parameters measurements. The methodology for 3-port device modeling allows us to determine accurate non-linear model in high frequencies. The second approach is dedicated for the distributed modeling of a 4-port transistor. The original electrical models of multi-port transistors developed in this thesis aims to reduce the time and the design phases, and to make reliable the prototyping of microwave functions using these components. The work presented here is therefore dedicated to improving the electrical modeling of transistors focused as their application on the Ku band.
|
295 |
Modelling dense water flows through sills in large scale realistic ocean models : demonstrating the potential of a hybrid geopotential/terrain-following vertical coordinate / Modélisation des écoulements d'eaux denses à travers des seuils topographiques dans les modèles réalistes de circulation océanique : une démonstration du potentiel que représente l'hybridation d'une coordonnée géopotentielle et d'une coordonnée suivant le terrainColombo, Pedro 28 June 2018 (has links)
Dans le jargon de l’océanographie physique, un «overflow » est une masse d’eau dense, formée sur un plateau continental ou dans une mer marginale, qui rejoint l’océan ouvert en s’écoulant par-delà de fortes contraintes topographiques telles que d’étroits détroits, des seuils ou des talus continentaux particulièrement pentus. Ces processus d'overflow jouent un rôle important en distribuant les flux de chaleur et de sel dans l'océan, car ils alimentent les courants profonds et la plus grande partie des eaux profondes de l'océan global. Une représentation irréaliste de ces processus dans les modèles peut avoir un impact sur leur aptitude à simuler d'autres aspects majeurs de la circulation océanique globale.Représenter de manière réaliste les overflows est encore un défi en modélisation numérique de l’océan. Cette thèse étudie ce problème en utilisant le modèle de la circulation générale océanique NEMO avec une configuration régionale de l’overflow du détroit du Danemark (Denmark Strait Overflow, DSO) avec des résolutions dites eddy-permitting/resolving (permettant la génération de turbulence de mésoéchelle). Dans ce travail je propose d’abord une définition du DSO pour pouvoir caractériser les masses d'eaux qui lui sont associées et pour mettre en évidence et quantifier les principaux défauts de représentation du DSO rencontrés dans une simulation de référence réalisée avec les paramètres standards couramment utilisés dans les configurations globales de NEMO (configurations Drakkar).Grâce à cette définition, j’ai pu quantifier l'impact d'un grand nombre de paramètres du modèle sur la représentation du DSO avec des résolutions allant de l'eddy-permitting (1/12°) à l'eddy-resolving (1/60°). Cette étude, qui a nécessité un grand nombre de simulations de sensibilité, a été faite avec le système de coordonnée verticale classique utilisé dans NEMO, qui est la coordonnée géopotentielle z.Les améliorations les plus importants ont été trouvées en augmentant la résolution verticale et horizontale de façon cohérente. Mes résultats ont cependant montrés que la plupart des paramètres du modèle ont un impact très faible sur la représentation finale du DSO. En particulier, nous avons trouvé qu'augmenter la résolution verticale sans utiliser une résolution horizontale cohérente détériore la solution. La principale raison est que la paramétrisation EVD, représentant la convection libre forcée par une instabilité statique de la colonne d’eau, propage la veine de fluide en direction de la pente de la grille, et non de la pente de la topographie, ce qui induit une trop forte dilution des propriétés de l’overflow. Une très haute résolution horizontale et verticale (1/60° et 300 niveaux) permet de résoudre la couche d'Ekman de fond et de maintenir l'EVD localisé au fond, limitant ainsi la dilution de la veine d’eau dense.J’ai ensuite étudié la représentation du DSO dans un système de coordonnée hybride combinant une coordonnée suivant-le-terrain (s) avec la coordonnée géopotentielle (z). Les améliorations obtenues dans la représentation du DSO sont remarquables et pour une faible augmentation du coût de calcul. Finalement, nous proposons un système de coordonnée verticale mixte s-z qui consiste en une implémentation locale de la coordonnée s à l’intérieur de la grille du modèle en coordonnée z, limité à la région où le DSO se produit. Cette implémentation locale minimise les effets des erreurs du gradient de pression liés à ce type de coordonnée, fait une connexion lisse avec la coordonnée z, et n'introduit pas de coûts de calcul démesurés. L'amélioration de la représentation du DSO est encore très importante.Ce travail souligne l'importance d’adapter le système de coordonnée verticale aux processus physiques les plus pertinents. Un défi de la modélisation serait d'avoir un système de coordonnée verticale qui est localement adapté aux processus océaniques dominants. / Overflows play an important role distributing the heat and salt fluxes in the ocean, feeding deep boundary currents and most of the world ocean deep waters. Therefore, an unrealistic representation of overflows in global models may have impacts over many aspects of the simulated state of the ocean.To achieve a realistic representation of overflows is still a challenge for ocean modelling. This work addresses this problem using the community ocean general circulation model NEMO with a regional configuration of the Denmark Strait Overflow (DSO) at eddying resolutions. This work first proposes a definition of the DSO in order to characterize its associated water masses and to find the main caveats in a control simulation that uses the most standard parameters of the commonly used global configurations of NEMO (e.g. Drakkar configurations).Thanks to this definition we then study the impacts on the DSO of a large number of model parameters through a range of eddy-permitting to eddy-resolving resolutions (e.g. 1/12° and 1/60°) in the classic z-coordinate system used in NEMO. Main findings were found increasing the horizontal and vertical resolution, but most model parameters have no significant impacts. In particular it was found that increasing vertical resolution without using a coherent horizontal resolution degrades the solution. The main reason is the EVD parameterisation that propagates the dense vein of fluid along a grid-slope, instead the topographic slope. Coherent and very high resolution both in the horizontal and in the vertical is needed in order to resolve Ekman bottom boundary layer dynamics and keep the EVD localized to the very bottom.We also study the representation of the DSO with a hybrid terrain-following (s) and geopotential (z) coordinate system and obtained considerable improvements for a relatively small increase in computational cost. Finally, we propose a mixed s-z vertical coordinate that relies on a local implementation of s-coordinates within the z-coordinate model, limited to the area where DSO waters are produced. This local implementation is such that it minimizes the effects of pressure gradient errors linked to this type of coordinate, smoothly connects to the global z-coordinate, and does not add any significant computational cost. The improvement of the DSO is found to be drastic.This work emphasizes the utility of adapting the vertical coordinate system to the main physical problem. A modeling challenge would be to have a vertical coordinate system that is locally adapted to the most critical ocean process.
|
296 |
Evolution markovienne de systèmes multi-joueurs accumulant leurs gains / Markovian evolution of systems of wealth accumulating agentsGibaud, Sylvain 29 November 2017 (has links)
Cette thèse porte sur la modélisation probabiliste, via des processus de Markov, de communautés de joueurs accumulant leurs gains. Cette accumulation de gain s'appelle la richesse du joueur. Dans le premier modèle que nous étudions la richesse représente l'énergie d'une particule biologique. Dans le second modèle la richesse représente le patrimoine financier de l'individu. Les individus s'échangent de la richesse via des jeux stratégiques. L'objectif de cette thèse est de trouver des outils appropriés à ces modèles afin de connaître la distribution des richesses des individus. Dans une première partie, on considère un modèle biologique d'accumulation de richesses : le Dilemme du Prisonnier Démographique. Ce modèle fait intervenir deux types d'espèce : les altruistes, que l'on peut voir comme des proies, et les égoïstes, que l'on peut voir comme des prédateurs. Dans le Dilemme du Prisonnier Démographique (que l'on note DPD), les individus meurent si leur richesse devient négative et peuvent donner naissance si ils sont suffisamment riches. On répond dans ce contexte à la question centrale : " Est ce que les proies peuvent survivre sur du long terme dans un environnement hostile ? / This thesis is about the probabilistic modelisation, via Markov processes, of community of players accumulating their payoff. This payoff is called wealth. In a first model, wealth represents the energy of a biological particle. In a second model, wealth represents the financial wealth of an individual. In both models, individuals exchange wealth via strategic games. The goal of this thesis is to find appropriate tools to these models in order to know the wealth distribution of individuals. In a first part, we consider a biological wealth accumulation model called Demographic Prisoner's Dilemma (denoted DPD). In this model there are two kinds of species : the altruistic ones, that we can see as preys ; and the selfish ones, that we can see as predators. In the DPD, particles dies if their wealth become negative. They can give birth if they are rich enough. This model takes place in the evolutionnary game theory. We answer in this context to the central question : " Can prey survive in long term in an hostile environment ? "
|
297 |
Étude de l'endommagement à court et long terme d'une roche poreuse / Study of short and long term damage of a porous rockEslami, Javad 18 March 2010 (has links)
Parmi les différents phénomènes responsables de la déformation à court et long terme des roches poreuses, on s’intéresse dans ce travail à l’endommagement d’un calcaire oolitique en régime semi-fragile et sous différentes conditions hydriques. Dans ce but, nous avons élaboré un dispositif expérimental permettant de mesurer les vitesses des ondes ultrasonores et les déformations ainsi que d’écouter les émissions acoustiques sur le même échantillon, sous chargement mécanique et sous différentes conditions hydriques. En particulier, le dispositif expérimental permet de mesurer simultanément, les vitesses des ondes ultrasonores selon 3 directions de propagation (axiale, latérale et hors axe) et 3 polarisations différentes (P et 2 S perpendiculaires), ceci quasi-instantanément, ce qui in fine permet d’enregistrer les évolutions des vitesses des ondes ultrasonores en continu pendant le chargement. Ces mesures de vitesses permettent d’évaluer le tenseur acoustique à tout moment et donc de suivre en continu l’évolution de l’état d’endommagement de la roche. Le comportement endommageable à court et long terme du calcaire est modélisé à l’aide d’un modèle phénoménologique qui est basé sur une généralisation macroscopique des mécanismes microscopiques mis en évidence par les études expérimentaux (glissement-ouverture des fissures existantes, nucléation de nouvelles fissures, propagation et coalescence de fissures). Le modèle à court terme reproduit assez bien le comportement expérimental instantané de la roche (courbes contrainte-déformations et évolution des modules élastiques). Le modèle de comportement à long terme, découplé dans sa formulation du modèle à court terme, permet de reproduire qualitativement les courbes de fluage expérimentales / Among the different phenomena responsible for the short and long term deformation of porous rocks, we have studied in this work the damage of an oolithic limestone in the semi-brittle regime and under different hydrous conditions. For this purpose, we have developed an experimental device allowing the simultaneous and continuous measurement of strains and elastic wave velocities, as well as acoustic emissions, on the same sample under mechanical loading and under different hydrous conditions. Particularly, the experimental setup allows simultaneous and continuous measurement of the five elastic wave velocities in 3 different directions of propagation (axial, lateral and off-axis) and 3 different directions of polarization (P and 2 perpendicular S), this almost instantaneously. These velocity measurements allow to assess the acoustic tensor at any time and thus to continuously monitor the evolution of the damage of the rock. The short and long term damage behavior of the limestone is modelled thanks to a phenomenological model which is based on a macroscopic generalization of the microscopic mechanisms highlighted by the experimental study (sliding-opening of existing cracks, nucleation of new cracks, propagation and coalescence of cracks). The short-term model reproduces very well the instantaneous behavior (stress-strain curves and evolution of elastic moduli). The long-term model, whose formulation is uncoupled from the short-term model, allows reproducing qualitatively the experimental creep curves
|
298 |
Explosions de poussières et de mélanges hybrides : étude paramétrique et relation entre la cinétique de combustion et la violence de l'explosion / Dust and hybrid mixtures explosions : parametric study and link between combustion kinetic and explosion violence/Traore, Mamadou 03 April 2007 (has links)
Les risques liés aux explosions de poussières, de par leur fréquence et leur gravité, sont élevés. Nous avons donc essayé de comprendre ce phénomène par le biais d’une étude paramétrique sur l’inflammabilité (concentration, température et énergie minimales d’inflammation) et l’explosivité des poussières (surpression maximale et vitesse de montée en pression) vis-à-vis de poussières aussi bien métalliques (aluminium) qu’organiques (sucre glace et polyéthylène). Les influences de la concentration, la granulométrie, la teneur en eau et en solvant (mélanges hybrides) sur la sensibilité et la sévérité des explosions de poussière ont été étudiées. Nous avons par exemple mis en évidence un accroissement de l’explosivité des poussières en présence de solvant. Ces études paramétriques ont permis d’initier une modélisation de l’explosion poussière en reliant la cinétique de combustion à la violence des explosions / Dust explosions risks linked with their occurrence and their gravity are very high. In consequence, we try to understand this phenomenon by studying the influence of various parameters on the dust inflammability (minimum inflammation concentration, temperature and energy) and dust explosivity (maximum overpressure and rate of pressure rise) for both metallic (aluminium) and organic (icing sugar and polyethylene) dusts. Concentration, particle size distribution, water and solvent (hybrid mixtures) contents influences on dust explosion sensibility and severity have been studied. For example, we observed an increase of dust explosivity in the presence of solvent. Thanks to these parametric studies, we initiated a dust explosion modelling by linking combustion kinetic and explosion violence
|
299 |
Optimisation de mousses de carbone dérivées de tannin par l’étude et la modélisation de leurs propriétés physiques / Optimization of tannin-based carbon foams by the study and the modelling of their physical propertiesLetellier, Maxime 08 December 2015 (has links)
Dans cette thèse, des matériaux alvéolaires modèles sous forme de mousses réticulées et/ou cellulaires en carbone vitreux ont été préparés pour en étudier et en modéliser les propriétés physiques. Les mousses de carbone cellulaires ont été obtenues par pyrolyse sous azote de mousses rigides constituées principalement de tannins et d’alcool furfurylique, issus de la biomasse. Leurs structures poreuses ont été modifiées au travers de la variation des formulations des mousses organiques précurseurs. D’autres mousses réticulées, constituées uniquement d’une ossature sans parois cellulaires, ont été préparées par réplication de mousses polymères commerciales. Les structures de l’ensemble des matériaux ont été caractérisées à l’aide de diverses méthodes telles que la microscopie électronique et la microtomographie X. Leurs propriétés physiques ont été étudiées par des mesures mécaniques, acoustiques, thermiques et électromagnétiques. La caractérisation mécanique a été réalisée en compression quasi-statique en menant une étude comparée avec et sans plaques collées sur les surfaces des échantillons. Les tests acoustiques ont été réalisés avec un tube d’impédance à deux microphones et par mesures de résistivité à l’air. La conductivité thermique a été étudiée par les méthodes Hot Disk et laser flash, cette dernière étant couplée à des mesures de dilatation thermique et de capacité calorifique. Les mesures électromagnétiques ont été effectuées dans une large gamme de fréquences, de 20 Hz jusqu’aux Térahertz et infrarouge lointain à l’aide de ponts RLC, analyseur de réseau et guides d’ondes, et spectromètres Térahertz et infrarouge. Ce travail a permis d’étudier l’influence précise de différents paramètres structuraux tels que la densité, la taille, l’inter-connectivité et la forme des cellules ou encore la tortuosité, sur les propriétés physiques des mousses. Il a été finalement possible, selon les cas, de valider des modèles existants, d’en proposer des versions plus raffinées, ou d’observer de nouveaux phénomènes / In this PhD work, alveolar materials in the form of carbon cellular and/or reticulated foams were produced in order to study and to model their physical properties. Cellular carbon foams were obtained by pyrolysis under nitrogen flow of rigid foams mainly derived from biomass-based tannins and furfuryl alcohol. The structures of these foams were tailored through the modification of the formulation of their organics precursors. The reticulated foams, only comprising a solid skeleton made of struts without cell walls, were prepared from polymeric commercial foams through a template method. The structures of all of these materials were thoroughly characterised by using different methods such as electron microscopy and X-ray microtomography. The physical properties of these foams were investigated through mechanical, acoustic, thermal and electromagnetic measurements. Mechanical characterisations were carried out in quasi-static compression through a comparative study with or without plates glued to the samples surfaces. The acoustic tests were done with a 2-microphones impedance tube and through air resistivity measurements. The thermal conductivity was investigated by Hot Disk and Laser flash methods, the latter being coupled with thermal expansion and heat capacity measurements. The electromagnetic characterisations were performed in a wide range of frequencies, from 20 Hz to terahertz and far infrared through LRC-meter, network analyser and waveguides, and terahertz and infrared spectrometers. This work allowed studying precisely the influence of different structural parameters such as density and cell size, interconnectivity and shape, as well as tortuosity, on the physical properties of foams. It was finally possible, depending on the cases, to check the validity of existing models, to suggest improvements or limitations, or to observe new phenomena.
|
300 |
Méthodologie de conception sûre de fonctionnement d'un système de contrôle-commande / Dependable design methodology of a control systemMeguetta, Zine-eddine 20 July 2015 (has links)
Cette thèse s'intéresse au problème de la conception de l'architecture d'instrumentation des systèmes de contrôle-commande (C-C). La conception de telles architectures est une activité complexe qui nécessite une vision globale du système. Plus spécifiquement, elle consiste à déterminer l'ensemble des instruments utilisés (nombre et type des capteurs, des actionneurs), leur agencement vis-à-vis du système de C-C. Pour être menée à bien, cette sélection nécessite d'avoir probablement identifié les différentes possibilités quant à la conduite du processus. Ces choix sont contraints par plusieurs critères, d'une part, le coût du système et des différents composants qui se doit d'être minimal, d'autre part, la sûreté de fonctionnement qui s'évalue en termes de la fiabilité d'accomplissement de la mission et enfin par les critères de performances du système à concevoir. Ce domaine de recherche vise à unifier les différentes approches utilisées en automatique, en une méthodologie globale de conception d'architectures de C-C. Ce sujet de thèse s'intéresse à la conception de l'instrumentation d'un système de C-C. Il propose une méthode qui vise à optimiser cette instrumentation sous multicritère: le coût et le critère de sûreté de fonctionnement en fonction de la fiabilité ou le critère de qualité de commande ou le niveau de tolérance aux pannes; cette procédure de conception s'appuie sur un modèle structurel. Cette étude portera sur des systèmes C-C pour l'accomplissement de diverses missions, sans s'intéresser à la représentation interne du système (les équations d'état) mais en utilisant l'analyse structurelle du système, elle se place dès la phase de conception dans le cycle de vie du système. L'intégration de l'aspect de la sûreté de fonctionnement dans la procédure de la méthodologie de conception d'un système C-C peut apparaître ici sous la forme de l'évaluation de fiabilité d'accomplissement de la mission en se basant sur les liens (les liens structurels entre les variables physiques à commander et les instruments) des systèmes étudiés et éventuellement le conditionnement de leur conception sur la base de niveaux de performance et spécification des objectives exigés. / This thesis concerns the design of control system instrumentation architecture. The design of such architectures is a complex activity that requires a global vision of the system. More specifically, it consists to determine the set of instruments (number and type of sensors, actuators), their arrangement according the control system instrumentation. The choice of architecture constrains by main multi criteria's, on the one hand, the cost of the system and the various components that must be minimal, on the other hand, the dependability, which is evaluated in terms of the reliability of fulfillment of the mission of the design system. This field of research aims to unify the different approaches used in automatic in a global design methodology of control system instrumentation. This work proposes a method that aims to optimize the instrumentation using multiple criteria: cost criterion and dependability constraints in terms of reliability, quality of control, quality of performance, fault tolerant level. This design methodology is based on structural modeling. This study will focus on control systems to accomplish various missions without take into account the internal representation of the system (state equations). However, the tool of structural analysis is used for modeling of the system in design phase. The integration of the dependability aspect in the design methodology procedure of control system instrumentation may appear here in the form of the assessment of reliability mission based on structural links between the physical variables and instruments of the system, according to the performance levels and specifications of the required objective design.
|
Page generated in 0.097 seconds