171 |
Quelle prédictibilité pour les éruptions volcaniques ? De l'échelle mondiale au Piton de la FournaiseSchmid, Agathe 20 October 2011 (has links) (PDF)
Ce travail de thèse a porté sur différents aspects de la prédiction des éruptions. La première partie, basée sur une approche statistique de l'information, nous a permis d'aborder la prédictabilité des éruptions de façon globale, et d'avoir une vision intégrée, à différentes échelles, de la dynamique éruptive. La dernière partie basée sur une approche déterministe du signal, nous a emmené de façon plus indirecte vers la prédiction des éruptions par le biais de l'analyse et la modélisation des comportements éruptifs d'un unique volcan à travers la sismicité. Ce travail de thèse nous a donc permis de traverser plusieurs échelles de temps et d'espace, en partant de la plus large, la Terre dans sa globalité, pour se concentrer ensuite sur le cas d'un volcan unique, le Piton de la Fournaise et finalement se focaliser sur une propriété spécifique de la sismicité du Piton de la Fournaise à travers la détermination des mécanismes source. Dans un premier temps, une analyse descriptive des propriétés statistiques de la dynamique éruptive à l'échelle mondiale et l'apparition de lois puissances à différentes échelles nous ont permis de relier la dynamique des éruptions à celle d'un système critique auto-organisé, justifiant de la difficulté rencontrée à prédire les éruptions de façon déterministe et de la nécessité de se tourner vers les méthodes statistiques. L'étude à l'échelle mondiale des lois d'Omori retrouvées pour la sismicité autour des éruptions, ainsi que l'analyse des propriétés de ces lois d'Omori en fonction de la taille des éruptions, suggèrent que l'énergie d'endommagement et de relaxation dans la croûte est distribuée en loi puissance autour des éruptions, mais avec des coefficients de chargement et de relaxation différents de la sismicité tectonique classique, et donc dépendant des processus qui génèrent l'endommagement. En zoomant sur trois observables du Piton de la Fournaise (sismicité, déformation et variations de vitesse sismique), nous avons montré que les comportement respectifs des observables imagent les différentes étapes du processus éruptif, pour différentes échelles de temps et d'espace. L'analyse des comportements pré-éruptifs et l'utilisation de méthodes de "pattern recognition" ont permis de mettre en évidence l'apport de la combinaison des informations des différents précurseurs dans l'amélioration des résultats de prédiction. Enfin, l'analyse plus spécifique et déterministe des mécanismes source au Piton de la Fournaise, à partir d'une méthode développée pour le contexte particulier d'une sismicité de magnitude très faible en milieu fortement hétérogène, a permis de mettre en évidence l'apparition de trois familles d'événements similaires. Deux de ces familles peuvent être interprétées comme l'ajustement du milieu au passage du dyke, la troisième famille correspondant à la signature de l'interaction entre les fluides et l'édifice volcanique au niveau du toit de la chambre magmatique.
|
172 |
Vers une meilleure connaissance de la spécificité des interactions protéiques dans la signalisation cellulaire - les domaines PDZ au centre des approches informatiques et expérimentalesLuck, Katja 19 October 2012 (has links) (PDF)
Les domaines PDZ reconnaissent des motifs C-terminaux (PBMs), à l'origine de nombreuses interactions qui sont souvent impliquées dans la régulation de la polarité cellulaire. Dans cette thèse, nous avons étudié divers aspects de la spécificité des interactions PDZ-PBM. Nous avons mis en évidence les faibles performances de deux prédicteurs d'interaction entre PDZs et PBMs, considérés sous leurs formes les plus courtes. Ensuite, nous avons développé des protocoles basés sur les méthodes BIAcore et HoldUp pour valider expérimentalement et à grande échelle des prédicteurs d'interaction PDZ-PBM et pour étudier l'influence du contexte de séquence (comme les séquences flanquantes ou les domaines voisins) des PDZs et des PBMs sur l'affinité et la spécificité de leurs interactions. Nous avons identifié des interactions potentielles impliquant les protéines humaines à PDZ MAGI1 et SCRIB soulignant leur implication dans les réseaux de signalisation des protéines G. Une revue de la littérature, combinée avec nos propres résultats, a révélé des mécanismes par lesquels le contexte de séquence influence les affinités et spécificités des interactions impliquant les PDZs. Nous avons discuté ces mécanismes dans une revue publiée. Les connaissances obtenues à partir de cette thèse pourront influencer positivement de futures études sur les interactions PDZ-PBM, en particulier, et sur les interactions domaine-motif linéaire en général.
|
173 |
Vieillissement thermique des gaines PE et PVC de câbles électriquesMkacher, Inès 05 October 2012 (has links) (PDF)
En France, environ 35% des liaisons électriques sont enterrées. Ces liaisons sont constituées, entre autre, par des câbles souterrains où le système d'isolation est un polymère. Ces câbles sont chers à enterrer et à remplacer en cas de défaut de la liaison. Par conséquent, la prédiction précise de la durée de vie des câbles est un enjeu économique et stratégique important. Or, la gaine externe est la première barrière de protection du câble contre la pénétration d'eau. Elle est aussi considérée comme le composant le plus vulnérable au vieillissement. Pour cette raison, le vieillissement thermique de deux types de gaine de câbles électriques synthétiques du réseau électrique souterrain a été étudié entre 80 et 160°C dans l'air. Dans le cas de la gaine en PE, on observe une oxydation brutale du polymère dès la disparition de la totalité des antioxydants par évaporation et consommation chimique. En revanche, dans le cas de la gaine en PVC, on observe une disparition progressive du plastifiant par évaporation, entrainant la vitrification du polymère et sa fragilisation lorsque la fraction massique en plastifiant atteint une valeur critique de l'ordre de 8 %. Oxydation et fissuration conduisent à une perte d'étanchéité à l'eau de la gaine. Dès lors, on soupçonne que l'eau va entrainer une corrosion et une rupture locale de l'écran métallique et, par la suite, la formation d'arborescences humides dans l'isolant électrique provoquant le claquage du câble. Un modèle cinétique de vieillissement thermique des gaines a été dérivé de l'ensemble de ces mécanismes physiques et chimiques. Ce modèle permet de prédire la durée de vie des gaines (par perte d'étanchéité) tant que la diffusion des additifs moléculaires (antioxydants et plastifiants) est négligeable.
|
174 |
Estimation des mouvements sismiques et de leur variabilité par approche neuronale : Apport à la compréhension des effets de la source, de propagation et de site / Ground-motion prediction and their variability through neural approach : Physical insight into source, path and site effectsDerras, Boumédiène 11 May 2017 (has links)
Cette thèse est consacrée à une analyse approfondie de la capacité des "réseaux de neurones artificiels" (RNA) à la prédiction des mouvements sismiques. Un premier volet important concerne la dérivation par RNA de "GMPE" (équations de prédiction du mouvement du sol) et la comparaison des performances ainsi obtenues avec celles des GMPE "classiques" obtenues sur la base de régressions empiriques avec une forme fonctionnelle préétablie (plus ou moins complexe). Pour effectuer l’étude comparative et obtenir les deux composnates inter-événement « betweeen-event » et intra-événement « within-event » de la variabilité aléatoire, nous intégrons l’algorithme du « modèle à effets aléatoires » à l’approche neuronale. Cette approche est testée sur différents jeux de données réelles et synthétiques : la base de données compilée à partir d'événements européens, méditerranéens et du Moyen-Orient (RESORCE : Reference database for Seismic grOund-motion pRediction in Europe), la base de données NGA-West 2 (Next Generation Attenuation West 2 développée aux USA), la base de données japonaise dérivée du réseau accélérométrique KiK-net. En outre, un set de données synthétiques provenant d'une approche par simulation stochastique est utilisé. Les paramètres du mouvement du sol les plus utilisés en génie parasismique (PGA, PGV, spectres de réponse et également, dans certains cas, les fonctions d'amplification locales) sont considérés. Les modèles neuronaux ainsi obtenus, complètement dirigés par les données « data-driven », nous renseignent sur les influences respectives et éventuellement couplées de l’atténuation avec la distance, de l'effet d’échelle lié à la magnitude, des conditions de site et notamment la présence éventuelle de non-linéarités. Un autre volet important est consacré à l'utilisation des RNA pour tester la pertinence de différents proxies de site, au travers de leur capacité à réduire la variabilité aléatoire des prédictions de mouvement du sol. Utilisés individuellement ou en couple, ces proxies de site décrivent de manière plus ou moins détaillée l'influence des conditions de site locales sur le mouvement sismique. Dans ce même volet, nous amorçons également une étude des liens entre les aspects non-linéaire de la réponse de site, et les différents proxies de site. Le troisième volet se concentre sur certain effets liés à la source : analyse de l’influence du style de la faille sismique sur le mouvement du sol, ainsi qu'une approche indirecte de la dépendance entre la magnitude et la chute de contrainte sismique. / This thesis is devoted to an in-depth analysis of the ability of "Artificial Neural Networks" (ANN) to achieve reliable ground motion predictions. A first important aspect concerns the derivation of "GMPE" (Ground Motion Prediction Equations) with an ANN approach, and the comparison of their performance with those of "classical" GMGEs derived on the basis of empirical regressions with pre-established, more or less complex, functional forms. To perform such a comparison involving the two "betweeen-event" and "within-event" components of the random variability, we adapt the algorithm of the "random effects model" to the neural approach. This approach is tested on various, real and synthetic, datasets: the database compiled from European, Mediterranean and Middle Eastern events (RESORCE: Reference database for Seismic grOund-motion pRediction in Europe), the database NGA West 2 (Next Generation Attenuation West 2 developed in the USA), and the Japanese database derived from the KiK-net accelerometer network. In addition, a comprehensive set of synthetic data is also derived with a stochastic simulation approach. The considered ground motion parameters are those which are most used in earthquake engineering (PGA, PGV, response spectra and also, in some cases, local amplification functions). Such completely "data-driven" neural models, inform us about the respective, and possibly coupled, influences of the amplitude decay with distance, the magnitude scaling effects, and the site conditions, with a particular focus on the detection of non-linearities in site response. Another important aspect is the use of ANNs to test the relevance of different site proxies, through their ability to reduce the random variability of ground motion predictions. The ANN approach allows to use such site proxies either individually or combined, and to investigate their respective impact on the various characteristics of ground motion. The same section also includes an investigation on the links between the non-linear aspects of the site response and the different site proxies. Finally, the third section focuses on a few source-related effects: analysis of the influence of the "style of faulting" on ground motion, and, indirectly, the dependence between magnitude and seismic stress drop.
|
175 |
Algorithmes de suivi de cible mobile pour les réseaux de capteurs sans fils / Moving target tracking algorithms for Wireless Sensor NetworksBoulanouar, Ibtissem 24 June 2014 (has links)
Les réseaux de capteurs sans fils se définissent comme un ensemble de petits appareils autonomes et interconnectés. Ces capteurs sont déployés dans une zone d'intérêt dans le but de collecter des informations de l'environnement comme la température ou la qualité de l'air, suivant l'application envisagée. L'évolution de ces dispositifs de capture vers le multimédia ouvre l'accès à une plus large palette d'applications et de services pour une meilleure maitrise de notre environnement. Dans cette thèse nous nous intéressons au suivi de cible mobile dans les réseaux de capteurs sans fils, certains de ces capteurs pouvant collecter des images. Le suivi de cible (Tracking) consiste à détecter et à localiser sur l'ensemble de sa trajectoire une cible traversant une zone d'intérêt. Cette application peut s'avérer très utile, par exemple, pour détecter et enregistrer les déplacements d'un intrus dans une zone sensible ou encore pour suivre les déplacements d'une personne assistée et munie d'un appareil avec interface radio. Contrairement aux systèmes de surveillance classiques qui nécessitent une infrastructure fixe, les réseaux de capteurs sans fils sont aussi faciles à installer qu'à désinstaller. De plus, grâce à leur polyvalence, ils peuvent être utilisés dans de nombreux environnements hostiles et inaccessibles pour l'être humain. Toutefois, étant restreints en énergie, ils ne peuvent rester actifs en permanence au risque de limiter considérablement leur durée de vie. Afin de résoudre ce problème, l'idée est d'activer uniquement les capteurs qui sont sur la trajectoire de la cible au moment ou cette dernière est à leur portée radio ou visuelle. La question est donc : comment et sur quels critères activer ces capteurs afin d'obtenir à tout moment le meilleur compromis entre la précision du suivi et la préservation des ressources énergétiques ? C'est à cette question que nous essayerons de répondre tout au long de cette thèse. Dans un premier temps nous nous intéressons aux cibles communicantes qui ont la faculté d'émettre des signaux et donc de faciliter grandement le processus de suivi. Le défi ici est de relayer l'information entre les différents capteurs concernés. Nous utilisons pour cela un algorithme de déploiement basé sur le concept de forces virtuelles (VFA : Virtual Forces Algorithm) associé à un algorithme de suivi collaboratif et distribué implémenté sur un réseau organisé en clusters. Ensuite, nous traitons le cas, plus complexe et plus fréquent, des cibles non communicantes. L'objectif est de détecter la présence de la cible uniquement à l'aide de capteurs de présence. Pour cela nous proposons le déploiement d'un réseau de capteurs sans fil hétérogènes composé decapteurs de mouvement en charge de la partie détection de la cible et de capteurs vidéo en charge de la partie localisation. Lorsqu'une cible est détectée par un capteur de mouvement, l'information est communiquée aux capteurs vidéo voisins qui décident d'activer ou non leurs caméras en se basant sur des critères prédéfinis tenant compte de l'angle d'orientation des caméras. Enfin, dans une dernière contribution nous nous intéressons plus spécifique mentaux modèles de mobilité de la cible. Ces modèles nous permettent d'anticiper ses déplacements et d'affiner le processus d'activation des capteurs qui sont sur sa trajectoire. Nous utilisons pour cela le filtre de Kalman étendu combiné à un mécanisme de détection de changements de direction nommé CuSum (Cumulative Summuray). Ce mécanisme nous permet de calculer efficacement les futures coordonnées de la cible et de réveiller les capteurs en conséquence / Wireless Sensor Networks (WSN) are a set of tiny autonomous and interconnected devices. These Sensors are scattered in a region of interest to collect information about the surrounding environment depending on the intended application. Nowadays, sensors allow handling more complex data such as multimedia flow. Thus, we observe the emergence of Wireless Multimedia Sensor Networks opening a wider range of applications. In this work, we focus on tracking moving target in these kinds of networks. Target tracking is defined as a two-stage application: detection and localization of the target through its evolution inside an area of interest. This application can be very useful. For example, the presence of an intruder can be detected and its position inside a sensitive area reported, elderly or sick persons carrying sensors can be tracked anytime and so on. Unlike classical monitoring systems, WSN are more flexible and more easy to set up. Moreover, due to their versatility and autonomy they can be used in hostile regions, inaccessible for human. However, these kinds of networks have some limitations: wireless links are not reliable and data processing and transmission are greedy processes in term of energy. To overcome the energy constraint, only the sensors located in target pathway should be activated. Thus, the question is : how to select these sensors to obtain the best compromise between the tracking precision and the energy consumption? This is the question we are trying to answer in this dissertation. Firstly, we focus on communicating targets which have the ability to transmit signals and greatly facilitate the tracking process. The challenge here is to relay the information between the concerned sensors. In order to deal with this challenge, we use a deployment strategy based on virtual forces (VFA: Virtual Forces Algorithm) associated to a distributed tracking algorithm implemented in a cluster-based network. Secondly, we handle a more complex and more frequent case of non-communicating targets. The objective is to detect the presence of such target using movement sensors. We propose the deployment of an heterogeneous wireless sensor networks composed of movement sensors used to detect the target and camera sensors used to locate it. When the target is detected the information is sent to the camera sensors which decide whether to activate or not their cameras based on probabilistic criteria which include the camera orientation angle. Finally, as our last contribution, we specifically focus on target mobility models. These models help us to predict target behaviour and refine the sensor activation process. We use the Extended Kalamn filter as prediction model combined with a change detection mechanism named CuSum (Cumulative Summuray). This mechanism allows to efficiently compute the future target coordinates, and to select which sensors to activate
|
176 |
Conception et modélisation de nouvelles molécules hautement énergétiques en fonction des contraintes réglementaires et environnementales / Design and modelling of High Energetic Materials (HEM) in accordance with environmentals and regulatories contraintsAlliod, Charlotte 08 March 2018 (has links)
Depuis deux décennies, la recherche militaire se focalise sur l'amélioration des critères de performances des explosifs, tout en prenant en compte leurs impacts environnementaux et toxicologiques. Ces enjeux sont encadrés par une réglementation stricte : REACh (Registration, Evaluation, Authorization and Restriction of Chemicals) permettant d'assurer un haut niveau de protection sanitaire et environnementale. De nos jours, développer des explosifs ou molécules hautement énergétiques (High Energy Materials (HEM)) ayant un effet réduit sur l'homme et l'environnement est un sujet de préoccupation majeur. Ainsi, en collaboration avec Airbus Safran Lauchers (ASL), un programme de recherche a été mis en place, afin d'obtenir des outils optimisés pour la prédiction de la toxicité des HEMs et concevoir de nouvelles molécules HEMS non toxiques et réglementaires.Différentes méthodes in silico ont été utilisées dont des Relations Structure Activité Quantitatives (ou Quantitative Structure-Activity Relationship (QSAR)) et le Machine Learning. La recherche de similarité structurale parmi les molécules est un outil novateur sur lequel nous avons basé nos prédictions in silico. Cette similarité est obtenue grâce à un algorithme intelligent développé au sein du Pôle Rhône Alpin de Bio-Informatique de Lyon et qui a donné lieu à un brevet. Cet algorithme nous permet d'obtenir des prédictions plus précises basées sur des données expérimentales issues de directives européennes / For the last two decades, the military research has focused on the improvement of explosive performances, while taking into account their environmental and toxicological impacts. These issues are governed by strict regulations: REACh (Registration, Evaluation, Authorization and Restriction of Chemicals) to ensure a high level of health and environmental protection.Today, it's a major consideration to develop High Energetic Materials (HEM) or molecules who's hazard on human health and environment are reduced. Thus, in collaboration with Airbus Safran Lauchers (ASL), a research program was set up to obtain optimized tools for predicting the potential toxicity of HEM and to design new non-toxic and regulatory molecules.Different in silico methods have been used, including Quantitative Structure Activity Activity Relationships (QSARs) and Machine Learning.The search for structural similarity among molecules is an innovative tool on which we based our predictions in silico. This similarity is obtained thanks to an intelligent algorithm developed within the Pole Rhone Alpin de Bio-Informatique of Lyon which gave rise to a patent. This algorithm allows us to obtain more accurate predictions based on experimental data from European directives
|
177 |
Prédiction du pronostic des patients atteints de muscoviscidose / Prognosis prediction of cystic fibrosis patientsNkam Beriye, Dorette Lionelle 22 December 2017 (has links)
La mucoviscidose est à ce jour une maladie malheureusement incurable. Malgré les nombreux progrès réalisés dans la recherche à ce sujet, il reste indispensable d’avoir davantage une meilleure connaissance de la maladie afin de proposer des traitements encore plus adaptés aux patients. La majorité des traitements actuels visent principalement à réduire les symptômes de la maladie sans toutefois la guérir. A ce jour, la transplantation pulmonaire reste le moyen le plus adéquat pour améliorer la qualité de vie et prolonger la vie des patients dont l’état respiratoire s’est considérablement dégradé. Cependant les critères d’identification des patients éligibles à la transplantation pulmonaire sont assez variés. Il est donc nécessaire de fournir aux cliniciens des outils d’aide à la décision pour mieux identifier les patients nécessitant une transplantation pulmonaire. Pour ce faire, il est indispensable de connaitre d’une part, les facteurs pronostics de transplantation pulmonaire et d’autre part, de savoir convenablement pronostiquer la survenue de cet événement chez les sujets atteints de mucoviscidose. L’objectif de ce travail de thèse est de développer des outils pronostiques utiles à l’évaluation des choix thérapeutiques liés à la transplantation pulmonaire. Dans la première partie de ce travail, nous avons réévalué les facteurs pronostiques de la transplantation pulmonaire ou du décès chez les adultes atteints de mucoviscidose. Suite aux progrès thérapeutiques qui ont conduit à l’amélioration du pronostic au cours des dernières années, ce travail a permis d’identifier des facteurs pronostiques en adéquation avec l’état actuel de la recherche. Un deuxième travail a consisté à développer un modèle conjoint à classes latentes fournissant des prédictions dynamiques pour la transplantation pulmonaire ou le décès. Ce modèle a permis d’identifier trois profils d’évolution de la maladie et également d’actualiser le risque de survenue de la transplantation pulmonaire ou du décès à partir des données longitudinales du marqueur VEMS. Ces modèles pronostiques ont été développés à partir des données du registre français de la mucoviscidose et ont fourni de bonnes capacités prédictives en termes de discrimination et de calibration. / Cystic Fibrosis is unfortunately an incurable inherited disorder. Despite real progress in research, it is essential to always have a better understanding of the disease in order to provide suitable treatments to patients. Current treatments mostly aim to reduce the disease symptoms without curing it. Lung transplantation is proposed to cystic fibrosis patients with terminal respiratory failure with the aim of improving life expectancy and quality of life. However, criteria for referring patients for lung transplantation still vary widely among transplant centers. It is necessary to guide clinicians in identifying in a good way patients requiring an evaluation for lung transplantation. It is thus important to clearly identify prognostic factors related to lung transplantation and to predict in a good way the occurrence of this event in patients with cystic fibrosis. The aim of this work was to develop prognostic tools to assist clinicians in the evaluation of different therapeutic options related to lung transplantation. First, we reevaluated prognostic factors of lung transplantation or death in adult with cystic fibrosis. indeed, therapeutic progress in patients with cystic fibrosis has resulted in improved prognosis over the past decades. We identified prognostic factors related to the current state of research in the cystic fibrosis field. We further developed a joint model with latent classes which provided dynamic predictions for lung transplantation or death. This model identified three profile of the evolution of the disease and was able to update the risk of lung transplantation or death taking into account the evolution of the longitudinal marker FEV1 which describes the lung function. These prognostic models were developed using the French cystic fibrosis registry and provided good predictive accuracies in terms of discrimination and calibration.
|
178 |
Interest rates modeling for insurance : interpolation, extrapolation, and forecasting / Modélisation des taux d'intérêt en assurance : interpolation, extrapolation, et prédictionMoudiki, Thierry 05 July 2018 (has links)
L'ORSA Own Risk Solvency and Assessment est un ensemble de règles définies par la directive européenne Solvabilité II. Il est destiné à servir d'outil d'aide à la décision et d'analyse stratégique des risques. Dans le contexte de l'ORSA, les compagnies d'assurance doivent évaluer leur solvabilité future, de façon continue et prospective. Pour ce faire, ces dernières doivent notamment obtenir des projections de leur bilan (actif et passif) sur un certain horizon temporel. Dans ce travail de thèse, nous nous focalisons essentiellement sur l'aspect de prédiction des valeurs futures des actifs. Plus précisément, nous traitons de la courbe de taux, de sa construction et de son extrapolation à une date donnée, et de ses prédictions envisagées dans le futur. Nous parlons dans le texte de "courbe de taux", mais il s'agit en fait de construction de courbes de facteurs d'actualisation. Le risque de défaut de contrepartie n'est pas explicitement traité, mais des techniques similaires à celles développées peuvent être adaptées à la construction de courbe de taux incorporant le risque de défaut de contrepartie / The Own Risk Solvency and Assessment (ORSA) is a set of processes defined by the European prudential directive Solvency II, that serve for decision-making and strategic analysis. In the context of ORSA, insurance companies are required to assess their solvency needs in a continuous and prospective way. For this purpose, they notably need to forecast their balance sheet -asset and liabilities- over a defined horizon. In this work, we specifically focus on the asset forecasting part. This thesis is about the Yield Curve, Forecasting, and Forecasting the Yield Curve. We present a few novel techniques for the construction, the extrapolation of static curves (that is, curves which are constructed at a fixed date), and for forecasting the spot interest rates over time. Throughout the text, when we say "Yield Curve", we actually mean "Discount curve". That is: we ignore the counterparty credit risk, and consider that the curves are risk-free. Though, the same techniques could be applied to construct/forecast the actual risk-free curves and credit spread curves, and combine both to obtain pseudo- discount curves incorporating the counterparty credit risk
|
179 |
Explorer les trajectoires de patients via les bases médico-économiques : application à l'infarctus du myocarde / Exploring trajectories of patients via medico-economic databases : application to myocardial infarctionPinaire, Jessica 17 October 2017 (has links)
Avec environ 120 000 personnes atteintes chaque année, 12 000 décès suite à la première crise et 18 000 décès après une année, l'infarctus du myocarde est un enjeu majeur de santé publique. Cette pathologie nécessite une hospitalisation et une prise en charge dans une unité de soins intensifs de cardiologie. Pour étudier cette pathologie, nous nous sommes orientés vers les bases hospitalières du PMSI.La collecte des données hospitalières dans le cadre du PMSI génère sur le plan national des bases de données de l'ordre de 25 millions d'enregistrements par an.Ces données, qui sont initialement recueillies à des fins médico-économiques, contiennent des informations qui peuvent avoir d'autres finalités : amélioration de la prise en charge du patient, prédiction de l'évolution des soins, planification de leurs coûts, etc.Ainsi émerge un autre enjeu : celui de fournir des outils d'explorations des trajectoires hospitalières des patients à partir des données issues du PMSI. Par le biais de plusieurs objectifs, les travaux menés dans le cadre de cette thèse ont pour vocation de proposer des outils combinant des méthodes issues de trois disciplines : informatique médicale, fouille de données et biostatistique.Nous apportons quatre contributions.La première contribution concerne la constitution d'une base de données de qualité pour analyser les trajectoires de patients. La deuxième contribution est une méthode semi-automatique pour la revue systématique de la littérature. Cette partie des travaux délimite les contours du concept de trajectoire dans le domaine biomédical. La troisième contribution est l'identification des parcours à risque dans la prédiction du décès intra-hospitalier. Notre stratégie de recherche s'articule en deux phases : 1) Identification de trajectoires types de patients à l'aide d'outils issus de la fouille de données ; 2) Construction d'un modèle de prédiction à partir de ces trajectoires afin de prédire le décès. Enfin, la dernière contribution est la caractérisation des flux de patients à travers les différents évènements hospitaliers mais aussi en termes de délais d'occurrences et de coûts de ces évènements. Dans cette partie, nous proposons à nouveau une alliance entre une méthode de fouille de données et de classification de données longitudinales. / With approximately 120,000 people affected each year, 12,000 deaths from the first crisis and 18,000 deaths after one year, myocardial infarction is a major public health issue. This pathology requires hospitalization and management in an intensive care cardiology unit. We study this pathology using the French national Prospective Paiement System (PPS) databases.The collection of national hospital data within the framework of the PPS generates about 25 million records per year.These data, which are initially collected for medico-economic purposes, contain information that may have other purposes: improving patient care, predicting the evolution of care, planning their costs, etc.Another emerging issue is that of providing tools for exploring patients' hospital trajectories using data from the PPS. Through several objectives, this thesis aims to suggest tools combining methods from three disciplines: medical computing, data mining and biostatistics.We make four contributions.The first contribution concerns the constitution of a quality database to analyze patient trajectories. The second contribution is a semi-automatic method for the systematic review of the literature. This part of the work delineates the contours of the trajectory concept in the biomedical field. The third contribution is the identification of care trajectories in the prediction of intra-hospital death. Our research strategy is divided into two phases: 1) Identification of typical patient trajectories using data mining tools; 2) Construction of a prediction model from these trajectories to predict death. Finally, the last contribution is the characterization of patient flows through the various hospital events, also considering of delays and costs. In this contribution, we propose a combined-data mining and a longitudinal data clustering technique.
|
180 |
Prediction of pollutants in gas turbines using large eddy simulation / Prédiction des polluants dans les turbines à gaz par simulation aux grandes échellesJaravel, Thomas 28 April 2016 (has links)
Les réglementations en termes d'émission de polluants qui s'appliquent aux chambres de combustion de nouvelle génération nécessitent de nouvelles approches de conception. Afin d'atteindre simultanément des objectifs de faibles émissions d'oxydes d'azote (NOx) et de monoxyde de carbone (CO), un processus d'optimisation complexe est nécessaire au développement de nouveaux concepts de moteur. La simulation aux grandes échelles (SGE) a déjà fait ses preuves pour la prédiction de la combustion turbulente. C'est aussi un outil prometteur pour mieux comprendre la formation des polluants dans les turbines à gaz, ainsi que pour en fournir une prédiction quantitative. Dans ces travaux, une nouvelle méthodologie pour la prédiction du NOx et du CO dans des configurations réalistes est développée. La méthode est basée sur une description du système chimique par des schémas réduits fidèles dits analytiques (ARC) combinés au modèle de flamme épaissie (TFLES). En particulier, un ARC ayant des capacités de prédiction précise du CO et du NO est développé, validé sur des cas laminaires canoniques et implémenté dans le solveur SGE. Le potentiel de l'approche est démontré par une simulation haute résolution de la flamme académique turbulente Sandia D, pour laquelle une excellente prédiction du CO et du NO est obtenue. La méthodologie est ensuite appliquée à deux configurations industrielles. La configuration SGT-100 est un brûleur commercial partiellement prémélangé de turbine à gaz terrestre pour la production d'énergie, étudié expérimentalement au DLR. La SGE de cette configuration permet de mettre en évidence les processus chimiques de formation des polluants et fournit une compréhension qualitative et quantitative de l'effet des conditions de fonctionnement. La seconde application correspond à un prototype monosecteur de système d'injection aéronautique multipoint à très faibles émissions de NOx développé dans le cadre du projet européen LEMCOTEC et étudié expérimentalement à l'ONERA. Un ARC représentant la cinétique chimique d'un carburant aéronautique modèle est dérivé et employé dans la SGE de la chambre de combustion avec un formalisme eulérien pour décrire la phase dispersée. Les résultats obtenus montrent l'excellente capacité de prédiction de l'ARC en termes de propriétés de flamme et de prédiction des polluants. / Stringent regulations of pollutant emissions now apply to newgeneration combustion devices. To achieve low nitrogen oxides (NOx) and carbon monoxide (CO) emissions simultaneously, a complex optimization process is required in the development of new concepts for engines. Already efficient for the prediction of turbulent combustion, Large Eddy Simulation (LES) is also a promising tool to better understand the processes of pollutant formation in gas turbine conditions and to provide their quantitative prediction at the design stage. In this work, a new methodology for the prediction with LES of NOx and CO in realistic industrial configurations is developed. It is based on a new strategy for the description of chemistry, using Analytically Reduced Chemistry (ARC) combined with the Thickened Flame model (TFLES). An ARC with accurate CO and NO prediction is derived, validated on canonical laminar flames and implemented in the LES solver. The accuracy of this approach is demonstrated with a highly resolved simulation of the academic turbulent Sandia D flame, for which excellent prediction of NO and CO is obtained. The methodology is then applied to two industrial configurations. The first one is the SGT-100, a lean partially-premixed gas turbine model combustor studied experimentally at DLR. LES of this configuration highlights the chemical processes of pollutant formation and provides qualitative and quantitative understanding of the impact of the operating conditions. The second target configuration corresponds to a mono-sector prototype of an ultra-low NOx, staged multipoint injection aeronautical combustor developed in the framework of the LEMCOTEC European project and studied experimentally at ONERA. An ARC for the combustion of a representative jet fuel surrogate is derived and used in the LES of the combustor with an Eulerian formalism to describe the liquid dispersed phase. Results show the excellent performances of the ARC, for both the flame characteristics and the prediction of pollutants.
|
Page generated in 0.0901 seconds