481 |
Sélection de variables à partir de données d'expression : signatures moléculaires pour le pronostic du cancer du sein et inférence de réseaux de régulation génique / Feature selection from gene expression data : molecular signatures for breast cancer prognosis and gene regulation network inferenceHaury, Anne-Claire 14 December 2012 (has links)
De considérables développements dans le domaine des biotechnologies ont modifié notre approche de l'analyse de l'expression génique. En particulier, les puces à ADN permettent de mesurer l'expression des gènes à l'échelle du génome, dont l'analyse est confiée au statisticien.A partir de ces données dites en grande dimension, nous contribuons, dans cette thèse, à l'étude de deux problèmes biologiques. Nous traitons ces questions comme des problèmes d'apprentissage statistique supervisé et, en particulier, de sélection de variables, où il s'agit d'extraire, parmi toutes les variables - gènes - à disposition, celles qui sont nécessaires et suffisantes pour prédire la réponse à une question donnée.D'une part, nous travaillons à repérer des listes de gènes, connues sous le nom de signatures moléculaires et supposées contenir l'information nécessaire à la prédiction de l'issue du cancer du sein. La prédiction des événements métastatiques est en effet cruciale afin d'évaluer, dès l'apparition de la tumeur primaire, la nécessité d'un traitement par chimio-thérapie adjuvante, connue pour son agressivité. Nous présentons dans cette thèse trois contributions à ce problème. Dans la première, nous proposons une comparaison systématique des méthodes de sélection de variables, en termes de performance prédictive, de stabilité et d'interprétabilité biologique de la solution. Les deux autres contributions portent sur l'application de méthodes dites de parcimonie structurée (graph Lasso et k-support norm) au problème de sélection de signatures. Ces trois travaux discutent également l'impact de l'utilisation de méthodes d'ensemble (bootstrap et ré-échantillonnage).D'autre part, nous nous intéressons au problème d'inférence de réseau génique, consistant à déterminer la structure des interactions entre facteurs de transcription et gènes cibles. Les premiers sont des protéines ayant la faculté de réguler la transcription des gènes cibles, c'est-à-dire de l'activer ou de la réprimer. Ces régulations peuvent être représentées sous la forme d'un graphe dirigé, où les noeuds symbolisent les gènes et les arêtes leurs interactions. Nous proposons un nouvel algorithme, TIGRESS, classé troisième lors du challenge d'inférence de réseaux DREAM5 en 2010. Basé sur l'algorithme LARS couplé à une stratégie de ré-échantillonnage, TIGRESS traite chaque gène cible séparément, en sélectionnant ses régulateurs, puis assemble ces sous-problèmes pour prédire l'ensemble du réseau.Enfin, nous consacrons le dernier chapitre à une discussion ayant pour objectif de replacer les travaux de cette thèse dans un contexte bibliographique et épistémologique plus large. / Important developments in biotechnologies have moved the paradigm of gene expression analysis from a hypothesis-driven to a data-driven approach. In particular, DNA microarrays make it possible to measure gene expression on a genome-wide scale, leaving its analysis to statisticians.From these high-dimensional data, we contribute, in this thesis, to two biological problems. Both questions are considered from the supervised learning point of view. In particular, we see them as feature selection problems. Feature selection consists in extracting variables - here, genes - that contain relevant and sufficient information to predict the answer to a given question.First, we are concerned with selecting lists of genes, otherwise known as molecular signatures and assumed to contain the necessary amount of information to predict the outcome of breast cancer. It is indeed crucial to be able to estimate the chances for future metastatic events from the primary tumor, in order to evaluate the relevance of having the patient undergo an aggressive adjuvant chemotherapy. In this thesis, we present three contributions to this problem. First, we propose a systematic comparison of feature selection methods in terms of predictive performance, stability and biological interpretability of the solution they output. The second and third contributions focus on applying so-called structured sparsity methods (here graph Lasso and k-overlap norm) to the signature selection problem. In all three studies, we discuss the impact of using so-called Ensemble methods (bootstrap, resampling).Second, we are interested in the gene regulatory network inference problem that consists in determining patterns of interaction between transcription factors and target genes. The formers are proteins that regulate the transcription of target genes in that they can either activate or repress it. These regulations can be represented as a directed graph, where nodes symbolize genes and edges depict their interactions. We introduce a new algorithm named TIGRESS, that granted us the third place at the DREAM5 network inference challenge in 2010. Based on the LARS algorithm and a resampling procedure, TIGRESS considers each target gene independently by inferring its regulators and finally assembles individual predictions to provide an estimate of the entire network.Finally, in the last chapter, we provide a discussion that attempts to place the contributions of this thesis in a broader bibliographical and epistemological context.
|
482 |
Quantification of modelling uncertainties in turbulent flow simulations / Quantification des incertitudes de modélisation dans les écoulements turbulentsEdeling, Wouter Nico 14 April 2015 (has links)
Le but de cette thèse est de faire des simulations prédictives à partir de modèles de turbulence de type RANS (Reynolds-Averaged Navier-Stokes). Ces simulations font l'objet d'un traitement systématique du modèle, de son incertitude et de leur propagation par le biais d'un modèle de calcul prédictif aux incertitudes quantifiées. Pour faire cela, nous utilisons le cadre robuste de la statistique Bayesienne.La première étape vers ce but a été d'obtenir une estimation de l'erreur de simulations RANS basées sur le modèle de turbulence de Launder-Sharma k-e. Nous avons recherché en particulier à estimer des incertitudes pour les coefficients du modele, pour des écoulements de parois en gradients favorable et défavorable. Dans le but d'estimer la propagation des coefficients qui reproduisent le plus précisemment ces types d'écoulements, nous avons étudié 13 configurations différentes de calibrations Bayesienne. Chaque calibration était associée à un gradient de pression spécifique gràce à un modèle statistique. Nous representont la totalite des incertitudes dans la solution avec une boite-probabilite (p-box). Cette boîte-p représente aussi bien les paramètres de variabilité de l'écoulement que les incertitudes epistemiques de chaque calibration. L'estimation d'un nouvel écoulement de couche-limite est faite pour des valeurs d'incertitudes générées par cette information sur l'incertitude elle-même. L'erreur d'incertitude qui en résulte est consistante avec les mesures expérimentales.Cependant, malgré l'accord avec les mesures, l'erreur obtenue était encore trop large. Ceci est dû au fait que la boite-p est une prédiction non pondérée. Pour améliorer cela, nous avons développé une autre approche qui repose également sur la variabilité des coefficients de fermeture du modèle, au travers de multiples scénarios d'écoulements et de multiples modèles de fermeture. La variabilité est là encore estimée par le recours à la calibration Bayesienne et confrontée aux mesures expérimentales de chaque scénario. Cependant, un scénario-modèle Bayesien moyen (BMSA) est ici utilisé pour faire correspondre les distributions a posteriori à un scénario (prédictif) non mesuré. Contrairement aux boîtes-p, cette approche est une approche pondérée faisant appel aux probabilités des modèles de turbulence, déterminée par les données de calibration. Pour tous les scénarios de prédiction considérés, la déviation standard de l'estimation stochastique est consistante avec les mesures effectuées.Les résultats de l'approche BMSA expriment des barres d'erreur raisonnables. Cependant, afin de l'appliquer à des topologies plus complexes et au-delà de la classe des écoulements de couche-limite, des techniques de modeles de substitution doivent être mises en places. La méthode de la collocation Stochastique-Simplex (SSC) est une de ces techniques et est particulièrement robuste pour la propagation de distributions d'entrée incertaines dans un code de calcul. Néanmois, son utilisation de la triangulation Delaunay peut entrainer un problème de coût prohibitif pour les cas à plus de 5 dimensions. Nous avons donc étudié des moyens pour améliorer cette faible scalabilité. En premier lieu, c'est dans ce but que nous avons en premier proposé une technique alternative d'interpolation basée sur le probleme 'Set-Covering'. Deuxièmement, nous avons intégré la méthode SSC au cadre du modèle de réduction à haute dimension (HDMR) dans le but d'éviter de considérer tous les espaces de haute dimension en même temps.Finalement, avec l'utilisation de notre technique de modelisation de substitution (surrogate modelling technique), nous avons appliqué le cadre BMSA à un écoulement transsonique autour d'un profil d'aile. Avec cet outil nous sommes maintenant capable de faire des simulations prédictives d'écoulements auparavant trop coûteux et offrant des incertitudes quantifiées selon les imperfections des différents modèles de turbulence. / The goal of this thesis is to make predictive simulations with Reynolds-Averaged Navier-Stokes (RANS) turbulence models, i.e. simulations with a systematic treatment of model and data uncertainties and their propagation through a computational model to produce predictions of quantities of interest with quantified uncertainty. To do so, we make use of the robust Bayesian statistical framework.The first step toward our goal concerned obtaining estimates for the error in RANS simulations based on the Launder-Sharma k-e turbulence closure model, for a limited class of flows. In particular we searched for estimates grounded in uncertainties in the space of model closure coefficients, for wall-bounded flows at a variety of favourable and adverse pressure gradients. In order to estimate the spread of closure coefficients which reproduces these flows accurately, we performed 13 separate Bayesian calibrations. Each calibration was at a different pressure gradient, using measured boundary-layer velocity profiles, and a statistical model containing a multiplicative model inadequacy term in the solution space. The results are 13 joint posterior distributions over coefficients and hyper-parameters. To summarize this information we compute Highest Posterior-Density (HPD) intervals, and subsequently represent the total solution uncertainty with a probability box (p-box). This p-box represents both parameter variability across flows, and epistemic uncertainty within each calibration. A prediction of a new boundary-layer flow is made with uncertainty bars generated from this uncertainty information, and the resulting error estimate is shown to be consistent with measurement data.However, although consistent with the data, the obtained error estimates were very large. This is due to the fact that a p-box constitutes a unweighted prediction. To improve upon this, we developed another approach still based on variability in model closure coefficients across multiple flow scenarios, but also across multiple closure models. The variability is again estimated using Bayesian calibration against experimental data for each scenario, but now Bayesian Model-Scenario Averaging (BMSA) is used to collate the resulting posteriors in an unmeasured (prediction) scenario. Unlike the p-boxes, this is a weighted approach involving turbulence model probabilities which are determined from the calibration data. The methodology was applied to the class of turbulent boundary-layers subject to various pressure gradients. For all considered prediction scenarios the standard-deviation of the stochastic estimate is consistent with the measurement ground truth.The BMSA approach results in reasonable error bars, which can also be decomposed into separate contributions. However, to apply it to more complex topologies outside the class of boundary-layer flows, surrogate modelling techniques must be applied. The Simplex-Stochastic Collocation (SSC) method is a robust surrogate modelling technique used to propagate uncertain input distributions through a computer code. However, its use of the Delaunay triangulation can become prohibitively expensive for problems with dimensions higher than 5. We therefore investigated means to improve upon this bad scalability. In order to do so, we first proposed an alternative interpolation stencil technique based upon the Set-Covering problem, which resulted in a significant speed up when sampling the full-dimensional stochastic space. Secondly, we integrated the SSC method into the High-Dimensional Model-Reduction framework in order to avoid sampling high-dimensional spaces all together.Finally, with the use of our efficient surrogate modelling technique, we applied the BMSA framework to the transonic flow over an airfoil. With this we are able to make predictive simulations of computationally expensive flow problems with quantified uncertainty due to various imperfections in the turbulence models.
|
483 |
Systèmes mobiles émergents dans l’IoT : de l’interopérabilité au niveau middleware de communication à l’analyse de la qualité de service associée / Enabling emergent mobile systems in the IoT : from middleware-layer communication interoperability to associated QoS analysisBouloukakis, Georgios 01 August 2017 (has links)
Les applications de l'Internet des objets (IdO/IoT) se composent de divers objets en grande partie mobiles et avec des ressources limitées ou riches. Des tels dispositifs exigent des interactions légères et faiblement couplées en termes de temps, d'espace et de synchronisation. Les protocoles au niveau middleware de l'IoT prennent en charge un ou plusieurs types d'interaction assurant la communication entre objets. De plus, ils supportent différents niveaux de Qualité de service (QDS) pour cette communication par rapport aux ressources disponibles sur les dispositifs et les réseaux. Les dispositifs utilisant le même protocole middleware interagissent de manière homogène, car ils exploitent les mêmes caractéristiques fonctionnelles et de QDS. Cependant, la profusion de protocoles middleware pour l'IoT se traduit par des objets très hétérogènes. Cela nécessite des solutions d'interopérabilité avancées intégrées à des techniques de modélisation et d'évaluation de la QDS. La principale contribution de cette thèse est d'introduire une approche et de fournir une plate-forme pour la synthèse automatique des artefacts logiciels permettant l'interopérabilité. De tels artefacts permettent l'interconnexion entre des objets mobiles qui utilisent des protocoles hétérogènes au niveau middleware. Notre plate-forme prend en charge l'évaluation de l'effectivité de l'interconnexion en termes de la QDS de bout en bout. Plus précisément, nous dérivons des conditions formelles pour des interactions réussies, et nous permettons la modélisation et l'analyse des performances ainsi que le réglage du système de bout en bout, tout en considérant plusieurs paramètres système pour l'IoT mobile. / Internet of Things (IoT) applications consist of diverse Things including both resource-constrained/rich devices with a considerable portion being mobile. Such devices demand lightweight, loosely coupled interactions in terms of time, space, and synchronization. IoT middleware protocols support one or more interaction types (e.g., asynchronous messaging, streaming) ensuring Thing communication. Additionally, they introduce different Quality of Service (QoS) features for this communication with respect to available device and network resources. Things employing the same middleware protocol interact homogeneously, since they exploit the same functional and QoS features. However, the profusion of developed IoT middleware protocols introduces technology diversity which results in highly heterogeneous Things. Interconnecting heterogeneous Things requires mapping both their functional and QoS features. This calls for advanced interoperability solutions integrated with QoS modeling and evaluation techniques. The main contribution of this thesis is to introduce an approach and provide a supporting platform for the automated synthesis of interoperability software artifacts. Such artifacts enable the interconnection between mobile Things that employ heterogeneous middleware protocols. Our platform further supports evaluating the effectiveness of the interconnection in terms of end-to-end QoS. More specifically, we derive formal conditions for successful interactions, and we enable performance modeling and analysis as well as end-to-end system tuning, while considering several system parameters related to the mobile IoT.
|
484 |
Mécanique statistique des systèmes auto-gravitants / Statistical mechanics of self-gravitating systemsChampion, Maxime 29 June 2015 (has links)
L’étude des systèmes avec interactions gravitationnelles à l’aide des outils de la mécanique statistique repose jusqu’à présent sur l’utilisation d’une approximation de type champ moyen, qui néglige par construction les effets à courte portée de l’interaction. Pour commencer, je décris cette approximation dans son contexte historique, à savoir le modèle de la sphère isotherme. Puis, dans le cadre de la mécanique statistique du problème à N -corps, j’introduis un système de sphères dures massives, qui permet de s’affranchir de l’effondrement du système de points matériels. La validité de l’approche hydrostatique est discutée dans l’ensemble microcanonique, en introduisant une limite d’échelle adéquate.Cette étude permet de mettre en avant les critères de validité pour l’approche hydrostatique, et de constater qu’ils peuvent être mis en défaut dans les systèmes astrophysiques de type amas globulaire. Pour mieux les comprendre et les illustrer, je me concentre ensuite sur l’étude d’un modèle de bâtonnets durs massifs à une dimension, dont l’avantage est de permettre tous les calculs analytiques des différentes grandeurs statistiques. Ainsi, je mets en évidence comment l’approche de type champ moyen est mise en défaut pour certains états effondrés.Enfin, dans le but de tenter de décrire des amas globulaires, je développe un modèle comprenant des étoiles célibataires et des étoiles binaires. Ce modèle reproduit bien les effets qualitatifs attendus, et il constitue une première correction satisfaisante au modèle historique de la sphère isotherme. Je met aussi en évidence l’absence d’équilibre thermodynamique au sens strict pour les systèmes considérés. En conclusion, je réalise une discussion succincte de certains éléments dynamiques du problème. / The study of systems with gravitational interactions with the tools of mechanics statistics was based so far on the use of a mean-field approximation, which neglect by construction effects of the short-range interaction. To begin, I describe this approximation in its historical context, namely the model of isothermal sphere. Then, as part of statistical mechanics of many-body problem, I introduce a system of massive hard spheres, which overcomes the collapse of the point partcile system. The validity of the hydrostatic approach is discussed in the microcanonical ensemble, by introducing an appropriate scaling limit.This study helps to highlight conditions of validity of the the hydrostatic approach and show that those conditions may prove defective in astrophysical systems such globular clusters. To better understand and illustrate this point, I focus on the study of a model of massive hard sticks in one dimension, which has the advantage of allowing all analytical calculations of various statistical quantities. Thus, I highlight how the mean field type approach can be wrong for some collapsed states.Finally, in an attempt to describe globular clusters, I develop a model consisting of single stars and binaries stars systems. This model reproduces the expected qualitative effects, and is a good first correction of the historical model of the isothermal sphere. I also highlight the absence of thermodynamic equilibrium in the strict sense for the systems we study. In conclusion, I realize a brief discussion of some dynamical issues.
|
485 |
Statistical Inference of Defect Population for the Study and Simulation of the Low-Cycle Fatigue of a Cast Aluminium Alloy. / Inférence statistique de la population de défauts pour l'étude et la simulation de la fatigue oligocyclique d'un alliage d'aluminium de fonderieWilson, Pablo 17 January 2017 (has links)
Dans une optique d'allègement, les alliages d'aluminium de fonderie représentent une excellente solution technique. Ainsi, pour les culasses automobiles, les alliages d'aluminium Al-Si-Cu (Aluminium-Silicium-Cuivre) sont souvent choisis pour leurs performances mécaniques ainsi que leur bonne coulabilité. L'objectif de cette étude est d'améliorer la compréhension des mécanismes en fatigue oligocyclique pour définir un critère de fatigue adapté. Cet objectif est réalisé en combinant des essais (en fatigue oligocyclique à température ambiante et élevée), de nombreuses observations (microscopie à balayage électronique, microtomographie 3D rayons-X de laboratoire, suivi de fissure) et des simulations (génération de population de défauts et calculs éléments finis). À l'aide d'outils spécialement développés, la population de défauts (défauts de fonderie) est analysée en détails : la taille de défaut est modélisée par une distribution de Pareto généralisée et leurs positions par un processus ponctuel de type agrégé (démontrant que les défauts ne sont pas spatialement distribués de manière totalement aléatoire). Les processus ponctuels marqués permettent de montrer que tailles et positions de défauts ne sont pas corrélées. En utilisant ces informations statistiques, il est démontré que seuls les défauts proches de la surface sont critiques pour la fatigue oligocyclique. Un critère de fatigue basé sur l'énergie de déformation est utilisé pour prévoir la durée de vie en fatigue. Par la suite, un modèle de propagation de fissure permet de prendre en compte la taille de défaut dans la prévision de la durée de vie. Combiné à la statistique des défauts, ce modèle permet d'estimer la dispersion des essais. En dernier lieu, des essais et des simulations sur éprouvettes entaillées montrent que l'étude de la population de défauts est d'autant plus critique que le volume fortement sollicité mécaniquement devient plus faible. / In a search for lightweight materials, cast aluminium alloys have become an efficient solution for the automotive industry. For cylinder heads, cast aluminium alloys (Aluminium-Silicon-Copper based) are often chosen for their mechanical performances combined with their good casting abilities. This study aims at better understanding the damage mechanisms of Low-Cycle Fatigue (LCF) to help define a suitable design criterion. This is achieved by combining experiments (LCF tests at ambient and high temperature), various observations (Scanning electron microscopy, laboratory 3D X-ray microtomography, crack propagation monitoring) and numerical techniques (Finite element method simulations and defect population generation). Specifically designed statistical tools allow clearly identifying the defect (casting defects) population: the defect size can be modelled by a generalized Pareto distribution and their positions by a clustered point process (thus showing the defect locations are not completely random). Using marked point processes, it is also shown that defect size and defect position are uncorrelated. Using this statistical information and by systematic observations, it is proven that only defects close to the surface are critical for the fatigue life. The different interactions between cracks and defects are also studied, especially with respect to temperature. A strain energy based fatigue criterion is introduced and allows estimating the fatigue life. Then, a crack propagation model provides a mean of taking the defect size into account, which combined with the statistics of defects, gives an estimate of the fatigue life dispersion. Finally, notched specimens tests and simulations show the study of the defect population is even more critical as the highly loaded volume becomes smaller.
|
486 |
Adaptive Machine Learning for Credit Card Fraud DetectionDal Pozzolo, Andrea 04 December 2015 (has links)
Billions of dollars of loss are caused every year by fraudulent credit card transactions. The design of efficient fraud detection algorithms is key for reducing these losses, and more and more algorithms rely on advanced machine learning techniques to assist fraud investigators. The design of fraud detection algorithms is however particularly challenging due to the non-stationary distribution of the data, the highly unbalanced classes distributions and the availability of few transactions labeled by fraud investigators. At the same time public data are scarcely available for confidentiality issues, leaving unanswered many questions about what is the best strategy. In this thesis we aim to provide some answers by focusing on crucial issues such as: i) why and how undersampling is useful in the presence of class imbalance (i.e. frauds are a small percentage of the transactions), ii) how to deal with unbalanced and evolving data streams (non-stationarity due to fraud evolution and change of spending behavior), iii) how to assess performances in a way which is relevant for detection and iv) how to use feedbacks provided by investigators on the fraud alerts generated. Finally, we design and assess a prototype of a Fraud Detection System able to meet real-world working conditions and that is able to integrate investigators’ feedback to generate accurate alerts. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
487 |
Epidémiologie des traumatismes: quelles contributions des (méthodes) statistiques aux approches descriptive et analytique?Senterre, Christelle 28 November 2014 (has links)
L’épidémiologie de terrain peut être définie comme un ensemble de méthodes de collecte et de traitement de l’information combinant successivement les approches de l’épidémiologie descriptive mais aussi celles de l’épidémiologie analytique. La finalité de l’analyse descriptive sera de décrire et de quantifier la survenue du phénomène étudié dans une population donnée, permettant ainsi la formulation d’hypothèses préalables à la phase analytique. Phase, qui se focalisera sur les "associations" entre des "facteurs de risque" et la survenue du phénomène étudié. Dans la réponse aux questionnements posés ces deux phases les méthodes statistiques seront des outils incontournables. Afin que les résultats produits par ces analyses soient non seulement utiles mais aussi valables et utilisables, une bonne identification et une application adéquate des méthodes d’analyse s’avèreront primordiales. <p>A côté de ce constat méthodologique, il y a, dans le champ des traumatismes, tant en Belgique, qu’en pays en développement, la quasi absence d’informations pertinentes et rigoureuses pour documenter l’importance de cette problématique dans le champ de la santé. Pourtant, selon l’Organisation Mondiale de la Santé, plus de 5 millions de personnes décèdent des suites d’un traumatisme chaque année, avec 90% de ces décès survenant dans les pays à faible revenu ou à revenu intermédiaire. En Europe, les données montrent qu’une personne décède toutes les deux minutes des suites d’un traumatisme, et que pour chaque citoyen européen qui en meure, 25 personnes sont admises à l’hôpital, 145 sont traitées en ambulatoire et plus encore se font soigner ailleurs. <p> Au vu du double constat, qui est, d’une part, que les méthodes statistiques ne sont pas toujours exploitées correctement, et d’autre part, qu’il y a un manque d’informations appropriées et rigoureuses pour documenter l’ampleur du problème des traumatismes; ce travail de thèse poursuit l’objectif majeur, de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques (univariées, multivariables et multivariées) adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés, tant en pays industrialisés (exemple de la Belgique) qu’en pays en développement (exemple du Cameroun).<p>La partie classiquement appelée "résultats", correspond dans ce travail à deux chapitres distincts. Le premier fait la synthèse de ce qui a été objectivé par la revue de la littérature en termes de sources de données exploitées et de méthodes d’analyse statistique utilisées. Le second correspond à l’exploitation de quatre bases de données :une "généraliste et populationnelle" (First Health of Young People Survey - Cameroun), une "généraliste et hospitalière" (Résumé Hospitalier Minimum - Belgique), une "spécifique et populationnelle" (données issue de compagnies d’assurances belges), et une " spécifique et hospitalière" (Service SOS Enfants du CHU St Pierre - Belgique). <p>Les constats majeurs à l’issue de ce travail sont qu’il est possible de trouver dans le panel des méthodes statistiques "classiques", les méthodes nécessaires pour répondre aux questionnements de surveillance "en routine" en termes d’occurrence et de facteurs associés. L’accent devrait être mis sur une (meilleure) utilisation (justifiée, correcte et complète) de ces méthodes et sur une meilleure présentation (plus complète) des résultats. L’utilisation adéquate s’assurant d’une part, par une meilleure formation en méthodologie statistique pour les praticiens mais aussi par l’intégration, à part entière, des statisticiens dans les équipes de recherches. En ce qui concerne les sources de données utilisées, le potentiel d’information existe. Chaque source de données a ses avantages et ses inconvénients mais utilisées conjointement elles permettent d’avoir une vision plus globale du fardeau des traumatismes. L’accent devrait être mis sur l’amélioration de la disponibilité, la mise en commun mais aussi sur la qualité des données qui seraient disponibles. Dès lors, en vue de s’intégrer dans une dynamique de "Système de Surveillance des Traumatismes", une réflexion sur une utilisation globale (qu’elle soit couplée ou non) de ces différentes sources de données devrait être menée. <p>En Belgique, de nombreuses données, contenant de l’information sur les traumatismes, sont collectées en routine, au travers des données hospitalières, et ponctuellement, au travers de données d’enquêtes. Actuellement, ces données, dont la qualité reste discutable pour certaines, sont sous-utilisées dans le champ qui nous intéresse. Dans le futur, "plutôt que de ne rien savoir", il est important de continuer à exploiter l’existant pour produire et diffuser de l’information, mais cette exploitation et cette diffusion doivent s’accompagner non seulement de réflexion mais aussi d’action sur la qualité des données. En ce qui concerne l’utilisation des méthodes statistiques, nous préconisons une double approche :l’intégration et la formation. Par intégration, nous entendons le fait qu’il faut d’une part considérer le statisticien comme un professionnel ayant à la fois des compétences techniques pointues sur les méthodes, qui pourront être mises à disposition pour garantir le bon déroulement de la collecte et de l’analyse des données, mais aussi comme un chercheur capable de s’intéresser plus spécifiquement à des problématiques de santé publique, comme la problématique des traumatismes par exemple. Par formation, nous entendons le fait qu’il est essentiel d’augmenter et/ou de parfaire non seulement les connaissances des futurs professionnels de la santé (publique) en cours de formation mais aussi celles des praticiens déjà actifs sur le terrain et dès lors premiers acteurs de la collecte de l’information et de son utilisation dans une démarche de prise de décision, de détermination de priorité d’action et d’évaluation. <p>L’objectif majeur de ce travail de thèse était de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés. En ayant discuté de l’existence de plusieurs sources potentielles de données en Belgique et en ayant appliqué une série de méthodes statistiques univariées, multivariables et multivariées, sur quelques-unes de celles-ci, nous avons montré qu’il était possible de documenter le fardeau des traumatismes au-travers de résultats utiles mais aussi valables et utilisables dans une approche de santé publique.<p> / Doctorat en Sciences de la santé publique / info:eu-repo/semantics/nonPublished
|
488 |
Fluctuation theorem for quantum electron transport in mesoscopic circuits / Théorème de fluctuation pour le transport d'électrons quantique dans les circuits mésoscopiquesBulnes Cuetara, Gregory 13 September 2013 (has links)
Dans cette thèse nous étudions les propriétés statistique des courants dans des systèmes à l'échelle mésoscopique. Nous utilisons le formalisme de la statistique de comptage afin de caractériser les fluctuations de courant importantes à cette échelle. Celle-ci est obtenue en partant du Hamiltonien microscopique décrivant la dynamique des électrons sur le circuit considéré dans le régime quantique.<p>Nous considérons deux modèles particuliers de circuits à deux canaux, chacun comportant deux électrodes. Le premier modèle étudié est constitué de deux plots quantiques en couplage capacitif, et chacun échangeant des électrons avec deux électrodes. Le deuxième modèle est quant à lui constitué d'un double plot quantique connecté à deux électrodes et modulant le courant dans un point quantique formé lui-même par la jonction de deux électrodes. Pour ces deux modèles, chaque canal est soumis à une différence de potentiel, ou force thermodynamique, générant des courants stationnaires fluctuants.<p>La statistique des courants pour ces deux modèles est obtenue en utilisant une équation maîtresse pour les probabilités d'occupation dans les plots quantiques et le nombre d'électrons transférés entre ceux-ci et les électrodes. Nous vérifions que la distribution de probabilité jointes des courants dans chaque canal ainsi obtenue vérifie un théorème de fluctuation dans la limite des temps long faisant intervenir les forces thermodynamique des deux canaux.<p>La question de l'émergence d'un théorème de fluctuation effectif pour la distribution de probabilité marginale du courant dans un des deux canaux est également investiguée. Nous montrons que dans la limite ou le rapport des courants est grande, un tel théorème de fluctuation effectif est satisfait individuellement pour le canal de plus faible courant comme observé expérimentalement. Ce théorème fait intervenir une affinité effective dépendante des forces thermodynamiques des deux canaux et des spécificités du modèle considéré. Son étude détaillée est faite pour les deux modèles mentionnés.<p>Par ailleurs, nous posons également la question de l'existence d'un théorème de fluctuation pour des temps de mesure finis. Nous montrons qu'en présence d'un théorème de fluctuation dans la limite de temps longs, un critère peut être énoncé sur la condition initiale des plots quantiques menant à un théorème de fluctuations à temps fini. Ce critère est également étendu au cas des théorèmes de fluctuations effectifs.<p>Finalement, nous faisons une étude thermodynamique du modèle composé d'un double plot quantique en présence de différences de potentiel électrique et de température entre les électrodes du circuit. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
489 |
Segmentation de processus avec un bruit autorégressif / Segmenting processes with an autoregressive noiseChakar, Souhil 22 September 2015 (has links)
Nous proposons d’étudier la méthodologie de la segmentation de processus avec un bruit autorégressif sous ses aspects théoriques et pratiques. Par « segmentation » on entend ici l’inférence de points de rupture multiples correspondant à des changements abrupts dans la moyenne de la série temporelle. Le point de vue adopté est de considérer les paramètres de l’autorégression comme des paramètres de nuisance, à prendre en compte dans l’inférence dans la mesure où cela améliore la segmentation.D’un point de vue théorique, le but est de conserver un certain nombre de propriétés asymptotiques de l’estimation des points de rupture et des paramètres propres à chaque segment. D’un point de vue pratique, on se doit de prendre en compte les limitations algorithmiques liées à la détermination de la segmentation optimale. La méthode proposée, doublement contrainte, est basée sur l’utilisation de techniques d’estimation robuste permettant l’estimation préalable des paramètres de l’autorégression, puis la décorrélation du processus, permettant ainsi de s’approcher du problème de la segmentation dans le cas d’observations indépendantes. Cette méthode permet l’utilisation d’algorithmes efficaces. Elle est assise sur des résultats asymptotiques que nous avons démontrés. Elle permet de proposer des critères de sélection du nombre de ruptures adaptés et fondés. Une étude de simulations vient l’illustrer. / We propose to study the methodology of autoregressive processes segmentation under both its theoretical and practical aspects. “Segmentation” means here inferring multiple change-points corresponding to mean shifts. We consider autoregression parameters as nuisance parameters, whose estimation is considered only for improving the segmentation.From a theoretical point of view, we aim to keep some asymptotic properties of change-points and other parameters estimators. From a practical point of view, we have to take into account the algorithmic constraints to get the optimal segmentation. To meet these requirements, we propose a method based on robust estimation techniques, which allows a preliminary estimation of the autoregression parameters and then the decorrelation of the process. The aim is to get our problem closer to the segmentation in the case of independent observations. This method allows us to use efficient algorithms. It is based on asymptotic results that we proved. It allows us to propose adapted and well-founded number of changes selection criteria. A simulation study illustrates the method.
|
490 |
Contribution de la cyclostationnarité et de l'identification aveugle au diagnostic des outils de coupe / Cyclostationarity and blind identification contribution to cutting tool diagnosisAit Sghir, Khalid 11 November 2010 (has links)
Le diagnostic des outils de coupe joue un rôle dans l’industrie où il est important de maîtriser les coûts ainsi que la qualité des produits finis tout en maintenant la sécurité et la sûreté des biens et des personnes. L’objectif de cette thèse est l’analyse vibratoire des outils de coupe d’une opération de fraisage pour le diagnostic de leur état de dégradation. Dans une première partie nous avons étudié les possibilités offertes par les traitements statistiques synchrones des signaux vibrations issus d’une opération d’usinage pour étudier leur état de fonctionnement. Les signaux vibratoires traités ont la particularité d’être cyclostationnaires, c'est-à-dire périodiques dans leurs propriétés statistiques. La prise en compte de cette propriété permet l’utilisation des descripteurs capables de caractériser instantanément les processus vibratoires, en liaison avec la cinématique mécanique de l’opération d’usinage. De plus lorsque associé à l’échantillonnage angulaire, la cyclostationnarité conduit vers la proposition d’estimateurs statistiques synchrones commodes à mette en œuvre. Les statistiques synchrones d’ordre l et d’ordre 2, la corrélation spectrale ainsi que le bispectre cyclique sont définis avec leurs interprétations et leurs estimateurs. Un modèle des signaux de fraisage est donné. Cette modélisation vise à démontrer la cyclostationnarité de ces signaux. L’emploi de ces indicateurs est illustré sur des signaux réels et comparé avec des indicateurs classiques pour le diagnostic de dégradation des outils de coupe. Dans une deuxième partie, la déconvolution aveugle de la réponse impulsionnelle d’un processus cyclostationnaire est réalisé, en utilisant seulement les statistiques d’ordre deux. Pour cela on exploite la propriété de cyclostationnarité pour estimer la phase du système, même si le système est à phase non minimale. Deux méthodes sont présentées, paramétrique Ding-p et non paramétrique Ding-n. Ces méthodes ont été validées sur des signaux de simulation des signaux vibratoires issus des machines tournantes. Deux applications ont été faites, la première est d’estimer la réponse impulsionnelle d’un système broche-outil-pièce de fabrication. La deuxième c’est de reconstruire les forces de coupe, exerçants sur la pièce de fabrication, afin de faire le monitoring / The identification of the state of a cutting tool is important in any metal cutting process. An additional cost - in terms of scrapped components, machine tool breakage and unscheduled downtime - occurs as a result of tool defects. The thesis objective is the cutting tool vibration analysis of a milling operation for the diagnosis of their state of degradation. In the first part, the possibilities offered by the synchronous statistics, applied to vibration signal captured from a milling process, are studied to examine the cutting tool condition. The processed vibration signals are cyclostationary, i.e their statistical properties are periodic. Taking into account this property, the use of descriptors able to characterize the process, in conjunction with the kinematics of the mechanical machining operation. Furthermore, when combined with the angular sampling, the cyclostationarity led to the proposed synchronous statistical estimators convenient to implement. First order and second order synchronous statistics, the spectral correlation and the cyclic bispectrum are defined with their interpretations and estimators. A model of milling vibration signal is given. This model aims to demonstrate the cyclostationarity of the signals. The use of these indicators is illustrated on real signals and compared with conventional indicators for diagnosing degradation of cutting tools.In the second part, the blind deconvolution of the impulse response of a cyclostationary process is
|
Page generated in 0.0214 seconds