• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 136
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1579
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 145
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

La versification de Raymond Queneau, approche statistique à partir d'une base de données / Raymond Queneau's versification, a statistical approach, making use of a database

Bories, Anne-Sophie 26 March 2013 (has links)
Nous proposons une approche statistique de la versification de Raymond Queneau. Au cœur de notre travail se trouve une base de données MySQL, qui rassemble des informations descriptives à propos de la versification des 15.996 vers publiés par Queneau de son vivant. Jusqu’ici, les bases de données consacrées à la métrique ont exploré les vers réguliers, laissant de côté le vers libre et les questions spécifiques qu’il pose. Notre base envisage conjointement ces deux catégories de vers. Nous en tirons des statistiques, des représentations graphiques, et une approche globale du texte.La versification de Raymond Queneau a été peu étudiée. Il s’agit d’un corpus hétérogène, pour lequel la distinction entre vers libres et vers réguliers n’est pas toujours opérante. Au sein de ces formes variées, nous avons cherché des traits fixes, des motifs récurrents, des tendances, des routines. Nous proposons une typologie des vers queniens, décrivons la parenté du vers libre quenien avec le vers classique, modélisons des structures de la poésie de Queneau et étudions les significations liées à ses choix métriques.Il ressort de nos résultats que la versification de Queneau est porteuse de signification. Queneau y manifeste son refus des conventions, et son choix systématique d’une troisième voie réconciliant conservatisme et innovation.Ce travail ouvre des perspectives pour les bases de données consacrées à la versification. De nouvelles bases de données sont à développer, pour d’autres corpus, qui enrichiront les champs de la stylistique et de la poétique. / We present a statistical approach to Raymond Queneau’s versification. At the centre of the study is a MySQL database, which compiles descriptive data on the versification of the 15,996 lines of poetry published by Queneau during his lifetime. Until now databases dedicated to metrics have focussed on strict verse, leaving aside free verse and the specific issues it raises. Our database explores both categories together, providing the source for statistics, graphs and a comprehensive approach to the text.Raymond Queneau’s versification has not been studied to any great extent. It is a heterogeneous corpus, where the strict vs. free verse distinction does not apply consistently. Within these diverse forms, this study endeavours to find fixed features, recurring patterns, trends and routines. This exploration has resulted in the creation of a typology of Queneau’s verse, a description of how free and strict verse are related in his writing, the making of a model for his poems’ structures, and a study of his metrical choices’ meanings.Our results show that Queneau’s versification conveys various meanings. Through it he expresses his reluctance towards conventions and his choice of third path, bringing together conservatism and innovation.The approach behind this thesis also opens up new perspectives regarding databases dedicated to versification. Similar databases can be developed for other corpora, which will enrich both stylistics and poetics.
522

Contributions en morphologie mathématique pour l'analyse d'images multivariées / Topics in mathematical morphology for multivariate images

Velasco-Forero, Santiago 14 June 2012 (has links)
Cette thèse contribue au domaine de la morphologie mathématique et illustre comment la statistique multivariée et les techniques d'apprentissage numérique peuvent être exploitées pour concevoir un ordre dans l'espace des vecteurs et pour inclure les résultats d'opérateurs morphologiques au processus d'analyse d'images multivariées. En particulier, nous utilisons l'apprentissage supervisé, les projections aléatoires, les représentations tensorielles et les transformations conditionnelles pour concevoir de nouveaux types d'ordres multivariés et de nouveaux filtres morphologiques pour les images multi/hyperspectrales. Nos contributions clés incluent les points suivants :• Exploration et analyse d'ordre supervisé, basé sur les méthodes à noyaux.• Proposition d'un ordre nonsupervisé, basé sur la fonction de profondeur statistique calculée par projections aléatoires. Nous commençons par explorer les propriétés nécessaires à une image pour assurer que l'ordre ainsi que les opérateurs morphologiques associés, puissent être interprétés de manière similaire au cas d'images en niveaux de gris. Cela nous amènera à la notion de décomposition en arrière plan. De plus, les propriétés d'invariance sont analysées et la convergence théorique est démontrée.• Analyse de l'ordre supervisé dans les problèmes de correspondance morphologique de patrons, qui correspond à l'extension de l'opérateur tout-ou-rien aux images multivariées grâce à l‘utilisation de l'ordre supervisé.• Discussion sur différentes stratégies pour la décomposition morphologique d'images. Notamment, la décomposition morphologique additive est introduite comme alternative pour l'analyse d'images de télédétection, en particulier pour les tâches de réduction de dimension et de classification supervisée d'images hyperspectrales de télédétection.• Proposition d'un cadre unifié basé sur des opérateurs morphologiques, pour l'amélioration de contraste et pour le filtrage du bruit poivre-et-sel.• Introduction d'un nouveau cadre de modèles Booléens multivariés en utilisant une formulation en treillis complets. Cette contribution théorique est utile pour la caractérisation et la simulation de textures multivariées. / This thesis contributes to the field of mathematical morphology and illustrates how multivariate statistics and machine learning techniques can be exploited to design vector ordering and to include results of morphological operators in the pipeline of multivariate image analysis. In particular, we make use of supervised learning, random projections, tensor representations and conditional transformations to design new kinds of multivariate ordering, and morphological filters for color and multi/hyperspectral images. Our key contributions include the following points:• Exploration and analysis of supervised ordering based on kernel methods.• Proposition of an unsupervised ordering based on statistical depth function computed by random projections. We begin by exploring the properties that an image requires to ensure that the ordering and the associated morphological operators can be interpreted in a similar way than in the case of grey scale images. This will lead us to the notion of background/foreground decomposition. Additionally, invariance properties are analyzed and theoretical convergence is showed.• Analysis of supervised ordering in morphological template matching problems, which corresponds to the extension of hit-or-miss operator to multivariate image by using supervised ordering.• Discussion of various strategies for morphological image decomposition, specifically, the additive morphological decomposition is introduced as an alternative for the analysis of remote sensing multivariate images, in particular for the task of dimensionality reduction and supervised classification of hyperspectral remote sensing images.• Proposition of an unified framework based on morphological operators for contrast enhancement and salt- and-pepper denoising.• Introduces a new framework of multivariate Boolean models using a complete lattice formulation. This theoretical contribution is useful for characterizing and simulation of multivariate textures.
523

Sélection de variables à partir de données d'expression : signatures moléculaires pour le pronostic du cancer du sein et inférence de réseaux de régulation génique / Feature selection from gene expression data : molecular signatures for breast cancer prognosis and gene regulation network inference

Haury, Anne-Claire 14 December 2012 (has links)
De considérables développements dans le domaine des biotechnologies ont modifié notre approche de l'analyse de l'expression génique. En particulier, les puces à ADN permettent de mesurer l'expression des gènes à l'échelle du génome, dont l'analyse est confiée au statisticien.A partir de ces données dites en grande dimension, nous contribuons, dans cette thèse, à l'étude de deux problèmes biologiques. Nous traitons ces questions comme des problèmes d'apprentissage statistique supervisé et, en particulier, de sélection de variables, où il s'agit d'extraire, parmi toutes les variables - gènes - à disposition, celles qui sont nécessaires et suffisantes pour prédire la réponse à une question donnée.D'une part, nous travaillons à repérer des listes de gènes, connues sous le nom de signatures moléculaires et supposées contenir l'information nécessaire à la prédiction de l'issue du cancer du sein. La prédiction des événements métastatiques est en effet cruciale afin d'évaluer, dès l'apparition de la tumeur primaire, la nécessité d'un traitement par chimio-thérapie adjuvante, connue pour son agressivité. Nous présentons dans cette thèse trois contributions à ce problème. Dans la première, nous proposons une comparaison systématique des méthodes de sélection de variables, en termes de performance prédictive, de stabilité et d'interprétabilité biologique de la solution. Les deux autres contributions portent sur l'application de méthodes dites de parcimonie structurée (graph Lasso et k-support norm) au problème de sélection de signatures. Ces trois travaux discutent également l'impact de l'utilisation de méthodes d'ensemble (bootstrap et ré-échantillonnage).D'autre part, nous nous intéressons au problème d'inférence de réseau génique, consistant à déterminer la structure des interactions entre facteurs de transcription et gènes cibles. Les premiers sont des protéines ayant la faculté de réguler la transcription des gènes cibles, c'est-à-dire de l'activer ou de la réprimer. Ces régulations peuvent être représentées sous la forme d'un graphe dirigé, où les noeuds symbolisent les gènes et les arêtes leurs interactions. Nous proposons un nouvel algorithme, TIGRESS, classé troisième lors du challenge d'inférence de réseaux DREAM5 en 2010. Basé sur l'algorithme LARS couplé à une stratégie de ré-échantillonnage, TIGRESS traite chaque gène cible séparément, en sélectionnant ses régulateurs, puis assemble ces sous-problèmes pour prédire l'ensemble du réseau.Enfin, nous consacrons le dernier chapitre à une discussion ayant pour objectif de replacer les travaux de cette thèse dans un contexte bibliographique et épistémologique plus large. / Important developments in biotechnologies have moved the paradigm of gene expression analysis from a hypothesis-driven to a data-driven approach. In particular, DNA microarrays make it possible to measure gene expression on a genome-wide scale, leaving its analysis to statisticians.From these high-dimensional data, we contribute, in this thesis, to two biological problems. Both questions are considered from the supervised learning point of view. In particular, we see them as feature selection problems. Feature selection consists in extracting variables - here, genes - that contain relevant and sufficient information to predict the answer to a given question.First, we are concerned with selecting lists of genes, otherwise known as molecular signatures and assumed to contain the necessary amount of information to predict the outcome of breast cancer. It is indeed crucial to be able to estimate the chances for future metastatic events from the primary tumor, in order to evaluate the relevance of having the patient undergo an aggressive adjuvant chemotherapy. In this thesis, we present three contributions to this problem. First, we propose a systematic comparison of feature selection methods in terms of predictive performance, stability and biological interpretability of the solution they output. The second and third contributions focus on applying so-called structured sparsity methods (here graph Lasso and k-overlap norm) to the signature selection problem. In all three studies, we discuss the impact of using so-called Ensemble methods (bootstrap, resampling).Second, we are interested in the gene regulatory network inference problem that consists in determining patterns of interaction between transcription factors and target genes. The formers are proteins that regulate the transcription of target genes in that they can either activate or repress it. These regulations can be represented as a directed graph, where nodes symbolize genes and edges depict their interactions. We introduce a new algorithm named TIGRESS, that granted us the third place at the DREAM5 network inference challenge in 2010. Based on the LARS algorithm and a resampling procedure, TIGRESS considers each target gene independently by inferring its regulators and finally assembles individual predictions to provide an estimate of the entire network.Finally, in the last chapter, we provide a discussion that attempts to place the contributions of this thesis in a broader bibliographical and epistemological context.
524

Quantification of modelling uncertainties in turbulent flow simulations / Quantification des incertitudes de modélisation dans les écoulements turbulents

Edeling, Wouter Nico 14 April 2015 (has links)
Le but de cette thèse est de faire des simulations prédictives à partir de modèles de turbulence de type RANS (Reynolds-Averaged Navier-Stokes). Ces simulations font l'objet d'un traitement systématique du modèle, de son incertitude et de leur propagation par le biais d'un modèle de calcul prédictif aux incertitudes quantifiées. Pour faire cela, nous utilisons le cadre robuste de la statistique Bayesienne.La première étape vers ce but a été d'obtenir une estimation de l'erreur de simulations RANS basées sur le modèle de turbulence de Launder-Sharma k-e. Nous avons recherché en particulier à estimer des incertitudes pour les coefficients du modele, pour des écoulements de parois en gradients favorable et défavorable. Dans le but d'estimer la propagation des coefficients qui reproduisent le plus précisemment ces types d'écoulements, nous avons étudié 13 configurations différentes de calibrations Bayesienne. Chaque calibration était associée à un gradient de pression spécifique gràce à un modèle statistique. Nous representont la totalite des incertitudes dans la solution avec une boite-probabilite (p-box). Cette boîte-p représente aussi bien les paramètres de variabilité de l'écoulement que les incertitudes epistemiques de chaque calibration. L'estimation d'un nouvel écoulement de couche-limite est faite pour des valeurs d'incertitudes générées par cette information sur l'incertitude elle-même. L'erreur d'incertitude qui en résulte est consistante avec les mesures expérimentales.Cependant, malgré l'accord avec les mesures, l'erreur obtenue était encore trop large. Ceci est dû au fait que la boite-p est une prédiction non pondérée. Pour améliorer cela, nous avons développé une autre approche qui repose également sur la variabilité des coefficients de fermeture du modèle, au travers de multiples scénarios d'écoulements et de multiples modèles de fermeture. La variabilité est là encore estimée par le recours à la calibration Bayesienne et confrontée aux mesures expérimentales de chaque scénario. Cependant, un scénario-modèle Bayesien moyen (BMSA) est ici utilisé pour faire correspondre les distributions a posteriori à un scénario (prédictif) non mesuré. Contrairement aux boîtes-p, cette approche est une approche pondérée faisant appel aux probabilités des modèles de turbulence, déterminée par les données de calibration. Pour tous les scénarios de prédiction considérés, la déviation standard de l'estimation stochastique est consistante avec les mesures effectuées.Les résultats de l'approche BMSA expriment des barres d'erreur raisonnables. Cependant, afin de l'appliquer à des topologies plus complexes et au-delà de la classe des écoulements de couche-limite, des techniques de modeles de substitution doivent être mises en places. La méthode de la collocation Stochastique-Simplex (SSC) est une de ces techniques et est particulièrement robuste pour la propagation de distributions d'entrée incertaines dans un code de calcul. Néanmois, son utilisation de la triangulation Delaunay peut entrainer un problème de coût prohibitif pour les cas à plus de 5 dimensions. Nous avons donc étudié des moyens pour améliorer cette faible scalabilité. En premier lieu, c'est dans ce but que nous avons en premier proposé une technique alternative d'interpolation basée sur le probleme 'Set-Covering'. Deuxièmement, nous avons intégré la méthode SSC au cadre du modèle de réduction à haute dimension (HDMR) dans le but d'éviter de considérer tous les espaces de haute dimension en même temps.Finalement, avec l'utilisation de notre technique de modelisation de substitution (surrogate modelling technique), nous avons appliqué le cadre BMSA à un écoulement transsonique autour d'un profil d'aile. Avec cet outil nous sommes maintenant capable de faire des simulations prédictives d'écoulements auparavant trop coûteux et offrant des incertitudes quantifiées selon les imperfections des différents modèles de turbulence. / The goal of this thesis is to make predictive simulations with Reynolds-Averaged Navier-Stokes (RANS) turbulence models, i.e. simulations with a systematic treatment of model and data uncertainties and their propagation through a computational model to produce predictions of quantities of interest with quantified uncertainty. To do so, we make use of the robust Bayesian statistical framework.The first step toward our goal concerned obtaining estimates for the error in RANS simulations based on the Launder-Sharma k-e turbulence closure model, for a limited class of flows. In particular we searched for estimates grounded in uncertainties in the space of model closure coefficients, for wall-bounded flows at a variety of favourable and adverse pressure gradients. In order to estimate the spread of closure coefficients which reproduces these flows accurately, we performed 13 separate Bayesian calibrations. Each calibration was at a different pressure gradient, using measured boundary-layer velocity profiles, and a statistical model containing a multiplicative model inadequacy term in the solution space. The results are 13 joint posterior distributions over coefficients and hyper-parameters. To summarize this information we compute Highest Posterior-Density (HPD) intervals, and subsequently represent the total solution uncertainty with a probability box (p-box). This p-box represents both parameter variability across flows, and epistemic uncertainty within each calibration. A prediction of a new boundary-layer flow is made with uncertainty bars generated from this uncertainty information, and the resulting error estimate is shown to be consistent with measurement data.However, although consistent with the data, the obtained error estimates were very large. This is due to the fact that a p-box constitutes a unweighted prediction. To improve upon this, we developed another approach still based on variability in model closure coefficients across multiple flow scenarios, but also across multiple closure models. The variability is again estimated using Bayesian calibration against experimental data for each scenario, but now Bayesian Model-Scenario Averaging (BMSA) is used to collate the resulting posteriors in an unmeasured (prediction) scenario. Unlike the p-boxes, this is a weighted approach involving turbulence model probabilities which are determined from the calibration data. The methodology was applied to the class of turbulent boundary-layers subject to various pressure gradients. For all considered prediction scenarios the standard-deviation of the stochastic estimate is consistent with the measurement ground truth.The BMSA approach results in reasonable error bars, which can also be decomposed into separate contributions. However, to apply it to more complex topologies outside the class of boundary-layer flows, surrogate modelling techniques must be applied. The Simplex-Stochastic Collocation (SSC) method is a robust surrogate modelling technique used to propagate uncertain input distributions through a computer code. However, its use of the Delaunay triangulation can become prohibitively expensive for problems with dimensions higher than 5. We therefore investigated means to improve upon this bad scalability. In order to do so, we first proposed an alternative interpolation stencil technique based upon the Set-Covering problem, which resulted in a significant speed up when sampling the full-dimensional stochastic space. Secondly, we integrated the SSC method into the High-Dimensional Model-Reduction framework in order to avoid sampling high-dimensional spaces all together.Finally, with the use of our efficient surrogate modelling technique, we applied the BMSA framework to the transonic flow over an airfoil. With this we are able to make predictive simulations of computationally expensive flow problems with quantified uncertainty due to various imperfections in the turbulence models.
525

Systèmes mobiles émergents dans l’IoT : de l’interopérabilité au niveau middleware de communication à l’analyse de la qualité de service associée / Enabling emergent mobile systems in the IoT : from middleware-layer communication interoperability to associated QoS analysis

Bouloukakis, Georgios 01 August 2017 (has links)
Les applications de l'Internet des objets (IdO/IoT) se composent de divers objets en grande partie mobiles et avec des ressources limitées ou riches. Des tels dispositifs exigent des interactions légères et faiblement couplées en termes de temps, d'espace et de synchronisation. Les protocoles au niveau middleware de l'IoT prennent en charge un ou plusieurs types d'interaction assurant la communication entre objets. De plus, ils supportent différents niveaux de Qualité de service (QDS) pour cette communication par rapport aux ressources disponibles sur les dispositifs et les réseaux. Les dispositifs utilisant le même protocole middleware interagissent de manière homogène, car ils exploitent les mêmes caractéristiques fonctionnelles et de QDS. Cependant, la profusion de protocoles middleware pour l'IoT se traduit par des objets très hétérogènes. Cela nécessite des solutions d'interopérabilité avancées intégrées à des techniques de modélisation et d'évaluation de la QDS. La principale contribution de cette thèse est d'introduire une approche et de fournir une plate-forme pour la synthèse automatique des artefacts logiciels permettant l'interopérabilité. De tels artefacts permettent l'interconnexion entre des objets mobiles qui utilisent des protocoles hétérogènes au niveau middleware. Notre plate-forme prend en charge l'évaluation de l'effectivité de l'interconnexion en termes de la QDS de bout en bout. Plus précisément, nous dérivons des conditions formelles pour des interactions réussies, et nous permettons la modélisation et l'analyse des performances ainsi que le réglage du système de bout en bout, tout en considérant plusieurs paramètres système pour l'IoT mobile. / Internet of Things (IoT) applications consist of diverse Things including both resource-constrained/rich devices with a considerable portion being mobile. Such devices demand lightweight, loosely coupled interactions in terms of time, space, and synchronization. IoT middleware protocols support one or more interaction types (e.g., asynchronous messaging, streaming) ensuring Thing communication. Additionally, they introduce different Quality of Service (QoS) features for this communication with respect to available device and network resources. Things employing the same middleware protocol interact homogeneously, since they exploit the same functional and QoS features. However, the profusion of developed IoT middleware protocols introduces technology diversity which results in highly heterogeneous Things. Interconnecting heterogeneous Things requires mapping both their functional and QoS features. This calls for advanced interoperability solutions integrated with QoS modeling and evaluation techniques. The main contribution of this thesis is to introduce an approach and provide a supporting platform for the automated synthesis of interoperability software artifacts. Such artifacts enable the interconnection between mobile Things that employ heterogeneous middleware protocols. Our platform further supports evaluating the effectiveness of the interconnection in terms of end-to-end QoS. More specifically, we derive formal conditions for successful interactions, and we enable performance modeling and analysis as well as end-to-end system tuning, while considering several system parameters related to the mobile IoT.
526

Mécanique statistique des systèmes auto-gravitants / Statistical mechanics of self-gravitating systems

Champion, Maxime 29 June 2015 (has links)
L’étude des systèmes avec interactions gravitationnelles à l’aide des outils de la mécanique statistique repose jusqu’à présent sur l’utilisation d’une approximation de type champ moyen, qui néglige par construction les effets à courte portée de l’interaction. Pour commencer, je décris cette approximation dans son contexte historique, à savoir le modèle de la sphère isotherme. Puis, dans le cadre de la mécanique statistique du problème à N -corps, j’introduis un système de sphères dures massives, qui permet de s’affranchir de l’effondrement du système de points matériels. La validité de l’approche hydrostatique est discutée dans l’ensemble microcanonique, en introduisant une limite d’échelle adéquate.Cette étude permet de mettre en avant les critères de validité pour l’approche hydrostatique, et de constater qu’ils peuvent être mis en défaut dans les systèmes astrophysiques de type amas globulaire. Pour mieux les comprendre et les illustrer, je me concentre ensuite sur l’étude d’un modèle de bâtonnets durs massifs à une dimension, dont l’avantage est de permettre tous les calculs analytiques des différentes grandeurs statistiques. Ainsi, je mets en évidence comment l’approche de type champ moyen est mise en défaut pour certains états effondrés.Enfin, dans le but de tenter de décrire des amas globulaires, je développe un modèle comprenant des étoiles célibataires et des étoiles binaires. Ce modèle reproduit bien les effets qualitatifs attendus, et il constitue une première correction satisfaisante au modèle historique de la sphère isotherme. Je met aussi en évidence l’absence d’équilibre thermodynamique au sens strict pour les systèmes considérés. En conclusion, je réalise une discussion succincte de certains éléments dynamiques du problème. / The study of systems with gravitational interactions with the tools of mechanics statistics was based so far on the use of a mean-field approximation, which neglect by construction effects of the short-range interaction. To begin, I describe this approximation in its historical context, namely the model of isothermal sphere. Then, as part of statistical mechanics of many-body problem, I introduce a system of massive hard spheres, which overcomes the collapse of the point partcile system. The validity of the hydrostatic approach is discussed in the microcanonical ensemble, by introducing an appropriate scaling limit.This study helps to highlight conditions of validity of the the hydrostatic approach and show that those conditions may prove defective in astrophysical systems such globular clusters. To better understand and illustrate this point, I focus on the study of a model of massive hard sticks in one dimension, which has the advantage of allowing all analytical calculations of various statistical quantities. Thus, I highlight how the mean field type approach can be wrong for some collapsed states.Finally, in an attempt to describe globular clusters, I develop a model consisting of single stars and binaries stars systems. This model reproduces the expected qualitative effects, and is a good first correction of the historical model of the isothermal sphere. I also highlight the absence of thermodynamic equilibrium in the strict sense for the systems we study. In conclusion, I realize a brief discussion of some dynamical issues.
527

Statistical Inference of Defect Population for the Study and Simulation of the Low-Cycle Fatigue of a Cast Aluminium Alloy. / Inférence statistique de la population de défauts pour l'étude et la simulation de la fatigue oligocyclique d'un alliage d'aluminium de fonderie

Wilson, Pablo 17 January 2017 (has links)
Dans une optique d'allègement, les alliages d'aluminium de fonderie représentent une excellente solution technique. Ainsi, pour les culasses automobiles, les alliages d'aluminium Al-Si-Cu (Aluminium-Silicium-Cuivre) sont souvent choisis pour leurs performances mécaniques ainsi que leur bonne coulabilité. L'objectif de cette étude est d'améliorer la compréhension des mécanismes en fatigue oligocyclique pour définir un critère de fatigue adapté. Cet objectif est réalisé en combinant des essais (en fatigue oligocyclique à température ambiante et élevée), de nombreuses observations (microscopie à balayage électronique, microtomographie 3D rayons-X de laboratoire, suivi de fissure) et des simulations (génération de population de défauts et calculs éléments finis). À l'aide d'outils spécialement développés, la population de défauts (défauts de fonderie) est analysée en détails : la taille de défaut est modélisée par une distribution de Pareto généralisée et leurs positions par un processus ponctuel de type agrégé (démontrant que les défauts ne sont pas spatialement distribués de manière totalement aléatoire). Les processus ponctuels marqués permettent de montrer que tailles et positions de défauts ne sont pas corrélées. En utilisant ces informations statistiques, il est démontré que seuls les défauts proches de la surface sont critiques pour la fatigue oligocyclique. Un critère de fatigue basé sur l'énergie de déformation est utilisé pour prévoir la durée de vie en fatigue. Par la suite, un modèle de propagation de fissure permet de prendre en compte la taille de défaut dans la prévision de la durée de vie. Combiné à la statistique des défauts, ce modèle permet d'estimer la dispersion des essais. En dernier lieu, des essais et des simulations sur éprouvettes entaillées montrent que l'étude de la population de défauts est d'autant plus critique que le volume fortement sollicité mécaniquement devient plus faible. / In a search for lightweight materials, cast aluminium alloys have become an efficient solution for the automotive industry. For cylinder heads, cast aluminium alloys (Aluminium-Silicon-Copper based) are often chosen for their mechanical performances combined with their good casting abilities. This study aims at better understanding the damage mechanisms of Low-Cycle Fatigue (LCF) to help define a suitable design criterion. This is achieved by combining experiments (LCF tests at ambient and high temperature), various observations (Scanning electron microscopy, laboratory 3D X-ray microtomography, crack propagation monitoring) and numerical techniques (Finite element method simulations and defect population generation). Specifically designed statistical tools allow clearly identifying the defect (casting defects) population: the defect size can be modelled by a generalized Pareto distribution and their positions by a clustered point process (thus showing the defect locations are not completely random). Using marked point processes, it is also shown that defect size and defect position are uncorrelated. Using this statistical information and by systematic observations, it is proven that only defects close to the surface are critical for the fatigue life. The different interactions between cracks and defects are also studied, especially with respect to temperature. A strain energy based fatigue criterion is introduced and allows estimating the fatigue life. Then, a crack propagation model provides a mean of taking the defect size into account, which combined with the statistics of defects, gives an estimate of the fatigue life dispersion. Finally, notched specimens tests and simulations show the study of the defect population is even more critical as the highly loaded volume becomes smaller.
528

Adaptive Machine Learning for Credit Card Fraud Detection

Dal Pozzolo, Andrea 04 December 2015 (has links)
Billions of dollars of loss are caused every year by fraudulent credit card transactions. The design of efficient fraud detection algorithms is key for reducing these losses, and more and more algorithms rely on advanced machine learning techniques to assist fraud investigators. The design of fraud detection algorithms is however particularly challenging due to the non-stationary distribution of the data, the highly unbalanced classes distributions and the availability of few transactions labeled by fraud investigators. At the same time public data are scarcely available for confidentiality issues, leaving unanswered many questions about what is the best strategy. In this thesis we aim to provide some answers by focusing on crucial issues such as: i) why and how undersampling is useful in the presence of class imbalance (i.e. frauds are a small percentage of the transactions), ii) how to deal with unbalanced and evolving data streams (non-stationarity due to fraud evolution and change of spending behavior), iii) how to assess performances in a way which is relevant for detection and iv) how to use feedbacks provided by investigators on the fraud alerts generated. Finally, we design and assess a prototype of a Fraud Detection System able to meet real-world working conditions and that is able to integrate investigators’ feedback to generate accurate alerts. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
529

Epidémiologie des traumatismes: quelles contributions des (méthodes) statistiques aux approches descriptive et analytique?

Senterre, Christelle 28 November 2014 (has links)
L’épidémiologie de terrain peut être définie comme un ensemble de méthodes de collecte et de traitement de l’information combinant successivement les approches de l’épidémiologie descriptive mais aussi celles de l’épidémiologie analytique. La finalité de l’analyse descriptive sera de décrire et de quantifier la survenue du phénomène étudié dans une population donnée, permettant ainsi la formulation d’hypothèses préalables à la phase analytique. Phase, qui se focalisera sur les "associations" entre des "facteurs de risque" et la survenue du phénomène étudié. Dans la réponse aux questionnements posés ces deux phases les méthodes statistiques seront des outils incontournables. Afin que les résultats produits par ces analyses soient non seulement utiles mais aussi valables et utilisables, une bonne identification et une application adéquate des méthodes d’analyse s’avèreront primordiales. <p>A côté de ce constat méthodologique, il y a, dans le champ des traumatismes, tant en Belgique, qu’en pays en développement, la quasi absence d’informations pertinentes et rigoureuses pour documenter l’importance de cette problématique dans le champ de la santé. Pourtant, selon l’Organisation Mondiale de la Santé, plus de 5 millions de personnes décèdent des suites d’un traumatisme chaque année, avec 90% de ces décès survenant dans les pays à faible revenu ou à revenu intermédiaire. En Europe, les données montrent qu’une personne décède toutes les deux minutes des suites d’un traumatisme, et que pour chaque citoyen européen qui en meure, 25 personnes sont admises à l’hôpital, 145 sont traitées en ambulatoire et plus encore se font soigner ailleurs. <p> Au vu du double constat, qui est, d’une part, que les méthodes statistiques ne sont pas toujours exploitées correctement, et d’autre part, qu’il y a un manque d’informations appropriées et rigoureuses pour documenter l’ampleur du problème des traumatismes; ce travail de thèse poursuit l’objectif majeur, de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques (univariées, multivariables et multivariées) adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés, tant en pays industrialisés (exemple de la Belgique) qu’en pays en développement (exemple du Cameroun).<p>La partie classiquement appelée "résultats", correspond dans ce travail à deux chapitres distincts. Le premier fait la synthèse de ce qui a été objectivé par la revue de la littérature en termes de sources de données exploitées et de méthodes d’analyse statistique utilisées. Le second correspond à l’exploitation de quatre bases de données :une "généraliste et populationnelle" (First Health of Young People Survey - Cameroun), une "généraliste et hospitalière" (Résumé Hospitalier Minimum - Belgique), une "spécifique et populationnelle" (données issue de compagnies d’assurances belges), et une " spécifique et hospitalière" (Service SOS Enfants du CHU St Pierre - Belgique). <p>Les constats majeurs à l’issue de ce travail sont qu’il est possible de trouver dans le panel des méthodes statistiques "classiques", les méthodes nécessaires pour répondre aux questionnements de surveillance "en routine" en termes d’occurrence et de facteurs associés. L’accent devrait être mis sur une (meilleure) utilisation (justifiée, correcte et complète) de ces méthodes et sur une meilleure présentation (plus complète) des résultats. L’utilisation adéquate s’assurant d’une part, par une meilleure formation en méthodologie statistique pour les praticiens mais aussi par l’intégration, à part entière, des statisticiens dans les équipes de recherches. En ce qui concerne les sources de données utilisées, le potentiel d’information existe. Chaque source de données a ses avantages et ses inconvénients mais utilisées conjointement elles permettent d’avoir une vision plus globale du fardeau des traumatismes. L’accent devrait être mis sur l’amélioration de la disponibilité, la mise en commun mais aussi sur la qualité des données qui seraient disponibles. Dès lors, en vue de s’intégrer dans une dynamique de "Système de Surveillance des Traumatismes", une réflexion sur une utilisation globale (qu’elle soit couplée ou non) de ces différentes sources de données devrait être menée. <p>En Belgique, de nombreuses données, contenant de l’information sur les traumatismes, sont collectées en routine, au travers des données hospitalières, et ponctuellement, au travers de données d’enquêtes. Actuellement, ces données, dont la qualité reste discutable pour certaines, sont sous-utilisées dans le champ qui nous intéresse. Dans le futur, "plutôt que de ne rien savoir", il est important de continuer à exploiter l’existant pour produire et diffuser de l’information, mais cette exploitation et cette diffusion doivent s’accompagner non seulement de réflexion mais aussi d’action sur la qualité des données. En ce qui concerne l’utilisation des méthodes statistiques, nous préconisons une double approche :l’intégration et la formation. Par intégration, nous entendons le fait qu’il faut d’une part considérer le statisticien comme un professionnel ayant à la fois des compétences techniques pointues sur les méthodes, qui pourront être mises à disposition pour garantir le bon déroulement de la collecte et de l’analyse des données, mais aussi comme un chercheur capable de s’intéresser plus spécifiquement à des problématiques de santé publique, comme la problématique des traumatismes par exemple. Par formation, nous entendons le fait qu’il est essentiel d’augmenter et/ou de parfaire non seulement les connaissances des futurs professionnels de la santé (publique) en cours de formation mais aussi celles des praticiens déjà actifs sur le terrain et dès lors premiers acteurs de la collecte de l’information et de son utilisation dans une démarche de prise de décision, de détermination de priorité d’action et d’évaluation. <p>L’objectif majeur de ce travail de thèse était de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés. En ayant discuté de l’existence de plusieurs sources potentielles de données en Belgique et en ayant appliqué une série de méthodes statistiques univariées, multivariables et multivariées, sur quelques-unes de celles-ci, nous avons montré qu’il était possible de documenter le fardeau des traumatismes au-travers de résultats utiles mais aussi valables et utilisables dans une approche de santé publique.<p> / Doctorat en Sciences de la santé publique / info:eu-repo/semantics/nonPublished
530

Fluctuation theorem for quantum electron transport in mesoscopic circuits / Théorème de fluctuation pour le transport d'électrons quantique dans les circuits mésoscopiques

Bulnes Cuetara, Gregory 13 September 2013 (has links)
Dans cette thèse nous étudions les propriétés statistique des courants dans des systèmes à l'échelle mésoscopique. Nous utilisons le formalisme de la statistique de comptage afin de caractériser les fluctuations de courant importantes à cette échelle. Celle-ci est obtenue en partant du Hamiltonien microscopique décrivant la dynamique des électrons sur le circuit considéré dans le régime quantique.<p>Nous considérons deux modèles particuliers de circuits à deux canaux, chacun comportant deux électrodes. Le premier modèle étudié est constitué de deux plots quantiques en couplage capacitif, et chacun échangeant des électrons avec deux électrodes. Le deuxième modèle est quant à lui constitué d'un double plot quantique connecté à deux électrodes et modulant le courant dans un point quantique formé lui-même par la jonction de deux électrodes. Pour ces deux modèles, chaque canal est soumis à une différence de potentiel, ou force thermodynamique, générant des courants stationnaires fluctuants.<p>La statistique des courants pour ces deux modèles est obtenue en utilisant une équation maîtresse pour les probabilités d'occupation dans les plots quantiques et le nombre d'électrons transférés entre ceux-ci et les électrodes. Nous vérifions que la distribution de probabilité jointes des courants dans chaque canal ainsi obtenue vérifie un théorème de fluctuation dans la limite des temps long faisant intervenir les forces thermodynamique des deux canaux.<p>La question de l'émergence d'un théorème de fluctuation effectif pour la distribution de probabilité marginale du courant dans un des deux canaux est également investiguée. Nous montrons que dans la limite ou le rapport des courants est grande, un tel théorème de fluctuation effectif est satisfait individuellement pour le canal de plus faible courant comme observé expérimentalement. Ce théorème fait intervenir une affinité effective dépendante des forces thermodynamiques des deux canaux et des spécificités du modèle considéré. Son étude détaillée est faite pour les deux modèles mentionnés.<p>Par ailleurs, nous posons également la question de l'existence d'un théorème de fluctuation pour des temps de mesure finis. Nous montrons qu'en présence d'un théorème de fluctuation dans la limite de temps longs, un critère peut être énoncé sur la condition initiale des plots quantiques menant à un théorème de fluctuations à temps fini. Ce critère est également étendu au cas des théorèmes de fluctuations effectifs.<p>Finalement, nous faisons une étude thermodynamique du modèle composé d'un double plot quantique en présence de différences de potentiel électrique et de température entre les électrodes du circuit. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished

Page generated in 0.0722 seconds