Spelling suggestions: "subject:"probabilistic""
181 |
On operational properties of quantitative extensions of lambda-calculusAlberti, Michele 05 December 2014 (has links)
Cette thèse porte sur les propriétés opérationnelles de deux extensions quantitatives du λ-calcul pur : le λ-calcul algébrique et le λ-calcul probabiliste.Dans la première partie, nous étudions la théorie de la β-réduction dans le λ-calcul algébrique. Ce calcul permet la formation de combinaisons linéaires finies de λ-termes. Bien que le système obtenu jouisse de la propriété de Church-Rosser, la relation de réduction devient triviale en présence de coefficients négatifs, ce qui la rend impropre à définir une notion de forme normale. Nous proposons une solution qui permet la définition d'une relation d'équivalence sur les termes, partielle mais cohérente. Nous introduisons une variante de la β-réduction, restreinte aux termes canoniques, dont nous montrons qu'elle caractérise en partie la notion de forme normale précédemment établie, démontrant au passage un théorème de factorisation.Dans la seconde partie, nous étudions la bisimulation et l'équivalence contextuelle dans un λ-calcul muni d'un choix probabliste. Nous donnons une technique pour établir que la bisimilarité applicative probabiliste est une congruence. Bien que notre méthode soit adaptée de celle de Howe, certains points techniques sont assez différents, et s'appuient sur des propriétés non triviales de « désintrication » sur les ensembles de nombres réels. Nous démontrons finalement que, bien que la bisimilarité soit en général strictement plus fine que l'équivalence contextuelle, elles coïncident sur les λ-termes purs. L'égalité correspondante est celle induite par les arbres de Lévy-Longo, généralement considérés comme l'équivalence extensionnelle la plus fine pour les λ-termes en évaluation paresseuse. / In this thesis we deal with the operational behaviours of two quantitative extensions of pure λ-calculus, namely the algebraic λ-calculus and the probabilistic λ-calculus.In the first part, we study the β-reduction theory of the algebraic λ-calculus, a calculus allowing formal finite linear combinations of λ-terms to be expressed. Although the system enjoys the Church-Rosser property, reduction collapses in presence of negative coefficients. We exhibit a solution to the consequent loss of the notion of (unique) normal form, allowing the definition of a partial, but consistent, term equivalence. We then introduce a variant of β-reduction defined on canonical terms only, which we show partially characterises the previously established notion of normal form. In the process, we prove a factorisation theorem.In the second part, we study bisimulation and context equivalence in a λ-calculus endowed with a probabilistic choice. We show a technique for proving congruence of probabilistic applicative bisimilarity. While the technique follows Howe's method, some of the technicalities are quite different, relying on non-trivial "disentangling" properties for sets of real numbers. Finally we show that, while bisimilarity is in general strictly finer than context equivalence, coincidence between the two relations is achieved on pure λ-terms. The resulting equality is that induced by Lévy-Longo trees, generally accepted as the finest extensional equivalence on pure λ-terms under a lazy regime.
|
182 |
Approche probabiliste du comportement mécanique des composites thermoplastiques assemblés par soudage laser / Probabilistic approach of thermoplastics composites mechanical behaviour assemblied by laser weldingOumarou Mairagouna, Mamane 09 November 2012 (has links)
Les matériaux composites à matrice thermoplastique occupent de plus en plus un large domaine d'application grâce à leur aptitude à être recyclés et à être assemblés par fusion du polymère, encore appelée soudage. Parmi ces modes d'assemblage, le soudage laser propose de meilleures alternatives. Car, outre le fait qu'elle assure une meilleure tenue mécanique et un meilleur aspect esthétique, cette technique d'assemblage ne crée pas d'endommagement au sein du composite, à l'instar de certaines méthodes comme le rivetage, le vissage ou le boulonnage.L'objectif de ce travail est de proposer un modèle de rupture probabiliste de l'assemblage par faisceau laser d'un composite thermoplastique à fibres continues.Une description fine du matériau est d'abord effectuée par une approche multi-échelles dont le but était de pouvoir prédire le comportement macroscopique du composite de base connaissant les fluctuations locales de sa microstructure.La caractérisation mécanique de l'assemblage est ensuite effectuée par des essais multiaxiaux au moyen d'un dispositif spécifiques (Arcan-Mines) qui prend en compte l'état de confinement du joint soudé. Ce qui a permis de proposer un modèle de comportement élasto-plastique basé sur le critère de Drucker-Prager généralisé.Des tests par émission acoustique ont permis de faire l'hypothèse de l'existence d'un maillon faible au sein du joint soudé. La rupture est alors évaluée par le modèle statistique de Weibull. Un critère de rupture probabiliste basé sur le premier et le second invariant du tenseur des contraintes est finalement proposé. / Thermoplastic composite materials are more and more used in many fields of application as a result of their recyclability and their joining capabilities by polymer fusion, witch is called welding. Among these assembly types, the laser welding offers better alternatives. Because, beyond the high level mechanical strength and the good aesthetic appearance it provides, this assembly technique will not create damage within the composite material, like certain methods such riveting, drilling or bolting.The purpose of this study is to propose a probabilistic failure model of laser beam assembly of a continuous fibres thermoplastic composite.A detailed description of the material is first performed by a multi-scale approach, which was aiming to predict the macroscopic behaviour of the based composite knowing the local fluctuations of its microstructure.The mechanical characterisation of the assembly is then conducted through multi-axial tests using a special device (Arcan-Mines) which takes into account the confinement of the laser weld seam. This enables proposing a generalized Drucker-Prager élasto-plastic model.Acoustic emission tests allowed making the assumption of weak link model within the weld seam. The failure is then evaluated through the Weibull statistical model.Probabilistic failure criterion based on the first and the second invariants of stress tensor is finally proposed
|
183 |
Influence d'accidents géométriques et du mode de chargement sur le comportement en fatigue à grand nombre de cycles d'un acier inoxydable austénitique 316L / Influence of defects and loading paths on the high cycle fatigue behavior of an austenitic stainless steel 316LGuerchais, Raphaël 18 July 2014 (has links)
L'objectif de ces travaux de thèse est d'étudier l'influence de la microstructure et de défauts géométriques sur le comportement en fatigue à grand nombre de cycles (FGNC) d'un acier inoxydable austénitique 316L. La méthodologie proposée s'appuie sur des simulations par éléments finis (EF) d'agrégats polycristallins qui permettent de décrire les champs mécaniques à l'échelle des mécanismes impliqués dans les processus d'amorçage de fissures de fatigue.Une étude numérique préliminaire, s'appuyant sur des données expérimentales issues de la littérature, est conduite sur un cuivre électrolytique à l'aide de simulations numériques d'agrégats polycristallins en 2D. L'effet du trajet de chargement et de défauts artificiels de taille proche ou légèrement supérieure à celle de la microstructure sur les réponses mécaniques mésoscopiques sont analysés. Les capacités de prédiction de quelques critères de fatigue, s'appuyant sur des quantités mécaniques mésoscopiques, sont évaluées. Il est mis en évidence que les limites de fatigue macroscopiques prédites par un critère de fatigue probabiliste sont en accord avec les tendances expérimentales observées en fatigue multiaxiale et en présence de défauts.Une campagne expérimentale a été menée sur un acier austénitique 316L. Des essais de fatigue oligocyclique sont conduits afin de caractériser le comportement élasto-plastique du matériau. Des essais de FGNC, utilisant des éprouvettes avec et sans défaut de surface (défaut artificiel hémisphérique) ont été effectués pour estimer les limites de fatigue dans différentes conditions de sollicitation (traction, torsion, traction et torsion combinée, traction biaxiale) et pour plusieurs rayons de défaut. Dans le but de compléter la caractérisation du matériau, la microstructure est étudiée à l'aide d'analyses EBSD et la texture cristallographique est mesurée par diffraction des rayons X. Ces résultats expérimentaux sont utilisés pour reproduire, avec des simulations EF, les essais de FGNC sur des microstructures 2D et 3D représentatives de l'acier austénitique. L'hétérogénéité de quantités mécaniques mésoscopiques pertinentes en fatigue est discutée avec une attention particulière sur l'effet des défauts. L'approche probabiliste est appliquée aux résultats des modèles EF pour quantifier l'effet de la taille du défaut, pour différents trajets de chargement. La pertinence, vis-à-vis des observations expérimentales, des distributions de la limite de fatigue prédites est évaluée. / The aim of this study is to analyze the influence of both the microstructure and defects on the high cycle fatigue (HCF) behaviour of a 316L austenitic stainless steel thanks to finite element (FE) simulations of polycrystalline aggregates.%The scatter encountered in the HCF behavior of metallic materials is often explained by the anisotropic elasto-plastic behavior of individual grains leading to a highly heterogeneous distribution of plastic slip.Since fatigue crack initiation is a local phenomenon, intimately related to the plastic activity at the crystal scale, it seems relevant to rely on this kind of modeling to evaluate the mechanical quantities.A preliminary numerical study, based on experimental data drawn from the litterature, was conducted on an electrolytic copper using simulations of 2D polycrystalline aggregates. The effect of the loading path and small artificial defects on the mesoscopic mechanical responses have been analyzed separately. Moreover, the predictive capabilities of some fatigue criteria, relying on the mesoscopic mechanical responses, has been evaluated. It was shown that the macroscopic fatigue limits predicted by a probabilistic fatigue criterion are in accordance with the experimental trends observed in multiaxial fatigue or in the presence of small defects.An experimental campaign is undertaken on an austenitic steel 316L. Low cycle fatigue tests are conducted in order to characterize the elasto-plastic behavior of the material. Load-controled HCF tests, using both smooth specimens and specimens containing an artificial hemispherical surface defect, are carried out to estimate the fatigue limits under various loading conditions (tension, torsion, combined tension and torsion, biaxial tension) and several defect radii. To complete the characterization of the material, the microstructure is studied thanks to EBSD analyzes and the cristallographic texture is measured by X-ray diffraction. These experimental data are used to reproduce, with FE simulations, the HCF tests on 2D and 3D microstructures representative of the austenitic steel. The heterogeneity of the mesoscopic mechanical quantities relevant in fatigue are discussed in relation to the modeling. The results from the FE models are then used along with the probabilistic mesomechanics approach to quantify the defect size effect for several loading paths. The relevance, with respect to the experimental observations, of the predicted fatigue strength distributions is assessed.
|
184 |
Caractérisation et modélisation des propriétés à la fatigue à grand nombre de cycles des aciers cémentés à partir d'essais d'auto-échauffement sous sollicitations cycliques / Characterization and model of high cycle fatigue of carburizing steel with self-heating measurement under cyclic loadGraux, Nicolas 24 November 2017 (has links)
Le dimensionnement en fatigue à grand nombre de cycles d'un contact roulant entre des éléments ayant subi un traitement thermochimique de cémentation s'avère rapidement complexe.D'une part le traitement de cémentation apporte une hétérogénéité de propriété dans les couches supérieures de la pièce qui dépend du protocole utilisé. D'autre part le chargement de contact roulant est un chargement complexe dont le mode de défaillance en fatigue s'initie en sous-couche.Afin de limiter le temps de la caractérisation des champs de propriétés en fatigue, l'utilisation des mesures d'auto-échauffement sous sollicitation cyclique ainsi que leur interprétation par un modèle probabiliste à deux échelles est proposé. Néanmoins de par l'hétérogénéité du matériau et de par la particularité du chargement il peut s'avérer délicat d'appliquer une telle méthode d'évaluation. ll est alors proposé d'explorer ces deux difficultés de manière séparé.Pour prendre en compte l'hétérogénéité matériaux, un protocole d'analyse de courbe d'auto-échauffement basé sur une variante d'un modèle probabiliste à deux échelles et sur les mesures de taux de carbone a été proposé. Les paramètres du modèle ont été identifiés sur une classe d'acier via des mesures d'auto-échauffement réalisées sur des éprouvettes représentatives de l'hétérogénéité du au traitement de cémentation. Enfin le modèle a été validé par comparaison avec des points de fatigue expérimentaux.En ce qui concerne le chargement de contact roulant, les difficultés pour réaliser une mesure d'auto-échauffement ont mené à effectuer une première campagne de mesure sur le cas intermédiaire du contact répété. A l'aide d'un modèle analytique simple, l'évolution du champ de température a pu être reliée à un terme source de chaleur moyen dont le lien avec les mécanismes de fatigue reste à démontrer. Finalement, des prototypes de machine de contact roulant dédiés aux mesures d'auto-échauffement ont été proposés. Les mesures réalisées sur ces dernières et leur interprétation laissent à penser qu'il sera possible d'identifier des propriétés de fatigue à partir de mesure d'auto-échauffement. / The rolling contact fatigue prediction between two carburizing part quickly becomes complex.On one hand, the carburizing treatment give heterogeneous properties in surface layer depending on the treatment protocol. On the other hand, the rolling contact load is a complex load with a fatigue initiation in the sub-layer. To limit the duration of the field fatigue properties characterization, self-heating measurements under cycle load are used and their interpretation by a probabilistic two scales model is proposed. Nevertheless applying this fatigue evaluation method on heterogeneous material and for rolling contact load can be difficult. ln first approach those difficulties are split.To take into account the material heterogeneity, an analysis based on a variation of one probabilistic two scales model and on carbon rate measurement is proposed. Model parameters are identified on one steel class with self-heating measurement made on specimens representative of carburizing material heterogeneity. Finally the model is validated by comparison with experimental fatigue point.Making self-heating measurement for rolling contact load is complex. Consequently a first self-heating measurement campaign is made on the intermediary case of repeated contact. With a simple analytic model, the temperature field evolution can be linked to a mean heat source whose link with fatigue mechanism must be proven. Finally, rolling contact machine prototypes are proposed. Self-heating measurement made on those prototypes and their interpretation suggest that it will be possible to identify fatigue properties with self-heating measurement.
|
185 |
Applications de l'intelligence artificielle à la détection et l'isolation de pannes multiples dans un réseau de télécommunications / Application of artificial intelligence to the detection and isolation of multiple faults in a telecommunications networkTembo Mouafo, Serge Romaric 23 January 2017 (has links)
Les réseaux de télécommunication doivent être fiables et robustes pour garantir la haute disponibilité des services. Les opérateurs cherchent actuellement à automatiser autant que possible les opérations complexes de gestion des réseaux, telles que le diagnostic de pannes.Dans cette thèse nous nous sommes intéressés au diagnostic automatique de pannes dans les réseaux d'accès optiques de l'opérateur Orange. L'outil de diagnostic utilisé jusqu'à présent, nommé DELC, est un système expert à base de règles de décision. Ce système est performant mais difficile à maintenir en raison, en particulier, du très grand volume d'informations à analyser. Il est également impossible de disposer d'une règle pour chaque configuration possible de panne, de sorte que certaines pannes ne sont actuellement pas diagnostiquées.Dans cette thèse nous avons proposé une nouvelle approche. Dans notre approche, le diagnostic des causes racines des anomalies et alarmes observées s'appuie sur une modélisation probabiliste, de type réseau bayésien, des relations de dépendance entre les différentes alarmes, compteurs, pannes intermédiaires et causes racines au niveau des différents équipements de réseau. Ce modèle probabiliste a été conçu de manière modulaire, de façon à pouvoir évoluer en cas de modification de l'architecture physique du réseau.Le diagnostic des causes racines des anomalies est effectué par inférence, dans le réseau bayésien, de l'état des noeuds non observés au vu des observations (compteurs, alarmes intermédiaires, etc...) récoltées sur le réseau de l'opérateur. La structure du réseau bayésien, ainsi que l'ordre de grandeur des paramètres probabilistes de ce modèle, ont été déterminés en intégrant dans le modèle les connaissances des experts spécialistes du diagnostic sur ce segment de réseau. L'analyse de milliers de cas de diagnostic de pannes a ensuite permis de calibrer finement les paramètres probabilistes du modèle grâce à un algorithme EM (Expectation Maximization).Les performances de l'outil développé, nommé PANDA, ont été évaluées sur deux mois de diagnostic de panne dans le réseau GPON-FTTH d'Orange en juillet-août 2015. Dans la plupart des cas, le nouveau système, PANDA, et le système en production, DELC, font un diagnostic identique. Cependant un certain nombre de cas sont non diagnostiqués par DELC mais ils sont correctement diagnostiqués par PANDA. Les cas pour lesquels les deux systèmes émettent des diagnostics différents ont été évalués manuellement, ce qui a permis de démontrer dans chacun de ces cas la pertinence des décisions prises par PANDA. / Telecommunication networks must be reliable and robust to ensure high availability of services. Operators are currently searching to automate as much as possible, complex network management operations such as fault diagnosis.In this thesis we are focused on self-diagnosis of failures in the optical access networks of the operator Orange. The diagnostic tool used up to now, called DELC, is an expert system based on decision rules. This system is efficient but difficult to maintain due in particular to the very large volume of information to analyze. It is also impossible to have a rule for each possible fault configuration, so that some faults are currently not diagnosed.We proposed in this thesis a new approach. In our approach, the diagnosis of the root causes of malfunctions and alarms is based on a Bayesian network probabilistic model of dependency relationships between the different alarms, counters, intermediate faults and root causes at the level of the various network component. This probabilistic model has been designed in a modular way, so as to be able to evolve in case of modification of the physical architecture of the network. Self-diagnosis of the root causes of malfunctions and alarms is made by inference in the Bayesian network model of the state of the nodes not observed in view of observations (counters, alarms, etc.) collected on the operator's network. The structure of the Bayesian network, as well as the order of magnitude of the probabilistic parameters of this model, were determined by integrating in the model the expert knowledge of the diagnostic experts on this segment of the network. The analysis of thousands of cases of fault diagnosis allowed to fine-tune the probabilistic parameters of the model thanks to an Expectation Maximization algorithm. The performance of the developed probabilistic tool, named PANDA, was evaluated over two months of fault diagnosis in Orange's GPON-FTTH network in July-August 2015. In most cases, the new system, PANDA, and the system in production, DELC, make an identical diagnosis. However, a number of cases are not diagnosed by DELC but are correctly diagnosed by PANDA. The cases for which self-diagnosis results of the two systems are different were evaluated manually, which made it possible to demonstrate in each of these cases the relevance of the decisions taken by PANDA.
|
186 |
Incomplete and uncertain information in relational databasesZimanyi, Esteban 01 January 1992 (has links)
<p align="justify">In real life it is very often the case that the available knowledge is imperfect in the sense that it represents multiple possible states of the external world, yet it is unknown which state corresponds to the actual situation of the world. Imperfect knowledge can be of two different categories. Knowledge is incomplete if it represents different states, one of which is true in the external world. On the contrary, knowledge is uncertain if it represents different states which may be satisfied or are likely to be true in the external world.</p><p><p align="justify">Imperfect knowledge can be considered under two different perspectives: using either an algebraic or a logical approach. We present both approaches in relation with the standard relational model, providing the necessary background for the subsequent development.</p><p><p align="justify">The study of imperfect knowledge has been an active area of research, in particular in the context of relational databases. However, due to the complexity of manipulating imperfect knowledge, little practical results have been obtained so far. In this thesis we provide a survey of the field of incompleteness and uncertainty in relational databases;it can be used also as an introductory tutorial for understanding the intuitive semantics and the problems encountered when representing and manipulating such imperfect knowledge. The survey concentrates in giving an unifying presentation of the different approaches and results found in the literature, thus providing a state of the art in the field.</p><p><p align="justify">The rest of the thesis studies in detail the manipulation of one type of incomplete knowledge, namely disjunctive information, and one type of uncertain knowledge, namely probabilistic information. We study both types of imperfect knowledge using similar approaches, that is through an algebraic and a logical framework. The relational algebra operators are generalized for disjunctive and probabilistic relations, and we prove the correctness of these generalizations. In addition, disjunctive and probabilistic databases are formalized using appropriate logical theories and we give sound and complete query evaluation algorithms.</p><p><p align="justify">A major implication of these studies is the conviction that viewing incompleteness and uncertainty as different facets of the same problem would allow to achieve a deeper understanding of imperfect knowledge, which is absolutely necessary for building information systems capable of modeling complex real-life situations. </p> / Doctorat en sciences, Spécialisation Informatique / info:eu-repo/semantics/nonPublished
|
187 |
Anatomy of smooth integersMehdizadeh, Marzieh 07 1900 (has links)
Dans le premier chapitre de cette thèse, nous passons en revue les outils de la théorie analytique
des nombres qui seront utiles pour la suite. Nous faisons aussi un survol des entiers
y−friables, c’est-à-dire des entiers dont chaque facteur premier est plus petit ou égal à y.
Au deuxième chapitre, nous présenterons des problèmes classiques de la théorie des nombres
probabiliste et donnerons un bref historique d’une classe de fonctions arithmétiques sur un
espace probabilisé.
Le problème de Erdos sur la table de multiplication demande quel est le nombre d’entiers
distincts apparaissant dans la table de multiplication N × N. L’ordre de grandeur de cette
quantité a été déterminé par Kevin Ford (2008). Dans le chapitre 3 de cette thèse, nous
étudions le nombre d’ensembles y−friables de la table de multiplication N × N. Plus concrètement,
nous nous concentrons sur le changement du comportement de la fonction A(x, y)
par rapport au domaine de y, où A(x, y) est une fonction qui compte le nombre d’entiers
y− friables distincts et inférieurs à x qui peuvent être représentés comme le produit de deux
entiers y− friables inférieurs à p
x.
Dans le quatrième chapitre, nous prouvons un théorème de Erdos-Kac modifié pour l’ensemble
des entiers y− friables. Si !(n) est le nombre de facteurs premiers distincts de n, nous prouvons
que la distribution de !(n) est gaussienne pour un certain domaine de y en utilisant la
méthode des moments. / The object of the first chapter of this thesis is to review the materials and tools in analytic
number theory which are used in following chapters. We also give a survey on the development
concerning the number of y−smooth integers, which are integers free of prime factors
greater than y.
In the second chapter, we shall give a brief history about a class of arithmetical functions
on a probability space and we discuss on some well-known problems in probabilistic number
theory.
We present two results in analytic and probabilistic number theory.
The Erdos multiplication table problem asks what is the number of distinct integers appearing
in the N × N multiplication table. The order of magnitude of this quantity was determined
by Kevin Ford (2008). In chapter 3 of this thesis, we study the number of y−smooth entries
of the N × N multiplication. More concretely, we focus on the change of behaviour of the
function A(x,y) in different ranges of y, where A(x,y) is a function that counts the number
of distinct y−smooth integers less than x which can be represented as the product of two
y−smooth integers less than p
x.
In Chapter 4, we prove an Erdos-Kac type of theorem for the set of y−smooth integers. If
!(n) is the number of distinct prime factors of n, we prove that the distribution of !(n) is
Gaussian for a certain range of y using method of moments.
|
188 |
Multivariate analysis of high-throughput sequencing data / Analyses multivariées de données de séquençage à haut débitDurif, Ghislain 13 December 2016 (has links)
L'analyse statistique de données de séquençage à haut débit (NGS) pose des questions computationnelles concernant la modélisation et l'inférence, en particulier à cause de la grande dimension des données. Le travail de recherche dans ce manuscrit porte sur des méthodes de réductions de dimension hybrides, basées sur des approches de compression (représentation dans un espace de faible dimension) et de sélection de variables. Des développements sont menés concernant la régression "Partial Least Squares" parcimonieuse (supervisée) et les méthodes de factorisation parcimonieuse de matrices (non supervisée). Dans les deux cas, notre objectif sera la reconstruction et la visualisation des données. Nous présenterons une nouvelle approche de type PLS parcimonieuse, basée sur une pénalité adaptative, pour la régression logistique. Cette approche sera utilisée pour des problèmes de prédiction (devenir de patients ou type cellulaire) à partir de l'expression des gènes. La principale problématique sera de prendre en compte la réponse pour écarter les variables non pertinentes. Nous mettrons en avant le lien entre la construction des algorithmes et la fiabilité des résultats.Dans une seconde partie, motivés par des questions relatives à l'analyse de données "single-cell", nous proposons une approche probabiliste pour la factorisation de matrices de comptage, laquelle prend en compte la sur-dispersion et l'amplification des zéros (caractéristiques des données single-cell). Nous développerons une procédure d'estimation basée sur l'inférence variationnelle. Nous introduirons également une procédure de sélection de variables probabiliste basée sur un modèle "spike-and-slab". L'intérêt de notre méthode pour la reconstruction, la visualisation et le clustering de données sera illustré par des simulations et par des résultats préliminaires concernant une analyse de données "single-cell". Toutes les méthodes proposées sont implémentées dans deux packages R: plsgenomics et CMF / The statistical analysis of Next-Generation Sequencing data raises many computational challenges regarding modeling and inference, especially because of the high dimensionality of genomic data. The research work in this manuscript concerns hybrid dimension reduction methods that rely on both compression (representation of the data into a lower dimensional space) and variable selection. Developments are made concerning: the sparse Partial Least Squares (PLS) regression framework for supervised classification, and the sparse matrix factorization framework for unsupervised exploration. In both situations, our main purpose will be to focus on the reconstruction and visualization of the data. First, we will present a new sparse PLS approach, based on an adaptive sparsity-inducing penalty, that is suitable for logistic regression to predict the label of a discrete outcome. For instance, such a method will be used for prediction (fate of patients or specific type of unidentified single cells) based on gene expression profiles. The main issue in such framework is to account for the response to discard irrelevant variables. We will highlight the direct link between the derivation of the algorithms and the reliability of the results. Then, motivated by questions regarding single-cell data analysis, we propose a flexible model-based approach for the factorization of count matrices, that accounts for over-dispersion as well as zero-inflation (both characteristic of single-cell data), for which we derive an estimation procedure based on variational inference. In this scheme, we consider probabilistic variable selection based on a spike-and-slab model suitable for count data. The interest of our procedure for data reconstruction, visualization and clustering will be illustrated by simulation experiments and by preliminary results on single-cell data analysis. All proposed methods were implemented into two R-packages "plsgenomics" and "CMF" based on high performance computing
|
189 |
Approches multi-atlas fondées sur l'appariement de blocs de voxels pour la segmentation et la synthèse d'images par résonance magnétique de tumeurs cérébrales / Multi-atlas patch-based segmentation and synthesis of brain tumor MR imagesCordier, Nicolas 02 December 2015 (has links)
Cette thèse s'intéresse au développement de méthodes automatiques pour la segmentation et la synthèse d'images par résonance magnétique de tumeurs cérébrales. La principale perspective clinique de la segmentation des gliomes est le suivi de la vitesse d'expansion diamétrique dans le but d'adapter les solutions thérapeutiques. A cette fin, la thèse formalise au moyen de modèles graphiques probabilistes des approches de segmentation multi-atlas fondées sur l'appariement de blocs de voxels. Un premier modèle probabiliste prolonge à la segmentation automatique de régions cérébrales pathologiques les approches multi-atlas classiques de segmentation de structures anatomiques. Une approximation de l'étape de marginalisation remplace la notion de fenêtre de recherche locale par un tamisage par atlas et par étiquette. Un modèle de détection de gliomes fondé sur un a priori spatial et des critères de pré-sélection de blocs de voxels permettent d'obtenir des temps de calcul compétitifs malgré un appariement non local. Ce travail est validé et comparé à l'état de l'art sur des bases de données publiques. Un second modèle probabiliste, symétrique au modèle de segmentation, simule des images par résonance magnétique de cas pathologiques, à partir d'une unique segmentation. Une heuristique permet d'estimer le maximum a posteriori et l'incertitude du modèle de synthèse d'image. Un appariement itératif des blocs de voxels renforce la cohérence spatiale des images simulées. Le réalisme des images simulées est évalué avec de vraies IRM et des simulations de l'état de l'art. Le raccordement d'un modèle de croissance de tumeur permet de créer des bases d'images annotées synthétiques. / This thesis focuses on the development of automatic methods for the segmentation and synthesis of brain tumor Magnetic Resonance images. The main clinical perspective of glioma segmentation is growth velocity monitoring for patient therapy management. To this end, the thesis builds on the formalization of multi-atlas patch-based segmentation with probabilistic graphical models. A probabilistic model first extends classical multi-atlas approaches used for the segmentation of healthy brains structures to the automatic segmentation of pathological cerebral regions. An approximation of the marginalization step replaces the concept of local search windows with a stratification with respect to both atlases and labels. A glioma detection model based on a spatially-varying prior and patch pre-selection criteria are introduced to obtain competitive running times despite patch matching being non local. This work is validated and compared to state-of-the-art algorithms on publicly available datasets. A second probabilistic model mirrors the segmentation model in order to synthesize realistic MRI of pathological cases, based on a single label map. A heuristic method allows to solve for the maximum a posteriori and to estimate uncertainty of the image synthesis model. Iterating patch matching reinforces the spatial coherence of synthetic images. The realism of our synthetic images is assessed against real MRI, and against outputs of the state-of-the-art method. The junction of a tumor growth model to the proposed synthesis approach allows to generate databases of annotated synthetic cases.
|
190 |
Cartographie dense basée sur une représentation compacte RGB-D dédiée à la navigation autonome / A compact RGB-D map representation dedicated to autonomous navigationGokhool, Tawsif Ahmad Hussein 05 June 2015 (has links)
Dans ce travail, nous proposons une représentation efficace de l’environnement adaptée à la problématique de la navigation autonome. Cette représentation topométrique est constituée d’un graphe de sphères de vision augmentées d’informations de profondeur. Localement la sphère de vision augmentée constitue une représentation égocentrée complète de l’environnement proche. Le graphe de sphères permet de couvrir un environnement de grande taille et d’en assurer la représentation. Les "poses" à 6 degrés de liberté calculées entre sphères sont facilement exploitables par des tâches de navigation en temps réel. Dans cette thèse, les problématiques suivantes ont été considérées : Comment intégrer des informations géométriques et photométriques dans une approche d’odométrie visuelle robuste ; comment déterminer le nombre et le placement des sphères augmentées pour représenter un environnement de façon complète ; comment modéliser les incertitudes pour fusionner les observations dans le but d’augmenter la précision de la représentation ; comment utiliser des cartes de saillances pour augmenter la précision et la stabilité du processus d’odométrie visuelle. / Our aim is concentrated around building ego-centric topometric maps represented as a graph of keyframe nodes which can be efficiently used by autonomous agents. The keyframe nodes which combines a spherical image and a depth map (augmented visual sphere) synthesises information collected in a local area of space by an embedded acquisition system. The representation of the global environment consists of a collection of augmented visual spheres that provide the necessary coverage of an operational area. A "pose" graph that links these spheres together in six degrees of freedom, also defines the domain potentially exploitable for navigation tasks in real time. As part of this research, an approach to map-based representation has been proposed by considering the following issues : how to robustly apply visual odometry by making the most of both photometric and ; geometric information available from our augmented spherical database ; how to determine the quantity and optimal placement of these augmented spheres to cover an environment completely ; how tomodel sensor uncertainties and update the dense infomation of the augmented spheres ; how to compactly represent the information contained in the augmented sphere to ensure robustness, accuracy and stability along an explored trajectory by making use of saliency maps.
|
Page generated in 0.079 seconds