• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 13
  • 1
  • Tagged with
  • 33
  • 33
  • 16
  • 12
  • 11
  • 7
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation du contexte par vision embarquée et schémas de commande pour l’automobile / Context estimation using embedded vision and schemes control for automobile

Ammar, Moez 21 December 2012 (has links)
Les systèmes dotés d’autonomie doivent continument évaluer leur environnement, via des capteurs embarqués, afin de prendre des décisions pertinentes au regard de leur mission, mais aussi de l’endosystème et de l’exosystème. Dans le cas de véhicules dits ‘intelligents’, l’attention quant au contexte environnant se porte principalement d’une part sur des objets parfaitement normalisés, comme la signalisation routière verticale ou horizontale, et d’autre part sur des objets difficilement modélisables de par leur nombre et leur variété (piétons, cyclistes, autres véhicules, animaux, ballons, obstacles quelconques sur la chaussée, etc…). La décision a contrario offre un cadre formel, adapté à ce problème de détection d’objets variables, car modélisant le bruit plutôt qu’énumérant les objets à détecter. La contribution principale de cette thèse est d’adapter des mesures probabilistes de type NFA (Nombre de Fausses Alarmes) au problème de la détection d’objets soit ayant un mouvement propre, soit saillants par rapport au plan de la route. Un point fort des algorithmes développés est qu’ils s’affranchissent de tout seuil de détection. Une première mesure NFA permet d’identifier le sous-domaine de l'image (pixels non nécessairement connexes) dont les valeurs de niveau de gris sont les plus étonnantes, sous hypothèse de bruit gaussien (modèle naïf). Une seconde mesure NFA permet ensuite d’identifier le sous-ensemble des fenêtres de significativité maximale, sous hypothèse de loi binômiale (modèle naïf). Nous montrons que ces mesures NFA peuvent également servir de critères d’optimisation de paramètres, qu’il s’agisse du mouvement 6D de la caméra embarquée, ou d’un seuil de binarisation sur les niveaux de gris. Enfin, nous montrons que les algorithmes proposés sont génériques au sens où ils s’appliquent à différents types d’images en entrée, radiométriques ou de disparité.A l’opposé de l’approche a contrario, les modèles markoviens permettent d’injecter des connaissances a priori sur les objets recherchés. Nous les exploitons dans le cas de la classification de marquages routiers.A partir de l’estimation du contexte (signalisation, détection d’objets ‘inconnus’), la partie commande comporte premièrement une spécification des trajectoires possibles et deuxièmement des lois en boucle fermée assurant le suivi de la trajectoire sélectionnée. Les diverses trajectoires possibles sont regroupées en un faisceau, soit un ensemble de fonctions du temps où divers paramètres permettent de régler les invariants géométriques locaux (pente, courbure). Ces paramètres seront globalement fonction du contexte extérieur au véhicule (présence de vulnérables, d'obstacles fixes, de limitations de vitesse, etc.) et permettent de déterminer l'élément du faisceau choisi. Le suivi de la trajectoire choisie s'effectue alors en utilisant des techniques de type platitude différentielle, qui s'avèrent particulièrement bien adaptées aux problèmes de suivi de trajectoire. Un système différentiellement plat est en effet entièrement paramétré par ses sorties plates et leurs dérivées. Une autre propriété caractéristique de ce type de systèmes est d'être linéarisable de manière exacte (et donc globale) par bouclage dynamique endogène et transformation de coordonnées. Le suivi stabilisant est alors trivialement obtenu sur le système linéarisé. / To take relevant decisions, autonomous systems have to continuously estimate their environment via embedded sensors. In the case of 'intelligent' vehicles, the estimation of the context focuses both on objects perfectly known such as road signs (vertical or horizontal), and on objects unknown or difficult to describe due to their number and variety (pedestrians, cyclists, other vehicles, animals, any obstacles on the road, etc.). Now, the a contrario modelling provides a formal framework adapted to the problem of detection of variable objects, by modeling the noise rather than the objects to detect. Our main contribution in this PhD work was to adapt the probabilistic NFA (Number of False Alarms) measurements to the problem of detection of objects simply defined either as having an own motion, or salient to the road plane. A highlight of the proposed algorithms is that they are free from any detection parameter, in particular threshold. A first NFA criterion allows the identification of the sub-domain of the image (not necessarily connected pixels) whose gray level values are the most amazing under Gaussian noise assumption (naive model). A second NFA criterion allows then identifying the subset of maximum significant windows under binomial hypothesis (naive model). We prove that these measurements (NFA) can also be used for the estimation of intrinsec parameters, for instance either the 6D movement of the onboard camera, or a binarisation threshold. Finally, we prove that the proposed algorithms are generic and can be applied to different kinds of input images, for instance either radiometric images or disparity maps. Conversely to the a contrario approach, the Markov models allow to inject a priori knowledge about the objects sought. We use it in the case of the road marking classification. From the context estimation (road signs, detected objects), the control part includes firstly a specification of the possible trajectories and secondly the laws to achieve the selected path. The possible trajectories are grouped into a bundle, and various parameters are used to set the local geometric invariants (slope, curvature). These parameters depend on the vehicle context (presence of vulnerables, fixed obstacles, speed limits, etc ... ), and allows determining the selected the trajectory from the bundle. Differentially flat system is indeed fully parameterized by its flat outputs and their derivatives. Another feature of this kind of systems is to be accurately linearized by endogenous dynamics feed-back and coordinate transformation. Tracking stabilizer is then trivially obtained from the linearized system.
2

Modélisation probabiliste d’impression à l’échelle micrométrique / Probabilistic modeling of prints at the microscopic scale

Nguyen, Quoc Thong 18 May 2015 (has links)
Nous développons des modèles probabilistes pour l’impression à l’échelle micrométrique. Tenant compte de l’aléa de la forme des points qui composent les impressions, les modèles proposés pourront être ultérieurement exploités dans différentes applications dont l’authentification de documents imprimés. Une analyse de l’impression sur différents supports papier et par différentes imprimantes a été effectuée. Cette étude montre que la grande variété de forme dépend de la technologie et du papier. Le modèle proposé tient compte à la fois de la distribution du niveau de gris et de la répartition spatiale de l’encre sur le papier. Concernant le niveau de gris, les modèles des surfaces encrées/vierges sont obtenues en sélectionnant les distributions dans un ensemble de lois de forme similaire aux histogrammes et à l’aide de K-S critère. Le modèle de répartition spatiale de l’encre est binaire. Le premier modèle consiste en un champ de variables indépendantes de Bernoulli non-stationnaire dont les paramètres forment un noyau gaussien généralisé. Un second modèle de répartition spatiale des particules d’encre est proposé, il tient compte de la dépendance des pixels à l’aide d’un modèle de Markov non stationnaire. Deux méthodes d’estimation ont été développées, l’une approchant le maximum de vraisemblance par un algorithme de Quasi Newton, la seconde approchant le critère de l’erreur quadratique moyenne minimale par l’algorithme de Metropolis within Gibbs. Les performances des estimateurs sont évaluées et comparées sur des images simulées. La précision des modélisations est analysée sur des jeux d’images d’impression à l’échelle micrométrique obtenues par différentes imprimantes. / We develop the probabilistic models of the print at the microscopic scale. We study the shape randomness of the dots that originates the prints, and the new models could improve many applications such as the authentication. An analysis was conducted on various papers, printers. The study shows a large variety of shape that depends on the printing technology and paper. The digital scan of the microscopic print is modeled in: the gray scale distribution, and the spatial binary process modeling the printed/blank spatial distribution. We seek the best parametric distribution that takes account of the distributions of the blank and printed areas. Parametric distributions are selected from a set of distributions with shapes close to the histograms and with the Kolmogorov-Smirnov divergence. The spatial binary model handles the wide diversity of dot shape and the range of variation of spatial density of inked particles. At first, we propose a field of independent and non-stationary Bernoulli variables whose parameters form a Gaussian power. The second spatial binary model encompasses, in addition to the first model, the spatial dependence of the inked area through an inhomogeneous Markov model. Two iterative estimation methods are developed; a quasi-Newton algorithm which approaches the maximum likelihood and the Metropolis-Hasting within Gibbs algorithm that approximates the minimum mean square error estimator. The performances of the algorithms are evaluated and compared on simulated images. The accuracy of the models is analyzed on the microscopic scale printings coming from various printers. Results show the good behavior of the estimators and the consistency of the models.
3

Approche performantielle des bétons avec métakaolins obtenus par calcination flash

San Nicolas, Rackel 25 May 2011 (has links) (PDF)
L'objectif principal de cette thèse a été de montrer que le métakaolin, fabriqué par la société Argéco DEVELOPPEMENT selon un procédé de calcination flash, est un éco-matériau qui améliore les propriétés de structuration et de durabilité des bétons. L'approche retenue, basée sur l'équivalence de performances, a concerné la plupart des types de béton (bâtiments, ouvrages d'art, autoplaçants, hautes performances, ...). Le métakaolin a d'abord été caractérisé (propriétés physico-chimiques et réactivité), puis son effet sur la mise en œuvre des bétons a été étudié. Les performances des différents bétons testés ont ensuite été évaluées par la mesure de différents indicateurs de durabilité. Enfin, la durée de vie de bétons en environnement marin a été estimée grâce à un modèle probabiliste.
4

Estimation du contexte par vision embarquée et schémas de commande pour l'automobile

Ammar, Moez 21 December 2012 (has links) (PDF)
Les systèmes dotés d'autonomie doivent continument évaluer leur environnement, via des capteurs embarqués, afin de prendre des décisions pertinentes au regard de leur mission, mais aussi de l'endosystème et de l'exosystème. Dans le cas de véhicules dits 'intelligents', l'attention quant au contexte environnant se porte principalement d'une part sur des objets parfaitement normalisés, comme la signalisation routière verticale ou horizontale, et d'autre part sur des objets difficilement modélisables de par leur nombre et leur variété (piétons, cyclistes, autres véhicules, animaux, ballons, obstacles quelconques sur la chaussée, etc...). La décision a contrario offre un cadre formel, adapté à ce problème de détection d'objets variables, car modélisant le bruit plutôt qu'énumérant les objets à détecter. La contribution principale de cette thèse est d'adapter des mesures probabilistes de type NFA (Nombre de Fausses Alarmes) au problème de la détection d'objets soit ayant un mouvement propre, soit saillants par rapport au plan de la route. Un point fort des algorithmes développés est qu'ils s'affranchissent de tout seuil de détection. Une première mesure NFA permet d'identifier le sous-domaine de l'image (pixels non nécessairement connexes) dont les valeurs de niveau de gris sont les plus étonnantes, sous hypothèse de bruit gaussien (modèle naïf). Une seconde mesure NFA permet ensuite d'identifier le sous-ensemble des fenêtres de significativité maximale, sous hypothèse de loi binômiale (modèle naïf). Nous montrons que ces mesures NFA peuvent également servir de critères d'optimisation de paramètres, qu'il s'agisse du mouvement 6D de la caméra embarquée, ou d'un seuil de binarisation sur les niveaux de gris. Enfin, nous montrons que les algorithmes proposés sont génériques au sens où ils s'appliquent à différents types d'images en entrée, radiométriques ou de disparité.A l'opposé de l'approche a contrario, les modèles markoviens permettent d'injecter des connaissances a priori sur les objets recherchés. Nous les exploitons dans le cas de la classification de marquages routiers.A partir de l'estimation du contexte (signalisation, détection d'objets 'inconnus'), la partie commande comporte premièrement une spécification des trajectoires possibles et deuxièmement des lois en boucle fermée assurant le suivi de la trajectoire sélectionnée. Les diverses trajectoires possibles sont regroupées en un faisceau, soit un ensemble de fonctions du temps où divers paramètres permettent de régler les invariants géométriques locaux (pente, courbure). Ces paramètres seront globalement fonction du contexte extérieur au véhicule (présence de vulnérables, d'obstacles fixes, de limitations de vitesse, etc.) et permettent de déterminer l'élément du faisceau choisi. Le suivi de la trajectoire choisie s'effectue alors en utilisant des techniques de type platitude différentielle, qui s'avèrent particulièrement bien adaptées aux problèmes de suivi de trajectoire. Un système différentiellement plat est en effet entièrement paramétré par ses sorties plates et leurs dérivées. Une autre propriété caractéristique de ce type de systèmes est d'être linéarisable de manière exacte (et donc globale) par bouclage dynamique endogène et transformation de coordonnées. Le suivi stabilisant est alors trivialement obtenu sur le système linéarisé.
5

Localisation et suivi de visages à partir d'images et de sons : une approche Bayésienne temporelle et commumative / From images and sounds to face localization and tracking : a switching dynamical Bayesian framework

Drouard, Vincent 18 December 2017 (has links)
Dans cette thèse, nous abordons le problème de l’estimation de pose de visage dans le contexte des interactions homme-robot. Nous abordons la résolution de cette tâche à l’aide d’une approche en deux étapes. Tout d’abord en nous inspirant de [Deleforge 15], nous proposons une nouvelle façon d’estimer la pose d’un visage, en apprenant un lien entre deux espaces, l’espace des paramètres de pose et un espace de grande dimension représentant les observations perçues par une caméra. L’apprentissage de ce lien se fait à l’aide d’une approche probabiliste, utilisant un mélange de regressions affines. Par rapport aux méthodes d’estimation de pose de visage déjà existantes, nous incorporons de nouvelles informations à l’espace des paramètres de pose, ces additions sont nécessaires afin de pouvoir prendre en compte la diversité des observations, comme les differents visages et expressions mais aussi lesdécalages entre les positions des visages détectés et leurs positions réelles, cela permet d’avoir une méthode robuste aux conditions réelles. Les évaluations ont montrées que cette méthode permettait d’avoir de meilleurs résultats que les méthodes de regression standard et des résultats similaires aux méthodes de l’état de l’art qui pour certaines utilisent plus d’informations, comme la profondeur, pour estimer la pose. Dans un second temps, nous développons un modèle temporel qui utilise les capacités des traqueurs pour combiner l’information du présent avec celle du passé. Le but à travers cela est de produire une estimation de la pose plus lisse dans le temps, mais aussi de corriger les oscillations entre deux estimations consécutives indépendantes. Le modèle proposé intègre le précédent modèle de régression dans une structure de filtrage de Kalman. Cette extension fait partie de la famille des modèles dynamiques commutatifs et garde tous les avantages du mélange de regressionsaffines précédent. Globalement, le modèle temporel proposé permet d’obtenir des estimations de pose plus précises et plus lisses sur une vidéo. Le modèle dynamique commutatif donne de meilleurs résultats qu’un modèle de suivi utilsant un filtre de Kalman standard. Bien qu’appliqué à l’estimation de pose de visage le modèle presenté dans cette thèse est très général et peut être utilisé pour résoudre d’autres problèmes de régressions et de suivis. / In this thesis, we address the well-known problem of head-pose estimationin the context of human-robot interaction (HRI). We accomplish this taskin a two step approach. First, we focus on the estimation of the head pose from visual features. We design features that could represent the face under different orientations and various resolutions in the image. The resulting is a high-dimensional representation of a face from an RGB image. Inspired from [Deleforge 15] we propose to solve the head-pose estimation problem by building a link between the head-pose parameters and the high-dimensional features perceived by a camera. This link is learned using a high-to-low probabilistic regression built using probabilistic mixture of affine transformations. With respect to classic head-pose estimation methods we extend the head-pose parameters by adding some variables to take into account variety in the observations (e.g. misaligned face bounding-box), to obtain a robust method under realistic conditions. Evaluation of the methods shows that our approach achieve better results than classic regression methods and similar results thanstate of the art methods in head pose that use additional cues to estimate the head pose (e.g depth information). Secondly, we propose a temporal model by using tracker ability to combine information from both the present and the past. Our aim through this is to give a smoother estimation output, and to correct oscillations between two consecutives independent observations. The proposed approach embeds the previous regression into a temporal filtering framework. This extention is part of the family of switching dynamic models and keeps all the advantages of the mixture of affine regressions used. Overall the proposed tracker gives a more accurate and smoother estimation of the head pose on a video sequence. In addition, the proposed switching dynamic model gives better results than standard tracking models such as Kalman filter. While being applied to the head-pose estimation problem the methodology presented in this thesis is really general and can be used to solve various regression and tracking problems, e.g. we applied it to the tracking of a sound source in an image.
6

A Probabilistic Model of Flower Fertility and Factors Influencing Seed Production in Winter Oilseed rape (Brassica napus L.) / Un modèle probabiliste de fleur de fertilité et facteurs influant sur la production de semences en colza d'hiver

Wang, Xiujuan 08 June 2011 (has links)
Le nombre de siliques par plante et le nombre de graines par silique sont les composantes du rendement du colza d'hiver qui présentent la plus grande variabilité. La production d'une graine résulte de la combinaison de plusieurs processus physiologiques, à savoir la formation des ovules et des grains de pollen, la fécondation des ovules et le développement de jeunes embryons. Un problème survenu à n’importe quelles des étapes peut entraîner l’avortement de graines ou de la silique. Le nombre potentiel d'ovules par silique et le nombre graines arrivant la maturité dépendraient de la position du dans l'architecture de plante et le temps de son apparition, mais le mode complexe de développement de colza rend difficile l’analyse des causes et effets.Dans cette étude, la variabilité des composantes du rendement suivantes est étudiée: (a) nombre d’ovules par silique, (b) nombre de graines par silique, et (c) nombre de siliques par axe en fonction d’une part, l’emplacement de la fleur dans l'inflorescence, et la position de cette dernière sur la tige, et l’autre part, le temps d'apparition de la silique, qui affectent la disponibilité d'assimilats. Basé sur les processus biologiques de la fertilité des fleurs, un modèle probabiliste est développé pour simuler le développement des graines. Le nombre de grains de pollen par fleur peut être déduit par le modèle et ainsi que les facteurs qui influent le rendement.Des expériences de terrain ont été menées en 2008 et 2009. Le nombre et la position des fleurs qui s'épanouissaient dans l'inflorescence ont été enregistrés sur la base des observations tous les deux à trois jours pendant la saison de floraison. Différents états trophiques ont été créés par tailler de la tige principale ou des ramifications à étudier l'effet de l'assimilation de la compétition.Les résultats montrent que la quantité d’assimilâtes disponibles a été le principal déterminant de la production de graines et de siliques. La répartition d’assimilâtes a été sensiblement affectée par l’emplacement de silique au sein d’une inflorescence et la location de l’inflorescence sur la tige colza. En outre, le paramètre de la distribution du nombre de pollen a indiqué que la production de graines pourrait être limitée par la pollinisation. La réduction de la viabilité des ovules pourrait entraîner la diminution du nombre de siliques et le nombre de graines par silique à l’extrémité de l'inflorescence. Le modèle proposé pourrait être un outil pour étudier la stratégie de l'amélioration du rendement des plantes à fleurs / The number of pods per plant and the number of seeds per pod are the most variable yield components in winter oilseed rape (WOSR). The production of a seed is the combination of several physiological processes, namely formation of ovules and pollen grains, fertilization of the ovules and development of young embryos, any problem in these processes may result in seed abortion or pod abortion. Both the number of ovules per pod and the potential for the ovule to develop into a mature seed may depend on pod position in the plant architecture and time of appearance. The complex developmental pattern of WOSR makes it difficult to analyse.In this study, we first investigate the variability of the following yield components (a) ovules/pod, (b) seeds/pod, and (c) pods/axis in relation to two explanatory variables. These two variables include (1) flower and inflorescence position and (2) time of pod appearance, linked to the effect of assimilate availability. Based on the biological phenomena of flower fertility, we developed a probabilistic model to simulate the number of ovules per ovary and seeds per pod. The model can predict the number of pollen grains per flower and distinguish the factors that influence the yield. Field experiments were conducted in 2008 and 2009. The number and position of flowers that bloomed within the inflorescence were recorded based on observations every two to three days throughout the flowering season. Different trophic states were created by clipping the main stem or ramifications to investigate the effect of assimilate competition.The results indicate that the amount of available assimilates was the primary determinant of pod and seed production. The distribution of resources was significantly affected by both the positions of pods within an inflorescence and the position of inflorescences within a plant in WOSR. In addition, model estimation for distribution parameter of pollen grain number indicated that pollination limitation could influence the seed production. Furthermore, the ovule viability could result in the decrease of the number of pods and the number of seeds per pod at the distal position of inflorescence. The model of flower fertility could be a tool to study the strategy of improving seed yield in flowering plants
7

Combining machine learning and evolution for the annotation of metagenomics data / La combinaison de l'apprentissage statistique et de l'évolution pour l'annotation des données métagénomiques

Ugarte, Ari 16 December 2016 (has links)
La métagénomique sert à étudier les communautés microbiennes en analysant de l’ADN extrait directement d’échantillons pris dans la nature, elle permet également d’établir un catalogue très étendu des gènes présents dans les communautés microbiennes. Ce catalogue doit être comparé contre les gènes déjà référencés dans les bases des données afin de retrouver des séquences similaires et ainsi déterminer la fonction des séquences qui le composent. Au cours de cette thèse, nous avons développé MetaCLADE, une nouvelle méthodologie qui améliore la détection des domaines protéiques déjà référencés pour des séquences issues des données métagénomiques et métatranscriptomiques. Pour le développement de MetaCLADE, nous avons modifié un système d’annotations de domaines protéiques qui a été développé au sein du Laboratoire de Biologie Computationnelle et Quantitative appelé CLADE (CLoser sequences for Annotations Directed by Evolution) [17]. En général les méthodes pour l’annotation de domaines protéiques caractérisent les domaines connus avec des modèles probabilistes. Ces modèles probabilistes, appelés Sequence Consensus Models (SCMs) sont construits à partir d’un alignement des séquences homologues appartenant à différents clades phylogénétiques et ils représentent le consensus à chaque position de l’alignement. Cependant, quand les séquences qui forment l’ensemble des homologues sont très divergentes, les signaux des SCMs deviennent trop faibles pour être identifiés et donc l’annotation échoue. Afin de résoudre ce problème d’annotation de domaines très divergents, nous avons utilisé une approche fondée sur l’observation que beaucoup de contraintes fonctionnelles et structurelles d’une protéine ne sont pas globalement conservées parmi toutes les espèces, mais elles peuvent être conservées localement dans des clades. L’approche consiste donc à élargir le catalogue de modèles probabilistes en créant de nouveaux modèles qui mettent l’accent sur les caractéristiques propres à chaque clade. MetaCLADE, un outil conçu dans l’objectif d’annoter avec précision des séquences issues des expériences métagénomiques et métatranscriptomiques utilise cette libraire afin de trouver des correspondances entre les modèles et une base de données de séquences métagénomiques ou métatranscriptomiques. En suite, il se sert d’une étape pré-calculée pour le filtrage des séquences qui permet de déterminer la probabilité qu’une prédiction soit considérée vraie. Cette étape pré-calculée est un processus d’apprentissage qui prend en compte la fragmentation de séquences métagénomiques pour les classer.Nous avons montré que l’approche multi source en combinaison avec une stratégie de méta apprentissage prenant en compte la fragmentation atteint une très haute performance. / Metagenomics is used to study microbial communities by the analyze of DNA extracted directly from environmental samples. It allows to establish a catalog very extended of genes present in the microbial communities. This catalog must be compared against the genes already referenced in the databases in order to find similar sequences and thus determine their function. In the course of this thesis, we have developed MetaCLADE, a new methodology that improves the detection of protein domains already referenced for metagenomic and metatranscriptomic sequences. For the development of MetaCLADE, we modified an annotation system of protein domains that has been developed within the Laboratory of Computational and Quantitative Biology clade called (closer sequences for Annotations Directed by Evolution) [17]. In general, the methods for the annotation of protein domains characterize protein domains with probabilistic models. These probabilistic models, called sequence consensus models (SCMs) are built from the alignment of homolog sequences belonging to different phylogenetic clades and they represent the consensus at each position of the alignment. However, when the sequences that form the homolog set are very divergent, the signals of the SCMs become too weak to be identified and therefore the annotation fails. In order to solve this problem of annotation of very divergent domains, we used an approach based on the observation that many of the functional and structural constraints in a protein are not broadly conserved among all species, but they can be found locally in the clades. The approach is therefore to expand the catalog of probabilistic models by creating new models that focus on the specific characteristics of each clade. MetaCLADE, a tool designed with the objective of annotate with precision sequences coming from metagenomics and metatranscriptomics studies uses this library in order to find matches between the models and a database of metagenomic or metatranscriptomic sequences. Then, it uses a pre-computed step for the filtering of the sequences which determine the probability that a prediction is a true hit. This pre-calculated step is a learning process that takes into account the fragmentation of metagenomic sequences to classify them. We have shown that the approach multi source in combination with a strategy of meta-learning taking into account the fragmentation outperforms current methods.
8

Optimisation de potentiels statistiques pour un modèle d'évolution soumis à des contraintes structurales / Optimization of statistical potentials for a structurally constrained evolutionary model

Bonnard, Cécile 05 January 2010 (has links)
Ces dernières années, plusieurs modèles d'évolution moléculaire, basés sur l'hypothèse que les séquences des protéines évoluent sous la contrainte d'une structure bien définie et constante au cours de l'évolution, ont été développés. Cependant, un tel modèle repose sur l'expression de la fonction représentant le lien entre la structure et sa séquence. Les potentiels statistiques proposent une solution intéressante, mais parmi l'ensemble des potentiels statistiques existants, lequel serait le plus approprié pour ces modèles d'évolution ? Dans cette thèse est développé un cadre probabiliste d'optimisation de potentiels statistiques, dans le contexte du maximum de vraisemblance, et dans une optique de protein design. Ce cadre intègre différentes méthodes d'optimisation, incluant la prise en compte de structures alternatives pour l'optimisation des potentiels, et fournit un cadre robuste et des tests statistiques (à la fois dans le contexte de l'optimisation des potentiels mais aussi dans le contexte de l'évolution moléculaire) permettant de comparer différentes méthodes d'optimisation de potentiels statistiques pour les modèles soumis à des contraintes structurales. / In the field of molecular evolution, so called Structurally constrained (SC) models have been developped. Expressed at the codon level, they explicitely separe the mutation (applied to the nucleotide sequence) and the selection (applied to the encoded protein sequence) factors. The selection factor is described as a function between the structure and the sequence of the protein, via the use of a statistical potential. However, the whole evolutionary model depends on the expression of this potential, and one can ask wether a potential would be better than another. In this thesis, is developped a probabilistic framework to optimize statistical potentials especially meant for protein design, using a maximum likelihood approach. The statistical potential used in this thesis is composed by a contact potential and a solvent accessibility potential, but the probabilistic framework can easily be generalized to more complex statistical potentials. In a first part, the framework is defined, and then an algorithmical enhancement is proposed, and finally, the framework is modified in order to take into account misfolded structures (decoys). The framework defined in this thesis and in other works allows to compare different optimization methods of statistical potentials for SC models, using cross-validation and Bayes factor comparisons.
9

Propagation d'ondes non linéaires en milieu complexe - Application à la propagation en environnement urbain

Leissing, Thomas 30 November 2009 (has links) (PDF)
Dans cette recherche, un modèle de propagation d'ondes de choc sur grandes distances sur un environnement urbain est construit et validé. L'approche consiste à utiliser l'Equation Parabolique Nonlinéaire (NPE) comme base. Ce modèle est ensuite étendu afin de prendre en compte d'autres effets relatifs à la propagation du son en milieu extérieur (surfaces non planes, couches poreuses, etc.). La NPE est résolue en utilisant la méthode des différences finies et donne des résultats en accord avec d'autres méthodes numériques. Ce modèle déterministe est ensuite utilisé comme base pour la construction d'un modèle stochastique de propagation sur environnements urbains. La Théorie de l'Information et le Principe du Maximum d'Entropie permettent la construction d'un modèle probabiliste d'incertitudes intégrant la variabilité du système dans la NPE. Des résultats de référence sont obtenus grâce à une méthode exacte et permettent ainsi de valider les développements théoriques et l'approche utilisée.
10

Segmentation d'IRM cérébrales multi-séquences et application à la sclérose en plaques

Dugas-Phocion, Guillaume 31 March 2006 (has links) (PDF)
Dans ce manuscrit, nous nous sommes intéressés à l'analyse d'IRM cérébrales dans le cadre notamment du suivi de patients souffrant de sclérose en plaques (SEP). L'extraction automatique de quantificateurs pour la SEP a de nombreuses applications potentielles, tant dans le domaine clinique que pour des tests pharmaceutiques. Dans un premier temps, nous nous sommes consacrés à l'étude générale de la maladie, afin de situer le rôle de l'imagerie. Nous présentons ensuite les différents prétraitements nécessaires à la robustesse du système, puis la segmentation des tissus sains via un modèle probabiliste des volumes partiels, ainsi qu'une nouvelle version de l'algorithme EM doté d'un traitement spécifique des points aberrants. L'utilisation des différentes séquences du protocole d'acquisition permet de spécialiser le processus pour la détection des lésions de sclérose en plaques. Une évaluation quantitative des résultats ainsi qu'un ensemble de perspectives sont enfin détaillées.

Page generated in 1.2908 seconds