• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 65
  • 22
  • 1
  • Tagged with
  • 221
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 33
  • 32
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Méthode SCHADEX de prédétermination des crues extrêmes : Méthodologie, applications, études de sensibilité / SCHADEX method of determination of extreme floods

Garavaglia, Federico 23 February 2011 (has links)
La méthode SCHADEX (Simulation Climato-Hydrologique pour l'Appréciation des Débits EXtrêmes) est, depuis 2007, la méthode de référence pour le calcul de la crue de projet servant au dimensionnement des évacuateurs des barrages d'EDF (Électricité De France). Cette méthode vise à estimer les quantiles extrêmes de débits par un procédé de simulation stochastique qui combine un modèle probabiliste de pluie et un modèle hydrologique pluie-débit. L'objectif principal de cette thèse est la « validation » de la méthode SCHADEX, la compréhension de ses possibilités et de ses limites, notamment par des études de sensibilité aux hypothèses sous-jacentes et par sa confrontation à la plus large gamme possible d'observations (régions et climats contrastés, taille variable de bassins versants). La première étape de ce travail a porté sur la description probabiliste des événements pluvieux générateurs de crues, avec notamment l'introduction d'une distribution des pluies observées conditionnée par type de temps (distribution MEWP, Multi-Exponential Weather Patterns). Pour valider ce modèle probabiliste, nous avons comparé ses résultats à ceux de modèles classiques de la théorie des valeurs extrêmes. En nous appuyant sur une large base de données de stations pluviométriques (478 postes localisés en France, Suisse et Espagne) et sur une technique de comparaison orientée vers les valeurs extrêmes, nous avons évalué les performances du modèle MEWP en soulignant la justesse et la robustesse de ses estimations. Le procédé de simulation hydrologique des volumes écoulés suite à des événements pluvieux intenses (processus de simulation semi-continue) a été décrit en soulignant son caractère original et parcimonieux du point de vue des hypothèses d'extrapolation nécessaires, et sa capacité à extraire le maximum d'information des séries chronologiques traitées. En nous appuyant sur une base de données de 32 bassins versants, nous avons analysé la sensibilité de cette méthode (i) à ses paramètres de simulation (i.e. nombre de tirages, etc.), (ii) au modèle probabiliste de pluie et (iii) au modèle hydrologique pluie-débit. Cette étude nous a permis de figer certains paramètres de simulation et surtout de hiérarchiser les étapes et les options de simulation du point de vue de leurs impacts sur le résultat final. Le passage des quantiles extrêmes de volumes à ceux des débits de pointe est réalisé par un facteur multiplicatif (coefficient de forme), identifié sur une collection d'hydrogrammes. Une sélection de ces hydrogrammes par une approche semi-automatique, basée sur une technique d'échantillonnage sup-seuil, a été développée. Globalement, ce travail a permis de reformuler, justifier et vérifier les hypothèses de base de la méthode, notamment celles liées à l'aléa pluviométrique ainsi qu'à l'aléa « état hydrique » du bassin versant, et celles liées au procédé de simulation hydrologique semi-continue des écoulements. Des améliorations et des simplifications de certains points de la méthode ont aussi été proposées pour des estimations de débit extrêmes plus fiables et robustes. Une adaptation de la classification des journées par type de temps a été proposée pour étendre le calendrier de référence, de 1953-2005 à 1850-2003, en exploitant des informations simplifiées sur les champs de pression. La procédure de simulation hydrologique a été améliorée, notamment en conditionnant le tirage des épisodes pluvieux au type de temps, ce qui permet de mieux prendre en compte la dépendance pluie- température. Ces travaux ne mettent certainement pas un point final au développement de la méthode SCHADEX mais la fondent sur des bases méthodologiques saines et documentées. Ils proposent des perspectives de recherche sur des thématiques variées (e.g. prise en compte de variabilité de la forme des hydrogrammes de crue pour le passage au débit de pointe, modélisation hydrologique, estimation de crues extrêmes en bassins non jaugés ou en contexte non-stationnaire). / Since 2007, EDF (Électricité de France) design floods of dam spillways are computed using a probabilistic method named SCHADEX (Climatic-hydrological simulation of extreme foods). This method aims at estimating extreme flood quantiles by the combination of a weather patterns based rainfall probabilistic model and a conceptual rainfall-runoff model. The aim of this PhD thesis is to “validate” SCHADEX method by assessing its potential and its limits with a sensitivity analysis of its hypothesis and with a comparison to the widest possible range of data (various regions and climates, different watershed sizes). In the first part of this thesis we describe the stochastic generation process of rainfall events. We introduce a rainfall probabilistic model based on weather pattern classification, called MEWP (Multi-Exponential Weather Pattern) distribution. To validate the MEWP model, we compare it to the standard probabilistic models of extreme values theory. Basing on a wide rainfall dataset (478 raingauges located in France, Switzerland and Spain) and on new specific criteria, we evaluate the suitability of MEWP model in terms of reliability and robustness. In the second part of this work, the hydrological simulation process of volumes, called semi-continuous simulation process, is introduced. We highlight the efficiency and the originality of this process link to its ability to mix various hydrological data for extreme flood estimation while keeping parsimonious extrapolation hypothesis. Basing on a dataset of 32 watersheds, we realize a sensitivity analysis of this process to (i) simulation parameters (i.e. number of simulation, etc.), (ii) to rainfall probabilistic model and (iii) to rainfall-runoff model. This study allows us to fix some simulation parameters and especially to prioritize the simulation steps and options by their impact on final results. The third part is about the passage from extreme volumes quantiles to extreme peak flows quantiles that is done by a peak flows ratio. This ratio is computed on a hydrograms sample that is extract from flood time series by a specific peak over threshold sub-sampling developed in this thesis. Globally, we reformulate, justify and verify the basic assumptions of the method, with a special focus on rainfall risk, hydrological risk and semi-continuous simulation process. In order to make extreme flood estimations more reliable and robust same improvements and simplifications of the method are proposed. To widen the available period of the weather pattern classification from 1953-2005 to 1850-2003, we computed another weather pattern classification based on shade geopotential information. To take into account precipitation-temperature dependency, the simulation process is improved conditioning the generation of rainfall events by weather pattern sub-sampling. Certainly this thesis does not put the end to SCHADEX method developments but ground it on sound and documented basis. Such future investigations about variability of shape flood hydrograms, comparison of hydrological model in extrapolation domain, extreme flood risk estimation on ungauged watershed and in non-stationary context, are planned.
42

Contribution à l'étude de la corrosion par carbonatation du béton armé : approche expérimentale et probabiliste / Carbonation-induced steel corrosion in reinforced concrete : experimental and probabilistic approach

Vu, Ngoc tru 28 June 2011 (has links)
La corrosion de l’acier par carbonatation du béton est un phénomène de dégradation majeur des structures en béton armé, qui débute par la dépassivation de l'acier due à l'abaissement du pH de la solution interstitielle, se concrétise par une initiation effective avant de se propager. Nous nous sommes focalisé sur la dépassivation et l'initiation effective. Une large campagne expérimentale a permis de comprendre l'incidence des conditions d'exposition, de la nature des ciments utilisés dans les bétons et des conditions de carbonatation de l'enrobage, sur la dépassivation des armatures et le démarrage effectif de la corrosion. Au total 27 configurations ont été étudiées. Le potentiel libre de corrosion et la résistance de polarisation ont été mesurés au cours de l'expérimentation sur une durée voisine d'une année. Parallèlement, à échéances régulières, les coefficients de Tafel et la masse de produits de corrosion ont été également mesurés. L'ensemble des données a été analysé pour conduire, à partir du calcul des probabilités de bonne ou de mauvaise alarme, aux seuils de détection du démarrage effectif de la corrosion associés aux paramètres électrochimiques ainsi que la masse seuil de produits de corrosion correspondant à cette détection. Alimentée par les résultats des essais de caractérisation des bétons, une simulation numérique par éléments finis du démarrage de la corrosion a été développée permettant de corroborer de façon satisfaisant les résultats expérimentaux / The steel corrosion induced by carbonation is a major cause of degradation of the reinforced concrete structures. Two stages arise: the steel depassivation due to the decrease of pH of the pore solution and the effective initiation, and then the propagation. A wide experimental study was carried out focusing on the first stage, in order to emphasize the effect of the exposure conditions, the type of cement and the concrete mixes, and the carbonation conditions of the concrete cover. In all a set of 27 configurations was investigated. The free potential of corrosion and the resistance of polarization were measured in the course of the experiment during one year. Regularly the Tafel coefficients along with the mass of corrosion products were also measured. The set of data was analyzed in order to derive the detection thresholds of the effective onset of corrosion associated with the electrochemical parameters, from the calculation of the probabilities of good or bad alarm. The threshold of the mass of corrosion products corresponding to this detection was also derived. The tests on concrete probes (porosity, permeability, etc.) supplied data that were used to calibrate a finite element model of the onset of corrosion: this model was found in fairly good agreement with the experimental results
43

Développement de méthodes fiabilistes dépendant du temps pour l'analyse de durabilité des structures : application au problème de conception fiabiliste dépendant du temps / Development of metamodeling methods for time-dependent structural reliability analysis

Hawchar, Lara 13 December 2017 (has links)
La caractérisation des incertitudes est un enjeu essentiel qui permet une conception fiable des structures. Par ailleurs, la surveillance du phénomène de vieillissement est primordiale pour l'inspection et la prévention des risques. Ces deux enjeux peuvent être étudiés simultanément dans une analyse de fiabilité dépendante du temps. Toutefois, une telle analyse est souvent complexe et très couteuse en temps de calcul parce qu'elle demande plusieurs évaluations du modèle physique décrivant la performance de la structure. Dans ce contexte, on propose l'utilisation de la métamodélisation pour l'analyse de fiabilité dépendante du temps, concept largement exploré dans le cas de problèmes indépendants du temps. Ceci consiste à remplacer le modèle physique par un métamodèle analytique facile à évaluer de sorte que la méthode de simulation de Monte-Carlo peut être utilisée à coût de calcul réduit. D'autres problèmes sont liés aussi à ce type d'analyse, notamment la grande dimensionnalité du problème, la non Gaussianité et non stationnarité des processus stochastiques mis en jeu et la non linéarité de la fonction d'état limite. La thèse vise alors à proposer des méthodes précises mais aussi efficaces pour l'analyse de fiabilité dépendant du temps qui permettent de surmonter ces difficultés. Elle propose également une extension de ces méthodes au problème de conception fiabiliste dépendant du temps. / Uncertainty quantification is essential for designing reliable structures. Moreover, monitoring the aging process is of vital importance for the inspection and prevention of risks. These two aspects may be considered simultaneously throughout a time-variant reliability analysis. However, such analysis is in general complex and very time consuming because it requires numerous evaluations of the mechanical model describing the structural behavior. To overcome this issue, we propose to use the metamodeling approach that has been widely explored in the context of the probabilistic analysis, for time-variant reliability problems. This consists in replacing the mechanical model with a simple analytical function that is easy to evaluate and on which Monte-Carlo simulation can be performed at a low computational cost. Other challenges also encounter this analysis and are basically related to the high dimensionality of the problem, the non Gaussianity and non stationarity of the input stochastic processes and the non linearity of the limit state function. The thesis aims then to develop accurate and efficient approaches for time-variant reliability analysis that overcome the aforementioned difficulties. It also proposes to extend these methods to the field of time-variant reliability-based design optimization.
44

Localisation et suivi de visages à partir d'images et de sons : une approche Bayésienne temporelle et commumative / From images and sounds to face localization and tracking : a switching dynamical Bayesian framework

Drouard, Vincent 18 December 2017 (has links)
Dans cette thèse, nous abordons le problème de l’estimation de pose de visage dans le contexte des interactions homme-robot. Nous abordons la résolution de cette tâche à l’aide d’une approche en deux étapes. Tout d’abord en nous inspirant de [Deleforge 15], nous proposons une nouvelle façon d’estimer la pose d’un visage, en apprenant un lien entre deux espaces, l’espace des paramètres de pose et un espace de grande dimension représentant les observations perçues par une caméra. L’apprentissage de ce lien se fait à l’aide d’une approche probabiliste, utilisant un mélange de regressions affines. Par rapport aux méthodes d’estimation de pose de visage déjà existantes, nous incorporons de nouvelles informations à l’espace des paramètres de pose, ces additions sont nécessaires afin de pouvoir prendre en compte la diversité des observations, comme les differents visages et expressions mais aussi lesdécalages entre les positions des visages détectés et leurs positions réelles, cela permet d’avoir une méthode robuste aux conditions réelles. Les évaluations ont montrées que cette méthode permettait d’avoir de meilleurs résultats que les méthodes de regression standard et des résultats similaires aux méthodes de l’état de l’art qui pour certaines utilisent plus d’informations, comme la profondeur, pour estimer la pose. Dans un second temps, nous développons un modèle temporel qui utilise les capacités des traqueurs pour combiner l’information du présent avec celle du passé. Le but à travers cela est de produire une estimation de la pose plus lisse dans le temps, mais aussi de corriger les oscillations entre deux estimations consécutives indépendantes. Le modèle proposé intègre le précédent modèle de régression dans une structure de filtrage de Kalman. Cette extension fait partie de la famille des modèles dynamiques commutatifs et garde tous les avantages du mélange de regressionsaffines précédent. Globalement, le modèle temporel proposé permet d’obtenir des estimations de pose plus précises et plus lisses sur une vidéo. Le modèle dynamique commutatif donne de meilleurs résultats qu’un modèle de suivi utilsant un filtre de Kalman standard. Bien qu’appliqué à l’estimation de pose de visage le modèle presenté dans cette thèse est très général et peut être utilisé pour résoudre d’autres problèmes de régressions et de suivis. / In this thesis, we address the well-known problem of head-pose estimationin the context of human-robot interaction (HRI). We accomplish this taskin a two step approach. First, we focus on the estimation of the head pose from visual features. We design features that could represent the face under different orientations and various resolutions in the image. The resulting is a high-dimensional representation of a face from an RGB image. Inspired from [Deleforge 15] we propose to solve the head-pose estimation problem by building a link between the head-pose parameters and the high-dimensional features perceived by a camera. This link is learned using a high-to-low probabilistic regression built using probabilistic mixture of affine transformations. With respect to classic head-pose estimation methods we extend the head-pose parameters by adding some variables to take into account variety in the observations (e.g. misaligned face bounding-box), to obtain a robust method under realistic conditions. Evaluation of the methods shows that our approach achieve better results than classic regression methods and similar results thanstate of the art methods in head pose that use additional cues to estimate the head pose (e.g depth information). Secondly, we propose a temporal model by using tracker ability to combine information from both the present and the past. Our aim through this is to give a smoother estimation output, and to correct oscillations between two consecutives independent observations. The proposed approach embeds the previous regression into a temporal filtering framework. This extention is part of the family of switching dynamic models and keeps all the advantages of the mixture of affine regressions used. Overall the proposed tracker gives a more accurate and smoother estimation of the head pose on a video sequence. In addition, the proposed switching dynamic model gives better results than standard tracking models such as Kalman filter. While being applied to the head-pose estimation problem the methodology presented in this thesis is really general and can be used to solve various regression and tracking problems, e.g. we applied it to the tracking of a sound source in an image.
45

A Probabilistic Model of Flower Fertility and Factors Influencing Seed Production in Winter Oilseed rape (Brassica napus L.) / Un modèle probabiliste de fleur de fertilité et facteurs influant sur la production de semences en colza d'hiver

Wang, Xiujuan 08 June 2011 (has links)
Le nombre de siliques par plante et le nombre de graines par silique sont les composantes du rendement du colza d'hiver qui présentent la plus grande variabilité. La production d'une graine résulte de la combinaison de plusieurs processus physiologiques, à savoir la formation des ovules et des grains de pollen, la fécondation des ovules et le développement de jeunes embryons. Un problème survenu à n’importe quelles des étapes peut entraîner l’avortement de graines ou de la silique. Le nombre potentiel d'ovules par silique et le nombre graines arrivant la maturité dépendraient de la position du dans l'architecture de plante et le temps de son apparition, mais le mode complexe de développement de colza rend difficile l’analyse des causes et effets.Dans cette étude, la variabilité des composantes du rendement suivantes est étudiée: (a) nombre d’ovules par silique, (b) nombre de graines par silique, et (c) nombre de siliques par axe en fonction d’une part, l’emplacement de la fleur dans l'inflorescence, et la position de cette dernière sur la tige, et l’autre part, le temps d'apparition de la silique, qui affectent la disponibilité d'assimilats. Basé sur les processus biologiques de la fertilité des fleurs, un modèle probabiliste est développé pour simuler le développement des graines. Le nombre de grains de pollen par fleur peut être déduit par le modèle et ainsi que les facteurs qui influent le rendement.Des expériences de terrain ont été menées en 2008 et 2009. Le nombre et la position des fleurs qui s'épanouissaient dans l'inflorescence ont été enregistrés sur la base des observations tous les deux à trois jours pendant la saison de floraison. Différents états trophiques ont été créés par tailler de la tige principale ou des ramifications à étudier l'effet de l'assimilation de la compétition.Les résultats montrent que la quantité d’assimilâtes disponibles a été le principal déterminant de la production de graines et de siliques. La répartition d’assimilâtes a été sensiblement affectée par l’emplacement de silique au sein d’une inflorescence et la location de l’inflorescence sur la tige colza. En outre, le paramètre de la distribution du nombre de pollen a indiqué que la production de graines pourrait être limitée par la pollinisation. La réduction de la viabilité des ovules pourrait entraîner la diminution du nombre de siliques et le nombre de graines par silique à l’extrémité de l'inflorescence. Le modèle proposé pourrait être un outil pour étudier la stratégie de l'amélioration du rendement des plantes à fleurs / The number of pods per plant and the number of seeds per pod are the most variable yield components in winter oilseed rape (WOSR). The production of a seed is the combination of several physiological processes, namely formation of ovules and pollen grains, fertilization of the ovules and development of young embryos, any problem in these processes may result in seed abortion or pod abortion. Both the number of ovules per pod and the potential for the ovule to develop into a mature seed may depend on pod position in the plant architecture and time of appearance. The complex developmental pattern of WOSR makes it difficult to analyse.In this study, we first investigate the variability of the following yield components (a) ovules/pod, (b) seeds/pod, and (c) pods/axis in relation to two explanatory variables. These two variables include (1) flower and inflorescence position and (2) time of pod appearance, linked to the effect of assimilate availability. Based on the biological phenomena of flower fertility, we developed a probabilistic model to simulate the number of ovules per ovary and seeds per pod. The model can predict the number of pollen grains per flower and distinguish the factors that influence the yield. Field experiments were conducted in 2008 and 2009. The number and position of flowers that bloomed within the inflorescence were recorded based on observations every two to three days throughout the flowering season. Different trophic states were created by clipping the main stem or ramifications to investigate the effect of assimilate competition.The results indicate that the amount of available assimilates was the primary determinant of pod and seed production. The distribution of resources was significantly affected by both the positions of pods within an inflorescence and the position of inflorescences within a plant in WOSR. In addition, model estimation for distribution parameter of pollen grain number indicated that pollination limitation could influence the seed production. Furthermore, the ovule viability could result in the decrease of the number of pods and the number of seeds per pod at the distal position of inflorescence. The model of flower fertility could be a tool to study the strategy of improving seed yield in flowering plants
46

Modélisation à plusieurs échelles d'un milieu continu hétérogène aléatoire / Stochastic modeling of random heterogeneous materials

Tran, Vinh Phuc 05 October 2016 (has links)
Lorsque les longueurs caractéristiques sont bien séparées, la théorie de l'homogénéisation propose un cadre théorique rigoureux pour les matériaux hétérogènes. Dans ce contexte, les propriétés macroscopiques peuvent être calculées à partir de la résolution d’un problème auxiliaire formulé sur un volume élémentaire représentatif (avec des conditions limites adéquates). Dans le présent travail, nous nous intéressons à l’homogénéisation de matériaux hétérogènes décrits à l’échelle la plus fine par deux modèles différents (tous deux dépendant d’une longueur caractéristique spécifique) alors que le milieu homogène équivalent se comporte, dans les deux cas, comme un milieu de Cauchy classique.Dans la première partie, une microstructure aléatoire de type Cauchy est considérée. La résolution numérique du problème auxiliaire, réalisée sur plusieurs réalisations, implique un coût de calcul important lorsque les longueurs caractéristiques des constituants ne sont pas bien séparées et/ou lorsque le contraste mécanique est élevé. Pour surmonter ces limitations, nous basons notre étude sur une description mésoscopique du matériau combinée à la théorie de l'information. Dans cette mésostructure, obtenue par filtrage, les détails les plus fins sont lissés.Dans la seconde partie, nous nous intéressons aux matériaux à gradient dans lesquels il existe au moins une longueur interne, qui induit des effets de taille à l’échelle macroscopique. La microstructure aléatoire est décrite par un modèle à gradient de contrainte récemment proposé. Malgré leur similarité conceptuelle, nous montrerons que le modèle de stress-gradient et strain-gradient définissent deux classes de matériaux distinctes. Nous proposons ensuite des approches simples (méthodes de champs moyens) pour mieux comprendre les hypothèses de modélisation. Les résultats semi-analytiques obtenus nous permettent d’explorer l'influence des paramètres du modèle sur les propriétés macroscopiques et constituent la première étape vers la simulation en champs complets / If the length-scales are well separated, homogenization theory can provide a robust theoretical framework for heterogeneous materials. In this context, the macroscopic properties can be retrieved from the solution to an auxiliary problem, formulated over the representative volume element (with appropriate boundary conditions). In the present work, we focus on the homogenization of heterogeneous materials which are described at the finest scale by two different materials models (both depending on a specific characteristic length) while the homogeneous medium behaves as a classical Cauchy medium in both cases.In the first part, the random microstructure of a Cauchy medium is considered. Solving the auxiliary problem on multiple realizations can be very costly due to constitutive phases exhibiting not well-separated characteristic length scales and/or high mechanical contrasts. In order to circumvent these limitations, our study is based on a mesoscopic description of the material, combined with information theory. In the mesostructure, defined by a filtering framework, the fine-scale features are smoothed out.The second part is dedicated to gradient materials which induce microscopic size-effect due to the existence of microscopic material internal length(s). The random microstructure is described by a newly introduced stress-gradient model. Despite being conceptually similar, we show that the stress-gradient and strain-gradient models define two different classes of materials. Next, simple approaches such as mean-field homogenization techniques are proposed to better understand the assumptions underlying the stress-gradient model. The obtained semi-analytical results allow us to explore the influence on the homogenized properties of the model parameters and constitute a first step toward full-field simulations
47

Méthodes de segmentation du ventricule gauche basée sur l'algorithme graph cut pour les images par résonance magnétique et échocardiographiques

Bernier, Michaël January 2017 (has links)
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
48

Coloration de graphes épars / Colouring sparse graphs

Pirot, Francois 13 September 2019 (has links)
Cette thèse a pour thème la coloration de diverses classes de graphes épars. Shearer montra en 1983 [She83] que le ratio d'indépendance des graphes sans triangle de degré maximal d est au moins (1-o(1))ln d/d, et 13 ans plus tard Johansson [Joh96] démontra que le nombre chromatique de ces graphes est au plus O(d/ln d) quand d tend vers l'infini. Ce dernier résultat fut récemment amélioré par Molloy [Mol19], qui montra que la borne (1+o(1))d/ln d est valide quand d tend vers l'infini.Tandis que le résultat de Molloy s'exprime à l'aide d'un paramètre global, le degré maximal du graphe, nous montrons qu'il est possible de l'étendre à la coloration locale. Il s'agit de la coloration par liste, où la taille de la liste associée à chaque sommet ne dépend que de son degré. Avec une méthode différente se basant sur les propriétés de la distribution hard-core sur les ensembles indépendants d'un graphe, nous obtenons un résultat similaire pour la coloration fractionnaire locale, avec des hypothèses plus faibles. Nous démontrons également un résultat concernant la coloration fractionnaire locale des graphes où chaque sommet est contenu dans un nombre borné de triangles, et une borne principalement optimale sur le taux d'occupation — la taille moyenne des ensembles indépendants — de ces graphes. Nous considérons également les graphes de maille 7, et prouvons des résultats similaires qui améliorent les bornes précédemment connues quand le degré maximal du graphe est au plus 10^7. Finalement, pour les graphes d-réguliers où d vaut 3, 4, ou 5, de maille g variant entre 6 et 12, nous démontrons de nouvelles bornes inférieures sur le ratio d'indépendance.Le Chapitre 2 est dédié à la coloration à distance t d'un graphe, qui généralise la notion de coloration forte des arêtes. Nous cherchons à étendre le théorème de Johansson à la coloration à distance t, par l'exclusion de certains cycles. Le résultat de Johansson s'obtient par exclusion des triangles, ou des cycles de taille k pour n'importe quelle valeur de k. Nous montrons que l'exclusion des cycles de taille 2k, pour n'importe quel k>t, a un effet similaire sur le nombre chromatique à distance t, et sur l'indice chromatique à distance t+1. En outre, quand t est impair, une conclusion similaire peut se faire pour le nombre chromatique à distance t par l'exclusion des cycles de d'une taille impaire fixée valant au moins 3t. Nous étudions l'optimalité de ces résultats à l'aide de constructions de nature combinatoire, algébrique, et probabiliste.Dans le Chapitre 3, nous nous intéressons à la densité bipartie induite des graphes sans triangle, un paramètre relaxant celui de la coloration fractionnaire. Motivés par une conjecture de Esperet, Kang, et Thomassé [EKT19], qui prétend que la densité bipartie induite de graphes sans triangle de degré moyen d est au moins de l'ordre de ln d, nous démontrons cette conjecture quand d est suffisamment grand en termes du nombre de sommets n, à savoir d est au moins de l'ordre de (n ln n)^(1/2). Ce résultat ne pourrait être amélioré que par une valeur de l'ordre de ln n, ce que nous montrons à l'aide d'une construction reposant sur le processus sans triangle. Nos travaux se ramènent à un problème intéressant, celui de déterminer le nombre chromatique fractionnaire maximal d'un graphe épars à n sommets. Nous prouvons des bornes supérieures non triviales pour les graphes sans triangle, et pour les graphes dont chaque sommet appartient à un nombre borné de triangles.Cette thèse est reliée aux nombres de Ramsey. À ce jour, le meilleur encadrement connu sur R(3,t) nous est donné par le résultat de Shearer, et par une analyse récente du processus sans triangle [BoKe13+,FGM13+], ce qui donne(1-o(1)) t²/(4 ln t) < R(3,t) < (1+o(1)) t²/ln t. (1)Beaucoup de nos résultats ne pourraient être améliorés à moins d'améliorer par la même occasion (1), ce qui constituerait une révolution dans la théorie de Ramsey quantitative. / This thesis focuses on generalisations of the colouring problem in various classes of sparse graphs.Triangle-free graphs of maximum degree d are known to have independence ratio at least (1-o(1))ln d/d by a result of Shearer [She83], and chromatic number at most O(d/ln d) by a result of Johansson [Joh96], as d grows to infinity. This was recently improved by Molloy, who showed that the chromatic number of triangle-free graphs of maximum degree d is at most (1+o(1))d/ln d as d grows to infinity.While Molloy's result is expressed with a global parameter, the maximum degree of the graph, we first show that it is possible to extend it to local colourings. Those are list colourings where the size of the list associated to a given vertex depends only on the degree of that vertex. With a different method relying on the properties of the hard-core distribution on the independent sets of a graph, we obtain a similar result for local fractional colourings, with weaker assumptions. We also provide an analogous result concerning local fractional colourings of graphs where each vertex is contained in a bounded number of triangles, and a sharp bound for the occupancy fraction — the average size of an independent set — of those graphs. In another direction, we also consider graphs of girth 7, and prove related results which improve on the previously known bounds when the maximum degree does not exceed 10^7. Finally, for d-regular graphs with d in the set {3,4,5}, of girth g varying between 6 and 12, we provide new lower bounds on the independence ratio.The second chapter is dedicated to distance colourings of graphs, a generalisation of strong edge-colourings. Extending the theme of the first chapter, we investigate minimal sparsity conditions in order to obtain Johansson-like results for distance colourings. While Johansson's result follows from the exclusion of triangles — or actually of cycles of any fixed length — we show that excluding cycles of length 2k, provided that k>t, has a similar effect for the distance-t chromatic number and the distance-(t+1) chromatic index. When t is odd, the same holds for the distance-t chromatic number by excluding cycles of fixed odd length at least 3t. We investigate the asymptotic sharpness of our results with constructions of combinatorial, algebraic, and probabilistic natures.In the third chapter, we are interested in the bipartite induced density of triangle-free graphs, a parameter which conceptually lies between the independence ratio and the fractional chromatic number. Motivated by a conjecture of Esperet, Kang, and Thomassé [EKT19], which states that the bipartite induced density of a triangle-free graph of average degree d should be at least of the order of ln d, we prove that the conjecture holds for when d is large enough in terms of the number of vertices n, namely d is at least of the order of (n ln n)^(1/2). Our result is shown to be sharp up to term of the order of ln n, with a construction relying on the triangle-free process. Our work on the bipartite induced density raises an interesting related problem, which aims at determining the maximum possible fractional chromatic number of sparse graph where the only known parameter is the number of vertices. We prove non trivial upper bounds for triangle-free graphs, and graphs where each vertex belongs to a bounded number of triangles.All the content of this thesis is a collection of specialisations of the off-diagonal Ramsey theory. To this date, the best-known bounds on the off-diagonal Ramsey number R(3,t) come from the aforementioned result of Shearer for the upper-bound, and a recent analysis of the triangle-free process [BoKe13+,FGM13+] for the lower bound, giving(1-o(1)) t²/(4 ln t) < R(3,t) < (1+o(1)) t²/ln t. (1)Many of our results are best possible barring an improvement of (1), which would be a breakthrough in off-diagonal Ramsey theory.
49

Désagrégation non-intrusive de charges électriques résidentielles

Henao, Nilson January 2018 (has links) (PDF)
No description available.
50

Combining machine learning and evolution for the annotation of metagenomics data / La combinaison de l'apprentissage statistique et de l'évolution pour l'annotation des données métagénomiques

Ugarte, Ari 16 December 2016 (has links)
La métagénomique sert à étudier les communautés microbiennes en analysant de l’ADN extrait directement d’échantillons pris dans la nature, elle permet également d’établir un catalogue très étendu des gènes présents dans les communautés microbiennes. Ce catalogue doit être comparé contre les gènes déjà référencés dans les bases des données afin de retrouver des séquences similaires et ainsi déterminer la fonction des séquences qui le composent. Au cours de cette thèse, nous avons développé MetaCLADE, une nouvelle méthodologie qui améliore la détection des domaines protéiques déjà référencés pour des séquences issues des données métagénomiques et métatranscriptomiques. Pour le développement de MetaCLADE, nous avons modifié un système d’annotations de domaines protéiques qui a été développé au sein du Laboratoire de Biologie Computationnelle et Quantitative appelé CLADE (CLoser sequences for Annotations Directed by Evolution) [17]. En général les méthodes pour l’annotation de domaines protéiques caractérisent les domaines connus avec des modèles probabilistes. Ces modèles probabilistes, appelés Sequence Consensus Models (SCMs) sont construits à partir d’un alignement des séquences homologues appartenant à différents clades phylogénétiques et ils représentent le consensus à chaque position de l’alignement. Cependant, quand les séquences qui forment l’ensemble des homologues sont très divergentes, les signaux des SCMs deviennent trop faibles pour être identifiés et donc l’annotation échoue. Afin de résoudre ce problème d’annotation de domaines très divergents, nous avons utilisé une approche fondée sur l’observation que beaucoup de contraintes fonctionnelles et structurelles d’une protéine ne sont pas globalement conservées parmi toutes les espèces, mais elles peuvent être conservées localement dans des clades. L’approche consiste donc à élargir le catalogue de modèles probabilistes en créant de nouveaux modèles qui mettent l’accent sur les caractéristiques propres à chaque clade. MetaCLADE, un outil conçu dans l’objectif d’annoter avec précision des séquences issues des expériences métagénomiques et métatranscriptomiques utilise cette libraire afin de trouver des correspondances entre les modèles et une base de données de séquences métagénomiques ou métatranscriptomiques. En suite, il se sert d’une étape pré-calculée pour le filtrage des séquences qui permet de déterminer la probabilité qu’une prédiction soit considérée vraie. Cette étape pré-calculée est un processus d’apprentissage qui prend en compte la fragmentation de séquences métagénomiques pour les classer.Nous avons montré que l’approche multi source en combinaison avec une stratégie de méta apprentissage prenant en compte la fragmentation atteint une très haute performance. / Metagenomics is used to study microbial communities by the analyze of DNA extracted directly from environmental samples. It allows to establish a catalog very extended of genes present in the microbial communities. This catalog must be compared against the genes already referenced in the databases in order to find similar sequences and thus determine their function. In the course of this thesis, we have developed MetaCLADE, a new methodology that improves the detection of protein domains already referenced for metagenomic and metatranscriptomic sequences. For the development of MetaCLADE, we modified an annotation system of protein domains that has been developed within the Laboratory of Computational and Quantitative Biology clade called (closer sequences for Annotations Directed by Evolution) [17]. In general, the methods for the annotation of protein domains characterize protein domains with probabilistic models. These probabilistic models, called sequence consensus models (SCMs) are built from the alignment of homolog sequences belonging to different phylogenetic clades and they represent the consensus at each position of the alignment. However, when the sequences that form the homolog set are very divergent, the signals of the SCMs become too weak to be identified and therefore the annotation fails. In order to solve this problem of annotation of very divergent domains, we used an approach based on the observation that many of the functional and structural constraints in a protein are not broadly conserved among all species, but they can be found locally in the clades. The approach is therefore to expand the catalog of probabilistic models by creating new models that focus on the specific characteristics of each clade. MetaCLADE, a tool designed with the objective of annotate with precision sequences coming from metagenomics and metatranscriptomics studies uses this library in order to find matches between the models and a database of metagenomic or metatranscriptomic sequences. Then, it uses a pre-computed step for the filtering of the sequences which determine the probability that a prediction is a true hit. This pre-calculated step is a learning process that takes into account the fragmentation of metagenomic sequences to classify them. We have shown that the approach multi source in combination with a strategy of meta-learning taking into account the fragmentation outperforms current methods.

Page generated in 0.1039 seconds