• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 23
  • Tagged with
  • 257
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Mélanges bayésiens de modèles d'extrêmes multivariés, Application à la prédétermination régionale des crues avec données incomplètes.

Anne, Sabourin 24 September 2013 (has links) (PDF)
La théorie statistique univariée des valeurs extrêmes se généralise au cas multivarié mais l'absence d'un cadre paramétrique naturel complique l'inférence de la loi jointe des extrêmes. Les marges d'erreur associées aux estimateurs non paramétriques de la structure de dépendance sont difficilement accessibles à partir de la dimension trois. Cependant, quantifier l'incertitude est d'autant plus important pour les applications que le problème de la rareté des données extrêmes est récurrent, en particulier en hydrologie. L'objet de cette thèse est de développer des modèles de dépendance entre extrêmes, dans un cadre bayésien permettant de représenter l'incertitude. Après une introduction à la théorie des valeurs extrêmes et à l'inférence bayésienne (chapitre 1), le chapitre 2 explore les propriétés des modèles obtenus en combinant des modèles paramétriques existants, par mélange bayésien (Bayesian Model Averaging). Un modèle semi-paramétrique de mélange de Dirichlet est étudié au chapitre suivant : une nouvelle paramétrisation est introduite afin de s'affranchir d'une contrainte de moments caractéristique de la structure de dépendance et de faciliter l'échantillonnage de la loi a posteriori. Le chapitre~\ref{censorDiri} est motivé par une application hydrologique: il s'agit d'estimer la structure de dépendance spatiale des crues extrêmes dans la région cévenole des Gardons en utilisant des données historiques enregistrées en quatre points. Les données anciennes augmentent la taille de l'échantillon mais beaucoup de ces données sont censurées. Une méthode d'augmentation de données est introduite, dans le cadre du mélange de Dirichlet, palliant l'absence d'expression explicite de la vraisemblance censurée. Les perspectives sont discutées au chapitre 5.
202

Amélioration de l'exactitude de l'inférence phylogénomique

Roure, Béatrice 04 1900 (has links)
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif. / The explosion of sequence number allows for phylogenomics, the study of species relationships based on large multi-gene alignments, to flourish. Without any doubt, phylogenomics is essentially an efficient way to eliminate the problems of single gene phylogenies due to stochastic errors, but numerous problems remain despite obvious progress realized in modeling evolutionary process. In this PhD-thesis, we are trying to characterize some consequences of a poor model fit and to study their impact on the accuracy of the phylogenetic inference. In contrast to heterotachy, the variation in the amino acid substitution process over time did not attract so far a lot of attention. We demonstrate that this heterogeneity is frequently observed within animals, but also that its existence can interfere with the quality of phylogenomic inference. In absence of an adequate model, the elimination of heterogeneous columns, which are poorly handled by the model, can eliminate an artefactual reconstruction. In a phylogenomic framework, the sequencing strategies often result in a situation where some genes are absent for some species. The issue about the impact of the quantity of empty cells was recently relaunched, but the majority of studies on missing data is performed on small datasets of simulated sequences. Therefore, we were interested on measuring the impact in the case of a large alignment of real data. With a reasonable amount of missing data, it seems that the accuracy of the inference is influenced rather by the choice of the model than the incompleteness of the alignment. For example, the addition of an incomplete sequence that breaks a long branch can at least partially re-establish an artefactual phylogeny. Because, model violations are always representing the major limitation of the accuracy of the phylogenetic inference, the improvement of species and gene sampling remains a useful alternative in the absence of an adequate model. Therefore, we developed a sequence-selection software, which allows the reproducible construction of datasets, based on the quantity of data, their evolutionary speed and their compositional bias. During this study, we did realize that the human expertise still furnishes an indispensable knowledge. The various analyses performed in the course of this PhD thesis agree on the primordial importance of the model of sequence evolution.
203

Estimation simplifiée de la variance dans le cas de l’échantillonnage à deux phases

Béliveau, Audrey 08 1900 (has links)
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques. / In this thesis we study the problem of variance estimation for the double expansion estimator and the calibration estimators in the case of two-phase designs. We suggest to use a variance decomposition different from the one usually used in two-phase sampling, which leads to a simplified variance estimator. We look for the necessary conditions for the simplified variance estimators to be appropriate. In order to do so, we consider the following particular cases : (1) Poisson design at the second phase, (2) two-stage design, (3) simple random sampling at each phase, (4) simple random sampling at the second phase. We show that a crucial condition for the simplified variance estimator to be valid in cases (1) and (2) is that the first phase sampling fraction must be negligible (or small). We also show in cases (3) and (4) that the simplified variance estimator can be used with some calibration estimators when the first phase sampling fraction is negligible and the population size is large enough. Furthermore, we show that the simplified estimators can be obtained in an alternative way using the reversed approach (Fay, 1991 and Shao and Steel, 1999). Finally, we conduct some simulation studies in order to validate the theoretical results.
204

Phylogéographie et conservation de deux espèces de petits félidés des Andes : le chat des pampas et le chat des Andes

Cossíos Meza, Eduardo Daniel January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
205

Estimation de probabilités d'évènements rares et de quantiles extrêmes. Applications dans le domaine aérospatial

Pastel, Rudy 14 February 2012 (has links) (PDF)
Les techniques dédiées aux évènements rares sont d'un grand intérêt pour l'industrie aérospatiale en raison des larges sommes qui peuvent être perdues à cause des risques associés à des probabilités infimes. Cette thèse se concentre la recherche d'outils probabilistes capables d'estimer les probabilités d'évènements rares et les quantiles extrêmes associés à un système boîte noire dont les entrées sont des variables aléatoires. Cette étude est faite au travers de deux cas issus de l'industrie. Le premier est l'estimation de la probabilité de collision entre les satellites Iridium et Cosmos. La Cross-Entropy (CE), le Non-parametric Adaptive Importance Sampling (NAIS) et une technique de type Adaptive Splitting (AST) sont comparés. Au cours de la comparaison, une version améliorée de NAIS est conçue. Au contraire du NAIS qui doit être initialisé avec une variable aléatoire qui génère d'emblée des événements rares, le NAIS adaptatif (ANAIS) peut être initialisé avec la variable aléatoire d'origine du système et n'exige donc pas de connaissance a priori. Le second cas d'étude est l'estimation de la zone de sécurité vis-à-vis de la chute d'un booster de fusée. Bien que les quantiles extrêmes puissent être estimés par le bais de ANAIS ou AST, ils apparaissent comme inadaptés à une distribution spatiale. A cette fin, le Minimum Volume Set (MVS) est choisi dans la littérature. L'estimateur Monte Carlo (MC) de MVS n'étant pas adapté à l'estimation d'un MVS de niveau extrême, des estimateurs dédiés sont conçus à partir d'ANAIS et d'AST. Ces deux derniers surpassent l'estimateur de type MC.
206

Développement d'un dispositif pompe-sonde hétérodyne : application à l'imagerie en acoustique picoseconde

Abbas, Allaoua 07 June 2013 (has links) (PDF)
L' acoustique picoseconde permet l'étude de structures aux dimensions sub-microniques grâce à l'utilisation d'ultrasons dont le contenu spectral peut s' étendre au-delà du THz. La génération et la détection de ces ondes sont rendues possibles par l'association de lasers impulsionnels femtosecondes à dispositifs de type pompe-sonde. Ce manuscrit de thèse décrit la mise en place d'une expérience d' imagerie opto-acoustique avec une résolution spatiale submicronique. L' utilisation combinée d'un échantillonnage optique hétérodyne et de cavités lasers à bas taux de répétition (50 MHz) permet de gagner plusieurs ordres de grandeur sur les temps d'acquisition et de disposer d'une très bonne résolution spectrale. Le manuscrit s'articule autour de trois parties. Dans un premier temps les deux cavités laser aux taux de répértition légèrement différents permettant l'échantillonnage otpique hétérdodyne sont présentées. Puis l'architecture et les performances du système d'asservissement de leur taux de répétion sont décrites. Dans la seconde partie du manuscrit, l'implémentation de cette double cavité dans une expérience pompre-sonde est détaillée et la possibilité de détecter des ondes acoustiques sub-THz avec une résolution de 50 MHz est démontrée. Enfin, dans le dernier chapitre, la puissance de cette expérience pour réaliser de l'imagerie ultra-rapide est illustrée au travers de deux exemples : l'étude d'ondes acoustiques de surface GHz dont la dispersion est induite par la présence d'une couche nanométrique et la détection d'hétérogénéités élastiques submicroniques
207

Développement et validation du logiciel S4MPLE : application au docking moléculaire et à l'optimisation de fragments assistée par ordinateur dans le cadre du fragment-based drug design

Hoffer, Laurent 03 June 2013 (has links) (PDF)
Cette thèse a pour but de développer le pendant in silico des étapes clés du Fragment-Based Drug Design (FBDD), et ce dans le cadre plus général du développement de l'outil S4MPLE. Le FBDD génère des ligands drug-like à partir de petites molécules (fragments). Après une étape de validation de S4MPLE et de sa fonction d'énergie, un recentrage autour du FBDD est réalisé, à travers le docking puis l'optimisation virtuelle de fragments par growing ou linking (G/L). Cette stratégie reposesur 1) la création d'une chimiothèque focalisée en connectant un ou deux fragment(s) avec des linkers pré-générés, et 2) l'échantillonnage avec S4MPLE des composés chimères dans le site avec des contraintes. Des simulations de G/L plus ou moins ambitieuses (site flexible, ajout de H2O libres) permettent de valider cette approche avec des études rétrospectives basées sur des données expérimentales. La dernière phase de la thèse a consisté à appliquer ce protocole in silico à un projet de l'entreprise.
208

Électroniques dédiées à l'asservissement d'oscillateurs et à la mesure physique à l'aide de capteurs à ondes élastiques.

Chrétien, Nicolas 27 June 2014 (has links) (PDF)
Le travail en bande de base permet de s'affranchir du bruit de multiplication de fréquence d'un signal. Cependant, la conception d'un oscillateur fonctionnant à haute fréquence nécessite d'avoir un composant sélectif en fréquence, fonctionnant à haute fréquence et avec un facteur de qualité élevée. L'approche proposée dans cette thèse consiste à évaluer un composant à onde élastique de volume à harmoniques élevées, le HBAR, pour la réalisation d'un oscillateur compact et stable, travaillant en bande de base à 2,45 GHz, à des fins d'utilisation de source de fréquence pour un système RADAR. Les oscillateurs réalisés présentent un bruit de phase de -100 dBc/Hz pour un écart à la porteuse de 1 kHz, avec une perspective d'amélioration d'une dizaine de dBc/Hz de cette valeur d'après la simulation. L'étude porte également sur l'analyse de l'influence du bruit de phase de l'oscillateur local sur la résolution d'une mesure RADAR dont l'effet est démontré expérimentalement en utilisant une ligne à retard à onde élastique de surface (SAW) comme cible RADAR coopérative. Le travail effectué sur cette cible coopérative a permis d'aboutir à un prototype l'électronique embarqué pour l'interrogation de lignes à retard à ondes élastiques utilisées en tant que capteurs passifs interrogeables à distance. L'architecture de l'interrogateur combine une méthode RADAR impulsionnelle à un système d'échantillonnage en temps équivalent permettant de réduire l'importance de la puissance de calcul dans le traitement de la réponse. Les inconvénients de l'échantillonnage en temps équivalent sont minimisés par une interrogation judicieuse pour acquérir seulement les points nécessaires à la mesure. Les mesures effectuées sur un capteur de température commercial présentent une résolution de 0,2°C avec une bande passante de 35 kHz. Pour les applications nécessitant une bande passante plus élevée (allant jusqu'à 200 kHz), un second prototype n'ayant pas de restriction sur les ressources de calcul mises en œuvre est également présenté dans cette thèse, combinant la même méthode impulsionnelle avec un échantillonnage en temps réel.
209

Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste

Dubourg, Vincent 05 December 2011 (has links) (PDF)
Cette thèse est une contribution à la résolution du problème d'optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d'optimisation consiste alors à s'assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d'ordres. La résolution de ce problème nécessite un grand nombre d'appels à la fonction d'état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s'appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d'état-limite par un méta-modèle par Krigeage. On s'est particulièrement employé à quantifier, réduire et finalement éliminer l'erreur commise par l'utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement.
210

Propriétés asymptotiques de la distribution d'un échantillon dans le cas d'un plan de sondage informatif

Bonnéry, Daniel 24 November 2011 (has links) (PDF)
Étant donné un modèle de super-population (des variables aléatoires sont générées indépendamment et selon une même loi initiale sur une population) et un plan de sondage informatif, une loi de probabilité limite et une densité de probabilité limite des observations sur l'échantillon sont définies correspondant à des tailles de population et d'échantillon tendant vers l'infini. Le processus aléatoire de sélection peut induire une dépendance entre les observations sélectionnés. Un cadre asymptotique et des conditions faibles sur le processus de sélection sont donnés, sous lesquels les propriétés asymptotiques classiques sont conservées malgré la dépendance des données : la convergence uniforme de la fonction de répartition empirique. Par ailleurs, nous donnons la vitesse de convergence de l'estimateur à noyau de la densité vers la densité limite de l'échantillon. Ces résultats constituent des indications selon lesquelles il est parfois possible de considérer que les réalisations sur l'échantillon sont id et suivent approximativement la densité limite définie, notamment dans une perspective d'inférence sur le modèle de super-population. Par exemple, étant donné un modèle paramétrique on peut définir la vraisemblance approchée de l'échantillon comme produit de densités limites et un estimateur de maximum de vraisemblance approchée, dont on établit la normalité asymptotique . La dernière partie traite de tirage équilibré : des algorithmes de calcul de probabilités d'inclusion minimisant une approximation de la variance de l'estimateur de Horvitz-Thompson d'un total sont proposés.

Page generated in 0.0676 seconds