• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Sur quelques problèmes mathématiques en analyse d'images et vision stéréoscopique

Almansa, Andrés 01 December 2005 (has links) (PDF)
.
82

Estimation simplifiée de la variance pour des plans complexes

Lefebvre, Isabelle 12 1900 (has links)
En présence de plans de sondage complexes, les méthodes classiques d’estimation de la variance présentent certains défis. En effet, les estimateurs de variance usuels requièrent les probabilités d’inclusion d’ordre deux qui peuvent être complexes à obtenir pour certains plans de sondage. De plus, pour des raisons de confidentialité, les fichiers externes de microdonnées n’incluent généralement pas les probabilités d’inclusion d’ordre deux (souvent sous la forme de poids bootstrap). En s’inspirant d’une approche développée par Ohlsson (1998) dans le contexte de l’échantillonnage de Poisson séquentiel, nous proposons un estimateur ne requérant que les probabilités d’inclusion d’ordre un. L’idée est d’approximer la stratégie utilisée par l’enquête (consistant du choix d’un plan de sondage et d’un estimateur) par une stratégie équivalente dont le plan de sondage est le plan de Poisson. Nous discuterons des plans proportionnels à la taille avec ou sans grappes. Les résultats d’une étude par simulation seront présentés. / In a complex design framework, standard variance estimation methods entail substantial challenges. As we know, conventional variance estimators involve second order inclusion probabilities, which can be difficult to compute for some sampling designs. Also, confidentiality standards generally prevent second order inclusion probabilities to be included in external microdata files (often in the form of bootstrap weights). Based on Ohlsson’s sequential Poisson sampling method (1998), we suggest a simplified estimator for which we only need first order inclusion probabilities. The idea is to approximate a survey strategy (which consists of a sampling design and an estimator) by an equivalent strategy for which a Poisson sampling design is used. We will discuss proportional to size sampling and proportional to size cluster sampling. Results of a simulation study will be presented.
83

Le district aurifère de Challant (Val d'Aoste-Italie) : gîtologie, géochimie et métallogénie de l'or

Richard, Annick 25 April 1981 (has links) (PDF)
Dans la province aurifère du Mont Rose, le district de Challant représente une entité géologique calquée sur l'îlot de gneiss paléozoïques d'Arcesa entouré par la nappe des Schistes Lustrés à ophiolites; le district s'étend au Sud de l'accident majeur de Ranzola, limitant les gneiss dans leur partie Nord . Il s'agit de filons épigénétiques dont la mise en place se serait effectuée entre 50 et 30 Ma . Ces filons, au nombre d'une centaine, sont soit de type à quartz et or natif, pauvres en sulfures (type Fenillaz à teneur en or moyenne de 12 g/t), soit de type à quartz et pyrite (type Bêchaz à teneur en or moyenne de 7g/t) . Les réserves en or probables sont estimées à 1 t et les réserves possi les à 5 t. L'utilisation de différentes méthodes d'analyse (dont la spectrométrie de masse à étincelles) permet de dresser l ' inventaire des éléments majeurs,mineurs et en traces présents dans les gneiss , les quartz filoniens, l'or natif, les listvénites et les pyrites provenant de filons différents. Il est possible de différencier les pyrites aurifères des non aurifères par leur composition en éléments en traces. Quelques éléments, dont Sb, As, Ag,Cu, Hg, Pb, Bi, Te seraient susceptibles d'être accompagnateurs de l'or dans ce district, et leur utilisation en prospection systématique en sols est proposée pour l'avenir . La synthèse des données géologiques, gîtologiques permet d'envisager pour l'or du district de Challant une origine par sécrétion métamorphique.
84

Influence des fluctuations sur l'échantillonnage et la quantification dans le système visuel

Duchêne, Cédric 19 July 2007 (has links) (PDF)
De récentes études tendent à montrer que les réseaux de neurones biologiques exploitent le bruit et les non-linéarités pour favoriser les processus de traitements de l'information. Cette thèse s'articule autour de cette thématique; elle tente de mettre à jour des liens entre des opérations de traitement du signal susceptibles d'apparaitre au sein du système visuel et les facteurs aléatoires qui y sont sous-jacents.<br /><br />Une description du système visuel et de ses différentes sources de bruits est réalisée dans le premier chapitre. Nous étudions dans le chapitre 2, le lien possible entre l'échantillonnage si particulier de la rétine et les mouvements incontrôlables et incessants de l'œil, les micro-mouvements. A l'aide de modèles simples de rétine et pour des fluctuations de diverses natures nous montrons que la ressemblance entre la scène projetée sur la rétine et la scène réelle peut être améliorée par des micro-mouvements aléatoires.<br /><br />Dans le chapitre 3, on s'intéresse à un problème récurent dans les systèmes naturels tel que le processus visuel : le test d'hypothèse binaire en milieu bruité. En particulier, nous caractérisons qu'elle peut être l'influence du bruit interne sur les performances de détection des premières couches de neurones du système visuel. Pour prendre en compte le bruit interne observé dans les réseaux de neurones biologiques, nous proposons de réaliser l'étude autour de quantifieurs stochastiques, quantifieurs dont les seuils sont soumis à des fluctuations aléatoires. Là encore, on observe que le bruit injecté dans le modèle permet d'accroitre les performances de détection en diminuant la probabilité d'erreur.
85

Identification et quantification des isocyanates générés lors de la dégradation thermique d'une peinture automobile à base de polyuréthane

Boutin, Michel January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
86

Confirmation génétique de la présence de couguars (Puma concolor) dans l'est du Canada

Lang, Le Duing January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
87

Estimation de la moyenne et de la variance de l’abondance de populations en écologie à partir d’échantillons de petite taille / Estimating mean and variance of populations abundance in ecology with small-sized samples

Vaudor, Lise 25 January 2011 (has links)
En écologie comme dans bien d’autres domaines, les échantillons de données de comptage comprennent souvent de nombreux zéros et quelques abondances fortes. Leur distribution est particulièrement surdispersée et asymétrique. Les méthodes les plus classiques d’inférence sont souvent mal adaptées à ces distributions, à moins de disposer d’échantillons de très grande taille. Il est donc nécessaire de s’interroger sur la validité des méthodes d’inférence, et de quantifier les erreurs d’estimation pour de telles données. Ce travail de thèse a ainsi été motivé par un jeu de données d’abondance de poissons, correspondant à un échantillonnage ponctuel par pêche électrique. Ce jeu de données comprend plus de 2000 échantillons, dont chacun correspond aux abondances ponctuelles (considérées indépendantes et identiquement distribuées) d’une espèce pour une campagne de pêche donnée. Ces échantillons sont de petite taille (en général, 20 _ n _ 50) et comprennent de nombreux zéros (en tout, 80% de zéros). Les ajustements de plusieurs modèles de distribution classiques pour les données de comptage ont été comparés sur ces échantillons, et la distribution binomiale négative a été sélectionnée. Nous nous sommes donc intéressés à l’estimation des deux paramètres de cette distribution : le paramètre de moyenne m, et le paramètre de dispersion, q. Dans un premier temps, nous avons étudié les problèmes d’estimation de la dispersion. L’erreur d’estimation est d’autant plus importante que le nombre d’individus observés est faible, et l’on peut, pour une population donnée, quantifier le gain en précision résultant de l’exclusion d’échantillons comprenant très peu d’individus. Nous avons ensuite comparé plusieurs méthodes de calcul d’intervalles de confiance pour la moyenne. Les intervalles de confiance basés sur la vraisemblance du modèle binomial négatif sont, de loin, préférables à des méthodes plus classiques comme la méthode de Student. Par ailleurs, ces deux études ont révélé que certains problèmes d’estimation étaient prévisibles, à travers l’observation de statistiques simples des échantillons comme le nombre total d’individus, ou le nombre de comptages non-nuls. En conséquence, nous avons comparé la méthode d’échantillonnage à taille fixe, à une méthode séquentielle, où l’on échantillonne jusqu’à observer un nombre minimum d’individus ou un nombre minimum de comptages non-nuls. Nous avons ainsi montré que l’échantillonnage séquentiel améliore l’estimation du paramètre de dispersion mais induit un biais dans l’estimation de la moyenne ; néanmoins, il représente une amélioration des intervalles de confiance estimés pour la moyenne. Ainsi, ce travail quantifie les erreurs d’estimation de la moyenne et de la dispersion dans le cas de données de comptage surdispersées, compare certaines méthodes d’estimations, et aboutit à des recommandations pratiques en termes de méthodes d’échantillonnage et d’estimation. / In ecology as well as in other scientific areas, count samples often comprise many zeros, and few high abundances. Their distribution is particularly overdispersed, and skewed. The most classical methods of inference are often ill-adapted to these distributions, unless sample size is really large. It is thus necessary to question the validity of inference methods, and to quantify estimation errors for such data. This work has been motivated by a fish abundance dataset, corresponding to punctual sampling by electrofishing. This dataset comprises more than 2000 samples : each sample corresponds to punctual abundances (considered to be independent and identically distributed) for one species and one fishing campaign. These samples are small-sized (generally, 20 _ n _ 50) and comprise many zeros (overall, 80% of counts are zeros). The fits of various classical distribution models were compared on these samples, and the negative binomial distribution was selected. Consequently, we dealt with the estimation of the parameters of this distribution : the parameter of mean m and parameter of dispersion q. First, we studied estimation problems for the dispersion. The estimation error is higher when few individuals are observed, and the gain in precision for a population, resulting from the exclusion of samples comprising very few individuals, can be quantified. We then compared several methods of interval estimation for the mean. Confidence intervals based on negative binomial likelihood are, by far, preferable to more classical ones such as Student’s method. Besides, both studies showed that some estimation problems are predictable through simple statistics such as total number of individuals or number of non-null counts. Accordingly, we compared the fixed sample size sampling method, to a sequential method, where sampling goes on until a minimum number of individuals or positive counts have been observed. We showed that sequential sampling improves the estimation of dispersion but causes the estimation of mean to be biased ; still, it improves the estimation of confidence intervals for the mean. Hence, this work quantifies errors in the estimation of mean and dispersion in the case of overdispersed count data, compares various estimation methods, and leads to practical recommendations as for sampling and estimation methods.
88

Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables / Rare event simulation using Monte Carlo in highly reliable networks

Saggadi, Samira 08 July 2013 (has links)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel. / Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling.
89

Electroniques dédiées à l'asservissement d'oscillateurs et à la mesure physique à l'aide de capteurs à ondes élastiques / Electronics dedicated to oscillators and psysical mesurement using elastic wave sensors

Chretien, Nicolas 27 June 2014 (has links)
Le travail en bande de base permet de s’affranchir du bruit de multiplication de fréquenced’un signal. Cependant, la conception d’un oscillateur fonctionnant à haute fréquence nécessited’avoir un composant sélectif en fréquence, fonctionnant à haute fréquence et avec un facteurde qualité élevée. L’approche proposée dans cette thèse consiste à évaluer un composant à ondeélastique de volume à harmoniques élevées, le HBAR, pour la réalisation d’un oscillateur compactet stable, travaillant en bande de base à 2,45 GHz, à des fins d’utilisation de source defréquence pour un système RADAR. Les oscillateurs réalisés présentent un bruit de phase de-100 dBc/Hz pour un écart à la porteuse de 1 kHz, avec une perspective d’amélioration d’une dizainede dBc/Hz de cette valeur d’après la simulation. L’étude porte également sur l’analyse del’influence du bruit de phase de l’oscillateur local sur la résolution d’une mesure RADAR dontl’effet est démontré expérimentalement en utilisant une ligne à retard à onde élastique de surface(SAW) comme cible RADAR coopérative. Le travail effectué sur cette cible coopérative apermis d’aboutir à un prototype d’électronique embarqué pour l’interrogation de lignes à retardà ondes élastiques utilisées en tant que capteurs passifs interrogeables à distance. L’architecturede l’interrogateur combine une méthode RADAR impulsionnelle à un système d’échantillonnageen temps équivalent permettant de réduire l’importance de la puissance de calcul dansle traitement de la réponse. Les inconvénients de l’échantillonnage en temps équivalent sontminimisés par une interrogation judicieuse pour acquérir seulement les points nécessaires à lamesure. Les mesures effectuées sur un capteur de température commercial présentent une résolutionde 0,2°C avec une bande passante de 35 kHz. Pour les applications nécessitant une bandepassante plus élevée (allant jusqu’à 200 kHz), un second prototype n’ayant pas de restrictionsur les ressources de calcul mises en oeuvre est également présenté dans cette thèse, combinantla même méthode impulsionnelle avec un échantillonnage en temps réel. / Eliminating the step of frequency multiplication, by working in baseband, reduces the phasenoise of an oscillator. However, the design of a high frequency oscillator requires a frequencyselective component, which operates at high frequency and with a high quality factor. The approachproposed in this thesis is to evaluate a High-overtone Bulk Acoustic-wave Resonator,the HBAR, for the realization of a compact and stable oscillator at 2.45 GHz for a RADAR system.The designed oscillator exhibits a phase noise of −100 dBc/Hz at 1 kHz from the carrier,with an expected improvement of a dozen dBc/Hz according to the simulation. The study alsofocuses on the analysis of the local oscillator phase noise impact on the resolution of a RADARmeasurement and an experimental demonstration is done using a delay line surface acousticwave (SAW) as cooperative RADAR target. The work on this cooperative target has lead to aprototype of an embedded electronics for interrogating surface acoustic wave delay lines usedas passive sensors remotely interrogated through a wireless link. The architecture combines thepulsed RADAR signal generation method with an equivalent time sampling system in orderto reduce the computing power needed to process the response. The disadvantages of equivalenttime sampling are minimized by a smart interrogation strategy to acquire only mandatorysamples. Measurements on a commercial temperature sensor have a resolution of 0.2°C witha 35 kHz bandwidth. For applications in need of higher bandwidth (up to 200 kHz), a secondprototype with no restriction on computing resources is also presented in this thesis, combiningthe same impulse RADAR method with real-time sampling.
90

On-demand Development of Statistical Machine Translation Systems / Développement à la demande des systèmes de traduction automatique statistiques

Gong, Li 25 November 2014 (has links)
La traduction automatique statistique produit des résultats qui en font un choix privilégié dans la plupart des scénarios de traduction assistée par ordinateur.Cependant, le développement de ces systèmes de haute performance implique des traitements très coûteux sur des données à grande échelle. De nouvelles données sont continuellement disponibles,alors que les systèmes construits de manière standard sont statiques, ce qui rend l'utilisation de nouvelles données couteuse car les systèmes sont typiquement reconstruits en intégralité.En outre, le processus d'adaptation des systèmes de traduction est généralement fondé sur un corpus de développement et est effectué une fois pour toutes. Dans cette thèse, nous proposons un cadre informatique pour répondre à ces trois problèmes conjointement. Ce cadre permet de développer des systèmes de traduction à la demande avec des mises à jour incrémentales et permet d’adapter les systèmes construits à chaque nouveau texte à traduire.La première contribution importante de cette thèse concerne une nouvelle méthode d'alignement sous-phrastique qui peut aligner des paires de phrases en isolation. Cette propriété permet aux systèmes de traduction de calculer des informations à la demande afin d'intégrer de façon transparente de nouvelles données disponibles sans re-entraînement complet des systèmes.La deuxième contribution importante de cette thèse est de proposer l'intégration de stratégies d'échantillonnage contextuel pour sélectionner des exemples de traduction à partir de corpus à grande échelle sur la base de leur similarité avec le texte à traduire afin d obtenir des tables de traduction adaptées / Statistical Machine Translation (SMT) produces results that make it apreferred choice in most machine-assisted translation scenarios.However,the development of such high-performance systems involves thecostly processing of very large-scale data. New data are constantly madeavailable while the constructed SMT systems are usually static, so thatincorporating new data into existing SMT systems imposes systemdevelopers to re-train systems from scratch. In addition, the adaptationprocess of SMT systems is typically based on some available held-outdevelopment set and is performed once and for all.In this thesis, wepropose an on-demand framework that tackles the 3 above problemsjointly, to enable to develop SMT systems on a per-need with incremental updates and to adapt existing systems to each individual input text.The first main contribution of this thesis is devoted to a new on-demandword alignment method that aligns training sentence pairs in isolation.This property allows SMT systems to compute information on a per-needbasis and to seamlessly incorporate new available data into an exiting SMT system without re-training the whole systems. The second maincontribution of this thesis is the integration of contextual sampling strategies to select translation examples from large-scale corpora that are similar to the input text so as to build adapted phrase tables

Page generated in 0.0669 seconds