• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 153
  • 78
  • 21
  • Tagged with
  • 254
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Échantillonnage basé sur les Tuiles de Penrose et applications en infographie

Donohue, Charles January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
32

Échantillonnage de produits de fonctions

Rousselle, Fabrice January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
33

Evaluation de la contamination en pesticides des tributaires du Bassin d’Arcachon et développement d’un échantillonneur passif spécifique des herbicides anioniques / Pesticides contamination of the Arcachon Bay tributaries and development of passive sampling devices for acidic herbicides

Fauvelle, Vincent 19 December 2012 (has links)
Le Bassin d’Arcachon souffre depuis le début des années 2000 de crises environnementales qui ont engendré la régression de l’herbier de zostères et la mortalité épisodique des naissains d’huîtres. Dès lors, la pression toxique et notamment phytosanitaire a été mise en cause et a fait l’objet de plusieurs suivis environnementaux dans la lagune et ses principaux tributaires depuis 2005. L’étude présentée ici porte sur le suivi des apports en pesticides vers le Bassin d’Arcachon par les eaux continentales. Sa plus-value réside dans l’élargissement du panel de molécules suivies, notamment avec la prise en compte des composés acides ; dans l’utilisation d’échantillonneurs passifs de type POCIS (Polar Organic Chemical Integrative Sampler) ; et dans l’acquisition d’une chronique pendant près de deux ans. Du fait de l’inadéquation du POCIS (et des autres échantillonneurs passifs aquatiques disponibles actuellement), une stratégie d’échantillonnage ponctuel mensuel a été mise en place pour le suivi des herbicides organiques acides. La mise en évidence par la suite de la prédominance de ce substances dans la contamination des tributaires du Bassin d’Arcachon a constitué une avancée majeure dans la caractérisation de la pression toxique du milieu, et a par ailleurs montré les besoins en matière d’échantillonnage passif pour ce type de contaminants. Par conséquent, des outils adaptés à leur échantillonnage ont été développés, en se basant sur des dispositifs préexistants. Le caractère intégratif de l’échantillonneur a été optimisé soit en adaptant la géométrie, soit en modifiant la nature de la phase réceptrice. Ensuite, l’aspect quantitatif des dispositifs a été amélioré en adaptant l’approche PRC (composé de performance et de référence), ou bien en utilisant un gel diffusif. / From the early 2000s, the Arcachon Bay suffers from environmental crises that have led to the decline of the Zostera spp. meadows, and to the episodic mortality of oysters spats. Therefore, the toxic pressure (including pesticides) has been questioned, and several environmental monitoring programs have been established since 2005. This new monitoring program consisted to expand the range of monitored compounds (including acidic herbicides), to use POCIS (Polar Organic Chemical Integrative Sampler) for the passive sampling of polar compounds, and to monitor continuously the main Arcachon Bay tributaries for nearly two years. Because of the inadequacy of POCIS (and other devices currently available), a monthly grab sampling strategy has been implemented for the monitoring of acidic herbicides. The highlighting of the predominance of the acidic metabolites of chloroacetanilides in the Arcachon Bay tributaries has been a major advance in the characterization of the toxic pressure, and pointed out, otherwise, the needs for a specific passive sampling tool for these contaminants. Therefore, several passive samplers have been developed, based on existing devices (POCIS and Diffusive Gradient in Thin-film). The integrative behaviour of the samplers has been first optimized by adapting the geometry (exposure surface area, and amount of receiving phase), or by changing the nature of the receiving phase. Then, the quantitative behaviour has been improved by adapting the PRC (performance and reference compound) approach, or using a diffusive gel.
34

Tomographie cardiaque en angiographie rotationnelle / Cardiac C-arm computed tomography

Mory, Cyril 26 February 2014 (has links)
Un C-arm est un appareil d’imagerie médicale par rayons X utilisé en radiologie interventionnelle. La plupart des C-arms modernes sont capables de tourner autour du patient tout en acquérant des images radiographiques, à partir desquelles une reconstruction 3D peut être effectuée. Cette technique est appelée angiographie rotationnelle et est déjà utilisée dans certains centres hospitaliers pour l’imagerie des organes statiques. Cependant son extension à l’imagerie du cœur ou du thorax en respiration libre demeure un défi pour la recherche. Cette thèse a pour objet l’angiographie rotationnelle pour l’analyse du myocarde chez l’homme. Plusieurs méthodes nouvelles y sont proposées et comparées à l’état de l’art, sur des données synthétiques et des données réelles. La première de ces méthodes, la déconvolution par FDK itérative synchronisée à l’ECG, consiste à effacer les artéfacts de stries dans une reconstruction FDK synchronisée à l’ECG par déconvolution. Elle permet d’obtenir de meilleurs résultats que les méthodes existantes basées sur la déconvolution, mais reste insuffisante pour l’angiographie rotationnelle cardiaque chez l’homme. Deux méthodes de reconstruction 3D basées sur l’échantillonnage compressé sont proposées : la reconstruction 3D régularisée par variation totale, et la reconstruction 3D régularisée par ondelettes. Elles sont comparées à la méthode qui constitue l’état de l’art actuel, appelé « Prior Image Constrained Compressed Sensing » (PICCS). Elles permettent d’obtenir des résultats similaires à ceux de PICCS. Enfin, deux méthodes de reconstruction 3D+temps sont présentées. Leurs formulations mathématiques sont légèrement différentes l’une de l’autre, mais elles s’appuient sur les mêmes principes : utiliser un masque pour restreindre le mouvement à la région contenant le cœur et l’aorte, et imposer une solution régulière dans l’espace et dans le temps. L’une de ces méthodes génère des résultats meilleurs, c’est-à-dire à la fois plus nets et plus cohérents dans le temps, que ceux de PICCS / A C-arm is an X-ray imaging device used for minimally invasive interventional radiology procedures. Most modern C-arm systems are capable of rotating around the patient while acquiring radiographic images, from which a 3D reconstruction can be performed. This technique is called C-arm computed tomography (C-arm CT) and is used in clinical routine to image static organs. However, its extension to imaging of the beating heart or the free-breathing thorax is still a challenging research problem. This thesis is focused on human cardiac C-arm CT. It proposes several new reconstruction methods and compares them to the current state or the art, both on a digital phantom and on real data acquired on several patients. The first method, ECG-gated Iterative FDK deconvolution, consists in filtering out the streak artifacts from an ECG-gated FDK reconstruction in an iterative deconvolution scheme. It performs better than existing deconvolution-based methods, but it is still insufficient for human cardiac C-arm CT. Two 3D reconstruction methods based on compressed sensing are proposed: total variation-regularized 3D reconstruction and wavelets-regularized 3D reconstruction. They are compared to the current state-of-the-art method, called prior image constrained compressed sensing (PICCS). They exhibit results that are similar to those of PICCS. Finally, two 3D+time reconstruction methods are presented. They have slightly different mathematical formulations but are based on the same principles: using a motion mask to restrict the movement to the area containing the heart and the aorta, and enforcing smoothness of the solution in both space and time. One of these methods outperforms PICCS by producing results that are sharper and more consistent throughout the cardiac cycle
35

Convergence, interpolation, échantillonnage et bases de Riesz dans les espaces de Fock / Convergence, interpolation, sampling and Riesz bases in the Fock spaces

Dumont, Andre 08 November 2013 (has links)
Nous étudions le problème d'unicité, de l'interpolation faible et de la convergence de la série d'interpolation de Lagrange dans les espaces de Fock pondérés par des poids radiaux. Nous étudions aussi les suites d'échatillonnage, d'interpolation et les bases de Riesz dans les petit espaces de Fock. / We study the uniqueness sets, the weak interpolation sets, and convergence of the Lagrange interpolation series in radial weighted Fock spaces. We study also sampling, interpolation and Riesz bases in small radial weighted Fock spaces
36

Sampling and Variance Analysis for Monte Carlo Integration in Spherical Domain / Analyse de variance et échantillonnage pour l'intégration Monte Carlo sur la sphère

Singh, Gurprit 08 September 2015 (has links)
Cette thèse introduit un cadre théorique pour l'étude de différents schémas d'échantillonnage dans un domaine sphérique, et de leurs effets sur le calcul d'intégrales pour l'illumination globale. Le calcul de l'illumination (du transport lumineux) est un composant majeur de la synthèse d'images réalistes, qui se traduit par l'évaluation d'intégrales multidimensionnelles. Les schémas d'intégration numériques de type Monte-Carlo sont utilisés intensivement pour le calcul de telles intégrales. L'un des aspects majeurs de tout schéma d'intégration numérique est l'échantillonnage. En effet, la façon dont les échantillons sont distribués dans le domaine d'intégration peut fortement affecter le résultat final. Par exemple, pour la synthèse d'images, les effets liés aux différents schémas d'échantillonnage apparaissent sous la forme d'artéfacts structurés ou, au contrire, de bruit non structuré. Dans de nombreuses situations, des résultats complètement faux (biaisés) peuvent être obtenus à cause du schéma d'échantillonnage utilisé pour réaliser l'intégration. La distribution d'un échantillonnage peut être caractérisée à l'aide de son spectre de Fourier. Des schémas d'échantillonnage peuvent être générés à partir d'un spectre de puissance dans le domaine de Fourier. Cette technique peut être utilisée pour améliorer l'erreur d'intégration, car un tel contrôle spectral permet d'adapter le schéma d'échantillonnage au spectre de Fourier de l'intégrande. Il n'existe cependant pas de relation directe entre l'erreur dans l'intégration par méthode de Monte-Carlo et le spectre de puissance de la distribution des échantillons. Dans ces travaux, nous proposons une formulation de la variance qui établit un lien direct entre la variance d'une méthode de Monte-Carlo, les spectres de puissance du schéma d'échantillonnage ainsi que de l'intégrande. Pour obtenir notre formulation de la variance, nous utilisons la notion d'homogénéité de la distribution des échantillons qui permet d'exprimer l'erreur de l'intégration par une méthode de Monte-Carlo uniquement sous forme de variance. À partir de cette formulation de la variance, nous développons un outil d'analyse pouvant être utilisé pour déterminer le taux de convergence théorique de la variance de différents schémas d'échantillonnage proposés dans la littérature. Notre analyse fournit un éclairage sur les bonnes pratiques à mettre en œuvre dans la définition de nouveaux schémas d'échantillonnage basés sur l'intégrande / This dissertation introduces a theoretical framework to study different sampling patterns in the spherical domain and their effects in the evaluation of global illumination integrals. Evaluating illumination (light transport) is one of the most essential aspect in image synthesis to achieve realism which involves solving multi-dimensional space integrals. Monte Carlo based numerical integration schemes are heavily employed to solve these high dimensional integrals. One of the most important aspect of any numerical integration method is sampling. The way samples are distributed on an integration domain can greatly affect the final result. For example, in images, the effects of various sampling patterns appear in the form of either structural artifacts or completely unstructured noise. In many cases, we may get completely false (biased) results due to the sampling pattern used in integration. The distribution of sampling patterns can be characterized using their Fourier power spectra. It is also possible to use the Fourier power spectrum as input, to generate the corresponding sample distribution. This further allows spectral control over the sample distributions. Since this spectral control allows tailoring new sampling patterns directly from the input Fourier power spectrum, it can be used to improve error in integration. However, a direct relation between the error in Monte Carlo integration and the sampling power spectrum is missing. In this work, we propose a variance formulation, that establishes a direct link between the variance in Monte Carlo integration and the power spectra of both the sampling pattern and the integrand involved. To derive our closed-form variance formulation, we use the notion of homogeneous sample distributions that allows expression of error in Monte Carlo integration, only in the form of variance. Based on our variance formulation, we develop an analysis tool that can be used to derive theoretical variance convergence rates of various state-of-the-art sampling patterns. Our analysis gives insights to design principles that can be used to tailor new sampling patterns based on the integrand
37

Vers une nouvelle génération de modèles de glissements co-sismiques : analyse stochastique et approche multi-données / Toward the next generation of earthquake source models : a stochastic approach involving multiple data-types

Gombert, Baptiste 23 March 2018 (has links)
L’explosion du nombre et de la variété des données géodésiques, sismologiques et tsunami disponibles est une opportunité exceptionnelle pour produire de nouveaux modèles de la source sismique. Mais ces données n’apportent pas toutes la même information et sont soumises à différentes sources d’incertitudes, rendant la solution au problème inverse non-unique. Dans cette thèse, nous utilisons une méthode d’échantillonnage bayésien pour produire de nouveaux modèles de glissement moins assujettis au sur-ajustement des données et permettant une estimation réaliste de l’incertitude associée aux paramètres estimés. Nous l’appliquons à l’étude du glissement dans trois contextes tectoniques différents : le séisme de Landers (1992, Mw=7.3), la zone de subduction équato-colombienne où s’est produit le séisme de Pedernales (2016, Mw=7.8), et le séisme intra-plaque de Tehuantepec (2017, Mw=8.2). À travers ce travail, nous démontrons l’importance de la considération rigoureuse des incertitudes et les atouts de l’approche bayésienne pour l’étude des différentes phases du cycle sismique. / The explosion in the amount and variety of available geodetic, tsunami, and seismological observations offers an outstanding opportunity to develop new seismic source models. But these data are sensitive to different sources of uncertainty and provide heterogeneous information, which makes the solution of the inverse problem non-unique.In this thesis, we use a Bayesian sampling method to propose new slip models, which benefit from an objective weighting of the various datasets by combining observational and modelling errors. These models are less affected by data overfit and allow a realistic assessment of posterior uncertainties. We apply this method to the study of slip processes occurring in three different tectonic contexts: the Landers earthquake (1992, Mw=7.3), the Ecuador-Colombia subduction zone which hosted the Pedernales earthquake (2016, Mw=7.8), and the intraslab Tehuantepec earthquake (2017, Mw=8.2). Through these analyses, we demonstrate how the study of the seismic cycle can benefit from rigorous uncertainty estimates and Bayesian sampling.
38

Solutions efficaces pour la métrologie de l'Internet

Barakat, Chadi 22 January 2009 (has links) (PDF)
Cette thèse présente un ensemble de solutions pour une métrologie efficace de l'Internet. La métrologie de l'Internet est un domaine en pleine évolution étant donnée la croissance exponentielle du réseau en termes de machines, réseaux, et applications, couplée à l'absence de solutions standard pouvant répondre à tous les besoins des utilisateurs et des opérateurs. Notre objectif le long de cette recherche a été le développement des solutions qui passent à l'échelle et qui réduisent la charge sur le réseau sans pour autant compromettre la précision des résultats obtenus. Nous avons agi pour cela sur deux fronts. Sur le front des mesures passives, nous avons proposé une solution pour la capture du trafic à travers un réseau d'opérateur. Au lieu de collecter tout le trafic et de l'analyser ultérieurement, notre solution permet aux opérateurs de définir une tâche de mesure et de programmer les routeurs de telle sorte que chacun d'eux collecte la quantité de trafic nécessaire sans que le volume total du trafic collecté dépasse un certain seuil. Cette réduction du volume du trafic collecté s'effectue par le biais de l'échantillonnage spatiale et temporelle. L'échantillonnage a un impact négatif sur la précision de la mesure, un impact qui peut être réduit par des techniques de filtrage et des solutions protocolaires. Nous avons illustré ceci sur deux exemples concrets, le premier celui de la détection des gros flots utilisateurs et le deuxième celui de la métrologie des grandes populations variant au cours du temps. Pour les deux exemples nous avons mené une étude pour évaluer l'impact de l'échantillonnage suivi par des solutions réduisant l'erreur lors de l'inversion des informations échantillonnées. Ensuite nous avons abordé l'approche active dans la métrologie et avons présenté une solution appelée TICP qui permet de contrôler le débit des paquets sondes à injecter dans le réseau et d'assurer la fiabilité quand il s'agit d'une application sondant un grand nombre de machines distribuées à travers le réseau. TICP peut être vu comme un multiplexage d'un grand de connexions TCP partant d'une même machine et destinées à des machines différentes en une seule connexion. Toutes nos solutions ont été validées par des simulations et des traces réelles.
39

Interfaces optoélectroniques ultra-rapides pour l'électronique supraconductrice à quantum de flux magnétique

Badi, Siham 16 October 2008 (has links) (PDF)
Par leur fréquence d'horloge pouvant atteindre plusieurs dizaines de GHz et leur très faible dissipation, les circuits numériques supraconducteurs, fondés sur la logique à quantum de flux (RSFQ: Rapid Single-Flux Quantum), sont envisagés pour diverses applications spécifiques du fait de leurs performances exceptionnelles, très au delà de celles des filières électroniques classiques. Ces circuits RSFQ traitent l'information numérique sous forme d'impulsions de tension picoseconde avec une aire quantifiée de 2,07mV.ps, correspondant à un quantum de flux h/2e. L'électronique numérique supraconductrice ouvre ainsi la voie de l'électronique ultra-rapide en associant une large bande passante à une très faible dissipation.<br /><br />L'objectif de ce travail est d'étudier les interfaces optoélectroniques permettant de détecter et échantillonner les impulsions quantifiées résultant de la commutation des jonctions Josephson shuntées qui composent les circuits RSFQ. Nous avons développé une approche théorique et expérimentale de la sensibilité des photocommutateurs destinés à la détection d'impulsions RSFQ. Nous avons utilisé des photocommutateurs MSM (Métal-Semiconducteur-Métal) rapides de structure planaire à base d'Arséniure de Gallium épitaxié à basse température (AsGa-BT). Les caractéristiques physiques du matériau semi-conducteur telles que la résistance d'obscurité, la mobilité des porteurs libres et la durée de vie sont les paramètres clé pour obtenir des impulsions ultracourtes. La bonne résolution temporelle est donc assurée par les propriétés physiques du matériau. Un modèle basé sur un circuit hyperfréquence équivalent, a permis de prédire le comportement hyperfréquence du photocommutateur, éclairé ou non éclairé, lors du passage d'une impulsion RSFQ. De plus, ce modèle permet d'étudier l'influence des paramètres géométriques du photocommutateur sur la sensibilité de ce dernier. Nous avons déduit que le photocommutateur à gap à base d'AsGa-BT est bien adapté pour la détection des signaux subpicosecondes de faible amplitude.
40

Échantillonnage et maillage de surfaces avec garanties

Oudot, Steve Y. 14 December 2005 (has links) (PDF)
Cette dernière décennie a vu apparaître et se développer toute une théorie sur l'échantillonnage des surfaces lisses. L'objectif était de trouver des conditions d'échantillonnage qui assurent une bonne reconstruction d'une surface lisse S à partir d'un sous-ensemble fini E de points de S. Parmi ces conditions, l'une des plus importantes est sans conteste la condition d'e-échantillonnage, introduite par Amenta et Bern, qui stipule que tout point p de S doit être à distance de E au plus e fois lfs(p), où lfs(p) désigne la distance de p à l'axe médian de S. Amenta et Bern ont montré qu'il est possible d'extraire de la triangulation de Delaunay d'un e-échantillon E une surface affine par morceaux qui approxime S du point de vue topologique (isotopie) et géométrique (distance de Hausdorff). Néanmoins restaient ouvertes les questions cruciales de pouvoir vérifier si un ensemble de points donné est un e-échantillon d'une part, et de construire des e-échantillons d'une surface lisse donnée d'autre part. De plus, les conditions d'échantillonnage proposées jusque là n'offraient des garanties que dans le cas lisse, puisque lfs s'annule aux points où la surface n'est pas différentiable. Dans cette thèse, nous introduisons le concept d'e-échantillon lâche, qui peut être vu comme une version faible de la notion d'e-échantillon. L'avantage majeur des e-échantillons lâches sur les e-échantillons classiques est qu'ils sont plus faciles à vérifier et à construire. Plus précisément, vérifier si un ensemble fini de points est un e-échantillon lâche revient à regarder si les rayons d'un nombre fini de boules sont suffisamment petits. Quand la surface S est lisse, nous montrons que les e-échantillons sont des e-échantillons lâches et réciproquement, à condition que e soit suffisamment petit. Il s'ensuit que les e-échantillons lâches offrent les mêmes garanties topologiques et géométriques que les e-échantillons. Nous étendons ensuite nos résultats au cas où la surface échantillonnée est non lisse en introduisant une nouvelle grandeur, appelée rayon Lipschitzien, qui joue un rôle similaire à lfs dans le cas lisse, mais qui s'avère être bien défini et positif sur une plus large classe d'objets. Plus précisément, il caractérise la classe des surfaces Lipschitziennes, qui inclut entre autres toutes les surfaces lisses par morceaux pour lesquelles la variation des normales aux abords des points singuliers n'est pas trop forte. Notre résultat principal est que, si S est une surface Lipschitzienne et E un ensemble fini de points de S tel que tout point de S est à distance de E au plus une fraction du rayon Lipschitzien de S, alors nous obtenons le même type de garanties que dans le cas lisse, à savoir : la triangulation de Delaunay de E restreinte à S est une variété isotope à S et à distance de Hausdorff O(e) de S, à condition que ses facettes ne soient pas trop aplaties. Nous étendons également ce résultat aux échantillons lâches. Enfin, nous donnons des bornes optimales sur la taille de ces échantillons. Afin de montrer l'intérêt pratique des échantillons lâches, nous présentons ensuite un algorithme très simple capable de construire des maillages certifiés de surfaces. Etant donné une surface S compacte, Lipschitzienne et sans bord, et un paramètre positif e, l'algorithme génère un e-échantillon lâche E de S de taille optimale, ainsi qu'un maillage triangulaire extrait de la triangulation de Delaunay de E. Grâce à nos résultats théoriques, nous pouvons garantir que ce maillage triangulaire est une bonne approximation de S, tant sur le plan topologique que géométrique, et ce sous des hypothèses raisonnables sur le paramètre d'entrée e. Un aspect remarquable de l'algorithme est que S n'a besoin d'être connue qu'à travers un oracle capable de détecter les points d'intersection de n'importe quel segment avec la surface. Ceci rend l'algorithme assez générique pour être utilisé dans de nombreux contextes pratiques et sur une large gamme de surfaces. Nous illustrons cette généricité à travers une série d'applications : maillage de surfaces implicites, remaillage de polyèdres, sondage de surfaces inconnues, maillage de volumes.

Page generated in 0.0778 seconds