• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 28
  • 8
  • Tagged with
  • 83
  • 26
  • 24
  • 17
  • 17
  • 16
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Horseshoe regularization for wavelet-based lensing inversion

Nafisi, Hasti 03 1900 (has links)
Gravitational lensing, a phenomenon in astronomy, occurs when the gravitational field of a massive object, such as a galaxy or a black hole, bends the path of light from a distant object behind it. This bending results in a distortion or magnification of the distant object's image, often seen as arcs or rings surrounding the foreground object. The Starlet wavelet transform offers a robust approach to representing galaxy images sparsely. This technique breaks down an image into wavelet coefficients at various scales and orientations, effectively capturing both large-scale structures and fine details. The Starlet wavelet transform offers a robust approach to representing galaxy images sparsely. This technique breaks down an image into wavelet coefficients at various scales and orientations, effectively capturing both large-scale structures and fine details. The horseshoe prior has emerged as a highly effective Bayesian technique for promoting sparsity and regularization in statistical modeling. It aggressively shrinks negligible values while preserving important features, making it particularly useful in situations where the reconstruction of an original image from limited noisy observations is inherently challenging. The main objective of this thesis is to apply sparse regularization techniques, particularly the horseshoe prior, to reconstruct the background source galaxy from gravitationally lensed images. By demonstrating the effectiveness of the horseshoe prior in this context, this thesis tackles the challenging inverse problem of reconstructing lensed galaxy images. Our proposed methodology involves applying the horseshoe prior to the wavelet coefficients of lensed galaxy images. By exploiting the sparsity of the wavelet representation and the noise-suppressing behavior of the horseshoe prior, we achieve well-regularized reconstructions that reduce noise and artifacts while preserving structural details. Experiments conducted on simulated lensed galaxy images demonstrate lower mean squared error and higher structural similarity with the horseshoe prior compared to alternative methods, validating its efficacy as an efficient sparse modeling technique. / Les lentilles gravitationnelles se produisent lorsque le champ gravitationnel d'un objet massif dévie la trajectoire de la lumière provenant d'un objet lointain, entraînant une distorsion ou une amplification de l'image de l'objet lointain. La transformation Starlet fournit une méthode robuste pour obtenir une représentation éparse des images de galaxies, capturant efficacement leurs caractéristiques essentielles avec un minimum de données. Cette représentation réduit les besoins de stockage et de calcul, et facilite des tâches telles que le débruitage, la compression et l'extraction de caractéristiques. La distribution a priori de fer à cheval est une technique bayésienne efficace pour promouvoir la sparsité et la régularisation dans la modélisation statistique. Elle réduit de manière agressive les valeurs négligeables tout en préservant les caractéristiques importantes, ce qui la rend particulièrement utile dans les situations où la reconstruction d'une image originale à partir d'observations bruitées est difficile. Étant donné la nature mal posée de la reconstruction des images de galaxies à partir de données bruitées, l'utilisation de la distribution a priori devient cruciale pour résoudre les ambiguïtés. Les techniques utilisant une distribution a priori favorisant la sparsité ont été efficaces pour relever des défis similaires dans divers domaines. L'objectif principal de cette thèse est d'appliquer des techniques de régularisation favorisant la sparsité, en particulier la distribution a priori de fer à cheval, pour reconstruire les galaxies d'arrière-plan à partir d'images de lentilles gravitationnelles. Notre méthodologie proposée consiste à appliquer la distribution a priori de fer à cheval aux coefficients d'ondelettes des images de galaxies lentillées. En exploitant la sparsité de la représentation en ondelettes et le comportement de suppression du bruit de la distribution a priori de fer à cheval, nous obtenons des reconstructions bien régularisées qui réduisent le bruit et les artefacts tout en préservant les détails structurels. Des expériences menées sur des images simulées de galaxies lentillées montrent une erreur quadratique moyenne inférieure et une similarité structurelle plus élevée avec la distribution a priori de fer à cheval par rapport à d'autres méthodes, validant son efficacité.
62

Imagerie nanométrique ultra-rapide par diffraction cohérente de rayonnement extrême-UV produit par génération d'harmoniques d'ordre élevé / Ultrafast nanometers scale coherent diffractive imaging with extreme-UV light from high harmonics generation beamline

Gauthier, David 07 February 2012 (has links)
Ce manuscrit présente des expériences d’imagerie par diffraction réalisées en utilisant une source de rayonnement cohérent basée sur la génération d’harmoniques d’ordre élevé d’un laser Ti:Sa. Elles démontrent que cette source extrême-UV de laboratoire produit un nombre suffisant de photons par impulsion pour enregistrer une figure de diffraction d’objets tests en « simple tirs ». Le signal ainsi enregistré permet l’obtention d’une image de l’objet avec une résolution d’une centaine de nanomètres. Deux schémas sont utilisés pour reconstruire l’objet : le premier utilise un algorithme itératif de reconstruction de la phase perdue pendant la détection de la figure de diffraction ; le second utilise une configuration holographique par transformée de Fourier. Les travaux réalisés comportent deux parties. La première concerne l’optimisation de la source harmonique et inclut une étude expérimentale d’un dispositif de filtrage spatial du faisceau laser de génération par propagation dans une fibre creuse. La seconde partie présente les expériences d’imagerie par diffraction, et notamment une démonstration du schéma holographique HERALDO qui est une extension de l’holographie par transformée de Fourier à des références en forme de polygones. L’utilisation de ces références « étendues » a pour avantage d’optimiser l’enregistrement holographique tout en conservant une reconstruction directe et sans ambigüité de l’objet. Une analyse signal-sur-bruit ainsi qu’une comparaison des reconstructions d’hologramme pour différentes formes de références sont effectuées. / This manuscript presents diffraction imaging experiments performed using a source of coherent radiation based on high order harmonics generation of a Ti:Sa laser. They demonstrate that this laboratory size XUV source produces a number of photons per pulse sufficient to record the diffraction pattern of test objects in « single shot ». The signal thus recorded allows obtaining an image of the object with a resolution of around 100 nanometers. Two schemes are used to reconstruct the object: the first one uses an iterative algorithm to retrieve the phase lost during the detection of the diffraction pattern; the second uses a configuration of Fourier transform holography. The work presented here is separated in two parts. The first one concerns the optimization of the harmonic source, including an experimental study of a spatial filtering device for laser beams by propagation in a hollow core fiber. The second part deals with the diffraction imaging experiments. In particular, I present a demonstration of the holographic scheme HERALDO, which is an extension of the Fourier transform holography with polygonal references. The use of these « extended » references allows the optimization of the holographic recording while maintaining a direct and non-ambiguous reconstruction of the object. An analysis of signal-to-noise ratio and a comparison of hologram reconstructions for different types of references are performed.
63

Etude des techniques de super-résolution latérale en nanoscopie et développement d'un système interférométrique nano-3D / Study of lateral super-resolution nanoscopy techniques and development of a nano-3D interference system

Leong-Hoï, Audrey 02 December 2016 (has links)
Ce manuscrit de thèse présente l’étude des techniques de super-résolution latérale en nanoscopie optique, qui est une des nouvelles techniques d'imagerie haute résolution, aujourd'hui largement utilisée en biophysique et en imagerie médicale, pour imager et caractériser des nanostructures, tout en conservant les avantages de l'imagerie optique en champ lointain comme un vaste champ, la visualisation et l’analyse en temps réel…Un des défis futurs de la microscopie 3D super-résolue est d’éviter l’utilisation des marqueurs fluorescents. La microscopie interférométrique fait partie des techniques d’imagerie 3D sans marquage permettant la détection de nanostructures. Pour améliorer le pouvoir de détection de ce système optique, un premier protocole de traitement d’images a été développé et implémenté, permettant ainsi de révéler des structures initialement non mesurables. Puis, pour améliorer la résolution latérale du système, une nouvelle technique combinant l’interférométrie et le principe du nano-jet photonique a été développée permettant l’observation d’objets de taille inférieure à la limite de diffraction de l’instrument optique. / This manuscript presents the study of the lateral super-resolution techniques in optical nanoscopy, which is a new high-resolution imaging method now widely used in biophysics and medical imaging, to observe and measure nanostructures, with the advantages of far field optical imaging, such as a large field of view, visualization and analysis in real time…One of the future challenges of 3D super resolution microscopy is to avoid the use of fluorescent markers. Interferometric microscopy is a 3D label-free imaging technique enabling the detection of nanostructures. To improve the detection capability of this optical system, a first version of a protocol composed of image processing methods was developed and implemented, revealing structures initially unmeasurable. Then, to improve the lateral resolution of the system, a new technique combining interferometry and the principle of the photonic nano-jet has been developed, thus allowing the observation of objects of a size smaller than the diffraction limit of the optical instrument.
64

Apport de la tomographie électrique à la modélisation des écoulements densitaires dans les aquifères côtiers - Application à trois contextes climatiques contrastés (Canada, Nouvelle-Calédonie, Sénégal)

Comte, Jean-Christophe 05 December 2008 (has links) (PDF)
L'équilibre densitaire entre l'eau douce et l'eau salée dans les aquifères côtiers est un phénomène instable difficile à caractériser. La validation des modèles hydrogéologiques 2D/3D reste alors délicate sur la seule base de données ponctuelles d'observation en forages. Dans ce but, la tomographie de résistivité électrique (ERT) constitue une technique d'investigation pertinente pour la caractérisation haute résolution de la distribution 2D/3D du sel au sein de l'aquifère.<br />Une méthodologie de validation croisée entre les modèles géo-électriques et les modèles d'écoulement densitaire a été développée. Dans un premier temps, l'interprétation par modélisation inverse des mesures ERT fournit des informations pertinentes pour la structuration et le paramétrage des modèles hydrogéologiques (géométrie du réservoir, vitesses d'écoulement, etc.). Dans un deuxième temps, une validation qualitative est obtenue par comparaison entre la distribution des salinités interprétée d'après les résultats du modèle géo-électrique d'inversion et celle simulée par le modèle d'écoulement densitaire. Enfin, une validation quantitative est obtenue par comparaison entre la réponse géo-électrique théorique des salinités simulées par le modèle hydrogéologique (préalablement transformées en résistivité par application d'un modèle hydro-pétrophysique) et les mesures ERT acquises sur le terrain.<br />La fiabilité de la méthode a été précisée par des analyses de sensibilité conduites sur les différents modèles utilisés (géo-électrique, hydrogéologique et hydro-pétrophysique) et son applicabilité a été testée sur trois contextes hydrogéologiques et climatiques différents. Ainsi, aux Îles-de-la-Madeleine (Canada), les remontées salines sous les captages d'eau ont été caractérisées. Sur l'îlot M'Ba (Nouvelle-Calédonie), les variations spatiales de la recharge contrôlant le développement de la lentille d'eau douce ont été évaluées. Enfin, sur le tombolo de Pikine (Sénégal), les phénomènes évapotranspiratoires et concentrateurs intenses affectant les dépressions inter-dunaires ont été quantifiés.
65

Optimisation de la génération d'harmoniques d'ordre élevé et application à l'interférométrie UVX résolue en temps.

Hergott, Jean-François 17 September 2001 (has links) (PDF)
Ce travail de thèse est une contribution à l'étude du rayonnement UVX cohérent produit par génération des harmoniques d'ordre élevé d'une impulsion laser intense focalisée dans un gaz rare. <br />Dans une première partie, nous présentons une étude approfondie de l'optimisation du flux harmonique produit soit dans une fibre creuse soit dans un jet. Dans chacun des cas, nous déterminons les facteurs limitant l'émission : accord de phase, absorption, ionisation, défocalisation. La comparaison des profils d'émission avec les simulations démontre le rôle crucial de la phase du dipôle atomique pour la génération dans une fibre. L'optimisation dans un jet conduit à des efficacités de conversion allant de 10-5 à 50nm (1010 ph/imp) à 10-7 à 15nm (5.107 ph/imp). <br />Dans une deuxième partie, nous étudions la focalisation du rayonnement harmonique par une lentille de Bragg-Fresnel, qui permet une focalisation efficace hors axe, sans aberration. Nous mesurons pour l'harmonique 39 une tache focale de l'ordre de 2µm. Compte tenu du flux élevé et de la courte durée (femtoseconde) des harmoniques, des éclairements élevés dans l'UVX peuvent être atteints.<br />Finalement, nous présentons les premières expériences de diagnostic de plasma par interférométrie UVX utilisant le rayonnement harmonique. Une technique originale est développée à partir de 2 sources harmoniques mutuellement cohérentes séparées spatialement. L'analogue temporel de l'interférométrie spatiale, qui utilise 2 impulsions harmoniques séparées en temps, est également démontré. Cette interférométrie fréquentielle a permis le premier diagnostic UVX de l'évolution temporelle d'un plasma avec une résolution femtoseconde. Une extension du schéma de 2 à 4 impulsions permet de mesurer avec une sensibilité extrême un déphasage équivalent à une demi-période harmonique, soit des écarts temporels à l'échelle attoseconde (1as=10-18s).
66

Effets de lentille gravitationnelle sur le rayonnement de fond cosmique

Benabed, Karim 12 November 2001 (has links) (PDF)
On s'intéressera, dans ce mémoire, à certains aspects phénoménologiques de l'évolution des grandes structures de l'univers, dans le cadre des modèles inflationnaires. La relativité générale prédit que le trajet des rayons lumineux est perturbé par les puits de potentiels gravitationnels ; on appelle ce phénomène, effet de lentille gravitationnelle. On donnera une description très précise de cet effet sur la lumière du rayonnement de fond micro-onde, les anisotropies de sa température et sa polarisation. Pour ce faire, après avoir exposé les grandes lignes du modèle, on rappellera comment se calculent les anisotropies de température et la polarisation ainsi que les propriétés de l'évolution des grandes structures. Le calcul de l'effet de lentille gravitationnelle sera aussi rappelé en détail. On sera ainsi en mesure d'étudier l'effet de lentille gravitationnelle sur le rayonnement de fond dans deux régimes : celui fort, dans le cas d'un effet induit par une corde cosmique, et celui faible où les sources sont les grandes structures de l'univers. On montrera, dans ce dernier cas, que température et polarisation du rayonnement de fond portent des informations sur l'histoire des grandes structures entre aujourd'hui et son époque d'émission. On exposera et l'on caractérisera une technique particulièrement prometteuse visant à extraire cette information, et qui consiste à comparer rayonnement de fond et relevés de forme des champs galactiques d'arrière plan. On étudiera aussi les enseignement que peuvent apporter ce genre d'observables sur le modèle cosmologique. Enfin, on s'attardera sur une classe de modèles exotiques dans laquelle la constante cosmique est remplacée par une composante nouvelle, la quintessence. On étudiera l'évolution des grandes structures dans ces modèles et on en tirera les conséquences phénoménologiques sur l'effet de lentille gravitationnelle.
67

Enregistrement de disques optiques haute densité en champ proche

Mimouni, Salim 26 November 2007 (has links) (PDF)
Nos besoins en stockage de données sont explosifs ; générés par des contenus multimédia dont la taille croît coontinuellement, ce qui conduit à une course effrénée à la performance des disques optiques. Cependant, des limites physiques sont rapidement atteintes. Parmi celles-ci, le phénomène de diffraction des ondes lumineuses a limité la capacité du Compact Disc (CD), du DVD et dictera encore celle du « Blu-ray ». Cette thèse se propose de franchir cette barrière à travers une étude approfondie d'une tête optique en champ proche. En effet le système actuel de lecture des disques utilisant l'immersion solide est passif vis-à-vis de la nature du champ proche. Il sera optimisé pour donner une capacité de stockage 40% plus élevée. Mais la demande du marché des disques optiques exige d'aller plus loin encore. La théorie de l'indice négatif, très controversée, se révèlera cependant pertinente, et inspirera toute la suite du travail. Le matériau à indice négatif est la solution utopique au passage sous la limite de résolution, et ses propriétés vont inspirer une lentille photonique à super-résolution. Dans cette lentille conçue pour le champ proche, les plasmons de surface qui sont excités aux interfaces entre l'argent et le verre seront convertis en ondes propagatives grâce à une structuration de motif plus petit que la longueur d'onde. Ces ondes transportent l'information au détecteur à travers la tête optique. Le fonctionnement du composant sera démontré dans un montage expérimental où il permettra de recouvrer un signal à la longueur d'onde de 488nm, mais porteur d'information d'objets de 60nm de taille.
68

Utilisation d'une approche couplée hydrogéophysique pour l'étude des aquifères - Applications aux contextes de socle et côtier sableux

Hoareau, Johan 16 December 2009 (has links) (PDF)
La caractérisation d'un aquifère est classiquement réalisée à partir d'études géologiques, piézométriques, géochimiques et de pompages d'essai. Ces techniques d'étude présentent certaines limites, qui peuvent néanmoins être réduites par l'utilisation de méthodes complémentaires comme certaines méthodes géophysiques. L'objectif de cette thèse est de quantifier l'amélioration apportée par les informations géophysiques dans la caractérisation hydrogéologique des aquifères. Deux contextes géologiquessont sélectionnés pour les difficultés qu'ils posent à la caractérisation hydrogéologique, l'importance des questions sociétales qui s'y posent et leur pertinence dans le cadre des interventions humanitaires : les aquifères de socle cristallin et les lentilles d'eau douce des cordons sableux côtiers. Les résultats d'une étude numérique et leur validation sur deux sites expérimentaux en Inde montrent que les informations complémentaires apportées par la technique de panneau électrique et la méthode de sondage par résonance magnétique des protons (RMP) permettent de préciser l'interprétation de pompages d'essai en contexte de socle. L'incertitude sur la transmissivité est réduite en moyenne de 39 % et celle sur le coefficient d'emmagasinement de 34 %. Cette approche hydrogéophysique permet ainsi de mieux décrire le milieu souterrain, et de proposer des modèles conceptuels plus complets. En milieu côtier sableux dans le Sud de l'Inde, l'utilisation combinée d'observations piézométriques, de la loi d'Archie et des méthodes de sondage électromagnétiques en domaine temporel (TDEM) et RMP permet de quantifier un volume d'eau douce disponible de 510 litres en moyenne par mètre carré de surface au sol avant la mousson dans la partie inhabitée (contre 420 L/m2 dans la partie habitée), et 670 L/m2 après la mousson (contre 450 L/m2 dans la partie habitée). Ces volumes auraient été surestimés de près de 40 % si une approche basée uniquement sur le TDEM et la loi d'Archie avait été utilisée. Le suivi temporel des mesures géophysiques permet également d'estimer la recharge nette de l'année hydrologique 2008 à 140 mm sur ce cordon (pour 2030 mm de précipitations). De plus, ce cordon sableux présente un champ géomagnétique hétérogène, qui rend la mesure de signaux de Free induction decay, (FID, classiquement enregistrés en sondage RMP) difficile. Une nouvelle procédure de mesure et d'interprétation basée sur des signaux d'écho de spin a donc été testée et validée expérimentalement. La caractérisation du milieu avec ce nouveau protocole permet de préciser la teneur en eau du milieu, sous-estimée de 26 % par le protocole FID. Ce résultat ouvre de nouvelles perspectives dans la recherche d'une relation quantifiée entre la teneur en eau RMP et les différentes porosités hydrogéologiques.
69

Spectroscopie EUV résolue temporellement à l'échelle femtoseconde par imagerie de vecteur vitesse et génération d'harmoniques d'ordres élevés

Handschin, Charles 01 July 2013 (has links) (PDF)
Cette thèse fait l'étude expérimentale de dynamiques de relaxations ultrarapides au sein d'atomes et de molécules (Ar, NO2, C2H2). Les méthodes expérimentales qui sont utilisées sont basées sur l'interaction d'un rayonnement laser avec le système atomique ou moléculaire étudié et font intervenir le processus de génération d'harmoniques d'ordres élevés, ainsi que la spectrométrie d'imagerie de vecteur vitesse. Au cours de cette thèse, deux approchesexpérimentales de type pompe-sonde ont été mises en œuvre. Une première approche exploitela sensibilité du processus de génération d'harmoniques à la structure électronique dumilieu pour la sonder. Cette méthode a été utilisée sur la molécule de dioxyde d'azote pourobserver sa relaxation électronique à travers l'intersection conique des états X2A1-A2B2suite à une excitation autour de 400 nm. Une seconde approche utilise le rayonnementharmonique comme source de photons dans le domaine de l'extrême ultraviolet (EUV)pour exciter ou sonder les espèces d'intérêt. Cette approche a été couplée avec l'utilisationd'un spectromètre d'imagerie de vecteur vitesse (VMIS), qui a été développé durant lathèse. Des expériences menées sur un système modèle comme l'argon ont permis de validerle dispositif expérimental, qui a ensuite été mis en application pour étudier la photodissociationde la molécule d'acétylène, après excitation autour de 9,3 eV du complexe deRydberg 3d-4s. Les deux méthodes mises en œuvre permettent toutes-deux de réaliserdes études dynamiques résolues en temps à l'échelle femtoseconde.
70

Numérisation 3D d'objets transparents par polarisation dans l'IR et par triangulation dans l'UV

Rantoson, Rindra 03 November 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire portent sur l'étude, la conception et le développement de deux nouveaux prototypes de reconstruction tridimensionnelle, spécifique aux objets transparents. La numérisation 3D d'objets opaques est abondamment traitée dans la littérature et de nombreux systèmes sont d'ailleurs commercialisés. Cependant, lorsqu'il s'agit de la numérisation 3D d'objets transparents, les publications se font rares et aucun système de scanning n'existe sur le marché. La technique de numérisation de surfaces transparentes demeure compliquée et non maîtrisée à l'heure actuelle. L'opacification de la surface avant le scanning s'avère être la solution retenue dans le domaine du contrôle qualité. Néanmoins, cette alternative n'est pas optimale en raison du coût de traitements et du manque de précision éventuellement engendré. Afin de solutionner les problèmes de la numérisation d'objets transparents, nous avons développé deux approches dites non conventionnelles en étendant les méthodes existantes (dans le visible) aux longueurs d'onde dans lesquelles les sujets apparaissent opaques (IR et UV). Les deux méthodes de mesure sans contact retenues sont : - la reconstruction par polarisation dans l'IR, en vue de s'affranchir des problèmes d'inter-réflexions; - le scanning par laser UV, pour satisfaire les contraintes industrielles (précision, rapidité et coût) tout en résolvant de manière efficace le problème de réfraction. La première approche est fondée sur la réflexion spéculaire de l'objet dans l'IR tandis que la seconde exploite la propriété de l'objet à fluorescer sous l'irradiation UV. L'inexistence des lentilles télécentriques dans l'IR nous a conduits à adapter la reconstruction par polarisation dans l'IR à l'aide d'une lentille non télécentrique. Pour ce faire, une méthode d'approximation du modèle orthographique a été développée et une méthode de validation visant à améliorer la précision des résultats a été en outre intégrée dans le processus de reconstruction après l'étape d'estimation des paramètres de Stokes. Nos résultats sont très satisfaisants et attestent la faisabilité de la reconstruction par polarisation dans l'IR. Quatre configurations de système de scanning par triangulation ont été déployées afin d'exploiter la propriété de fluorescence des objets transparents irradiés sous un rayonnement UV. Des expérimentations visant à caractériser la fluorescence induite à la surface des objets considérés et à vérifier l'éligibilité de notre approche ont été menées. Les mesures spectroscopiques nous ont permis d'élaborer des critères de "tracking" (détection et localisation) des points fluorescents en présence des bruits inhérents à l'acquisition. Nous avons également mis au point des méthodes de validation des paramètres du modèle de reconstruction 3D estimés lors de la calibration, permettant ainsi d'optimiser la configuration du système de scanning. Les méthodes de "tracking" et de validation ont contribué considérablement à l'amélioration de la précision des résultats. Par ailleurs, la précision obtenue n'a jamais été atteinte au regard de ce que l'on trouve dans la littérature.

Page generated in 0.0455 seconds