Spelling suggestions: "subject:"biosensing"" "subject:"condensing""
141 |
Planar Lensing Lithography: Enhancing the Optical Near Field.Melville, David O. S. January 2006 (has links)
In 2000, a controversial paper by John Pendry surmised that a slab of negative index material could act as a perfect lens, projecting images with resolution detail beyond the limits of conventional lensing systems. A thin silver slab was his realistic suggestion for a practical near-field superlens - a 'poor-mans perfect lens'. The superlens relied on plasmonic resonances rather than negative refraction to provide imaging. This silver superlens concept was experimentally verified by the author using a novel near-field lithographic technique called Planar Lensing Lithography (PLL), an extension of a previously developed Evanescent Near-Field Optical Lithography (ENFOL) technique. This thesis covers the computational and experimental efforts to test the performance of a silver superlens using PLL, and to compare it with the results produced by ENFOL. The PLL process was developed by creating metal patterned conformable photomasks on glass coverslips and adapting them for use with an available optical exposure system. After sub-diffraction-limited ENFOL results were achieved with this system additional spacer and silver layers were deposited onto the masks to produce a near-field test platform for the silver superlens. Imaging through a silver superlens was achieved in a near-field lithography environment for sub-micron, sub-wavelength, and sub-diffraction-limited features. The performance of PLL masks with 120-, 85-, 60-, and 50-nm thick silver layers was investigated. Features on periods down to 145-nm have been imaged through a 50-nm thick silver layer into a thin photoresist using a broadband mercury arc lamp. The quality of the imaging has been improved by using 365 nm narrowband exposures, however, resolution enhancement was not achieved. Multiple layer silver superlensing has also been experimentally investigated for the first time; it was proposed that a multi-layered superlens could achieve better resolution than a single layer lens for the same total silver thickness. Using a PLL mask with two 30-nm thick silver layers gave 170-nm pitch sub-diffraction-limited resolution, while for a single layer mask with the same total thickness (60 nm) resolution was limited to a 350-nm pitch. The proposed resolution enhancement was verified, however pattern fidelity was reduced, the result of additional surface roughness. Simulation and analytical techniques have been used to investigate and understand vi ABSTRACT the enhancements and limitations of the PLL technique. A Finite-Difference Time- Domain (FDTD) tool was written to produce full-vector numerical simulations and this provided both broad- and narrowband results, allowing image quality as a function of grating period to be investigated. An analytical T-matrix method was also derived to facilitate computationally efficient performance analysis for grating transmission through PLL stacks. Both methods showed that there is a performance advantage for PLL over conventional near-field optical lithography, however, the performance of the system varies greatly with grating period. The advantages of PLL are most prominent for multi-layer lenses. The work of this thesis indicates that the utilisation of plasmonic resonances in PLL and related techniques can enhance the performance of near-field lithography.
|
142 |
Estimateur neuronal de ratio pour l'inférence de la constante de Hubble à partir de lentilles gravitationnelles fortesCampeau-Poirier, Ève 12 1900 (has links)
Les deux méthodes principales pour mesurer la constante de Hubble, soit le taux d’expansion
actuel de l’Univers, trouvent des valeurs différentes. L’une d’elle s’appuie lourdement sur le
modèle cosmologique aujourd’hui accepté pour décrire le cosmos et l’autre, sur une mesure
directe. Le désaccord éveille donc des soupçons sur l’existence d’une nouvelle physique en
dehors de ce modèle. Si une autre méthode, indépendante des deux en conflit, soutenait une
des deux valeurs, cela orienterait les efforts des cosmologistes pour résoudre la tension.
Les lentilles gravitationnelles fortes comptent parmi les méthodes candidates. Ce phénomène
se produit lorsqu’une source lumineuse s’aligne avec un objet massif le long de la ligne de
visée d’un télescope. La lumière dévie de sa trajectoire sur plusieurs chemins en traversant
l’espace-temps déformé dans le voisinage de la masse, résultant en une image déformée, gros-
sie et amplifiée. Dans le cas d’une source lumineuse ponctuelle, deux ou quatre images se
distinguent nettement. Si cette source est aussi variable, une de ses fluctuations apparaît à
différents moments sur chaque image, puisque chaque chemin a une longueur différente. Le
délai entre les signaux des images dépend intimement de la constante de Hubble.
Or, cette approche fait face à de nombreux défis. D’abord, elle requiert plusieurs jours à des
spécialistes pour exécuter la méthode de Monte-Carlo par chaînes de Markov (MCMC) qui
évalue les paramètres d’un seul système de lentille à la fois. Avec les détections de milliers
de systèmes prévues par l’observatoire Rubin dans les prochaines années, cette approche est
inconcevable. Elle introduit aussi des simplifications qui risquent de biaiser l’inférence, ce qui
contrevient à l’objectif de jeter la lumière sur le désaccord entre les mesures de la constante
de Hubble.
Ce mémoire présente une stratégie basée sur l’inférence par simulations pour remédier à ces
problèmes. Plusieurs travaux antérieurs accélèrent la modélisation de la lentille grâce à l’ap-
prentissage automatique. Notre approche complète leurs efforts en entraînant un estimateur
neuronal de ratio à déterminer la distribution de la constante de Hubble, et ce, à partir des
produits de la modélisation et des mesures de délais. L’estimateur neuronal de ratio s’exécute
rapidement et obtient des résultats qui concordent avec ceux de l’analyse traditionnelle sur
des simulations simples, qui ont une cohérence statistique acceptable et qui sont non-biaisés. / The two main methods to measure the Hubble constant, the current expansion rate of the
Universe, find different values. One of them relies heavily on today’s accepted cosmological
model describing the cosmos and the other, on a direct measurement. The disagreement
thus arouses suspicions about the existence of new physics outside this model. If another
method, independent of the two in conflict, supported one of the two values, it would guide
cosmologists’ efforts to resolve the tension.
Strong gravitational lensing is among the candidate methods. This phenomenon occurs when
a light source aligns with a massive object along a telescope line of sight. When crossing the
curved space-time in the vicinity of the mass, the light deviates from its trajectory on several
paths, resulting in a distorted and magnified image. In the case of a point light source, two
or four images stand out clearly. If this source is also variable, the luminosity fluctuations
will appear at different moments on each image because each path has a different length.
The time delays between the image signals depend intimately on the Hubble constant.
This approach faces many challenges. First, it requires several days for specialists to perform
the Markov Chain Monte-Carlo (MCMC) which evaluates the parameters of a single lensing
system at a time. With the detection of thousands of lensing systems forecasted by the
Rubin Observatory in the coming years, this method is inconceivable. It also introduces
simplifications that risk biasing the inference, which contravenes the objective of shedding
light on the discrepancy between the Hubble constant measurements.
This thesis presents a simulation-based inference strategy to address these issues. Several
previous studies have accelerated the lens modeling through machine learning. Our approach
complements their efforts by training a neural ratio estimator to determine the distribution of
the Hubble constant from lens modeling products and time delay measurements. The neural
ratio estimator results agree with those of the traditional analysis on simple simulations, have
an acceptable statistical consistency, are unbiased, and are obtained significantly faster.
|
143 |
Mesurer la masse de trous noirs supermassifs à l’aide de l’apprentissage automatiqueChemaly, David 07 1900 (has links)
Des percées récentes ont été faites dans l’étude des trous noirs supermassifs (SMBH), grâce en grande partie à l’équipe du télescope de l’horizon des évènements (EHT). Cependant, déterminer la masse de ces entités colossales à des décalages vers le rouge élevés reste un défi de taille pour les astronomes. Il existe diverses méthodes directes et indirectes pour mesurer la masse de SMBHs. La méthode directe la plus précise consiste à résoudre la cinématique du gaz moléculaire, un traceur froid, dans la sphère d’influence (SOI) du SMBH. La SOI est définie comme la région où le potentiel gravitationnel du SMBH domine sur celui de la galaxie hôte. Par contre, puisque la masse d’un SMBH est négligeable face à la masse d’une galaxie, la SOI est, d’un point de vue astronomique, très petite, typiquement de quelques dizaines de parsecs. Par conséquent, il faut une très haute résolution spatiale pour étudier la SOI d’un SMBH et pouvoir adéquatement mesurer sa masse. C’est cette nécessité d’une haute résolution spatiale qui limite la mesure de masse de SMBHs à de plus grandes distances. Pour briser cette barrière, il nous faut donc trouver une manière d’améliorer la résolution spatiale d’objets observés à un plus au décalage vers le rouge.
Le phénomène des lentilles gravitationnelles fortes survient lorsqu’une source lumineuse en arrière-plan se trouve alignée avec un objet massif en avant-plan, le long de la ligne de visée d’un observateur. Cette disposition a pour conséquence de distordre l’image observée de la source en arrière-plan. Puisque cette distorsion est inconnue et non-linéaire, l’analyse de la source devient nettement plus complexe. Cependant, ce phénomène a également pour effet d’étirer, d’agrandir et d’amplifier l’image de la source, permettant ainsi de reconstituer la source avec une résolution spatiale considérablement améliorée, compte tenu de sa distance initiale par rapport à l’observateur.
L’objectif de ce projet consiste à développer une chaîne de simulations visant à étudier la faisabilité de la mesure de la masse d’un trou noir supermassif (SMBH) par cinéma- tique du gaz moléculaire à un décalage vers le rouge plus élevé, en utilisant l’apprentissage automatique pour tirer parti du grossissement généré par la distorsion d’une forte lentille gravitationnelle. Pour ce faire, nous générons de manière réaliste des observations du gaz moléculaire obtenues par le Grand Réseau d’Antennes Millimétrique/Submillimétrique de l’Atacama (ALMA). Ces données sont produites à partir de la suite de simulations hydrody- namiques Rétroaction dans des Environnements Réalistes (FIRE). Dans chaque simulation, l’effet cinématique du SMBH est intégré, en supposant le gaz moléculaire virialisé. Ensuite, le flux d’émission du gaz moléculaire est calculé en fonction de sa vitesse, température, densité, fraction de H2, décalage vers le rouge et taille dans le ciel. Le cube ALMA est généré en tenant compte de la résolution spatiale et spectrale, qui dépendent du nombre d’antennes, de leur configuration et du temps d’exposition. Finalement, l’effet de la forte lentille gravi- tationnelle est introduit par la rétro-propagation du faisceau lumineux en fonction du profil de masse de l’ellipsoïde isotherme singulière (SIE).
L’exploitation de ces données ALMA simulées est testée dans le cadre d’un problème de régression directe. Nous entraînons un réseau de neurones à convolution (CNN) à apprendre à prédire la masse d’un SMBH à partir des données simulées, sans prendre en compte l’effet de la lentille. Le réseau prédit la masse du SMBH ainsi que son incertitude, en supposant une distribution a posteriori gaussienne. Les résultats sont convaincants : plus la masse du SMBH est grande, plus la prédiction du réseau est précise et exacte. Tout comme avec les méthodes conventionnelles, le réseau est uniquement capable de prédire la masse du SMBH tant que la résolution spatiale des données permet de résoudre la SOI. De plus, les cartes de saillance du réseau confirment que celui-ci utilise l’information contenue dans la SOI pour prédire la masse du SMBH. Dans les travaux à venir, l’effet des lentilles gravitationnelles fortes sera introduit dans les données pour évaluer s’il devient possible de mesurer la masse de ces mêmes SMBHs, mais à un décalage vers le rouge plus élevé. / Recent breakthroughs have been made in the study of supermassive black holes (SMBHs), thanks largely to the Event Horizon Telescope (EHT) team. However, determining the mass of these colossal entities at high redshifts remains a major challenge for astronomers. There are various direct and indirect methods for measuring the mass of SMBHs. The most accurate direct method involves resolving the kinematics of the molecular gas, a cold tracer, in the SMBH’s sphere of influence (SOI). The SOI is defined as the region where the gravitational potential of the SMBH dominates that of the host galaxy. However, since the mass of a SMBH is negligible compared to the mass of a galaxy, the SOI is, from an astronomical point of view, very small, typically a few tens of parsecs. As a result, very high spatial resolution is required to study the SOI of a SMBH and adequately measure its mass. It is this need for high spatial resolution that limits mass measurements of SMBHs at larger distances. To break this barrier, we need to find a way to improve the spatial resolution of objects observed at higher redshifts.
The phenomenon of strong gravitational lensing occurs when a light source in the back- ground is aligned with a massive object in the foreground, along an observer’s line of sight. This arrangement distorts the observed image of the background source. Since this distor- tion is unknown and non-linear, analysis of the source becomes considerably more complex. However, this phenomenon also has the effect of stretching, enlarging and amplifying the image of the source, enabling the source to be reconstructed with considerably improved spatial resolution, given its initial distance from the observer.
The aim of this project is to develop a chain of simulations to study the feasibility of measuring the mass of a supermassive black hole (SMBH) by kinematics of molecular gas at higher redshift, using machine learning to take advantage of the magnification generated by the distortion of a strong gravitational lens. To this end, we realistically generate observations of molecular gas obtained by the Atacama Large Millimeter/Submillimeter Antenna Array (ALMA). These data are generated from the Feedback in Realistic Environments (FIRE) suite of hydrodynamic simulations. In each simulation, the kinematic effect of the SMBH is integrated, assuming virialized molecular gas. Next, the emission flux of the molecular gas is calculated as a function of its velocity, temperature, density, H2 fraction, redshift and sky size. The ALMA cube is generated taking into account spatial and spectral resolution, which depend on the number of antennas, their configuration and exposure time. Finally, the effect of strong gravitational lensing is introduced by back-propagating the light beam according to the mass profile of the singular isothermal ellipsoid (SIE).
The exploitation of these simulated ALMA data is tested in a direct regression problem. We train a convolution neural network (CNN) to learn to predict the mass of an SMBH from the simulated data, without taking into account the effect of the lens. The network predicts the mass of the SMBH as well as its uncertainty, assuming a Gaussian a posteriori distribution. The results are convincing: the greater the mass of the SMBH, the more precise and accurate the network’s prediction. As with conventional methods, the network is only able to predict the mass of the SMBH as long as the spatial resolution of the data allows the SOI to be resolved. Furthermore, the network’s saliency maps confirm that it uses the information contained in the SOI to predict the mass of the SMBH. In future work, the effect of strong gravitational lensing will be introduced into the data to assess whether it becomes possible to measure the mass of these same SMBHs, but at a higher redshift.
|
144 |
Transverse Spin and Classical Gluon Fields: Combining Two Perspectives on Hadronic StructureSievert, Matthew D. 10 October 2014 (has links)
No description available.
|
145 |
Small-x Physics Meets Spin-Orbit Coupling: Transverse Spin Effects in High Energy QCDSantiago, M. Gabriel 12 September 2022 (has links)
No description available.
|
146 |
Horseshoe regularization for wavelet-based lensing inversionNafisi, Hasti 03 1900 (has links)
Gravitational lensing, a phenomenon in astronomy, occurs when the gravitational field of a massive object, such as a galaxy or a black hole, bends the path of light from a distant object behind it. This bending results in a distortion or magnification of the distant object's image, often seen as arcs or rings surrounding the foreground object.
The Starlet wavelet transform offers a robust approach to representing galaxy images sparsely. This technique breaks down an image into wavelet coefficients at various scales and orientations, effectively capturing both large-scale structures and fine details.
The Starlet wavelet transform offers a robust approach to representing galaxy images sparsely. This technique breaks down an image into wavelet coefficients at various scales and orientations, effectively capturing both large-scale structures and fine details.
The horseshoe prior has emerged as a highly effective Bayesian technique for promoting sparsity and regularization in statistical modeling. It aggressively shrinks negligible values while preserving important features, making it particularly useful in situations where the reconstruction of an original image from limited noisy observations is inherently challenging.
The main objective of this thesis is to apply sparse regularization techniques, particularly the horseshoe prior, to reconstruct the background source galaxy from gravitationally lensed images. By demonstrating the effectiveness of the horseshoe prior in this context, this thesis tackles the challenging inverse problem of reconstructing lensed galaxy images.
Our proposed methodology involves applying the horseshoe prior to the wavelet coefficients of lensed galaxy images. By exploiting the sparsity of the wavelet representation and the noise-suppressing behavior of the horseshoe prior, we achieve well-regularized reconstructions that reduce noise and artifacts while preserving structural details. Experiments conducted on simulated lensed galaxy images demonstrate lower mean squared error and higher structural similarity with the horseshoe prior compared to alternative methods, validating its efficacy as an efficient sparse modeling technique. / Les lentilles gravitationnelles se produisent lorsque le champ gravitationnel d'un objet massif dévie la trajectoire de la lumière provenant d'un objet lointain, entraînant une distorsion ou une amplification de l'image de l'objet lointain.
La transformation Starlet fournit une méthode robuste pour obtenir une représentation éparse des images de galaxies, capturant efficacement leurs caractéristiques essentielles avec un minimum de données. Cette représentation réduit les besoins de stockage et de calcul, et facilite des tâches telles que le débruitage, la compression et l'extraction de caractéristiques.
La distribution a priori de fer à cheval est une technique bayésienne efficace pour promouvoir la sparsité et la régularisation dans la modélisation statistique. Elle réduit de manière agressive les valeurs négligeables tout en préservant les caractéristiques importantes, ce qui la rend particulièrement utile dans les situations où la reconstruction d'une image originale à partir d'observations bruitées est difficile.
Étant donné la nature mal posée de la reconstruction des images de galaxies à partir de données bruitées, l'utilisation de la distribution a priori devient cruciale pour résoudre les ambiguïtés. Les techniques utilisant une distribution a priori favorisant la sparsité ont été efficaces pour relever des défis similaires dans divers domaines.
L'objectif principal de cette thèse est d'appliquer des techniques de régularisation favorisant la sparsité, en particulier la distribution a priori de fer à cheval, pour reconstruire les galaxies d'arrière-plan à partir d'images de lentilles gravitationnelles.
Notre méthodologie proposée consiste à appliquer la distribution a priori de fer à cheval aux coefficients d'ondelettes des images de galaxies lentillées. En exploitant la sparsité de la représentation en ondelettes et le comportement de suppression du bruit de la distribution a priori de fer à cheval, nous obtenons des reconstructions bien régularisées qui réduisent le bruit et les artefacts tout en préservant les détails structurels. Des expériences menées sur des images simulées de galaxies lentillées montrent une erreur quadratique moyenne inférieure et une similarité structurelle plus élevée avec la distribution a priori de fer à cheval par rapport à d'autres méthodes, validant son efficacité.
|
147 |
Effets de lentille gravitationnelle sur le rayonnement de fond cosmiqueBenabed, Karim 12 November 2001 (has links) (PDF)
On s'intéressera, dans ce mémoire, à certains aspects phénoménologiques de l'évolution des grandes structures de l'univers, dans le cadre des modèles inflationnaires. La relativité générale prédit que le trajet des rayons lumineux est perturbé par les puits de potentiels gravitationnels ; on appelle ce phénomène, effet de lentille gravitationnelle. On donnera une description très précise de cet effet sur la lumière du rayonnement de fond micro-onde, les anisotropies de sa température et sa polarisation. Pour ce faire, après avoir exposé les grandes lignes du modèle, on rappellera comment se calculent les anisotropies de température et la polarisation ainsi que les propriétés de l'évolution des grandes structures. Le calcul de l'effet de lentille gravitationnelle sera aussi rappelé en détail. On sera ainsi en mesure d'étudier l'effet de lentille gravitationnelle sur le rayonnement de fond dans deux régimes : celui fort, dans le cas d'un effet induit par une corde cosmique, et celui faible où les sources sont les grandes structures de l'univers. On montrera, dans ce dernier cas, que température et polarisation du rayonnement de fond portent des informations sur l'histoire des grandes structures entre aujourd'hui et son époque d'émission. On exposera et l'on caractérisera une technique particulièrement prometteuse visant à extraire cette information, et qui consiste à comparer rayonnement de fond et relevés de forme des champs galactiques d'arrière plan. On étudiera aussi les enseignement que peuvent apporter ce genre d'observables sur le modèle cosmologique. Enfin, on s'attardera sur une classe de modèles exotiques dans laquelle la constante cosmique est remplacée par une composante nouvelle, la quintessence. On étudiera l'évolution des grandes structures dans ces modèles et on en tirera les conséquences phénoménologiques sur l'effet de lentille gravitationnelle.
|
148 |
Propagation of light in Plasmonic multilayers / Propagation de la lumière dans les multicouches plasmoniquesAjib, Rabih 12 May 2017 (has links)
La plasmonique vise à utiliser des nanostructures métalliques très petites devant la longueur d’onde pour manipuler la lumière. Les structures métalliques sont particulières parce qu’elles contiennent un plasma d’électrons libres qui conditionne complètement leur réponse optique. Notamment, lorsque la lumière se propage à proximité des métaux, sous forme de mode guidés comme les plasmons et les gap-palsmons, elle est souvent lente, présentant une vitesse de groupe faible. Dans ce travail, nous présentons une analyse physique qui permet de comprendre cette faible vitesse en considérant le fait que l’énergie se déplace à l’opposé de la lumière dans les métaux. Nous montrons que la vitesse de groupe est égale à la vitesse de l’énergie pour ces modes guidés, et proposons la notion de ralentissement plasmonique. Finalement, nous étudions comment cette « trainée plasmonique » rend une structure aussi simple qu’un coupleur à prisme sensible à la répulsion entre les électrons du plasma. / The field of plasmonics aims at manipulating light using deeply subwavelength nanostructures. Such structures present a peculiar optical response because of the free electron plasma they contain. Actually, when light propagates in the vicinity of metals, usually under the form of a guided mode, it presents a low group velocity. Such modes, like plasmons and gap-plasmons, are said to be slow. In this work we present a general physical analysis of this phenomenon by studying how the energy propagates in metals in a direction that is opposite to the propagation direction of the mode. We show that the group velocity and the energy velocity are the same, and finally introduce the concept of plasmonic drag. Finally, we study how slow guided modes make structures as simple as prism couplers sensitive to the repulsion between electrons inside the plasma.
|
Page generated in 0.0738 seconds