• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 18
  • 9
  • Tagged with
  • 66
  • 20
  • 17
  • 15
  • 15
  • 15
  • 13
  • 12
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Triaxial galaxy clusters / Amas de galaxies triaxiaux

Bonamigo, Mario 22 September 2016 (has links)
Il est bien établit théoriquement et observationnellement que les amas de galaxies ne sont pas des objets sphèriques, et qu'ils sont beaucoup mieux décrits par la géométrie triaxiale. Malgré cela, les travaux sur la forme tri-dimensionnelle des amas de galaxies sont encore trés rares. L'objet de cette thèse est de contribuer à cette problématique naissante. L'originalité de ce travail est d'aborder ce sujet théoriquement et observationnellement. J'ai mesuré la forme d'amas de galaxies simulés, proposant des prédictions sur la forme des haloes de matière noire. J'ai ensuite développé un algorithme qui se propose de combiner des données en lentilles gravitationnelles et en rayons X afin de contraindre un modèle de haloe triaxial. L'algorithme est testé sur des données simulées. Finalement, je présente l'analyse en rayons X de Abell 1703, qui, combinée avec l'analyse en lentilles gravitationnelles, permettra de déterminer la forme de Abell 1703. / It is well established both theoretically and observationally that galaxy clusters are not spherical objects and that they are much better approximated as triaxial objects. This thesis focusses on the three dimencional shape of galaxy clusters. The originality of my approach is to tackle the problem both theoretically and observationally. First, I have measured the shape of dark matter haloes in the Millenium XXL and Sbarbine simulations, providing predictions for dark matter halo shape over 5 order in magnitude in mass. Then, I have developed an algorithm aimed at fitting simultaneously lensing and X-ray data in order to constrain a triaxial mass distribution. The algorithm is tested and characterized on mock data sets. It is found to be able to recover the input parameters. Finally, I present the X-ray analysis of galaxy cluster Abell 1703, which will be combined with the existing lensing analysis in order to investigate its shape.
52

Développement de matériaux polymères à haute perméabilité d’oxygène / Development of polymer materials with high oxygen permeability

Demianenko, Pavlo 10 June 2015 (has links)
Développer un matériau pour une application dans le domaine des lentilles de contact nécessite de satisfaire plusieursexigences, notamment sur la transparence optique, sur la stabilité chimique et thermique. En outre, puisque le matériauest directement en contact avec le tissu de l'oeil, il doit être mouillable, biocompatible, résistant à l'encrassementbiologique, et perméable à l'oxygène. La perméabilité à l'oxygène (Dk) est un paramètre important pour la conceptionde lentilles de contact. Ce paramètre représente la facilité qu’aura l’oxygène à diffuser à travers la lentille vers l’oeil.Dans ce contexte, nous décrivons deux voies de recherche sur une nouvelle formulation afin de répondre à ces critères. Dans une première approche, cette recherche est axée sur la synthèse d’hydrogels de morphologie spécifique, en particulier, sur la synthèse simultanée et/ou séquentielle de réseaux polymères interpénétrés (IPN) permettant d’obtenir unemorphologie à phases co-continues. Parmi les nombreux monomères biocompatibles, nous nous sommes focalisésinitialement sur la combinaison d'un acrylate fluoré (2,2,2 -trifluoroéthyl méthacrylate, TFEM) et de la 1 -vinyl-2 -pyrrolidone (NVP), ce système étant comparé à un IPN constitué d’un monomère siloxane (3-[tris (triméthylsiloxy)-silyle] méthacrylate de propyle], TRIS), bien connu dans le domaine des lentilles de contact en raison de ses bonnes propriétés de transport de l'oxygène. Dans une deuxième approche, ces systèmes sont considérés comme une référence et nous avons prospecté l’élaboration d’IPN à base d’alginate et d’acrylamide, ces hydrogels ayant démontré des propriétés attractives, en particulier les propriétés mécaniques. Plusieurs formulations de gels ont été préparées et l'influence de leur composition sur les propriétés d’intérêt est décrite. En effet, ces hydrogels sont caractérisés d’un point de vue chimique par spectroscopie IRTF, chromatographie couplée GC-MS et d’un point de vue morphologie par microscopie MEB afin de mettre en évidence une morphologie avec des phases co-continues. Les propriétés mécaniques sont aussi déterminées. La perméabilité à l’oxygène étant en partie liée aux propriétés de gonflement du gel, la calorimétrie différentielle à balayage (DSC) a permis de déterminer et de quantifier l’eau absorbée dans ses différents états thermodynamiques et ces données sont reliées aux mesures de perméabilité. Une autre partie de ce projet est centrée sur la simulation numérique des hydrogels et de leurspropriétés physico-chimiques telles que le gonflement dans l’eau et la diffusion de molécules de gaz. Nous avons utilisé la méthode de dynamique moléculaire (MD) avec le champ de force COMPASS afin de modéliser les polymères les plus communs dans le domaine des lentilles de contact. / To design a material for contact lens application, the candidate materials must satisfy several requirements, including theoptical transparency, the chemical and thermal stability. In addition, since the material is directly in contact with the eyetissue, it should be tear wettable, biocompatible, biofouling resistant and oxygen permeable. Oxygen permeability (Dk) isan important parameter for the contact lens design as it is representative of the lens ability to diffuse oxygen at the eye.In this context, we are following two ways for a new formulation answering to these constrains. First, this research is focusedon the simultaneous or two-step synthesis of IPNs (interpenetrating polymer network) as a means to obtain a cocontinuousphases structure. Among the available biocompatible monomers, the work was initially focused on the achievement of IPN's based on a fluorinated acrylate - TFEM (2,2,2-trifluoroethyl methacrylate) and the 1 -vinyl-2 -pyrrolidone (NVP). Such a system is compared to IPN's based on a siloxane monomer - TRIS (3 - [tris (trimethylsiloxy) silyl] propyl methacrylate]), well known in the field of contact lens thanks to its properties of oxygen transport. These systems are chosen as a reference. In a second part, our research was concentrated on the development of IPN based on alginate and polyacrylamide which have demonstrated attractive properties for biomedical applications, especially their mechanical properties. Several formulations of biocompatible hydrogels were prepared and the influence of their composition on the interest properties is described. These hydrogels are characterized from a chemical point of view by FTIR spectroscopy and GC-MS chromatography, from themorphological point of view by SEM microscopy in order to prove the presence of co-continuous phases. The mechanicalproperties were also investigated. The differential scanning calorimetry (DSC) was used to determine and quantify theabsorbed water in its various thermodynamic states. The oxygen permeability was measured by polarographicelectrochemical method and relations between this parameter and gel swelling and structural properties discussed. Anotherpart of the project is computational simulation of hydrogel systems and its physico-chemical properties. Especially, wewere focused on modeling of various physic-chemical processes in hydrogels such as their swelling in water anddiffusion of gases molecules. We used molecular dynamics method (MD) with the COMPASS force field to be able tomodel polymer systems widely used in contact lens field.
53

Optical design and developent of building blocks for a new generation of vertically integrated on-chip confocal microscopes / Design optique et réalisation de briques de base pour une nouvelle génération de microscopes confocaux sur-puce intégrés verticalement

Baranski, Maciej 12 December 2013 (has links)
Les travaux de thèse concernent le design optique et le développement d’un microscope confocal miniature MEMS intégré verticalement. Différentes architectures optiques ont été proposées afin de combiner un design optique optimal aux nombreuses contraintes technologiques liées à la fabrication collective des différents blocs élémentaires du microscope sur puce. Ceux-ci, réalisés avec des technologies hybrides, sont encapsulés par assemblage vertical de wafers utilisant les technologies de soudure ≪multi-wafer≫, et permettent la construction d’un microsystème complet d’instrumentation. Un accent particulier a été émis sur la minimisation des aberrations optiques générées par les différents composants micro optiques pour permettre une résolution de mesure élevée. Pour satisfaire ces besoins, différentes briques élémentaires ont été développées : un cube semi-transparent micro-fabriqué, différentes microlentilles réfractives basées sur le micro moulage silicium et un micro-objectif réflecteur. Un montage expérimental de caractérisation dédié à l’ évaluation de la qualité de ces micro composants a également été proposé. De plus, les différents procédés de micro-usinage silicium (gravure humide anisotrope et isotrope, gravure sèche isotrope du silicium) pour la génération de micro-miroirs et de microlentilles ont été comparés. Enfin, les procédures d’assemblage vertical, incluant toutes les technologies d’interconnexion électrique ont été développées. Le travail de thèse a été réalisée dans le cadre du projet DWST-DIS ( The Development of Multi Wafer Stacking 3D Technology for Displays and Imaging MicroSystems), programme financé par le programme Inter Carnot Fraunhofer (PICF) - un projet ANR entre FEMTO-STet l’institut Fraunhofer ENAS. / The thesis manuscript concerns optical design and development of a vertically integrated MEMSbasedconfocal microscope. Different optical architectures have been proposed that aim to combineoptimal optical design and the numerous technological constraints linked to the batch fabricationof the different building blocks. The latter, made by hybrid technologies, and packaged byvertical assembly using multi- wafer bonding, allow the construction of a complete microsystem forinstrumentation. Special emphasis is placed on the minimization of optical aberrations generatedby the different microoptical components to ensure good resolution of measurement. For thesepurposes, different building blocks have been developed, namely a batch-fabricated cube-typedbeamsplitter, different silicon moulded refractive microlenses and a miniature reflective objective.Dedicated characterization system for quality assessment of the fabricated micro-components wasalso developed. Moreover, different processes of silicon-based micromachining for generation ofmicromirrors and microlenses (wet anisotropic and isotropic etch, dry isotropic etch of silicon) havebeen compared. Finally, procedures of vertical assembly including all electrical interconnectiontechnologies have been developed. The thesis work was performed in the frame of the DWST-DIS(The Development of Multi Wafer Stacking 3D Technology for Displays and Imaging MicroSystems)project funded by the Programme Inter Carnot Fraunhofer (PICF) – an ANR project between FEMTO-STand ENAS - Fraunhofer Institute.
54

Reconstruction libre de lentilles gravitationnelles de type galaxie-galaxie avec les machines à inférence récurentielle

Adam, Alexandre 12 1900 (has links)
Les lentilles gravitationnelles de type galaxie-galaxie se produisent lorsque la lumière d'une galaxie en arrière-plan est déviée par le champ gravitationnel d'une galaxie en avant-plan, formant des images multiples ou même des anneaux d'Einstein selon le point de vue d'un observateur sur Terre. Ces phénomènes permettent non seulement d'étudier les galaxies lointaines, magnifiées par la galaxie-lentille, mais aussi de comprendre la distribution de masse de la galaxie-lentille et de son environnement, une opportunité unique pour sonder la matière noire contenue dans ces galaxies. Or, les méthodes traditionnelles pour analyser ces systèmes requièrent une quantité significative de temps ordinateur (de quelques heures à quelques jours), sans compter le temps des experts pour faire converger les analyses MCMC requises pour obtenir les paramètres d'intérêts. Ce problème est significatif, considérant qu'il est projeté que les grands relevés du ciel comme ceux qui seront menés aux observatoires Rubin et Euclid découvrirons plusieurs centaines de milliers de lentilles gravitationnelles. De plus, le Télescope géant européen (ELT), faisant usage de la technologie d'optique adaptative, et le télescope spatial James Webb, vont nous offrir une vue sans précédent de ces systèmes, avec un pouvoir de résolution qui rendra possible certaines analyses comme la recherche de halo de matière noire froide, longtemps prédite par le modèle cosmologique standard $\Lambda$CDM. Les approximations traditionnelles faites pour simplifier la reconstruction des lentilles gravitationnelles ne seront plus valides dans ce régime. Dans ce mémoire, je présente un travail qui s'attaque à ces deux problèmes. Je présente une méthode d'optimisation basée sur les machines à inférence récurentielle pour reconstruire deux images, soit celle d'une galaxie en arrière-plan et une image pour la distribution de masse de la galaxie en avant-plan. La représentation paramétrique choisie a le potentiel de reconstruire une classe très large de lentilles gravitationnelles, incluant des halos et sous-halos de matière noire, ce qu'on démontre dans ce travail en utilisant des profiles de densité réalistes provenant de la simulation cosmologique hydrodynamique IllustrisTNG. Nos reconstructions atteignent un niveau de réalisme jamais atteint auparavant et s'exécutent sur une fraction du temps requis pour exécuter une analyse traditionnelle, soit un pas significatif vers une méthode pouvant adresser le défi d'analyser autant de systèmes complexes et variés en un temps à l'échelle humaine. / Galaxy-Galaxy gravitational lenses is a phenomenon that happens when the light coming from a background galaxy is bent by the gravitational field of a foreground galaxy, producing multiple images or even Einstein ring images of the background source from the point of view of an observer on Earth. These phenomena allow us to study in detail the morphology of the background galaxy, magnified by the lens, but also study the mass density distribution of the lens and its environment, thus offering a unique probe of dark matter in lensing galaxies. Traditional methods studying these systems often need significant compute time (from hours to days), and this is without taking into account the time spent by experts to make the MCMC chains required to obtain parameters of interest converge. This problem is significant, considering that large surveys from observatories like Rubin and Euclid are projected to discover hundreds of thousands of gravitational lenses. Moreover, the Extremely Large Telescope (ELT), using adaptive optics, and the James Webb Space Telescope will offer an unprecedented glimpse of these systems, with a resolving power predicted to enable searches for cold dark matter subhalos — objects long predicted by the standard cosmological model CDM. Approximations used to make analysis tractable in traditional methods will no longer be valid in that regime. In this thesis, I present a method that aims to address these two issues. The method, based on Recurrent Inference Machines (RIM), reconstructs two pixelated maps, one for the background source and another for the mass density map of the foreground lensing galaxy. This free-form parametric representation has the potential to reconstruct a large class of gravitational lenses, including those with dark matter halos and subhalos, which we demonstrate using realistic mass density profiles from the cosmological hydrodynamic simulation IllustrisTNG. Our method can achieve an unmatched level of realism in a fraction of the time required by traditional methods, which is a significant step toward solving the challenge of studying such a large number of complex and varied systems in a human timescale.
55

Effets de la variation de la zone optique de lentilles cornéennes multifocales à addition élevée sur le flash global mfERG

Boily, Laurence 12 1900 (has links)
La myopie est désormais considérée un problème de santé publique par l’Organisation Mondiale de la Santé et de multiples méthodes ont été mises en place afin de contrôler sa progression chez les jeunes en croissance. Parmi celles-ci, les lentilles cornéennes multifocales sont utilisées, permettant une focalisation au niveau de la rétine centrale et un défocus myopique en périphérie. Ce défocus rétinien aurait comme effet de diminuer la progression de la myopie et l’élongation du globe oculaire. Comme plusieurs études ont montré que la rétine est apte à percevoir le défocus et à différencier son sens, l’utilisation d’outils tels que l’électrorétinographie permet d’étudier ce phénomène plus en profondeur. Cette étude vise donc à mesurer la réponse rétinienne, à 5 différentes excentricités, avec l’électrorétinographie lorsqu’on soumet la rétine à un défocus myopique en utilisant des lentilles cornéennes multifocales à addition élevée et à comparer cet effet lorsque le diamètre de leurs zones optiques varie. Le flash global mfERG a été effectué sur 27 participants à trois reprises, soit avec une lentille cornéenne ne causant pas de défocus et avec deux lentilles multifocales ayant des zones optiques de différents diamètres (4mm et 7mm), permettant ainsi de varier l’aire du défocus. Les résultats montrent que l’amplitude de l’onde directe, causée principalement par les photorécepteurs et les cellules bipolaires, n’est pas influencée par le design des lentilles. L’amplitude de l’onde induite est toutefois diminuée de façon significative avec la LC ayant une zone optique plus petite et causant un défocus sur une plus grande surface rétinienne. Cette différence est présente au niveau de l’anneau 5, qui correspond à une excentricité rétinienne de 15,7o à 24,0o. Ceci précise l’endroit qui semblerait le plus sensible au défocus myopique. Ces données peuvent influencer le design des lentilles souples multifocales utilisées pour le contrôle de la myopie. / Myopia is now considered a public health issue by the World Health Organization and multiple methods have been developed to control its progression. Among these methods, soft multifocal contact lenses are used, which allow a focused image on the central retina and a myopic defocus peripherally. This retinal defocus impacts the progression of myopia and axial length. Since several studies have shown that the retina is sensitive to the type of defocus, the use of tools such as electroretinography allow the study of the retinal response in greater depth. The purpose of this study was to evaluate the retinal response, at 5 different eccentricities, with electroretinography when the retina is subjected to myopic defocus using different high addition soft multifocal contact lenses and to compare this effect when the diameter of their optical zones varies. 27 participants performed a global flash mfERG three times, either with a single vision contact lens or with two multifocal lenses carrying different optical zone diameters (4mm and 7mm), allowing for the variation in defocus area. The results show that the amplitude of the direct wave, caused mainly by photoreceptors and bipolar cells, is not influenced by the design of the lenses. The amplitude of the induced wave, however, is significantly decreased when the optical zone is smaller and the lenses cause a defocus over a larger retinal area. This difference is present at ring 5, which corresponds to a retinal eccentricity of 15.7o to 24.0o. This specifies the location that would appear to be most sensitive to myopic defocus. This data may influence the design of multifocal soft lenses used for myopia control.
56

Influence de l'asphéricité antérieure d'une lentille sclérale sur l'acuité visuelle et les aberrations d'ordres supérieurs

Poirier-Lavallée, Alexandre 04 1900 (has links)
L’amélioration des matériaux et des technologies de lentilles de contact a permis le recours de plus en plus fréquent à un type de lentille de contact à grand diamètre reposant sur la sclère : la lentille sclérale (SL). Celle-ci est majoritairement utilisée pour la réadaptation visuelle de patient vivant avec divers types de déformations cornéennes, mais également pour le traitement de maladie de surface oculaire et la correction optique de la simple erreur de réfraction lorsque les autres modalités de lentilles ne peuvent être tolérées. Ce mémoire a pour objectif d’évaluer l’influence de l’asphéricité des surfaces antérieure (ASA) et postérieure (ASP) sur la performance visuelle d’un porteur de SL chez deux groupes distincts : une cohorte de 12 participants sans anomalie cornéenne et une cohorte de 9 participants ayant un diagnostic de kératocône (KC). Lors de l’expérience, quatre différentes SL ayant différents profils d’asphéricité ont été étudiées sur l’œil droit seulement. Pour chaque SL, les mesures d’acuité visuelle à haut contraste (AVHC), l’acuité visuelle à bas contraste (AVHC) et les valeurs moyennes quadratiques (root-mean-square ou RMS) des différents coefficients d’aberrations d’ordres supérieurs (AOS) ont été compilées pour chacun de ces designs aux diamètres pupillaires 3, 4, 5 et 6 mm. Les résultats obtenus suggèrent que l’augmentation de l’ASA d’une SL portée à l’œil droit génère une augmentation de l’aberration sphérique négative, de la coma verticale et horizontale négative chez les deux groupes. L’augmentation de l’ASA entraîne toutefois une augmentation de l’AOS totale et du trèfle total chez les participants sans anomalie cornéenne. Chez le groupe de participants atteint de KC, l’augmentation de l’ASA entraîne une diminution non significative des AOS totales et une augmentation non significative de l’aberration trèfle total. Bien que des études supplémentaires soient nécessaires pour bien comprendre l’influence de l’asphéricité sur les AOS chez les participants atteints de KC, la manipulation de celle-ci permettrait de réduire l’amplitude de certains types d’AOS dans certains cas particuliers. / Improvements in materials and technology have led to the increased use of a large diameter contact lens that rests on the sclera: the scleral lens (SL). These lenses are mainly used for visual rehabilitation of patients with various types of corneal ectasia, for the treatment of ocular surface disease and also for the optical correction of simple refractive error when other lens modalities are not tolerated. The purpose of this dissertation is to evaluate the influence of anterior surface asphericity (ASA) and posterior surface asphericity (ASP) on the visual performance of a SL wearer in two distinct groups: a cohort of 12 participants with no corneal abnormalities and a cohort of 9 participants with a diagnosis of keratoconus (KC). Four different SLs with different aspheric profiles were studied on the right eye only. For each SL, high-contrast visual acuity (HCVA), low contrast visual acuity (LCVA) measurements were measured. The root-mean-square (RMS) values of the higher-order aberration (HOA) Zernike coefficients were also measured for each of these designs for a pupil diameter of 3, 4, 5 and 6 mm. The results of this study suggest that increasing the anterior asphericity of a SL worn on the right eye generates an increase in negative spherical aberration, negative vertical and horizontal coma in both groups. Increasing anterior asphericity leads to an increase in total HOA and total trefoil in participants without corneal anomalies. In the group of participants with KC, increasing asphericity results in a non-significant decrease in total HOA and a non-significant increase in total trefoil aberration. Although additional studies are needed to understand the influence of asphericity on HOA in participants with KC, the manipulation of the anterior asphericity could reduce the amplitude of some types of HOA in some cases.
57

Accélération du lentillage gravitationnel à plans multiples par apprentissage profond

Wilson, Charles 04 1900 (has links)
Le "modèle standard" actuel de la cosmologie est celui de ΛCDM, décrivant un Univers en expansion accélérée ainsi qu’une structure de matière sombre froide formée en halos, sur lesquels s’assemblent les galaxies. Malgré les nombreuses confirmations observationnelles de ses prédictions, il existe d’importantes tensions entre les mesures de la distribution de structure sombre aux petites échelles de l’Univers et ce qui serait attendu de ΛCDM. Cependant, ces halos légers de matière sombre, qui sont prédit d’abonder à travers le cosmos, n’hébergent pas de galaxies lumineuses et sont donc très difficiles à observer directement. Leur présence peut toutefois être détectée dans les lentilles gravitationnelles fortes de type galaxie-galaxie, un phénomène se produisant lorsque la lumière d’une galaxie d’arrière-plan est fortement déviée par le champ gravitationnel d’une galaxie d’avantplan, formant des images multiples et des arcs étendus. Les halos distribués en ligne de visée de tels systèmes, ainsi que ceux imbriqués dans la galaxie lentille, peuvent causer des perturbations gravitationnelles dans les images de galaxies lentillées. La détection de ces effets infimes dans des observations de lentilles gravitationnelles est faite par des méthodes statistiques Bayésiennes, qui nécéssitent des centaines de milliers de simulations de la contribution de ces perturbateurs à la déflexion de la lumière. Traditionnellement, la modélisation du lentillage par les halos en ligne de visée s’est faite avec le formalisme du lentillage à plans multiples, qui souffre d’une nature récursive peu efficace. De plus, il est prédit par le modèle ΛCDM que la majorité des systèmes de lentilles gravitationnelles comporteraient davantage de halos en ligne de visée que de sous-halos imbriqués dans la galaxie lentille, motivant une modélisation détaillée des effets de ligne de visée. Dans un contexte d’analyse Bayésienne, l’approche du lentillage à plans multiples représente une échelle de temps de plusieurs jours pour l’analyse d’un seul système. En considérant que des grands relevés du ciel comme ceux de l’Observatoire Vera Rubin et du télescope spatial Euclid sont projetés de découvrir des centaines de milliers de lentilles gravitationnelles, l’effort de contraindre la distribution de matière sombre aux petites échelles se voit confronté à ce qui pourrait être un insurmontable problème de temps de calcul. Dans ce mémoire, je présente le développement d’un nouveau formalisme de modélisation du lentillage gravitationnel par halos en ligne de visée accéléré par des réseaux de neurones, motivé par les lacunes du lentillage à plans multiples et l’importance scientifique de la modélisation de ces effets. Les architectures de ces réseaux, conçues dans le cadre de ce travail, sont basées sur le mécanisme d’attention, et peuvent être conditionnées sur des ensembles de modèles de halos en ligne de visée afin de produire les angles de déflexion leur étant associés. Ce formalisme offre la flexibilité requise pour remplacer celui du lentillage à plans multiples, laissant à l’usager la liberté de spécifier un modèle de lentille principale et étant compatible avec des grilles de pixels de taille quelconque. Notre formalisme permet d’accélérer la modélisation du lentillage de ligne de visée par presque deux ordres de grandeur lorsque comparé au lentillage à plans multiples, et promet d’atteindre une exactitude lui étant comparable dans des développements futurs. Il s’agit d’une contribution significative à l’étude de la matière sombre aux petites échelles, qui permettra soit de réconcilier ΛCDM et les observations, ou mènera à l’adoption d’un modèle cosmologique alternatif. / The current "standard model" of cosmology is that of ΛCDM, describing a Universe undergoing accelerated expansion with a structure of cold dark matter formed into halos, onto which are assembled galaxies. Despite the numerous observational confirmations of its predictions, there remains some important tensions between measures of the distribution of dark structure on small scales of the Universe and what would be expected from ΛCDM. However, these light dark matter halos, predicted to be adundant throughout the cosmos, are not hosts of luminous galaxies and are therefore very difficult to observe directly. Yet, their presence can still be detected in galaxy-galaxy type strong gravitational lenses, a phenomenon occuring when the light of a background galaxy is strongly deflected by the gravitational field of a foreground galaxy, forming multiple images and extended arcs. Halos distributed along the line-of-sight of such systems, as well as those nested within the lens galaxy, can introduce gravitational perturbations in images of lensed galaxies. The detection of such infinitesimal effects in strong lensing observations is made with methods relying on Bayesian statistics, which require hundreds of thousands of simulations of the contribution of these perturbers to the deflection of light. Traditionally, modeling the lensing from line-of-sight halos has been done with the multi-plane lensing framework, which suffers from its inefficient recursive nature. Morevoer, the ΛCDM model predicts that most gravitational lens systems would host a larger amount of line-of-sight halos than subhalos nested within the lens galaxy, motivating a detailed modeling of line-of-sight effects. In a Bayesian analysis context, the multi-plane lensing approach represents a timescale of multiple days for the analysis of a single system. Considering that large sky surveys such as those of the Vera Rubin Observatory and the Euclid space telescope are projected to discover hundreds of thousands of gravitational lenses, the effort of constraining the small-scale distribution of dark matter is confronted to what might seem like an insurmountable problem of computation time. In this thesis, I present the development of a new neural-network-accelerated framework for modeling the gravitational lensing by line-of-sight halos, motivated by the shortcomings of multiplane lensing and the scientific importance of modeling these effects. The architectures of these networks, conceived as part of this work, are based on the attention mechanism, and can be conditioned on sets of line-of-sight halo models in order to produce their associated deflection angles. This framework offers the flexibility required to replace that of multi-plane lensing, leaving up to the user the freedom to specify a main lens model and being compatible with pixel grids of any size. Our framework allows to accelerate the modeling of line-of-sight lensing by nearly two orders of magnitude relative to multi-plane lensing, and promises to reach a comparable accuracy in future developments. This constitutes a significative contribution to the study of dark matter on small scales, which will either lead to the reconciliation of ΛCDM and observations, or the adoption of an alternate cosmological model.
58

Algorithmes évolutionnaires appliqués à la reconnaissance des formes et à la conception optique

Gagné, Christian 11 April 2018 (has links)
Les algorithmes évolutionnaires (AE) constituent une famille d’algorithmes inspirés de l’évolution naturelle. Ces algorithmes sont particulièrement utiles pour la résolution de problèmes où les algorithmes classiques d’optimisation, d’apprentissage ou de conception automatique sont incapables de produire des résultats satisfaisants. On propose dans cette thèse une approche méthodologique pour le développement de systèmes intelligents basés sur les AE. Cette approche méthodologique repose sur cinq principes : 1) utiliser des algorithmes et des représentations adaptés au problème ; 2) développer des hybrides entre des AE et des heuristiques du domaine d’application ; 3) tirer profit de l’optimisation évolutionnaire à plusieurs objectifs ; 4) faire de la co-évolution pour résoudre simultanément plusieurs sous-problèmes d’une application ou favoriser la robustesse ; et 5) utiliser un outil logiciel générique pour le développement rapide d’AE non conventionnels. Cette approche méthodologique est illustrée par quatre applications des AE à des problèmes difficiles. De plus, le cinquième principe est appuyé par l’étude sur la généricité dans les outils logiciels d’AE. Le développement d’applications complexes avec les AE exige l’utilisation d’un outil logiciel générique. Six critères sont proposés ici pour évaluer la généricité des outils d’AE. De nombreux outils logiciels d’AE sont disponibles dans la communauté, mais peu d’entre eux peuvent être véritablement qualifiés de génériques. En effet, une évaluation de quelques outils relativement populaires nous indique que seulement trois satisfont pleinement à tous ces critères, dont la framework d’AE Open BEAGLE, développée durant le doctorat. Open BEAGLE est organisé en trois couches logicielles principales, avec à la base les fondations orientées objet, sur lesquelles s’ajoute une framework gén érique comprenant les mécanismes généraux de l’outil, ainsi que plusieurs frameworks spécialisées qui implantent différentes saveurs d’AE. L’outil comporte également deux extensions servant à distribuer des calculs sur plusieurs ordinateurs et à visualiser des résultats. Ensuite, trois applications illustrent différentes approches d’utilisation des AE dans un contexte de reconnaissance des formes. Premièrement, on optimise des classifieurs basés sur la règle du plus proche voisin avec la sélection de prototypes par un algorithme génétique, simultanément à la construction de mesures de voisinage par programmation génétique (PG). À cette co-évolution coopérative à deux espèces, on ajoute la co-évolution compétitive d’une troisième espèce pour la sélection de données de test, afin d’améliorer la capacité de généralisation des solutions. La deuxième application consiste en l’ingénierie de représentations par PG pour la reconnaissance de caractères manuscrits. Cette ingénierie évolutionnaire s’effectue par un positionnement automatique de régions dans la fenêtre d’attention jumelé à la sélection d’ensembles flous pour l’extraction de caractéristiques. Cette application permet d’automatiser la recherche de représentations de caractères, opération généralement effectuée par des experts humains suite à un processus d’essais et erreurs. Pour la troisième application en reconnaissance des formes, on propose un système extensible pour la combinaison hiérarchique de classifieurs dans un arbre de décision flou. Dans ce système, la topologie des arbres est évoluée par PG alors que les paramètres numériques des unités de classement sont détermin és par des techniques d’apprentissage spécialisées. Le système est testé avec trois types simples d’unités de classement. Pour toutes ces applications en reconnaissance des formes, on utilise une mesure d’adéquation à deux objectifs afin de minimiser les erreurs de classement et la complexité des solutions. Une dernière application démontre l’efficacité des AE pour la conception de syst` emes de lentilles. On utilise des stratégies d’évolution auto-adaptatives hybridées avec une technique d’optimisation locale spécialisée pour la résolution de deux problèmes complexes de conception optique. Dans les deux cas, on démontre que les AE hybrides sont capables de générer des résultats comparables ou supérieurs à ceux produits par des experts humains. Ces résultats sont prometteurs dans la perspective d’une automatisation plus poussée de la conception optique. On présente également une expérience supplémentaire avec une mesure à deux objectifs servant à maximiser la qualité de l’image et à minimiser le coût du système de lentilles. / Evolutionary Algorithms (EA) encompass a family of robust search algorithms loosely inspired by natural evolution. These algorithms are particularly useful to solve problems for which classical algorithms of optimization, learning, or automatic design cannot produce good results. In this thesis, we propose a common methodological approach for the development of EA-based intelligent systems. This methodological approach is based on five principles : 1) to use algorithms and representations that are problem specific ; 2) to develop hybrids between EA and heuristics from the application field ; 3) to take advantage of multi-objective evolutionary optimization ; 4) to do co-evolution for the simultaneous resolution of several sub-problems of a common application and for promoting robustness ; and 5) to use generic software tools for rapid development of unconventional EA. This methodological approach is illustrated on four applications of EA to hard problems. Moreover, the fifth principle is explained in the study on genericity of EA software tools. The application of EA to complex problems requires the use of generic software tool, for which we propose six genericity criteria. Many EA software tools are available in the community, but only a few are really generic. Indeed, an evaluation of some popular tools tells us that only three respect all these criteria, of which the framework Open BEAGLE, developed during the Ph.D. Open BEAGLE is organized into three main software layers. The basic layer is made of the object oriented foundations, over which there is the generic framework layer, consisting of the general mechanisms of the tool, and then the final layer, containing several specialized frameworks implementing different EA flavors. The tool also includes two extensions, respectively to distribute the computations over many computers and to visualize results. Three applications illustrate different approaches for using EA in the context of pattern recognition. First, nearest neighbor classifiers are optimized, with the prototype selection using a genetic algorithm simultaneously to the Genetic Programming (GP) of neighborhood metrics. We add to this cooperative two species co-evolution a third coevolving competitive species for selecting test data in order to improve the generalization capability of solutions. A second application consists in designing representations with GP for handwritten character recognition. This evolutionary engineering is conducted with an automatic positioning of regions in a window of attention, combined with the selection of fuzzy sets for feature extraction. This application is used to automate character representation search, which is usually conducted by human experts with a trial and error process. For the third application in pattern recognition, we propose an extensible system for the hierarchical combination of classifiers into a fuzzy decision tree. In this system, the tree topology is evolved with GP while the numerical parameters of classification units are determined by specialized learning techniques. The system is tested with three simple types of classification units. All of these applications in pattern recognition have been implemented using a two-objective fitness measure in order to minimize classification errors and solutions complexity. The last application demonstrate the efficiency of EA for lens system design. Selfadaptative evolution strategies, hybridized with a specialized local optimisation technique, are used to solve two complex optical design problems. In both cases, the experiments demonstrate that hybridized EA are able to produce results that are comparable or better than those obtained by human experts. These results are encouraging from the standpoint of a fully automated optical design process. An additional experiment is also conducted with a two-objectives fitness measure that tries to maximize image quality while minimizing lens system cost.
59

Large imaging surveys for cosmology: cosmic magnification and photometric calibration

Boucaud, Alexandre 27 September 2013 (has links) (PDF)
Ce travail de thèse se focalise sur l'usage de grands sondages pour extraire de l'information sur la cosmologie. Une photométrie de précision joue un rôle clé dans cette quête à travers la détermination de redshifts photométriques ainsi que la propagation des erreurs dans les résultats cosmologiques ; thème unissant les deux parties de cette thèse. Après une revue de la cosmologie et des mesures favorisant le modèle ΛCDM, ainsi qu'une description du Large Synoptic Survey Telescope (LSST), la première partie de ce travail se porte sur l'étude de la variation des principaux constituants de l'atmosphère sur la photométrie au sol, au niveau du site du LSST à Cerro Pachón, au Chili. Nous utilisons des données récentes sur l'ozone, la vapeur d'eau et les aérosols pour en construire une simulation de longue durée et estimer quantitativement l'influence des gradients spatiaux et temporels de ces constituants sur la procédure de la calibration du LSST. La deuxième partie de ce travail débute par une description théorique de l'effet de lentille gravitationnelle, avec un accent sur le lentillage faible. Après une comparaison des avantages et inconvénients inhérents aux mesures de cisaillement cosmique, nous explorons l'utilisation de l'amplification cosmique conjointement à la séparation tomographique en redshift permise par le LSST afin de contraindre les modèles. Nous trouvons que l'amplification cosmique, bien qu'affectée par le clustering intrinsèque, représente une sonde prometteuse du biais des galaxies et de l'énergie noire, complémentaire au cisaillement cosmique, et qui augmente la robustesse des contraintes cosmologiques provenant des mêmes relevés.
60

Millimeter-wave radar imaging systems : focusing antennas, passive compressive devicefor MIMO configurations and high resolution signal processing / Les systèmes d'imagerie radar utilisant les ondes millimétriques : antennes focalisantes, dispositifs compressif passif pour configurations MIMO et traitement du signal

Jouadé, Antoine 23 November 2017 (has links)
Les travaux présentés dans cette thèse sont une contribution à l’étude des systèmes d’imagerie active en bande millimétrique et plus spécifiquement sur les parties antennaires et le traitement de signal. Ces travaux ont été menés dans le cadre d’une collaboration entre Canon Research Center France et l’ETR. Une première étude a porté sur les antennes focalisantes et plus spécifiquement sur la lentille de Fresnel avec un procédé de fabrication de matériau à gradient d’indice qui a permis d’améliorer l’efficacité (59%) et la largeur bande de fréquence (75-110 GHz). Cette antenne a été utilisée sur un système rotatif pour imager une scène réelle extérieure. L’étude s’est ensuite focalisée sur la conception d’une configuration Multiple-Input Multiple-Output ou MIMO (entrées multiples, sorties multiples) grâce notamment à l’utilisation d’un dispositif compressif passif 4×1 permettant de réduire, par compression, le nombre de chaînes RF. Ces chaînes sont décompressées par post-traitement. Le dispositif, placé à l’émission, a été associé avec un scanner qui permet de synthétiser un réseau d’antennes à la réception. Cette configuration a permis de générer virtuellement un réseau de plus grande taille, permettant d’améliorer la résolution azimutale du système tout en limitant le nombre de chaînes RF. Cette configuration est utilisée pour imager une scène en chambre anéchoique afin de valider le concept. Pour améliorer encore plus la résolution du système avec un nombre limité de chaînes RF, l’étude d’algorithmes de haute-résolution, ou méthodes d’estimation spectrales, sont utilisés dans des configurations à large bande de fréquences pour imager des cibles en champs proche. L’association de la configuration MIMO, du dispositif compressif passif et des méthodes d’estimation spectrales permet d’améliorer la résolution du système tout en limitant le nombre de chaînes RF nécessaire. / The broad topic of the presented Ph.D. thesis consists in the contribution to the study of Radar imaging systems at millimeter-wave and more specifically to the antennas and signal processing. These works have been carried out during a partnership between Canon Research Center France and IETR. A first study on focusing antennas, particularly on Fresnel lens antennas, thanks to a technological process to manufacture inhomogeneous materials, has allowed to improve the efficiency and the frequency bandwidth. The antenna has been mounted on a rotary system to image a real outdoor scene. Then, the study has been focused on the realization of a Multiple-Input Multiple-Output (MIMO) configuration notably using a 4 × 1 passive compressive device allowing to reduce, by compression, the number of radiofrequency (RF) chains. The chains are decompressed by post-processing. The device, used at the transmitting part, is associated with a scanner that synthetizes a receiving array of antennas. This configuration allows to generate a large virtual array, to improve the azimutal resolution of the system while maintaining acceptable the number of RF chains. This configuration has been used to image a scene in an anechoid chamber to validate the concept. To further improve the spatial resolution of the system for a given number of RF chains, the study of high resolution algorithms, or spectral estimation methods, are used to image scenes in near field and wide-band configurations. The combination of MIMO configurations, the passive compressive device and the spectral estimation methods have allowed to drastically improve the spatial resolution of the radar imaging system while limiting the number of RF chains.

Page generated in 0.3836 seconds