• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 203
  • 59
  • 14
  • Tagged with
  • 278
  • 50
  • 44
  • 44
  • 37
  • 34
  • 28
  • 28
  • 28
  • 28
  • 28
  • 28
  • 26
  • 26
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Étude de la substance blanche par diffusion tensiorelle : tractographie des fibres d'association de la région temporo-pariéto-occipitale

Bérubé, Josée January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
242

Développement de nouveaux composants passifs multicouches et l'implémentation d'une matrice de Butler large bande et compacte en tecgnologies GIS

Ali Mohamed Ali, Ahmed 04 May 2010 (has links) (PDF)
Développement de Nouveaux Composants Passifs Multicouches et l'Implémentation d'une Matrice de Butler Large-Bande et Compacte en Technologie GIS Les systèmes de communications sans fils actuels imposent des contraintes très sévères en termes de la capacité du canal, la qualité de transmission tout en gardant les niveaux d'interférences et multi-trajets assez faibles. De telles contraintes ont rendu les antennes multifaisceaux un élément essentiel dans ces systèmes. Parmi les techniques permettant de réaliser une antenne multifaisceaux (sans avoir recours aux systèmes à balayages électroniques), un réseau d'antennes élémentaires est associé à un réseau d'alimentation (une matrice) à formation de faisceau (Beam Forming Network-BFN). Parmi les différents types de ces matrices, la matrice de Butler a reçu une attention particulière. Ceci est dû au fait qu'elle est théoriquement sans pertes et qu'elle emploie un nombre minimum de composants (coupleurs et déphaseurs) afin de générer l'ensemble de faisceaux orthogonaux demandé (avec l'hypothèse que le nombre de faisceau est une puissance de 2). Néanmoins, la matrice de Butler a un problème de conception majeur. Ce problème réside dans la structure de la matrice qui renferme des croisements ce qui a été adressé par différents travaux de recherches dans la littérature. Les Guide Intégré au Substrat (GIS) offrent des caractéristiques intéressants pour la conception des composants microondes et millimétriques faciles à intégrer sur un même support avec d'autres composants planaires. Les composants à base de GIS combinent les avantages des guides d'ondes rectangulaires, comme leur grand facteur de qualité Q, leur faibles pertes tout en étant compatible avec les technologies à faibles coûts comme le PCB et le LTCC. Vus ses caractéristiques attrayants, la technologie GIS devient un bon candidat pour la réalisation des matrices multifaisceaux faciles à intégrer avec d'autres systèmes en technologies planaires ou à base de guide GIS. Dans cette thèse, de nouveaux composants passifs sont développés en exploitant la technologie GIS en multicouches en vue de la réalisation d'une matrice de Butler 4x4 compacte et large bande. Les composants recherchés sont donc des coupleurs et des déphaseurs ayant des performances large bande en termes des amplitudes des coefficients de transmissions et les phases associés tout en gardant de faibles niveaux de pertes et de bonnes isolations. Différents techniques pour l'implémentation de déphaseurs large bande en technologie GIS sont présentés. Une nouvelle structure à base d'une propagation composite : main gauche main droite (Composite Right/Left- Handed, CRLH) dans un guide d'onde est proposée. La structure consiste d'un guide d'onde monocouche ayant des fenêtres inductives et des fentes transversales à réactances capacitives pour synthétiser l'inductance parallèle et la capacité série main gauche, respectivement. La structure est adaptée pour les réalisations de déphaseurs compacts en technologie GIS. Bien que les pertes d'insertions restent dans le même ordre de grandeur de celles des structures CRLH à base d'éléments non-localisés, ces niveaux de pertes restent relativement grands par rapport aux applications nécessitant plusieurs déphaseurs. Les déphaseurs à bases de GIS ayant des longueurs égales et des largeurs variables sont ensuite abordés. Ce type de déphaseur est effectivement très adapté à la technologie GIS qui permet des réalisations de parcours avec différentes formes (parcours droits, courbés, coudés, ..) tout en assurant des différences de phase large bande. Afin de satisfaire de faibles pertes d'insertions pour une large dynamique de phase, la longueur de ces déphaseurs est en compromis avec les variations progressives des différentes largeurs associées aux valeurs de déphasages requises. Une transition large bande, double couche et à faible perte est ainsi proposée. La transition est analysée à partir de son circuit électrique équivalent afin d'étudier les performances en termes de l'amplitude et la phase du coefficient de transmission par rapport aux différents paramètres structurels de la transition. Cette transition est ensuite exploitée pour développer un déphaseur à trois couches, large bande, en GIS. La structure consiste effectivement d'un guide d'onde replié à plusieurs reprises sur lui-même selon la longueur dans une topologie trois couches à faibles pertes. De nouveaux coupleurs double couche en GIS sont également proposés. Pour les applications BFNs, une structure originale d'un coupleur large bande est développée. La structure consiste de deux guides d'onde parallèles qui partagent leur grand mur ayant une paire de fentes inclinées et décalées par rapport au centre de la structure. Une étude paramétrique détaillée est faite pour étudier l'impact des différents paramètres des fentes sur l'amplitude et la phase du coefficient de transmission. Le coupleur proposé a l'avantage d'assurer une large dynamique de couplage ayant des performances larges bandes en termes des amplitudes et les phases des coefficients de transmission avec de faibles pertes et de bonnes isolations entre le port d'entré et celui isolé. D'autre part, contrairement à d'autres travaux antérieurs et récents qui souffraient d'une corrélation directe entre la phase en transmission et le niveau de couplage, la structure proposée permet de contrôler le niveau de couplage en maintenant presque les mêmes valeurs de phase en transmission pour différents niveaux de couplage. Ceci le rend un bon candidat pour les BFNs déployant différents coupleurs telle la matrice de Nolen. Finalement, pour l'implémentation de la matrice de Butler, la topologie double couche est explorée à deux niveaux. Le premier consiste à optimiser les caractéristiques électriques de la matrice, tandis que le second concerne l'optimisation de la surface occupée afin de rendre la matrice la plus compacte possible sans dégrader ses performances électriques. D'une part, la structure double couche présente une solution intrinsèque au problème de croisement permettant ainsi une plus grande flexibilité pour la compensation de phase sur une large bande de fréquence. Ceci est réalisé par une conception adéquate de la surface géométrique sur chaque couche de substrat et optimiser les différentes sections de GIS avec les différents parcours adoptés. La deuxième étape consiste effectivement à optimiser la surface sur chaque couche en profitant de la technologie GIS. Ceci consiste à réaliser des murs latéraux communs entre différents chemin électrique de la matrice en vue d'une compacité optimale. Les deux prototypes de matrices de Butler 4x4 sont optimisés, fabriqués et mesurés. Les résultats de mesures sont en bon accord avec ceux de la simulation. Des niveaux d'isolations mieux que -15 dB avec des niveaux de réflexions inférieurs à -12 dB sont validés expérimentalement sur plus de 24% de bande autour de 12.5 GHz. Les coefficients de transmission montrent de faibles dispersions d'environ 1 dB avec une moyenne de -6.8 dB, et 10° par rapport aux valeurs théoriques, respectivement, sur toute la bande de fréquence.
243

Etude des caractéristiques d'un faisceau contrôlé en polarisation après transmission à travers différentes nanostructures

Lombard, Emmanuel 24 February 2012 (has links) (PDF)
Dans ce travail, nous avons étudié l'interaction entre une lumière contrôlée en polarisation et deux structures sub-longueurs d'onde gravées dans un film métallique opaque, en utilisant la méthode de la " matrice de Mueller ". Tout d'abord, nous avons montré qu'un réseau concentrique de fentes sub-longueurs d'onde percées à travers le film permet de filtrer et de convertir une polarisation incidente, ce qui génère une polarisation radiale. Nous avons aussi montré sa capacité à générer des faisceaux de Bessel non-diffractifs J0 ou J2 à travers de telles structures, et à contrôler leur hélicité en changeant la polarisation circulaire en préparation ou en analyse. Ensuite, nous avons montré la création d'une cible plasmonique ayant les propriétés d'une lame quart d'onde, en travaillant sur l'ellipticité des anneaux - pour générer une phase plasmonique - etdu trou central - pour compenser les forts effets de dichroïsme induits par l'absorption différentielle des plasmons de surface.
244

Développement et optimisation des diagnostiques des faisceaux du LHC et du SPS basé sur le suivi de la lumière synchrotron / Development and Optimization of the LHC and the SPS Beam Diagnostics Based on Synchrotron Radiation Monitoring

Trad, Georges 22 January 2015 (has links)
La mesure de l’émittance transverse du faisceau est fondamentale pour tous les accélérateurs, et en particulier pour les collisionneurs, son évaluation precise étant essentielle pour maximiser la luminosité et ainsi la performance des faisceaux de collision.Le rayonnement synchrotron (SR) est un outil polyvalent pour le diagnostic non-destructif de faisceau, exploité au CERN pour mesurer la taille des faisceaux de protons des deux machines du complexe dont l’énergie est la plus élevée, le SPS et le LHC où l’intensité du faisceau ne permet plus les techniques invasives.Le travail de thèse documenté dans ce rapport s’est concentré sur la conception, le développement, la caractérisation et l’optimisation des moniteurs de taille de faisceau basés sur le SR. Cette étude est fondée sur un ensemble de calculs théoriques, de simulation numériques et d’expériences conduite au sein des laboratoires et accélérateurs du CERN. Un outil de simulation puissant a été développé, combinant des logiciels classiques de simulation de SR et de propagation optique, permettant ainsi la caractérisation complète d’un moniteur SR de la source jusqu’au détecteur.La source SR a pu être entièrement caractérisée par cette technique, puis les résultats validés par observation directe et par la calibration à basse énergie basée sur les mesures effectuées avec les wire-scanners (WS), qui sont la référence en terme de mesure de taille de faisceau, ou telles que la comparaison directe avec la taille des faisceaux obtenue par déconvolution de la luminosité instantanée du LHC.Avec l’augmentation de l’énergie dans le LHC (7TeV), le faisceau verra sa taille diminuer jusqu’à atteindre la limite de la technique d’imagerie du SR. Ainsi, plusieurs solutions ont été investiguées afin d’améliorer la performance du système: la sélection d’une des deux polarisations du SR, la réduction des effets liés à la profondeur de champ par l’utilisation de fentes optiques et l’utilisation d’une longueur d’onde réduite à 250 nm.En parallèle à l’effort de réduction de la diffraction optique, le miroir d’extraction du SR qui s’était avéré être la source principale des aberrations du système a été entièrement reconçu. En effet, la détérioration du miroir a été causée par son couplage EM avec les champs du faisceau, ce qui a conduit à une surchauffe du coating et à sa dégradation. Une nouvelle géométrie de miroir et de son support permettant une douce transition en termes de couplage d’impédance longitudinale dans le beam pipe a été définie et caractérisée par la technique dite du “streched wire”. Egalement, comme méthode alternative à l’imagerie directe, un nouveau moniteur basé sur la technique d’interférométrie à deux fentes du SR, non limité par la diffraction, a également été développé. Le principe de cette méthode est basé sur la relation directe entre la visibilité des franges d’interférence et la taille de faisceau.Comme l’emittance du faisceau est la donnée d’intérêt pour la performance du LHC, il est aussi important de caractériser avec précision l’optique du LHC à la source du SR. Dans ce but, la méthode “K-modulation” a été utilisée pour la première fois au LHC en IR4. Les β ont été mesurés à l’emplacement de tous les quadrupoles et ont été évalués via deux algorithmes de propagation différents au BSRT et au WS. / Measuring the beam transverse emittance is fundamental in every accelerator, in particular for colliders, where its precise determination is essential to maximize the luminosity and thus the performance of the colliding beams.
 Synchrotron Radiation (SR) is a versatile tool for non-destructive beam diagnostics, since its characteristics are closely related to those of the source beam. At CERN, being the only available diagnostics at high beam intensity and energy, SR monitors are exploited as the proton beam size monitor of the two higher energy machines, the Super Proton Synchrotron (SPS) and the Large Hadron Collider (LHC). The thesis work documented in this report focused on the design, development, characterization and optimization of these beam size monitors. Such studies were based on a comprehensive set of theoretical calculations, numerical simulations and experiments.A powerful simulation tool has been developed combining conventional softwares for SR simulation and optics design, thus allowing the description of an SR monitor from its source up to the detector. 
The simulations were confirmed by direct observations, and a detailed performance studies of the operational SR imaging monitor in the LHC, where different techniques for experimentally validating the system were applied, such as cross-calibrations with the wire scanners at low intensity (that are considered as a reference) and direct comparison with beam sizes de-convoluted from the LHC luminosity measurements.In 2015, the beam sizes to be measured with the further increase of the LHC beam energy to 7 TeV will decrease down to ∼190 μm. In these conditions, the SR imaging technique was found at its limits of applicability since the error on the beam size determination is proportional to the ratio of the system resolution and the measured beam size. Therefore, various solutions were probed to improve the system’s performance such as the choice of one light polarization, the reduction of depth of field effect and the reduction of the imaging wavelength down to 250 nm.In parallel to reducing the diffraction contribution to the resolution broadening, the extraction mirror, found as the main sources of aberrations in the system was redesigned. Its failure was caused by the EM coupling with the beam’s fields that led to overheating and deterioration of the coating. A new system’s geometry featuring a smoother transition in the beam pipe was qualified in terms of longitudinal coupling impedance via the stretched wire technique. A comparison with the older system was carried out and resulted in a reduction of the total power dissipated in the extraction system by at least a factor of four.A new, non-diffraction limited, SR-based monitor based on double slit interferometry was designed as well as an alternative method to the direct imaging. Its principle is based on the direct relation between the interferogram fringes visibility and the beam size.Since the beam emittance is the physical quantity of interest in the performance analysis of the LHC, determining the optical functions at the SR monitors is as relevant as measuring the beam size. The “K-modulation” method for the optical function determination was applied for the first time in the LHC IR4, where most of the profile monitors sit. The βs at the quadrupoles were measured and via two different propagation algorithms the βs at the BSRT and the WS were obtained reducing significantly the uncertainty at the monitors location.
245

Modélisation de la propagation électromagnétique en milieux inhomogènes basée sur les faisceaux gaussiens : application à la propagation en atmosphère réaliste et à la radio-occultation entre satellites / Electromagnetic propagation modeling in inhomogeneous media with refractive index gradients based on Gaussian beams : application to realistic atmospheric propagation and radio occultation between satellites

L'hour, Charles-Antoine 19 April 2017 (has links)
La thèse, dont le sujet est "Modélisation de la propagation électromagnétique en milieux à gradient d'indice basée sur les faisceaux gaussiens - Application à la propagation en atmosphère réaliste et à la radio-occultation entre satellites" a été commencée le 2 décembre 2013, au Département ÉlectroMagnétisme et Radar (DEMR) de l'Onera de Toulouse et avec le laboratoire LAPLACE de l'Université Paul Sabatier. Elle est co-financée par l'ONERA et par la Région Midi-Pyrénées. L'encadrement a été assuré par Jérôme Sokoloff (Laplace/UPS, directeur de thèse), Alexandre Chabory (ENAC, co-directeur) et Vincent Fabbro (ONERA). L'École Doctorale est l' "École Doctorale Génie Électrique, Électronique, Télécommunications : du système au nanosystème". Le faisceau gaussien a été principalement utilisé dans la recherche scientifique afin d'étudier les systèmes optiques tels que les lasers. Des études plus rares et plus récentes ont proposé de l'utiliser pour modéliser la propagation des ondes sismiques. Ses propriétés spatiales et spectrales ont amené certains auteurs à étudier son utilisation dans des modèles de propagation atmosphériques. Cette thèse a consisté à développer un modèle, appelé GBAR (Gaussian Beam for Atmospheric Refraction), de propagation troposphérique réaliste et déterministe en utilisant le formalisme des faisceaux gaussiens. La démarche adoptée a consisté à reprendre les équations fondamentales introduites par Cerveny et Popov décrivant de façon itérative la propagation d'un faisceau gaussien en milieu inhomogène, sous hypothèse de haute fréquence (modèle asymptotique). De nouvelles équations ont été développées à partir d'elles pour obtenir une description analytique de la propagation d'un faisceau gaussien dans un milieu troposphérique décrit par les variations spatiales de l'indice de réfraction. L'hypothèse de base pour l'obtention de la formulation analytique est que le gradient de l'indice de réfraction peut être considéré vertical et constant au voisinage du faisceau. Les équations analytiques pour la description de la propagation d'un seul faisceau ont ensuite été étendues à la modélisation d'un champ quelconque dans un milieu troposphérique pouvant contenir de fortes variations du gradient d'indice, y compris des inversions de gradient. Ceci a été réalisé en couplant les équations analytiques avec la procédure de décomposition multi-faisceaux développée dans sa thèse pas Alexandre Chabory. Le modèle GBAR a été validé dans des milieux troposphériques réalistes issus de simulations du modèle météo méso-échelle WRF (Weather Research and Forecasting). Dans un troisième temps, le modèle a été utilisé pour simuler des inversions de données de radio-occultation. Des outils existent pour fournir un modèle d'interprétation de ces données pour estimer les propriétés physiques de l'atmosphère à partir des mesures en phase, amplitude, Doppler et délai des signaux GNSS transmis entre satellites en orbite autour de la Terre / The subject of this PhD thesis is " Electromagnetic propagation modeling in inhomogeneous media with refractive index gradients based on Gaussian beams - Application to realistic atmospheric propagation and radio occultation between satellites ". The study started on december 2nd, 2013 at the DEMR (Département Électromagnétisme et Radar) department of the ONERA research laboratory, in Toulouse, France. It was funded both by the ONERA and Région Midi-Pyrénées. It was supervised by Jérôme Sokoloff (LAPLACE/UPS, thesis director), Alexandre Chabory (ENAC, thesis co-director) and Vincent Fabbro (ONERA). The doctoral school was "École Doctorale Génie Électrique, Électronique, Télécommunications : du système au nanosystème ". The Gaussian beam was mostly used in scientific investigations to study optical systems such as lasers. Rarer and more recent works suggested the use of the Gaussian beam formalism in order to model the propagation of seismic waves. The properties of the Gaussian beam also led some authors to develop models for atmospheric propagation. In this thesis a model based on Gaussian beams called GBAR (Gaussian Beam for Atmospheric Refraction) was developped for tropospheric propagation in realistic and deterministic conditions. The scientific approach consisted in rewritting the fundamental equations introduced by Cerveny and Popov describing iteratively the propagation of a Gaussian beam in inhomogeneous media, under the high-frequency assumption (asymptotic model). New equations were derived from them in order to get analytical equations of the propagation of a Gaussian beam in inhomogeneous media described by the variations of the refractive index. The basic assumption under to get the analytical equations is to consider that the refractive index gradient is vertical and constant around the beam axis. The analytical equations that describe the propagation of a Gaussian beam were extended to model the propagation of an arbitrary field in a tropospheric medium with strong variations and inversions of the refractive index. This was done by coupling the analytical equations with the multibeam expansion procedure developped by Alexandre Chabory in his PhD thesis. The GBAR model was validated in tropospheric conditions, using refractive index grids from the WRF (Weather Research and Forecasting) mesoscale meteorological model. In the third and final phase, the GBAR model was used to simulate Radio Occultation data inversions. Tools exist to allow for interpretations of Radio Occultation data in order to estimate the physical properties of the atmosphere from measured phased, amplitude, Doppler shift and delay of GNSS signals transmitted between satellites orbiting around the Earth
246

L'ajustement de faisceaux contraint comme cadre d'unification des méthodes de localisation : application à la réalité augmentée sur des objets 3D / Constrained beam adjustment as a framework for unifying location methods : application to augmented reality on 3D objects

Tamaazousti, Mohamed 13 March 2013 (has links)
Les travaux réalisés au cours de cette thèse s’inscrivent dans la problématique de localisation en temps réel d’une caméra par vision monoculaire. Dans la littérature, il existe différentes méthodes qui peuvent être classées en trois catégories. La première catégorie de méthodes considère une caméra évoluant dans un environnement complètement inconnu (SLAM). Cette méthode réalise une reconstruction enligne de primitives observées dans des images d’une séquence vidéo et utilise cette reconstruction pour localiser la caméra. Les deux autres permettent une localisation par rapport à un objet 3D de la scène en s’appuyant sur la connaissance, a priori, d’un modèle de cet objet (suivi basé modèle). L’une utilise uniquement l’information du modèle 3D de l’objet pour localiser la caméra, l’autre peut être considérée comme l’intermédiaire entre le SLAM et le suivi basé modèle. Cette dernière méthode consiste à localiser une caméra par rapport à un objet en utilisant, d’une part, le modèle de ce dernier et d’autre part, une reconstruction en ligne des primitives de l’objet d’intérêt. Cette reconstruction peut être assimilée à une mise à jour du modèle initial (suivi basé modèle avec mise à jour). Chacune de ces méthodes possède des avantages et des inconvénients. Dans le cadre de ces travaux de thèse, nous proposons une solution unifiant l’ensemble de ces méthodes de localisation dans un unique cadre désigné sous le terme de SLAM contraint. Cette solution, qui unifie ces différentes méthodes, permet de tirer profit de leurs avantages tout en limitant leurs inconvénients respectifs. En particulier, nous considérons que la caméra évolue dans un environnement partiellement connu, c’est-à-dire pour lequel un modèle (géométrique ou photométrique) 3D d’un objet statique de la scène est disponible. L’objectif est alors d’estimer de manière précise la pose de la caméra par rapport à cet objet 3D. L’information absolue issue du modèle 3D de l’objet d’intérêt est utilisée pour améliorer la localisation de type SLAM en incluant cette information additionnelle directement dans le processus d’ajustement de faisceaux. Afin de pouvoir gérer un large panel d’objets 3D et de scènes, plusieurs types de contraintes sont proposées dans ce mémoire. Ces différentes contraintes sont regroupées en deux approches. La première permet d’unifier les méthodes SLAM et de suivi basé modèle, en contraignant le déplacement de la caméra via la projection de primitives existantes extraites du modèle 3D dans les images. La seconde unifie les méthodes SLAM et de suivi basé modèle avec mise à jour en contraignant les primitives reconstruites par le SLAM à appartenir à la surface du modèle (unification SLAM et mise à jour du modèle). Les avantages de ces différents ajustements de faisceaux contraints, en terme de précision, de stabilité de recalage et de robustesse aux occultations, sont démontrés sur un grand nombre de données de synthèse et de données réelles. Des applications temps réel de réalité augmentée sont également présentées sur différents types d’objets 3D. Ces travaux ont fait l’objet de 4 publications internationales, de 2 publications nationales et d’un dépôt de brevet. / This thesis tackles the problem of real time location of a monocular camera. In the literature, there are different methods which can be classified into three categories. The first category considers a camera moving in a completely unknown environment (SLAM). This method performs an online reconstruction of the observed primitives in the images and uses this reconstruction to estimate the location of the camera. The two other categories of methods estimate the location of the camera with respect to a 3D object in the scene. The estimation is based on an a priori knowledge of a model of the object (Model-based). One of these two methods uses only the information of the 3D model of the object to locate the camera. The other method may be considered as an intermediary between the SLAM and Model-based approaches. It consists in locating the camera with respect to the object of interest by using, on one hand the 3D model of this object, and on the other hand an online reconstruction of the primitives of the latter. This last online reconstruction can be regarded as an update of the initial 3D model (Model-based with update). Each of these methods has advantages and disadvantages. In the context of this thesis, we propose a solution in order to unify all these localization methods in a single framework referred to as the constrained SLAM, by taking parts of their benefits and limiting their disadvantages. We, particularly, consider that the camera moves in a partially known environment, i.e. for which a 3D model (geometric or photometric) of a static object in the scene is available. The objective is then to accurately estimate the pose (position and orientation) of the camera with respect to this object. The absolute information provided by the 3D model of the object is used to improve the localization of the SLAM by directly including this additional information in the bundle adjustment process. In order to manage a wide range of 3D objets and scenes, various types of constraints are proposed in this study and grouped into two approaches. The first one allows to unify the SLAM and Model-based methods by constraining the trajectory of the camera through the projection, in the images, of the 3D primitives extracted from the model. The second one unifies the SLAM and Model-based with update methods, by constraining the reconstructed 3D primitives of the object to belong to the surface of the model (unification SLAM and model update). The benefits of the constrained bundle adjustment framework in terms of accuracy, stability, robustness to occlusions, are demonstrated on synthetic and real data. Real time applications of augmented reality are also presented on different types of 3D objects. This work has been the subject of four international publications, two national publications and one patent.
247

Optimisation convexe non-différentiable et méthodes de décomposition en recherche opérationnelle / Convex nonsmooth optimization and decomposition methods in operations research

Zaourar, Sofia 04 November 2014 (has links)
Les méthodes de décomposition sont une application du concept de diviser pour régner en optimisation. L'idée est de décomposer un problème d'optimisation donné en une séquence de sous-problèmes plus faciles à résoudre. Bien que ces méthodes soient les meilleures pour un grand nombre de problèmes de recherche opérationnelle, leur application à des problèmes réels de grande taille présente encore de nombreux défis. Cette thèse propose des améliorations méthodologiques et algorithmiques de méthodes de décomposition. Notre approche est basée sur l'analyse convexe et l'optimisation non-différentiable. Dans la décomposition par les contraintes (ou relaxation lagrangienne) du problème de planification de production électrique, même les sous-problèmes sont trop difficiles pour être résolus exactement. Mais des solutions approchées résultent en des prix instables et chahutés. Nous présentons un moyen simple d'améliorer la structure des prix en pénalisant leurs oscillations, en utilisant en particulier une régularisation par variation totale. La consistance de notre approche est illustrée sur des problèmes d'EDF. Nous considérons ensuite la décomposition par les variables (ou de Benders) qui peut avoir une convergence excessivement lente. Avec un point de vue d'optimisation non-différentiable, nous nous concentrons sur l'instabilité de l'algorithme de plans sécants sous-jacent à la méthode. Nous proposons une stabilisation quadratique de l'algorithme de Benders, inspirée par les méthodes de faisceaux en optimisation convexe. L'accélération résultant de cette stabilisation est illustrée sur des problèmes de conception de réseau et de localisation de plates-formes de correspondance (hubs). Nous nous intéressons aussi plus généralement aux problèmes d'optimisation convexe non-différentiable dont l'objectif est coûteux à évaluer. C'est en particulier une situation courante dans les procédures de décomposition. Nous montrons qu'il existe souvent des informations supplémentaires sur le problème, faciles à obtenir mais avec une précision inconnue, qui ne sont pas utilisées dans les algorithmes. Nous proposons un moyen d'incorporer ces informations incontrôlées dans des méthodes classiques d'optimisation convexe non-différentiable. Cette approche est appliquée avec succès à desproblèmes d'optimisation stochastique. Finalement, nous introduisons une stratégie de décomposition pour un problème de réaffectation de machines. Cette décomposition mène à une nouvelle variante de problèmes de conditionnement vectoriel (vectorbin packing) où les boîtes sont de taille variable. Nous proposons des heuristiques efficaces pour ce problème, qui améliorent les résultats de l'état de l'art du conditionnement vectoriel. Une adaptation de ces heuristiques permet de construire des solutions réalisables au problème de réaffectation de machines de Google. / Decomposition methods are an application of the divide and conquer principle to large-scale optimization. Their idea is to decompose a given optimization problem into a sequence of easier subproblems. Although successful for many applications, these methods still present challenges. In this thesis, we propose methodological and algorithmic improvements of decomposition methods and illustrate them on several operations research problems. Our approach heavily relies on convex analysis and nonsmooth optimization. In constraint decomposition (or Lagrangian relaxation) applied to short-term electricity generation management, even the subproblems are too difficult to solve exactly. When solved approximately though, the obtained prices show an unstable noisy behaviour. We present a simple way to improve the structure of the prices by penalizing their noisy behaviour, in particular using a total variation regularization. We illustrate the consistency of our regularization on real-life problems from EDF. We then consider variable decomposition (or Benders decomposition), that can have a very slow convergence. With a nonsmooth optimization point of view on this method, we address the instability of Benders cutting-planes algorithm. We present an algorithmic stabilization inspired by bundle methods for convex optimization. The acceleration provided by this stabilization is illustrated on network design andhub location problems. We also study more general convex nonsmooth problems whose objective function is expensive to evaluate. This situation typically arises in decomposition methods. We show that it often exists extra information about the problem, cheap but with unknown accuracy, that is not used by the algorithms. We propose a way to incorporate this coarseinformation into classical nonsmooth optimization algorithms and apply it successfully to two-stage stochastic problems.Finally, we introduce a decomposition strategy for the machine reassignment problem. This decomposition leads to a new variant of vector bin packing problems, where the bins have variable sizes. We propose fast and efficient heuristics for this problem that improve on state of the art results of vector bin packing problems. An adaptation of these heuristics is also able to generate feasible solutions for Google instances of the machine reassignment problem.
248

Prolongement de faisceaux inversibles

Pepin, Cédric 30 June 2011 (has links)
Soit R un anneau de valuation discrète de corps de fractions K. Soit X_K un K- schéma propre géométriquement normal. On montre que X_K possède des modèles X sur R, propres, plats, normaux et tels que tout faisceau inversible sur X_K se prolonge en un faisceau inversible sur X. On peut alors reconstruire le modèle de Néron de la variété de Picard de X_K, à partir du foncteur de Picard de X/R.Lorsque R est hensélien à corps résiduel algébriquement clos, on en tire des informations sur le prolongement de l’équivalence algébrique de X_K à X. En particulier, on peut décrire le symbole de Néron entre 0-cycles de degré zéro et diviseurs algébriquement équivalents à zéro sur X_K, en termes de multiplicités d’intersection sur le modèle X. Ceci nous permet de reformuler la conjecture de dualité de Grothendieck pour les modèles de Néron des variétés abéliennes, en termes d’équivalence algébrique relative. / Let R be a discrete valuation ring with fraction field K. Let X_K be proper geometrically normal scheme over K. One shows that X_K admits models X over R which are proper, flat, normal an such that any invertible sheaf on X_K can be extended to an invertible sheaf on X. Then, one can recover the Néron model of the Picard variety of X_K from the Picard functor of X/R.When R is henselian with algebraically closed residue field, one obtains some consequences about the extension of algebraic equivalence from X_K to X. In particular, one can describe the Néron symbol between 0-cycles of degree zero and divisors which are algebraically equivalent to zero on X_K, in terms of intersection multiplicities on the model X. This allows us to reformulate Grothendieck’s duality conjecture for Néron models of abelian varieties, in terms of relative algebraic equivalence.
249

Simulation de l'imagerie en lumière polarisée : Application à l'étude de l'architecture des "fibres" du myocarde humain / Simulation of the polarized light imaging : To investigate the architecture of "fiber" of the human myocardium

Desrosiers, Paul Audain 21 May 2014 (has links)
La plupart des maladies cardio-vasculaires sont étroitement liées à l’architecture 3D des faisceaux de cardiomyocytes du myocarde humain. Connaitre en détail cette architecture permet de lever un verrou scientifique sur l’organisation spatiale complexe des faisceaux de cardiomyocytes, et offre des pistes pour trouver des solutions pertinentes permettant de guérir ces maladies. A cause de la nature biréfringente des filaments de myosine qui se trouvent dans les cellules cardiomyocyte, l’Imagerie en Lumière Polarisée (ILP) se révèle comme la seule méthode existante permettant d’étudier en détail, l’architecture et l’orientation des faisceaux de cardiomyocytes au sein de la masse ventriculaire. Les filaments de myosine se comportent comme des cristaux uni-axiaux biréfringents, ce qui permet de les modéliser comme les cristaux uni-axiaux biréfringents. L’ILP exploite les propriétés vibratoires de la lumière car l’interaction photonique et atomique entre la lumière et la matière permet de révéler l’organisation structurelle et l’orientation 3D des cardiomyocytes. Le présent travail se base sur la modélisation des différents comportements de la lumière après avoir traversé des faisceaux de cardiomyocytes. Ainsi, un volume 100×100×500 µm3 a été décomposé en plusieurs éléments cubiques qui représentent l'équivalent de l'intersection des cellules de diamètre de 20 µm chacune. Le volume a été étudié dans différentes conditions imitant l’organisation 3D des cardiomyocytes dans différentes régions du myocarde. Les résultats montrent que le comportement du volume change suivant l’arrangement spatial des cardiomyocytes à l’intérieur du volume. Grâce à un modèle analytique développé à l’aide des simulations, il a été possible de connaitre en tout point, l’orientation 3D des cardiomyocytes dans tout le volume. Ce modèle a été implémenté dans un greffon logiciel. Puis, il a été validé avec les piliers des valves auriculo-ventriculaire en comparant les courbes obtenues en simulation numérique à celles obtenues dans la phase expérimentale. De plus, il a été possible de mesurer l’orientation 3D des faisceaux de cardiomyocytes à l’intérieur du pilier. Après cette validation, le modèle a été utilisé sur un cœur humain (sain) en entier. Puis, nous avons extrait les cartographies des orientations 3D (angle azimut, angle d’élévation) des cardiomyocytes, ainsi que la cartographie des niveaux d’homogénéité du myocarde en entier. Pour une confrontation qualitative des mesures de l’orientation 3D obtenues en ILP avec celles en IRM, un cœur humain sain d’un enfant de 14 mois a été prélevé lors de l’autopsie, fixé dans du formol, puis imagé en entier par IRM puis en ILP. Malgré la faible résolution des images en IRM, les résultats obtenus montrent que les mesures de l’orientation 3D des cardiomyocytes issues de ces deux méthodes d’imageries se révèlent quasiment identiques. / Most cardiovascular diseases are closely linked to the 3D cardiomyocytes bundles of the human myocardium. Knowing in detail this architecture allows us to overcome a scientific bottleneck on the complex spatial organization of cardiomyocytes, and offers ways to find appropriate solutions to treat these diseases. The goal of present thesis is then to develop methods and techniques that allow gaining insights into the geometric arrangement of cardiomyocytes or cardiomyocytes bundles in the myocardium. Due to the birefringent nature of myosin filaments that are found in myocardial cells, the Polarized Light Imaging (PLI) appears as the only existing method for studying in detail the architecture and cardiomyocytes bundle orientation in ventricular mass. Myosin filaments react as uniaxial birefringent crystal; thereby it has been modeled as the uniaxial birefringent crystal. The PLI uses the vibration properties of light; the photonic and atomic interaction between light and matter can reveal the structural organization and the 3D cardiomyocytes orientation of the myocardium. The present work is based on modeling the behavior of the light after passing through a cardiomyocytes bundle. Thus, a volume 100 × 100 × 500 μm3 has been decomposed in a number of cubic elements which are equivalent to cardiac cells of diameter of 20 microns. The volume was studied under different conditions to emulate the organization of cardiomyocytes in different regions in human myocardium: isotropic region, heterogeneous region, region with cardiomyocytes bundle crossing. The results showed that the behavior of the volume changes according to the spatial arrangement of cardiomyocytes within the volume. Through an analytical model developed using simulation, it has been possible to know the 3D orientation of cardiomyocytes at any region throughout the volume. This model has been implemented in software as a plugin. Then, it has been validated with the pillars of atrio-ventricular valves by comparing the curves obtained by numerical simulation with those obtained in the experimental phases. Moreover, it has been possible to measure the 3D orientation of cardiomyocytes bundles within the pillars. After validation, the model was applied to an entire human healthy heart. Then, we extracted the mapping of the 3D orientations (azimuth angle, elevation angle) of cardiomyocytes bundles, as well as the mapping of the homogeneity levels of the entire myocardium. For a qualitative comparison of the 3D orientation measurements obtained with the PLI and Magnetic Resonance Imaging (MRI), the healthy human heart of a 14 month old child was extracted at autopsy, then fixed in formalin, and finally imaged by MRI and PLI. Despite the low spatial resolution of MRI images, the results showed that the 3D orientations of cardiomyocytes bundles measured from these two imaging methods appeared almost identical.
250

Localisation d'objets 3D industriels à l'aide d'un algorithme de SLAM contraint au modèle / Localization of industtrial 3D objects using model-constrained SLAM

Loesch, Angélique 01 December 2017 (has links)
Un besoin applicatif existe en terme de localisation 3D d’objets par vision. Cette technologie devient en effet de plus en plus populaire dans le milieu industriel où elle peut être utile lors de contrôle qualité, de robotisation de tâches ou encore d’aide à la maintenance par Réalité Augmentée. Néanmoins, le déploiement de telles applications est actuellement limité en raison de la difficulté à allier qualité de localisation, facilité de mise en oeuvre et généricité de la solution. En effet, la majorité des solutions implique : soit des étapes de mise en oeuvre complexes comme avec l’installation de capteurs de mouvement ou une préparation supervisée du modèle CAO; soit un manque de précision de la localisation dans le cadre de certaines applications nécessitant de prendre en compte des mouvements de fortes amplitudes de la caméra (provoquant du flou de bouger et des tremblements dans le flux vidéo) ainsi que des occultations partielles ou totales de l’objet ; soit enfin une restriction sur la nature de l’objet, celui-ci devant être texturé, de petite taille ou encore polyédrique pour avoir une bonne localisation. La plupart des solutions de localisation existantes correspondent à des approches de suivi basé modèle. Cette méthode consiste à estimer la pose relative entre la caméra et l’objet d’intérêt par mises en correspondance de primitives 3D extraites du modèle avec des primitives 2D extraites d’images d’un flux vidéo. Pour autant, cette approche atteint ses limites lorsque l’objet est difficilement observable dans l’image.Afin d’améliorer la localisation lorsque l’application concerne un objet fixe, de récentes solutions se sont appuyées en complément des primitives du modèle, sur des primitives de l’environnement reconstruites au cours du processus de localisation. Ces approches combinent algorithmes de SLAM (Simultaneous Localization And Mapping) et de suivi d’objet basé contours en utilisant les informations du modèle comme contrainte dans le processus d’optimisation du SLAM. Pour cela, un terme d’erreur est ajouté à la fonction de coût classique.Celui-ci mesure l’erreur de re-projection entre des primitives 3D issues des arêtes franches du modèle et les points de contour 2D dans l’image qui leur sont associés. L’ajout de cette contrainte permet d’exprimer la localisation du SLAM dans le repère de l’objet d’intérêt tout en réduisant sa dérive. Les solutions de SLAM contraint au modèle n’exploitant cependant que les contours francs du modèle, ne sont pas génériques et ne permettent de localiser que des objets polyédriques. De plus, l’ajout de cette contrainte entraîne une forte augmentation de la consommation mémoire, les images de contours nécessaires à l’étape de mise en correspondance devant être conservées.Les travaux présentés dans ce mémoire de thèse visent à fournir une solution répondant simultanément à l’ensemble des besoins concernant la facilité de déploiement, la qualité de localisation et la généricité sur la nature des objets suivis. Aussi, notre solution basée sur un algorithme de SLAM visuel contraint basé images clés, se restreint-elle au seul usage d’une caméra couleur, les caméras RGBD impliquant généralement une limite sur le volume, la nature réflective ou absorbante de l’objet, et sur la luminosité de son environnement. Cette étude est en outre restreinte à la seule exploitation de modèles 3D géométrique non texturés, les textures pouvant difficilement être considérées comme stables dans le temps (usure, taches...) et pouvant varier pour un même objet manufacturé. De plus, les modèles à base de nuages de descripteurs locaux ou les modèles surfaciques texturés sont actuellement des données peu disponibles dans l’industrie. Enfin, nous faisons le choix d’estimer la pose de la caméra de manière géométrique et non par apprentissage. Le suivi d’objets à l’aide d’apprentissage automatique est en effet encore difficilement exploitable en milieu industriel. (...) / In the industry domain, applications such as quality control, automation of complex tasks or maintenance support with Augmented Reality (AR) could greatly benefit from visual tracking of 3D objects. However, this technology is under-exploited due to the difficulty of providing deployment easiness, localization quality and genericity simultaneously. Most existing solutions indeed involve a complex or an expensive deployment of motion capture sensors, or require human supervision to simplify the 3D model. And finally, most tracking solutions are restricted to textured or polyhedral objects to achieved an accurate camera pose estimation.Tracking any object is a challenging task due to the large variety of object forms and appearances. Industrial objects may indeed have sharp edges, or occluding contours that correspond to non-static and view-point dependent edges. They may also be textured or textureless. Moreover, some applications require to take large amplitude motions as well as object occlusions into account, tasks that are not always dealt with common model-based tracking methods. These approaches indeed exploit 3D features extracted from a model, that are matched with 2D features in the image of a video-stream. However the accuracy and robustness of the camera localization depend on the visibility of the object as well as on the motion of the camera. To better constrain the localization when the object is static, recent solutions rely on environment features that are reconstructed online, in addition to the model ones. These approaches combine SLAM (Simultaneous Localization And Mapping) and model-based tracking solutions by using constraints from the 3D model of the object of interest. Constraining SLAM algorithms with a 3D model results in a drift free localization. However, such approaches are not generic since they are only adapted for textured or polyhedral objects. Furthermore, using the 3D model to constrain the optimization process may generate high memory consumption,and limit the optimization to a temporal window of few cameras. In this thesis, we propose a solution that fulfills the requirements concerning deployment easiness, localization quality and genericity. This solution, based on a visual key-frame-based constrained SLAM, only exploits an RGB camera and a geometric CAD model of the static object of interest. An RGB camera is indeed preferred over an RGBD sensor, since the latter imposes limits on the volume, the reflectiveness or the absorptiveness of the object, and the lighting conditions. A geometric CAD model is also preferred over a textured model since textures may hardly be considered as stable in time (deterioration, marks,...) and may vary for one manufactured object. Furthermore, textured CAD models are currently not widely spread. Contrarily to previous methods, the presented approach deals with polyhedral and curved objects by extracting dynamically 3D contour points from a model rendered on GPU. This extraction is integrated as a structure constraint into the constrained bundle adjustment of a SLAM algorithm. Moreover we propose different formalisms of this constraint to reduce the memory consumption of the optimization process. These formalisms correspond to hybrid structure/trajectory constraints, that uses output camera poses of a model-based tracker. These formalisms take into account the structure information given by the 3D model while relying on the formalism of trajectory constraints. The proposed solution is real-time, accurate and robust to occlusion or sudden motion. It has been evaluated on synthetic and real sequences of different kind of objects. The results show that the accuracy achieved on the camera trajectory is sufficient to ensure a solution perfectly adapted for high-quality Augmented Reality experiences for the industry.

Page generated in 0.0362 seconds