Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
141 |
Reconstruction 3D de bâtiments en interférométrie RSO haute résolution: approche par gestion d'hypothèsesCellier, François 01 1900 (has links) (PDF)
Cette thèse présente une méthode de reconstruction 3D de bâtiments à empreinte à angles droits et à toit plat par morceaux, à partir d'images interférométriques RSO (RADAR à synthèse d'ouverture) haute résolution en bande X provenant du capteur RAMSES (ONERA). De part l'acquisition en visée latérale et la nature électromagnétique de l'onde RADAR, les images RSO sont très différentes des images optiques et difficilement interprétables. C'est pourquoi, une analyse géométrique et phénoménologique des images RSO est tout d'abord effectuée. Cette analyse permet de comprendre l'origine des primitives utilisées lors de la reconstruction. Pour réduire le chatoiement, les images RSO sont tout d'abord filtrées. Le filtre non paramétrique mean shift est introduit en imagerie RSO et étendu à l'image de cohérence. L'extraction des primitives est ensuite effectuée grâce à des algorithmes basés sur la transformée de Hough. La méthode de reconstruction utilise la gestion d'hypothèses car l'ensemble des primitives extraites ne suffit généralement pas à décrire le bâtiment complètement. Pour cela le bâtiment est décomposé de façon hiérarchique par un ensemble d'éléments (façade, toit etc.). La gestion d'hypothèses permet de générer l'ensemble des hypothèses de bâtiments à partir des primitives extraites. Ensuite, les hypothèses générées sont validées ou rejetées par la détection des incompatibilités géométriques et interférométriques. Enfin, un classement des hypothèses validées est effectué. En perspective, les contributions apportées dans cette thèse sont mises en avant en montrant leur adaptabilité à d'autres données (polarimétrie, meilleure résolution).
|
142 |
Développement de composants d'interféromètres de nulling pour la détection et la caractérisation de planètes extra-solairesHanot, Charles 26 April 2011 (has links) (PDF)
La majorité des 500 exoplanètes détectées à l'heure actuelle ont été découvertes soit par vélocimétrie radiale, soit par photométrie de transits. L'imagerie directe de planètes extra-solaires peut cependant donner accès à une multitude d'informations nouvelles telles que leur position orbitale et leur spectre. Toutefois, de telles images sont difficiles à obtenir à cause de la faible séparation angulaire et du grand rapport de flux entre les planètes et leur étoile hôte. Pour ces deux raisons, l'imagerie directe d'exoplanètes s'est limitée jusqu'à aujourd'hui à des cas favorables de planètes géantes très lumineuses orbitant loin de leur étoile. Le présent travail vise à développer les capacités d'imagerie à haute dynamique avec un ou plusieurs télescopes pour la détection et la caractérisation de systèmes planétaires. Dans la première partie de ce manuscrit, nous étudions l'utilisation de télescopes terrestres assistés par l'optique adaptative pour la détection de planètes extra-solaires ainsi que de leur complémentarité avec les instruments spatiaux. Des résultats obtenus avec la Well-Corrected Subaperture du Mt. Palomar sur des systèmes multiples serrés sont présentés pour illustrer cette étude. La seconde partie de ce travail est dédiée à l'interférométrie stellaire et annulante. Tout d'abord, nous présentons une nouvelle technique de réduction de données pour l'interférométrie utilisant les distributions statistiques d'intentsité et de contraste afin d'améliorer de manière significative la précision des mesures interférométriques. Cette méthode est ensuite appliquée au Palomar Fiber Nuller afin de contraindre la présence de poussières et de compagnons dans l'environnement stellaire direct de Vega, et de mesurer plusieurs diamètres angulaires d'étoiles avec une très haute précision. Enfin, nous introduisons un relevé que nous menons actuellement avec l'instrument interférométrique AMBER au Very Large Telescope (Paranal, Chili) visant à détecter des compagnons sub-stellaires autour d'étoiles jeunes.
|
143 |
Contribution à l'étude expérimentale et numérique de coronographes stellaires : instrument VLT-SPHERE et 1er coronographe au Dôme CGuerri, Géraldine 06 June 2008 (has links) (PDF)
Depuis 1995, et la confirmation de la détection de la première planète extrasolaire, la détection directe et la caractérisation spectrale d'une exoplanète sont devenues l'un des challenges astronomiques actuels. Cependant, le fort contraste existant entre l'étoile et la planète, 10^9 dans le visible et 10^6 dans l'infrarouge thermique dans le cas d'une exoTerre ou d'une exoJupiter ainsi que la faible séparation entre les deux objets rendent cette détection directe difficile et requièrent des techniques et des instruments à la pointe de la technologie. Une solution à cette problématique est la coronographie. D'une manière générale, un coronographe est un instrument dont l'objectif est d'atténuer le flux de l'étoile centrale en diminuant la diffraction instrumentale J'ai étudié deux différents types de coronographes dans deux contextes totalement différents. J'ai tout d'abord étudié le coronographe de Lyot apodisé (ALC) destiné à l'instrument SPHERE (Spectro Polarimetric High contrast Exoplanet REsearch), instrument de seconde génération du VLT (Very Large Telescope) dédié à l'imagerie d'exoJupiter et dont la première lumière est prévue pour 2010. Je présente les différentes études relatives au développement de ce système coronographique menées lors de la post-phase A et la phase B de ce projet. Je me suis intéressé tout d'abord au composant novateur et important du coronographe de Lyot apodisé à savoir l'apodiseur, et, plus particulièrement, j'ai étudié par le calcul le chromatisme des propriétés optiques d'un apodiseur fabriqué par dépôt métallique d'un alliage d'Inconel sur un substrat de verre. Puis, afin de valider expérimentalement le concept et les procédés de fabrication retenus, j'ai ensuite caractérisé en laboratoire un premier prototype de coronographe de Lyot apodisé à 3λ/D sur le banc d'imagerie visible à très haute dynamique du laboratoire. J'ai ensuite participé aux études numériques de dimensionnement du prototype de l'ALC infrarouge susceptible d'être installé sur l'instrument. Je termine cette partie par la présentation des tests en laboratoire du prototype d'ALC infrarouge pour SPHERE, tests qui ont été réalisés sur le banc coronographique infrarouge du LESIA à l'Observatoire de Paris-Meudon. Le deuxième volet de ce manuscrit nous envoie dans un autre endroit particulier sur Terre sur un continent où les conditions atmosphériques sont quasi-spatiales : la station Concordia sur le plateau du Dôme C en Antarctique. C'est ici qu'a été implanté en décembre 2005, CORONA, le premier coronographe stellaire antarctique à couteaux de phase. Après une description de l'instrument et de ses motivations, je présente les tests en laboratoire du coronographe puis les résultats de la première lumière de l'instrument lors de la campagne d'été 2005 au Dôme C.
|
144 |
Complexité des représentations des systèmes de polynômes : triangulation, méthodes modulaires, évaluation dynamique.Dahan, Xavier 24 November 2006 (has links) (PDF)
Les systèmes polynomiaux sous forme triangulaire, notamment les chaînes régulières et en particulier les ensembles triangulaires (de Lazard), sont des structures de données simples, permettant d'envisager des calculs modulaires (par spécialisation des coefficients, puis remontée via un opérateur de Newton-Hensel), de "résoudre'' les systèmes de polynômes (méthodes de "triangulations'') et de représenter des tours d'extensions de corps pour calculer avec les nombres algébriques. Dans ces trois domaines, les méthodes et résultats nouveaux apportés, notamment sur le plan de la complexité, étendent le champs d'application des ensembles triangulaires, et leur impact face à d'autres méthodes de manipulation des équations polynomiales, surtout les bases de Gröbner. Tout d'abord la complexité en espace des coefficients n'est qu'en croissance quadratique en fonction de données géometriques naturelles. Conséquence directe en est un opérateur de Newton (triangulaire) requérant moins d'étapes de remontée, et donc des méthodes modulaires plus encourageantes. Il en est ainsi pour la décomposition équiprojetable, premier algorithme de triangulation des systèmes basé sur une méthode modulaire, et pour le problème du changement d'ordres monomiaux en dimension positive, dans des cas assez particuliers toutefois pour une première approche. Par ailleurs, calculer modulo un ensemble triangulaire en suivant le modèle de l'évaluation dynamique, se voit doté, 20 ans après sa création, d'un premier résultat de complexité satisfaisant.
|
145 |
DEBATS ET CONFLITS LORS DE L'ELABORATION DU BUDGETNguyen Tan Hon, Véronique 08 September 2008 (has links) (PDF)
Dans cette recherche, nous avons cherché à étudier les phénomènes de débats et de conflits lors de l'élaboration du budget de manière qualitative et quantitative, afin d'enrichir la littérature sur les conditions propices à la performance du processus budgétaire et sur la valeur des conflits pour la performance organisationnelle. Les instruments de mesure élaborés, les relations testées, les verbatim recueillis permettent de conclure que la performance du processus budgétaire est davantage influencée par les facteurs favorables à la résolution constructive des oppositions (vision commune, but supérieur commun, volonté de coopérer, croyance en la possibilité de résolution), tels qu'ils sont proposés par la littérature sur le conflit, que par le niveau intrinsèque de débat ou de conflit. Au niveau des retombées pratiques de la thèse, il paraît donc peu souhaitable, pour les managers, d'avoir des débats ou même des conflits s'ils ne se sont assurés, au préalable, que les facteurs de cohésion, favorables à la résolution constructive des oppositions sont réunis. Contrairement à la vision hiérarchique du processus budgétaire, nos résultats indiquent aussi que les débats entre pairs ou les conflits entre pairs sont les interactions les plus efficaces pour élaborer le budget. Notre travail met ainsi en évidence l'importance des facteurs informels de cohésion ainsi que le savoir-faire managérial dans l'animation d'équipe pour remédier à certaines limites des outils formels de contrôle, en particulier du budget, tels qu'ils ont pu être relevés dans la littérature.
|
146 |
Genetic Algorithm Applied to Generalized Cell Formation Problems / Les algorthmes génétiques appliqués aux problèmes de formation de cellules de production avec routages et processes alternatifsVin, Emmanuelle 19 March 2010 (has links)
The objective of the cellular manufacturing is to simplify the management of the
manufacturing industries. In regrouping the production of different parts into clusters,
the management of the manufacturing is reduced to manage different small
entities. One of the most important problems in the cellular manufacturing is the
design of these entities called cells. These cells represent a cluster of machines that
can be dedicated to the production of one or several parts. The ideal design of a
cellular manufacturing is to make these cells totally independent from one another,
i.e. that each part is dedicated to only one cell (i.e. if it can be achieved completely
inside this cell). The reality is a little more complex. Once the cells are created,
there exists still some traffic between them. This traffic corresponds to a transfer of
a part between two machines belonging to different cells. The final objective is to
reduce this traffic between the cells (called inter-cellular traffic).
Different methods exist to produce these cells and dedicated them to parts. To
create independent cells, the choice can be done between different ways to produce
each part. Two interdependent problems must be solved:
• the allocation of each operation on a machine: each part is defined by one or
several sequences of operations and each of them can be achieved by a set of
machines. A final sequence of machines must be chosen to produce each part.
• the grouping of each machine in cells producing traffic inside and outside the
cells.
In function of the solution to the first problem, different clusters will be created to
minimise the inter-cellular traffic.
In this thesis, an original method based on the grouping genetic algorithm (Gga)
is proposed to solve simultaneously these two interdependent problems. The efficiency
of the method is highlighted compared to the methods based on two integrated algorithms
or heuristics. Indeed, to form these cells of machines with the allocation
of operations on the machines, the used methods permitting to solve large scale
problems are generally composed by two nested algorithms. The main one calls the
secondary one to complete the first part of the solution. The application domain goes
beyond the manufacturing industry and can for example be applied to the design of
the electronic systems as explained in the future research.
|
147 |
Resolution improvement in fluorescence and phase optical microscopyMudry, Emeric 25 September 2012 (has links) (PDF)
La microscopie optique est une technique essentielle pour de nombreuses disciplines des sciences expérimentales qui nécessitent des résolutions sans cesse plus petites. Dans ce travail de thèse sont présentés plusieurs travaux pour l'amélioration de la résolution en microscopie de fluorescence et en microscopie tomographique par diffraction (MTD), une récente technique de microscopie de phase. Dans un premier temps, il est montré que déposer l'échantillon sur un miroir permet d'augmenter la résolution axiale en MTD et en microscopie confocale de fluorescence. En microscopie confocale, il faut pour cela mettre en forme le faisceau incident grâce à un modulateur spatial de lumière. En MTD, il suffit d'adapter le programme de reconstruction. La deuxième partie présente des algorithmes pour reconstruire des images haute résolution à partir de mesures en éclairement structuré avec de champs d'illumination inconnus, à la fois en microscopie de fluorescence (algorithme blind-SIM) et en MTD. En microscopie de fluorescence, ces algorithmes permettent de simplifier drastiquement les montages expérimentaux produisant l'éclairement structuré et en MTD, d'obtenir des images d'échantillons à fort indice.
|
148 |
Localisation de sources par méthodes à haute résolution et par analyse parcimonieuseMa, Hua 24 June 2011 (has links) (PDF)
Cette thèse a pour but d'estimer la position et la puissance de sources sonores ponctuelles à l'aide d'une antenne acoustique. Nous nous intéressons d'abord à la directivité des antennes acoustiques pondérées. On montre qu'une telle antenne, appelée antenne conventionnelle, même si elle est à directivité optimale, est inutilisable pour localiser plusieurs sources sonores. Des traitements adaptatifs d'antenne sont donc exigés et les méthodes dites à haute résolution sont introduites. Elles sont basées sur l'estimation de la matrice de covariance des signaux issus des capteurs et présentent l'avantage de s'affranchir des limitations naturelles du traitement d'antenne conventionnel. Cependant, ces méthodes nécessitent l'emploi d'un modèle de propagation et sont donc par nature peu robustes aux erreurs de modèle, ce qui peut être parfois un handicap et dégrader leurs performances. Par la suite, nous présentons une nouvelle méthode de séparation des sources utilisant une représentation parcimonieuse des signaux. Nous montrons que ses performances sont meilleures que celles obtenues par les méthodes à haute résolution et notre algorithme parvient à une bonne résolution spatiale, même sous des conditions défavorables. Cette méthode est appliquée aux sources corrélées et décorrélées, à bande étroite et à large bande, en champ proche et en champ lointain. Pour finir, nous présentons des méthodes pour estimer la puissance des sources sonores. Des simulations numériques et des expérimentations en chambre anéchoïque sont effectuées afin de vérifier et de valider les analyses et les résultats théoriques
|
149 |
Développement d'un banc de thermographie infrarouge pour l'analyse in-situ de la fiabilité des microsystèmesFillit, Chrystelle 15 February 2011 (has links) (PDF)
Au cours des dernières années, l'essor spectaculaire des microsystèmes (ou MEMS), qui touche tous les domaines industriels, est à l'origine de nombreux et nouveaux progrès technologiques. Néanmoins, dans ce contexte prometteur de large envergure, la fiabilité des MEMS s'avère être la problématique à améliorer pour franchir la phase d'industrialisation à grande échelle. C'est dans le cadre de cette thématique de fiabilité des microsystèmes, que s'inscrit ce travail.La température étant un paramètre majeur entrant dans de nombreux mécanismes d'endommagement des MEMS, notre étude présente la conception et la réalisation d'un banc de thermographie infrarouge de haute résolution (2 µm), associé à la mise en œuvre d'une méthodologie d'analyse et de traitement des mesures infrarouges.Ce dispositif innovant permet un diagnostic in-situ, sans contact et rapide des défaillances des MEMS par mesures locales et quantitatives des pertes thermiques associées. Cet outil constitue une avancée importante pour détecter, mesurer et comprendre les mécanismes d'endommagement des MEMS. Il nous permet de reconstituer des images thermiques de tout type de microsystème en cours de fonctionnement ou soumis à des tests de vieillissement accéléré, et ceci afin de réaliser une analyse fine et rapide de leur fiabilité.Ce travail apporte de nouveaux résultats en ce qui concerne la détection des mécanismes de défaillance de différents types de MEMS-RF et tout particulièrement des MEMS-RF avec contact électrique.
|
150 |
Algorithmes d'Ensemble Actif pour le LASSOLoth, Manuel 08 July 2011 (has links) (PDF)
Cette thèse aborde le calcul de l'opérateur LASSO (Least Absolute Shrinkage and Selection Operator), ainsi que des problématiques qui lui sont associées, dans le domaine de la régression. Cet opérateur a suscité une attention croissante depuis son introduction par Robert Tibshirani en 1996, par sa capacité à produire ou identi fier des modèles linéaires parcimonieux à partir d'observations bruitées, la parcimonie signi fiant que seules quelques unes parmi de nombreuses variables explicatives apparaissent dans le modèle proposé. Cette sélection est produite par l'ajout à la méthode des moindres-carrés d'une contrainte ou pénalisation sur la somme des valeurs absolues des coe fficients linéaires, également appelée norme l1 du vecteur de coeffi cients. Après un rappel des motivations, principes et problématiques de la régression, des estimateurs linéaires, de la méthode des moindres-carrés, de la sélection de modèle et de la régularisation, les deux formulations équivalentes du LASSO contrainte ou régularisée sont présentées; elles dé finissent toutes deux un problème de calcul non trivial pour associer un estimateur à un ensemble d'observations et un paramètre de sélection. Un bref historique des algorithmes résolvant ce problème est dressé, et les deux approches permettant de gérer la non-di fferentiabilité de la norme l1 sont présentées, ainsi que l'équivalence de ces problèmes avec un programme quadratique. La seconde partie se concentre sur l'aspect pratique des algorithmes de résolution du LASSO. L'un d'eux, proposé par Michael Osborne en 2000, est reformulé. Cette reformulation consiste à donner une défi nition et explication générales de la méthode d'ensemble actif, qui généralise l'algorithme du simplex à la programmation convexe, puis à la spéci fier progressivement pour la programmation LASSO, et à adresser les questions d'optimisation des calculs algébriques. Bien que décrivant essentiellement le même algorithme que celui de Michael Osborne, la présentation qui en est faite ici a l'ambition d'en exposer clairement les mécanismes, et utilise des variables di fférentes. Outre le fait d'aider à mieux comprendre cet algorithme visiblement sous-estimé, l'angle par lequel il est présenté éclaire le fait nouveau que la même méthode s'applique naturellement à la formulation régularisée du LASSO, et non uniquement à la formulation contrainte. La populaire méthode par homotopie (ou LAR-LASSO, ou LARS) est ensuite présentée comme une dérivation de la méthode d'ensemble actif, amenant une formulation alternative et quelque peu simpli fiée de cet algorithme qui fournit les solutions du LASSO pour chaque valeur de son paramètre. Il est montré que, contrairement aux résultats d'une étude récente de Jerome H. Friedman, des implémentations de ces algorithmes suivant ces reformulations sont plus effi caces en terme de temps de calcul qu'une méthode de descente par coordonnées. La troisième partie étudie dans quelles mesures ces trois algorithmes (ensemble actif, homotopie, et descente par coordonnées) peuvent gérer certains cas particuliers, et peuvent être appliqués à des extensions du LASSO ou d'autres problèmes similaires. Les cas particuliers incluent les dégénérescences, comme la présence de variables lineairement dépendantes, ou la sélection/désélection simultanée de variables. Cette dernière problématique, qui était délaissée dans les travaux précédents, est ici expliquée plus largement et une solution simple et efficace y est apportée. Une autre cas particulier est la sélection LASSO à partir d'un nombre très large, voire infi ni de variables, cas pour lequel la méthode d'ensemble actif présente un avantage majeur. Une des extensions du LASSO est sa transposition dans un cadre d'apprentissage en ligne, où il est désirable ou nécessaire de résoudre le problème sur un ensemble d'observations qui évolue dans le temps. A nouveau, la flexibilité limitée de la méthode par homotopie la disquali fie au pro fit des deux autres. Une autre extension est l'utilisation de la pénalisation l1 sur d'autres fonction coûts que la norme l2 du résidu, ou en association avec d'autres pénalisations, et il est rappelé ou établi dans quelles mesures et de quelle façon chaque algorithme peut être transposé à ces problèmes.
|
Page generated in 0.0865 seconds