• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1640
  • 548
  • 454
  • 349
  • 171
  • 71
  • 67
  • 61
  • 31
  • 22
  • 21
  • 21
  • 14
  • 11
  • 11
  • Tagged with
  • 4046
  • 620
  • 595
  • 474
  • 431
  • 395
  • 305
  • 296
  • 284
  • 256
  • 245
  • 229
  • 212
  • 208
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Super résolution de texture pour la reconstruction 3D fine / Texture Super Resolution for 3D Reconstruction

Burns, Calum 23 March 2018 (has links)
La reconstruction 3D multi-vue atteint désormais un niveau de maturité industrielle : des utilisateurs non-experts peuvent produire des modèles 3D large-échelle de qualité à l'aide de logiciels commerciaux. Ces reconstructions utilisent des capteurs haut de gamme comme des LIDAR ou des appareils photos de type DSLR, montés sur un trépied et déplacés autour de la scène. Ces protocoles d'acquisition sont mal adaptés à l’inspection d’infrastructures de grande taille, à géométrie complexe. Avec l'évolution rapide des capacités des micro-drones, il devient envisageable de leur confier ce type de tâche. Un tel choix modifie les données d’acquisition : on passe d’un ensemble restreint de photos de qualité, soigneusement acquises par l’opérateur, à une séquence d'images à cadence vidéo, sujette à des variations de qualité image dues, par exemple, au bougé et au défocus.Les données vidéo posent problème aux logiciels de photogrammétrie du fait de la combinatoire élevée engendrée par le grand nombre d’images. Nous proposons d’exploiter l’intégralité des images en deux étapes. Au cours de la première, la reconstruction 3D est obtenue en sous-échantillonnant temporellement la séquence, lors de la seconde, la restitution haute résolution de texture est obtenue en exploitant l'ensemble des images. L'intérêt de la texture est de permettre de visualiser des détails fins du modèle numérisé qui ont été perdus dans le bruit géométrique de la reconstruction. Cette augmentation de qualité se fait via des techniques de Super Résolution (SR).Pour atteindre cet objectif nous avons conçu et réalisé une chaîne algorithmique prenant, en entrée, la séquence vidéo acquise et fournissant, en sortie, un modèle 3D de la scène avec une texture sur-résolue. Cette chaîne est construite autour d’un algorithme de reconstruction 3D multi-vues de l’état de l’art pour la partie géométrique.Une contribution centrale de notre chaîne est la méthode de recalage employée afin d’atteindre la précision sub-pixellique requise pour la SR. Contrairement aux données classiquement utilisées en SR, nos prises de vues sont affectées par un mouvement 3D, face à une scène à géométrie 3D, ce qui entraîne des mouvements image complexes. La précision intrinsèque des méthodes de reconstruction 3D est insuffisante pour effectuer un recalage purement géométrique, ainsi nous appliquons un raffinement supplémentaire par flot optique. Le résultat de cette méthode de restitution de texture SR est d'abord comparée qualitativement à une approche concurrente de l’état de l’art.Ces appréciations qualitatives sont renforcées par une évaluation quantitative de qualité image. Nous avons à cet effet élaboré un protocole d’évaluation quantitatif de techniques de SR appliquées sur des surfaces 3D. Il est fondé sur l'utilisation de mires fractales binaires, initialement proposées par S. Landeau. Nous avons étendu ces idées au contexte de SR sur des surfaces courbes. Cette méthode est employée ici pour valider les choix de notre méthode de SR, mais elle s'applique à l'évaluation de toute texturation de modèle 3D.Enfin, les surfaces spéculaires présentes dans les scènes induisent des artefacts au niveau des résultats de SR en raison de la perte de photoconsistence des pixels au travers des images à fusionner. Pour traiter ce problème nous avons proposé deux méthodes correctives permettant de recaler photométriquement nos images et restaurer la photoconsistence. La première méthode est basée sur une modélisation des phénomènes d’illumination dans un cas d'usage particulier, la seconde repose sur une égalisation photométrique locale. Les deux méthodes testées sur des données polluées par une illumination variable s'avèrent effectivement capables d'éliminer les artefacts. / Multi-view 3D reconstruction techniques have reached industrial level maturity : non-expert users are now able to use commercial software to produce quality, large scale, 3D models. These reconstructions use top of the line sensors such as LIDAR or DSLR cameras, mounted on tripods and moved around the scene. Such protocols are not designed to efficiently inspect large infrastructures with complex geometry. As the capabilities of micro-drones progress at a fast rate, it is becoming possible to delegate such tasks to them. This choice induces changes in the acquired data : rather than a set of carefully acquired images, micro-drones will produce a video sequence with varying image quality, due to such flaws as motion blur and defocus. Processing video data is challenging for photogrammetry software, due to the high combinatorial cost induced by the large number of images. We use the full image sequence in two steps. Firstly, a 3D reconstruction is obtained using a temporal sub-sampling of the data, then a high resolution texture is built from the full sequence. Texture allows the inspector to visualize small details that may be lost in the noise of the geometric reconstruction. We apply Super Resolution techniques to achieve texture quality augmentation. To reach this goal we developed an algorithmic pipeline that processes the video input and outputs a 3D model of the scene with super resolved texture. This pipeline uses a state of the art 3D reconstruction software for the geometric reconstruction step. The main contribution of this pipeline is the image registration method used to achieve the sub-pixel accuracy required for Super Resolution. Unlike the data on which Super Resolution is generally applied, our viewpoints are subject to relative 3D motion and are facing a scene with 3D geometry, which makes the motion field all the more complex. The intrinsic precision of current 3D reconstruction algorithms is insufficient to perform a purely geometric registration. Instead we refine the geometric registration with an optical flow algorithm. This approach is qualitatively to a competing state of the art method. qualitative comparisons are reinforced by a quantitative evaluation of the resulting image quality. For this we developed a quantitative evaluation protocol of Super Resolution techniques applied to 3D surfaces. This method is based on the Binary Fractal Targets proposed by S. Landeau. We extended these ideas to the context of curved surfaces. This method has been used to validate our choice of Super Resolution algorithm. Finally, specularities present on the scene surfaces induce artefacts in our Super Resolution results, due to the loss of photoconsistency among the set of images to be fused. To address this problem we propose two corrective methods designed to achieve photometric registration of our images and restore photoconsistency. The first method is based on a model of the illumination phenomena, valid in a specific setting, the second relies on local photometric equalization among the images. When tested on data polluted by varying illumination, both methods were able to eliminate these artefacts.
432

Approximation robuste de surfaces avec garanties / Robust shape approximation and mapping between surfaces

Mandad, Manish 29 November 2016 (has links)
Cette thèse comprend deux parties indépendantes.Dans la première partie nous contribuons une nouvelle méthode qui, étant donnée un volume de tolérance, génère un maillage triangulaire surfacique garanti d’être dans le volume de tolérance, sans auto-intersection et topologiquement correct. Un algorithme flexible est conçu pour capturer la topologie et découvrir l’anisotropie dans le volume de tolérance dans le but de générer un maillage de faible complexité.Dans la seconde partie nous contribuons une nouvelle approche pour calculer une fonction de correspondance entre deux surfaces. Tandis que la plupart des approches précédentes procède par composition de correspondance avec un domaine simple planaire, nous calculons une fonction de correspondance en optimisant directement une fonction de sorte à minimiser la variance d’un plan de transport entre les surfaces / This thesis is divided into two independent parts.In the first part, we introduce a method that, given an input tolerance volume, generates a surface triangle mesh guaranteed to be within the tolerance, intersection free and topologically correct. A pliant meshing algorithm is used to capture the topology and discover the anisotropy in the input tolerance volume in order to generate a concise output. We first refine a 3D Delaunay triangulation over the tolerance volume while maintaining a piecewise-linear function on this triangulation, until an isosurface of this function matches the topology sought after. We then embed the isosurface into the 3D triangulation via mutual tessellation, and simplify it while preserving the topology. Our approach extends toDépôt de thèseDonnées complémentairessurfaces with boundaries and to non-manifold surfaces. We demonstrate the versatility and efficacy of our approach on a variety of data sets and tolerance volumes.In the second part we introduce a new approach for creating a homeomorphic map between two discrete surfaces. While most previous approaches compose maps over intermediate domains which result in suboptimal inter-surface mapping, we directly optimize a map by computing a variance-minimizing mass transport plan between two surfaces. This non-linear problem, which amounts to minimizing the Dirichlet energy of both the map and its inverse, is solved using two alternating convex optimization problems in a coarse-to-fine fashion. Computational efficiency is further improved through the use of Sinkhorn iterations (modified to handle minimal regularization and unbalanced transport plans) and diffusion distances. The resulting inter-surface mapping algorithm applies to arbitrary shapes robustly and efficiently, with little to no user interaction.
433

Utilisation de l’IRM de diffusion pour la reconstruction de réseaux d’activations cérébrales à partir de données MEG/EEG / Using diffusion MR information to reconstruct networks of brain activations from MEG and EEG measurements

Belaoucha, Brahim 30 May 2017 (has links)
Comprendre comment différentes régions du cerveau interagissent afin d’exécuter une tâche, est un défi très complexe. La magnéto- et l’électroencéphalographie (MEEG) sont deux techniques non-invasive d’imagerie fonctionnelle utilisées pour mesurer avec une bonne résolution temporelle l’activité cérébrale. Estimer cette activité à partir des mesures MEEG est un problème mal posé. Il est donc crucial de le régulariser pour obtenir une solution unique. Il a été montré que l’homogénéité structurelle des régions corticales reflète leur homogénéité fonctionnelle. Un des buts principaux de ce travail est d’utiliser cette information structurelle pour définir des a priori permettant de contraindre de manière plus anatomique ce problème inverse de reconstruction de sources. L’imagerie par résonance magnétique de diffusion (IRMd) est, à ce jour, la seule technique non-invasive qui fournisse des informations sur l’organisation structurelle de la matière blanche. Cela justifie son utilisation pour contraindre notre problème inverse. Nous utilisons l’information fournie par l’IRMd de deux manière différentes pour reconstruire les activations du cerveau : (1) via une méthode spatiale qui utilise une parcellisation du cerveau pour contraindre l’activité des sources. Ces parcelles sont obtenues par un algorithme qui permet d’obtenir un ensemble optimal de régions structurellement homogènes pour une mesure de similarité donnée sur tout le cerveau. (2) dans une approche spatio-temporelle qui utilise les connexions anatomiques, calculées à partir des données d’IRMd, pour contraindre la dynamique des sources. Ces méthodes sont appliquée à des données synthétiques et réelles. / Understanding how brain regions interact to perform a given task is a very challenging task. Electroencephalography (EEG) and Magnetoencephalography (MEG) are two non-invasive functional imaging modalities used to record brain activity with high temporal resolution. As estimating brain activity from these measurements is an ill-posed problem. We thus must set a prior on the sources to obtain a unique solution. It has been shown in previous studies that structural homogeneity of brain regions reflect their functional homogeneity. One of the main goals of this work is to use this structural information to define priors to constrain more anatomically the MEG/EEG source reconstruction problem. This structural information is obtained using diffusion magnetic resonance imaging (dMRI), which is, as of today, the unique non-invasive structural imaging modality that provides an insight on the structural organization of white matter. This makes its use to constrain the EEG/MEG inverse problem justified. In our work, dMRI information is used to reconstruct brain activation in two ways: (1) In a spatial method which uses brain parcels to constrain the sources activity. These parcels are obtained by our whole brain parcellation algorithm which computes cortical regions with the most structural homogeneity with respect to a similarity measure. (2) In a spatio-temporal method that makes use of the anatomical connections computed from dMRI to constrain the sources’ dynamics. These different methods are validated using synthetic and real data.
434

Fusing Stereo Measurements into a Global 3D Representation

Blåwiik, Per January 2021 (has links)
The report describes the thesis project with the aim of fusing an arbitrary sequence of stereo measurements into a global 3D representation in real-time. The proposed method involves an octree-based signed distance function for representing the 3D environment, where the geomtric data is fused together using a cumulative weighted update function, and finally rendered by incremental mesh extraction using the marching cubes algorithm. The result of the project was a prototype system, integrated into a real-time stereo reconstruction system, which was evaluated by benchmark tests as well as qualitative comparisons with an older method of overlapping meshes. / <p>Examensarbetet är utfört vid Institutionen för teknik och naturvetenskap (ITN) vid Tekniska fakulteten, Linköpings universitet</p>
435

Structures of Feeling: Architecture and Literature in Postwar Britain and Ireland

Cox, Therese Anne January 2020 (has links)
Why did architecture become an urgent concern for so many writers in postwar Britain? Following the destruction of World War Two, reconstruction became a total cultural project, animating writers, artists, and critics, as well as planners, politicians, and citizens. From the preservation of culturally significant buildings to the razing of old foundations, from the creation of new towns to the management of suburban sprawl, the project of rebuilding Britain sparked an extraordinary creative response that transcended disciplinary fields and brought together some of the most innovative minds of the day. However, the significance of writers’ roles in this reconstruction—and the critical role that writing plays in architecture more broadly—has not, thus far, been adequately addressed in either literary or architectural studies. “Structures of Feeling: Architecture and Literature in Postwar Britain and Ireland” builds on recent scholarship in literary geographies and the spatial humanities to propose a new intervention in literary studies: an extension of what Ellen Eve Frank has called literary architecture. Bringing together architectural and literary modernisms, my dissertation shows how novelists, architects, poets, and critics together participated imaginatively in the reconstruction of England, Scotland, Wales, and Northern Ireland after World War Two by situating the key social, psychological, and political issues of the day in the built environment.Analyzing a rich archive of poetry, fiction, and criticism along with architectural writing, maps, plans, and developments, “Structures of Feeling” tracks the transition from the end of the war to the rise and fall of the welfare state; it locates forms of cultural production in the second half of the twentieth century that united urban planning, poetics, and environmental perception. In so doing, it shows how writing powerfully mediated some of the most important developments in urban planning and civic reconstruction, from motorways to new towns, from tower blocks and social housing to military architecture along contested borders. These writers, from poets like Philip Larkin to novelists like J. G. Ballard to architects like Alison and Peter Smithson, made human the effects of modern architecture’s ideologies and designs, critiqued and often proposed its boldest solutions and failures, and made architecture a public issue. Ultimately, this dissertation investigates how the complex social and political forces of the era—a dynamic cultural formation Raymond Williams has called “structures of feeling”—became animated both through postwar architecture’s physical structures and the diverse forms of writing these buildings stimulated into being.
436

Études et conception d'algorithmes de reconstruction 3D sur tablettes : génération automatique de modèles 3D éditables de bâtiments existants / Study and Conception of 3D Reconstruction Algorithms on Tablets : Automatic Generation of 3D Editable Models of Existing Buildings

Arnaud, Adrien 03 December 2018 (has links)
L'objectif de ces travaux de thèse consiste à mettre en place des solutions algorithmiques permettant de reconstruire un modèle 3D éditable d'un environnement intérieur à l'aide d'une tablette équipée d'un capteur de profondeur.Ces travaux s'inscrivent dans le contexte de la rénovation d'intérieur. Les normes Européennes poussent à la rénovation énergétique et à la modélisation 3D des bâtiments existants. Des outils professionnels utilisant des capteurs de type LIDAR permettent de reconstruire des nuages de points de très grande qualité, mais sont coûteux et longs à mettre en œuvre. De plus, il est très difficile d'identifier automatiquement les constituants d'un bâtiment pour en exporter un modèle 3D éditable complet.Dans le cadre de la rénovation d’intérieur, il n'est pas nécessaire de disposer des informations sur l'ensemble du bâtiment, seules les principales dimensions et surfaces sont nécessaires. Nous pouvons alors envisager d'automatiser complètement le processus de modélisation 3D.La mise sur le marché de capteurs de profondeur intégrables sur tablettes, et l'augmentation des capacités de calcul de ces dernières nous permet d'envisager l'adaptation d'algorithmes de reconstruction 3D classiques à ces supports.Au cours de ces travaux, nous avons envisagé deux approches de reconstruction 3D différentes. La première approche s'appuie sur des méthodes de l'état de l'art. Elle consiste à générer un maillage 3D d'un environnement intérieur en temps réel sur tablette, puis d'utiliser ce maillage 3D pour identifier la structure globale du bâtiment (murs, portes et fenêtres). La deuxième approche envisagée consiste à générer un modèle 3D éditable en temps réel, sans passer par un maillage intermédiaire. De cette manière beaucoup plus d'informations sont disponibles pour pouvoir détecter les éléments structuraux. Nous avons en effet à chaque instant donné un nuage de points complet ainsi que l'image couleur correspondante. Nous avons dans un premier temps mis en place deux algorithmes de segmentation planaire en temps réel. Puis, nous avons mis en place un algorithme d'analyse de ces plans permettant d'identifier deux plans identiques sur plusieurs prises de vue différentes. Nous sommes alors capables d'identifier les différents murs contenus dans l'environnement capturé, et nous pouvons mettre à jour leurs informations géométriques en temps réel. / This thesis works consisted to implement algorithmic solutions to reconstruct an editable 3D model of an indoor environment using a tablet equipped with a depth sensor.These works are part of the context of interior renovation. European standards push for energy renovation and 3D modeling of existing buildings. Professional tools using LIDAR-type sensors make it possible to reconstruct high-quality point clouds, but are costly and time-consuming to implement. In addition, it is very difficult to automatically identify the constituents of a building to export a complete editable 3D model.As part of the interior renovation, it is not necessary to have information on the whole building, only the main dimensions and surfaces are necessary. We can then consider completely automating the 3D modeling process.The recent development of depth sensors that can be integrated on tablets, and the improvement of the tablets computation capabilities allows us to consider the adaptation of classical 3D reconstruction algorithms to these supports.During this work, we considered two different 3D reconstruction approaches. The first approach is based on state-of-the-art methods. It consists of generating a 3D mesh of an interior environment in real time on a tablet, then using this 3D mesh to identify the overall structure of the building (walls, doors and windows). The second approach envisaged is to generate a 3D editable model in real time, without passing through an intermediate mesh. In this way much more information is available to be able to detect the structural elements. We have in fact at each given time a complete point cloud as well as the corresponding color image. In a first time we have set up two planar segmentation algorithms in real time. Then, we set up an analysis algorithm of these plans to identify two identical planes on different captures. We are then able to identify the different walls contained in the captured environment, and we can update their geometric information in real-time.
437

Water stable isotopic composition on the East Antarctic Plateau : measurements at low temperature of the vapour composition, utilisation as an atmospheric tracer and implication for paleoclimate studies / La composition des isotopes stables de l’eau sur le plateau Est Antarctique : mesure à basse température de la composition de la vapeur, utilisation comme un traceur atmosphérique et implication pour les études paléoclimatiques

Casado, Mathieu 06 September 2016 (has links)
Les carottes de glace permettent de reconstruire le climat du passé, à partir entre autre de la composition isotopique de l’eau (δ18O, δ17O et δD). Sur le plateau Est Antarctique, les températures très froides et les faibles accumulations permettent de remonter le plus loin dans le passé (jusqu’à 800 000 ans) mais compliquent l’interprétation du signal isotopique. Premièrement, les reconstructions des variations de température dans les carottes de glace à partir des isotopes de l’eau se basent sur des modèles pour décrire l'évolution de la composition isotopique de la vapeur et de la phase condensée le long du cycle de l’eau. Ces modèles, qui ont été développés au cours des dernières décennies, reposent sur la connaissance de coefficients du fractionnement isotopique associé à chaque transition de phase et sur des hypothèses pour représenter la micro-physique des nuages.Lors de la formation de flocons de neige à basse température, 2 types de fractionnements isotopiques doivent être pris en compte : le fractionnement isotopique à l'équilibre, associé à la transition de phase vapeur-glace et le fractionnement isotopique cinétique lié aux différentes diffusivités des différents isotopes. A basse température, les déterminations des coefficients du fractionnement du fractionnement à l’équilibre présentent d’importantes différences et n’ont jamais pu être mesurées à des températures inférieures à -40°C. Or la température moyenne annuelle à Dome C est de -54°C atteignant jusqu’à -85°C l’hiver. Les diffusivités des différents isotopes quant à elles n’ont jamais été mesurées à des températures inférieures à 10°C. Toutes ces lacunes résultent dans des incertitudes importantes sur le lien entre la composition isotopique et la température dans des conditions comme celles du Plateau Est Antarctique.De plus, dans ces conditions froides et arides, les processus physiques qui affectent la composition isotopique de la neige après la déposition des flocons deviennent importants compte tenu du faible apport annuel de précipitation. Pour estimer l’impact de ces processus de post-déposition sur la composition isotopique, il est nécessaire de bien caractériser le fractionnement isotopique à l’interface neige/atmosphère pour des températures allant jusqu’à -90°C.Afin d’améliorer les reconstructions quantitatives de température l’étude des processus affectant la composition isotopique de la glace à très basse température est donc primordiale. Dans cette optique, ma thèse a été à l’interface entre les études de processus au laboratoire et en Antarctique et le développement instrumental afin de pouvoir réaliser des mesures isotopiques encore inédites, en particulier à très basse humidité. D’un côté, j'ai développé d’un nouveau spectromètre infrarouge aux performances bien au-delà des instruments commerciaux. En effet, la fréquence du laser est stabilisée par rétroaction optique par une cavité ultra-stable jusqu’à un niveau de stabilité de l’ordre du hertz. La lumière est ensuite injectée dans une cavité CRDS hautes performances avec une sensibilité de 10-13 cm-1.Hz-1/2. Ceci permet de mesurer la composition isotopique avec une précision inférieure au ppm.En parallèle, des expériences au laboratoire ont permis de renforcer les connaissances sur les processus affectant les isotopes de l’eau, en particulier le fractionnement lié à la transition de phase vapeur - glace et le fractionnement cinétique lié aux différentes diffusivités des différents isotopes en modélisant le fractionnement lié à la diffusion près d’un point froid. Enfin, durant une campagne en Antarctique, j’ai pu réaliser parmi les premières mesures de la composition isotopique de la vapeur et de la glace en Antarctique et appliquer les modèles physiques des processus à des données de terrain. Ces mesures montrent que le cycle de sublimation/condensation contribue de manière importante à la composition isotopique de la neige sur le plateau Est Antarctique. / Ice cores enable reconstruction of past climates, from among others water stable isotopic composition (δ18O, δ17O et δD). On the East Antarctic Plateau, very cold temperature and low accumulation provide the longest ice core records (up to 800 000 years) but embrangle the interpretation of isotopic composition. First, reconstructions of temperature variations from ice core water isotopic composition are based on models used to describe the evolution of the isotopic composition of the vapour and of the condensed phase over the entire water cycle. These models have been developed during the last decades and depend upon precise determinations of isotopic fractionation coefficients associated to each phase transition and upon hypotheses to describe cloud microphysics.During the formation of snowflakes at low temperature, two types of isotopic fractionations need to be taken into account: equilibrium fractionation, associated to the vapour to ice phase transition and kinetic fractionation associated to the difference of diffusivity of the different isotopes. At low temperature, determinations of equilibrium fractionation coefficients present important discrepancies and have never been realised for temperature below -40°C. However, mean annual temperature at Dome C is around -54°C reaching -85°C in winter. For the diffusivities of the different isotopes, they have never been measured at temperature below 10°C. All these gaps result in important uncertainties on the link between isotopic composition and temperature, especially for cold and dry conditions such as encountered on the East Antarctic Plateau.Furthermore, because of the very low amount of precipitation, physical processes affecting the isotopic composition of the snow after the deposition of snowflakes can results in an important contribution to the isotopic budget. In order to estimate the impact of the post-deposition processes on the water vapour isotopic composition, it is necessary to characterise the isotopic fractionation at the snow/atmosphere interface for temperature down to -90°C.In order to improve isotopic paleothermometer performances, it is primordial to study processes affecting snow isotopic composition. Toward this goal, my Ph-D has been at the interface between monitoring of processes affecting isotopes, both in laboratory experiments and field studies, and instrumental development to push the limits of water vapour isotopic composition trace detection. On one hand, new developments in optical feedback frequency stabilisation applied for the first time to water isotopic composition monitoring provide performances beyond any commercial instrument and can be used for thorough processes studies. The laser frequency is stabilised by optical feedback from an ultra-stable cavity to the hertz level. Then, the light is injected in high performances cavity with a sensibility of 10-13 cm-1.Hz-1/2. This enables measuring isotopic composition with a precision below the ppm level.On the other hand, laboratory experiments have supported theories about isotopic fractionation associated to the vapour to ice phase transition and to kinetic fractionation linked to the difference of diffusivities of the different isotopes. Finally, these physical models have been collated to field measurements realised at Dome C in Antarctica, which are among the first water vapour and snow isotopic composition measurements realised inland Antarctica. These measurements show how important is the contribution of the sublimation condensation cycles to the snow isotopic composition budget on the East Antarctic Plateau.
438

Background reconstruction from multiple images / Reconstruction d'une scène masquée à partir de multi-image

Yang, Xiaoyi 18 December 2018 (has links)
La problématique générale de cette thèse est de reconstituer la scène de fond à partir d’une séquence d’images en présence de masques d’avant-plan. Nous nous sommes intéressés aux méthodes pour détecter ce qui constitue le fond ainsi que les solutions pour corriger les parties cachées et les distor­sions géométrique et chromatique introduites lors de la photographie.Une série de processus est proposée, dont la mise en œuvre comporte dans l'ordre l’aligne­ment géométrique, le réglage chromatique, la fusion des images et la correction des défauts.Nous nous plaçons dans l’hypothèse où le fond est porté sur une surface plane. L'aligne­ment géométrique est alors réalisé par calcul de l'homographie entre une image quelconque et l’image qui sert de référence, suivi d’une interpolation bilinéaire.Le réglage chromatique vise à retrouver un même contraste dans les différentes images. Nous proposons de modéliser la mise en cor­respondance chromatique entre images par une approximation linéaire dont les para­mètres sont déterminés par les résultats de la mise en correspondance des points de contrôle (SIFT).Ces deux étapes sont suivies par une étape de fusion. Plusieurs techniques sont comparées.La première proposition est d’étendre la définition de la médiane dans l’espace vec­toriel. Elle est robuste lorsqu’il y a plus de la moitié des images qui voient les pixels d’arrière-plan. En outre, nous concevons un algorithme original basé sur la notion de clique. Il permet de détecter le plus grand nuage de pixels dans l'espace RGB. Cette approche est fiable même lorsque les pixels d’arrière-plan sont minoritaires.Lors de la mise en œuvre de ce protocole, on constate que certains résultats de fusion présentent des défauts de type flou dus à l’existence d’erreurs d’alignement géomé­trique. Nous proposons donc un traitement complémentaire. Il est basé sur une compa­raison entre le résultat de fusion et les images alignées après passage d'un filtre gaussien. Sa sortie est un assemblage des morceaux très détaillés d'image alignés qui ressemblent le plus au résultat de fusion associés.La performance de nos méthodes est éva­luée par un ensemble de données contenant de nombreuses images de qualités diffé­rentes. Les expériences confirment la fiabi­lisé et la robustesse de notre conception dans diverses conditions de photographie. / The general topic of this thesis is to reconstruct the background scene from a burst of images in presence of masks. We focus on the background detection methods as well as on solutions to geometric and chromatic distortions introduced during ph-otography. A series of process is proposed, which con­sists of geometric alignment, chromatic adjustment, image fusion and defect correction.We consider the case where the background scene is a flat surface. The geometric align­ment between a reference image and any other images in the sequence, depends on the computation of a homography followed by a bilinear interpolation.The chromatic adjustment aims to attach a similar contrast to the scene in different im­ages. We propose to model the chromatic mapping between images with linear approximations whose parameters are decided by matched pixels of SIFT .These two steps are followed by a discus­sion on image fusion. Several methods have been compared.The first proposition is a generation of typical median filter to the vector range. It is robust when more than half of the images convey the background information. Besides, we design an original algorithm based on the notion of clique. It serves to distinguish the biggest cloud of pixels in RGB space. This approach is highly reliable even when the background pixels are the minority.During the implementation, we notice that some fusion results bear blur-like defects due to the existence of geometric alignment errors. We provide therefore a combination method as a complementary step to ameli-orate the fusion results. It is based on a com-parison between the fusion image and other aligned images after applying a Gaussian filter. The output is a mosaic of patches with clear details issued from the aligned images which are the most similar to their related fusion patches.The performance of our methods is evaluated by a data set containing extensive images of different qualities. Experiments confirm the reliability and robustness of our design under a variety of photography conditions.
439

Segmentation 3D de l'interligne articulaire pour l'imagerie basse dose dans le diagnostic précoce de la gonarthrose / 3D segmentation of joint space using low dose imaging for early diagnosis of knee osteoarthritis

Gharsallah-Mezlini, Houda 16 December 2016 (has links)
L'arthrose est une maladie dégénérative de l'articulation qui provoque des douleurs, une raideur et une diminution de mobilité. La quantification de l’interligne articulaire est la mesure qui permet de diagnostiquer la maladie et de suivre son évolution. A ce jour, la radiographie conventionnelle est la méthode de référence pour ce diagnostic et ce suivi. Néanmoins, l'articulation du genou et ses modifications structurales sont trop complexes pour permettre un diagnostic à un stade précoce à partir de simples images 2D. Une des pistes prometteuses de la recherche sur le diagnostic précoce est l’exploitation de l’information 3D de l’interligne. C’est dans ce contexte que s’inscrit cette thèse qui a pour but la segmentation et la quantification 3D de l’interligne articulaire afin d’atteindre l’objectif du diagnostic précoce de l’arthrose de genou. Au cours de cette thèse nous avons développé une méthode de quantification semi-automatique de l’interligne articulaire. La cartographie 3D des distances générée a permis de caractériser la morphologie de l’espace articulaire sur des images haute résolution 3D. Pour atteindre l’objectif de quantification à basse dose, deux approches ont été explorées. La première consistait à proposer une approche de segmentation 3D du volume osseux à partir d’un faible nombre de projections. La deuxième approche consiste à réaliser la quantification 3D de l’interligne sur des images issus d’un scanner basse dose obtenue à l’aide d’autres algorithmes mis en œuvre par les partenaires du projet VOXELO. La segmentation de l’interligne a été dans ce cas utilisée comme un critère de qualité de la reconstruction selon ces différents algorithmes.Afin de tester la robustesse de notre approche, nous avons utilisé des images haute résolution selon 2 types de géométrie du faisceau ou des images à faible dose et également sur des images scanner clinique in vivo. Ceci nous permet de conclure que la méthode de quantification de l’interligne que nous avons développé en 3D est potentiellement applicable sur des images provenant de différents appareils de scanner. Cet outil sera potentiellement utile pour détecter les stades précoces et suivre la progression de l'arthrose en clinique. / Osteoarthritis (OA) is a degenerative joint disease that causes pain, stiffness and decrease mobility. Knee OA presents the greatest morbidity. The main characteristic of OA is the cartilage loss inducing joint space narrowing. Usually, the diagnosis and progression of OA is monitored by the joint space measurement. Actually, conventional radiography is the reference method for the diagnosis and monitoring. However, the knee joint and structural changes are too complex to be assessed from simple 2D images especially at early stage. A promising research into early diagnosis is the use of 3D. The objective of our thesis is to provide a tool for a 3D quantification of joint space in order to achieve the goal of early diagnosis of knee osteoarthritis. In this thesis we have developed a semi-automatic method for the quantification of joint space. The 3D map generated allowed us to characterize the morphology of the joint space widths on 3D high resolution images.To achieve the goal of low-dose quantification, two approaches have been explored. The first was to provide a 3D segmentation method for bone extraction from a limited number of projections. The second approach is to perform the 3D quantification from a low dose scan obtained using other algorithms implemented by our partners of VOXELO project. The segmentation of the joint space was used as a quality criterion according to these different algorithms.To test the robustness of our approach, we used high-resolution images with different geometry acquisition types and low-dose images. We have also done a test on clinical CT images in vivo. This allows us to conclude that the method we developed is potentially applicable to images from different scanner devices. This tool can be used for detecting the early stages and track the progress of the clinical osteoarthritis
440

Reconstruction 3D infrarouge par perception active / 3D infrared reconstruction with active perception

Ducarouge, Benoit 26 September 2011 (has links)
Ces travaux de thèse ont été menés dans le contexte du projet ANR blanc "Real Time and True Temperature measurement" (R3T), dédié à la métrologie thermique à partir de mesures dans l'infrarouge. L'estimation d'une température vraie à partir d'une mesure de température apparente par une caméra infrarouge, exploite un modèle radiométrique dans lequel apparaît des facteurs qui dépendent de la nature et de la forme de l'objet considéré. Ces travaux portent sur la construction d'un modèle géométrique de l'objet à partir de caméras infrarouges déplacées par un robot autour d'un objet.Ces caméras, par rapport à des caméras standards, ont des caractéristiques spécifiques : faible résolution, peu de texture. Afin de faciliter la mise en œuvre et de minimiser la complexité du système final, nous avons choisi une approche de stéréovision non calibrée. Nous avons donc un banc de stéréovision infrarouge embarqué sur un robot cartésien, pour acquérir plusieurs vues de l'objet d'intérêt ; les principales étapes concernent la rectification non calibrée des images acquises par le banc stéréo, puis le calibrage des caméras rectifiées et de la relation main-œil sans utilisation de mire, puis la construction de modèles 3D locaux denses et le recalage de ces modèles partiels pour construire un modèle global de l'objet. Les contributions portent sur les deux premières étapes, rectification et calibrage pour la stéréovision. Pour la rectification non calibrée, il est proposé une approche d'optimisation sous contraintes qui estime les homographies, à appliquer sur ces images pour les rectifier, sans calcul préalable de la matrice Fondamentale, tout en minimisant les déformations projectives entre images d'origine et images rectifiées. La fonction coût est calculée à partir de la distance de Sampson avec une décomposition de la matrice fondamentale. Deux types de contraintes, géométriques et algébriques, sont comparés pour minimiser les déformations projectives. L'approche proposée est comparée aux méthodes proposées par Loop et Zhang, Hartley, Mallon et al... sur des jeux de données classiques de la littérature. Il est montré que les résultats sont au moins équivalents sur des images classiques et meilleurs sur des images de faible qualité comme des images infrarouges.Pour le calibrage sans mire, l'auteur propose de calibrer les caméras ainsi que la transformation main-œil, indispensable dès lors que le banc stéréo est porté par un robot, en une seule étape ; l'une des originalités est que cette méthode permet de calibrer les caméras préalablement rectifiées et ainsi de minimiser le nombre de paramètres à estimer. De même plusieurs critères sont proposés et évalués par de nombreux résultats sur des données de synthèse et sur des données réelles. Finalement, les méthodes de stéréovision testées pour ce contexte applicatif sont rapidement décrites ; des résultats expérimentaux acquis sur des objets sont présentés ainsi que des comparaisons vis-à-vis d'une vérité terrain connue / This dissertation was lead in the context of the R3T project (Real Time and True Temperature measurement), dedicated to metrology from thermal infrared measurements. The estimation of true temperature from apparent temperature measurement by an infrared camera uses a radiometric model which depends on nature and shape of the considered object. This work focuses on the construction of a geometric model from infrared cameras moved by a robot around an object.Those cameras, in comparison with standard ones, have specific characteristics : low resolution, low texture. To minimize the complexity and easily implement the final system, we chose a stereo approach using uncalibrated cameras. So we have an infrared stereoring embeded on a Cartesian robot, to acquire multiple views of the object of interest. First, the main steps implemented concern uncalibrated images rectification and autocalibration of infrared stereoring and hand-eye transformation without use of a calibration pattern. Then, the reconstruction of locals 3D models and the merge of these models was done to reach a global model of the object. The contributions cover the first two stages, rectification and autocalibration, for the other stereo reconstruction steps, different algorithms were tested and the best was chosen for our application.For the uncalibrated images rectification, an optimization approach under constraints is proposed. The estimation of rectification homographies is done, without the Fundamental matrix determination, while minimizing the distortion between original and corrected images. The cost function is based on the Sampson's distance with breakdown of the Fundamental matrix. Two constraints, geometrical and analytical, are compared to minimize distortion. The proposed approach is compared to methods proposed by Loop and Zhang, Hartley, Mallon et al ... on data sets from state of art. It is shown that the results are at least equivalent on conventional images and better on low quality images such as infrared images.For the autocalibration, the author proposes to calibrate cameras and hand-eye transformation, essential whenever the stereoring is embedded on a robot, in one step. One of the originality is that this method allows to calibrate rectified cameras and so minimize the number of parameters to estimate. Similarly, several criteria are proposed and evaluated by numerous results on synthetic and real data.Finally, all methods of stereovision tested for this application context are briefly described, the experimental results obtained on objects are presented and compared to ground truth

Page generated in 0.1053 seconds