• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 36
  • 10
  • Tagged with
  • 128
  • 128
  • 74
  • 68
  • 34
  • 32
  • 27
  • 27
  • 21
  • 18
  • 16
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Apports de l'imagerie à haute résolution spectrale et spatiale dans les bilans de volume et bilans radiatifs au Piton de La Fournaise

Servadio, Zarah 15 December 2011 (has links) (PDF)
La télédétection ouvre des perspectives nouvelles pour l'étude et la surveillance des volcans. Dans le cadre de cette thèse, différentes approches ont été abordées. L'imagerie satellite optique et thermique permet d'avoir une vue synoptique sur une large surface. La compréhension des changements d'état de surface est particulièrement importante dans le suivi de l'activité des volcans actifs. Plusieurs questions se posent : * Quels avantages offrent les satellites optiques d'observation de la Terre pour les calculs des volumes de lave émis ? * Quelles sont leurs limites ? * Les calculs de débits réalisés par télédétection sont-ils fiables ? * Quel est l'intérêt d'une approche multi-outils et multi-source ? Ces questions ont été abordées en prenant le Piton de la Fournaise pour cible. Plusieurs méthodes ont été mises en oeuvre et testées : 1) L'extraction automatique des contours de coulées de lave, 2) la création de modèle numérique d'élévation (MNE) par imagerie satellite, 3) le calcul de débits à partir d'images thermiques, 4) le suivi post éruptif d'une coulée par la modélisation de son refroidissement et la mesure des déformations observées in-situ. La plus-value de ce travail est la capacité de valider les résultats des modèles issus de la télédétection par des mesures in situ du fait de la proximité des sites étudiés. L'utilisation de ces techniques a permis d'obtenir des débits moyens d'écoulement des laves pour plusieurs éruptions et de suivre l'évolution topographique du volcan et de ses grandes structures. Les mesures thermiques par satellite fournissent le moyen de contraindre les variations du débit des éruptions dans le temps, tandis que les MNE ont permis d'obtenir un volume total dans le cas de coulées présentant de fortes épaisseurs. Grâce à ces techniques, il a été possible de définir deux types d'éruptions avec des évolutions semblables à celles observées sur différents volcans comme l'Etna (Italie) ou le Krafla (Islande). Les problèmes de nébulosité étant récurrent sur notre zone d'étude, la complémentarité des techniques est particulièrement intéressante pour obtenir une information fiable. Toutes les techniques utilisées dans cette thèse sont applicables à d'autres volcans ou à d'autres thématiques.
92

Contrôle non destructif d'un matériau excité par une onde acoustique ou thermique, observation par thermographie / Non destructive testing of a material excited by an acoustic wave or a heat wave, observation with thermography

Kuhn, Eric 06 December 2013 (has links)
Afin de pouvoir détecter un défaut dans un composite, plusieurs méthodes de contrôle non destructif ont été développées. Le but de ce travail est de localiser un délaminage dans un stratifié carbone / époxyde en utilisant deux méthodes : la thermosonique et la thermographie. La première méthode consiste en une excitation par ultrasons et une détection par caméra IR. Pour la seconde technique, le matériau est irradié par une onde thermique et la détection est aussi réalisée par une caméra IR. Afin de comparer les résultats obtenus, des tests par immersion ultrasons C-scan ont été réalisés sur les échantillons. Cette méthode permet d'obtenir une cartographie du délaminage présent dans le stratifié. Un algorithme de comparaison entre la détection du délaminage faite par les ultrasons C-scan et les deux méthodes a permis de révéler les différences de forme du défaut détecté. Différents traitements d'images ont été appliqués aux images IR obtenues : des analyses temporelles et des analyses spatiales/temporelles. L'étude de l'évolution instantanée ainsi que l'évolution globale de la température se sont révélées prometteuses pour la thermosonique. L'image la plus décorrélée obtenus par l'analyse en composante principales donne un résultat tout aussi satisfaisant pour cette méthode. Pour la méthode sans contact, la thermographie, l'étude de la phase a permis de révéler la forme du délaminage avec la même précision que la thermosonique.Une comparaison de ces deux méthodes a été réalisée afin de mettre en évidence leurs avantages et leurs inconvénients. / To detect a defect in a composite, several methods of non destructive testing have been developped. The aim of this work is to find a delamination in polymer matrix laminates thanks to two methods : thermosonics and thermography. The first method consists of an ultrasonic excitation and a detection by an IR camera. For the second technique, the plate is irradiated with a thermal wave and the detection is also performed by an IR camera. To compare the results, ultrasonic immersion tests were performed on the samples. This method provides a map of the delamination in the laminate. An algorithm for comparing the detection of delamination made by the ultrasonic C-scan and both methods revealed differences in the shape of the detected defect. Several image processing have been applied to the IR images recorded : temporal analysis and spatial / temporal analysis. The study of the instant evolution and the global evolution of the temperature are promissing for thermosonics. The most uncorrelated image obtained by principal component analysis gives is satisfactory for this method. For thermography, the non contact method, the phase study revealed the shape of delamination with the same precision as thermosonics.A comparison between the two methods was realised to highlight their advantages and their drawbacks.
93

Connected component tree construction for embedded systems / Contruction d'arbre des composantes connexes pour les systèmes embarqués

Matas, Petr 30 June 2014 (has links)
L'objectif du travail présenté dans cette thèse est de proposer un avancement dans la construction des systèmes embarqués de traitement d'images numériques, flexibles et puissants. La proposition est d'explorer l'utilisation d'une représentation d'image particulière appelée « arbre des composantes connexes » (connected component tree – CCT) en tant que base pour la mise en œuvre de l'ensemble de la chaîne de traitement d'image. Cela est possible parce que la représentation par CCT est à la fois formelle et générale. De plus, les opérateurs déjà existants et basés sur CCT recouvrent tous les domaines de traitement d'image : du filtrage de base, passant par la segmentation jusqu'à la reconnaissance des objets. Une chaîne de traitement basée sur la représentation d'image par CCT est typiquement composée d'une cascade de transformations de CCT où chaque transformation représente un opérateur individuel. A la fin, une restitution d'image pour visualiser les résultats est nécessaire. Dans cette chaîne typique, c'est la construction du CCT qui représente la tâche nécessitant le plus de temps de calcul et de ressources matérielles. C'est pour cette raison que ce travail se concentre sur la problématique de la construction rapide de CCT. Dans ce manuscrit, nous introduisons le CCT et ses représentations possibles dans la mémoire de l'ordinateur. Nous présentons une partie de ses applications et analysons les algorithmes existants de sa construction. Par la suite, nous proposons un nouvel algorithme de construction parallèle de CCT qui produit le « parent point tree » représentation de CCT. L'algorithme est conçu pour les systèmes embarqués, ainsi notre effort vise la minimisation de la mémoire occupée. L'algorithme en lui-même se compose d'un grand nombre de tâches de la « construction » et de la « fusion ». Une tâche de construction construit le CCT d'une seule ligne d'image, donc d'un signal à une dimension. Les tâches de fusion construisent progressivement le CCT de l'ensemble. Pour optimiser la gestion des ressources de calcul, trois différentes stratégies d'ordonnancement des tâches sont développées et évaluées. Également, les performances des implantations de l'algorithme sont évaluées sur plusieurs ordinateurs parallèles. Un débit de 83 Mpx/s pour une accélération de 13,3 est réalisé sur une machine 16-core avec Opteron 885 processeurs. Les résultats obtenus nous ont encouragés pour procéder à une mise en œuvre d'une nouvelle implantation matérielle parallèle de l'algorithme. L'architecture proposée contient 16 blocs de base, chacun dédié à la transformation d'une partie de l'image et comprenant des unités de calcul et la mémoire. Un système spécial d'interconnexions est conçu pour permettre à certaines unités de calcul d'accéder à la mémoire partagée dans d'autres blocs de base. Ceci est nécessaire pour la fusion des CCT partiels. L'architecture a été implantée en VHDL et sa simulation fonctionnelle permet d'estimer une performance de 145 Mpx/s à fréquence d'horloge de 120 MHz / The aim of this work is to enable construction of embedded digital image processing systems, which are both flexible and powerful. The thesis proposal explores the possibility of using an image representation called connected component tree (CCT) as the basis for implementation of the entire image processing chain. This is possible, because the CCT is both simple and general, as CCT-based implementations of operators spanning from filtering to segmentation and recognition exist. A typical CCT-based image processing chain consists of CCT construction from an input image, a cascade of CCT transformations, which implement the individual operators, and image restitution, which generates the output image from the modified CCT. The most time-demanding step is the CCT construction and this work focuses on it. It introduces the CCT and its possible representations in computer memory, shows some of its applications and analyzes existing CCT construction algorithms. A new parallel CCT construction algorithm producing the parent point tree representation of the CCT is proposed. The algorithm is suitable for an embedded system implementation due to its low memory requirements. The algorithm consists of many building and merging tasks. A building task constructs the CCT of a single image line, which is treated as a one-dimensional signal. Merging tasks fuse the CCTs together. Three different task scheduling strategies are developed and evaluated. Performance of the algorithm is evaluated on multiple parallel computers. A throughput 83 Mpx/s at speedup 13.3 is achieved on a 16-core machine with Opteron 885 CPUs. Next, the new algorithm is further adapted for hardware implementation and implemented as a new parallel hardware architecture. The architecture contains 16 basic blocks, each dedicated to processing of an image partition and consisting of execution units and memory. A special interconnection switch is designed to allow some executions units to access memory in other basic blocks. The algorithm requires this for the final merging of the CCTs constructed by different basic blocks together. The architecture is implemented in VHDL and its functional simulation shows performance 145 Mpx/s at clock frequency 120 MHz
94

Morphologie, Géométrie et Statistiques en imagerie non-standard / Morphology, Geometry and Statistics in non-standard imaging

Chevallier, Emmanuel 18 November 2015 (has links)
Le traitement d'images numériques a suivi l'évolution de l'électronique et de l'informatique. Il est maintenant courant de manipuler des images à valeur non pas dans {0,1}, mais dans des variétés ou des distributions de probabilités. C'est le cas par exemple des images couleurs où de l'imagerie du tenseur de diffusion (DTI). Chaque type d'image possède ses propres structures algébriques, topologiques et géométriques. Ainsi, les techniques existantes de traitement d'image doivent être adaptés lorsqu'elles sont appliquées à de nouvelles modalités d'imagerie. Lorsque l'on manipule de nouveaux types d'espaces de valeurs, les précédents opérateurs peuvent rarement être utilisés tel quel. Même si les notions sous-jacentes ont encore un sens, un travail doit être mené afin de les exprimer dans le nouveau contexte. Cette thèse est composée de deux parties indépendantes. La première, « Morphologie mathématiques pour les images non standards », concerne l'extension de la morphologie mathématique à des cas particuliers où l'espace des valeurs de l'image ne possède pas de structure d'ordre canonique. Le chapitre 2 formalise et démontre le problème de l'irrégularité des ordres totaux dans les espaces métriques. Le résultat principal de ce chapitre montre qu'étant donné un ordre total dans un espace vectoriel multidimensionnel, il existe toujours des images à valeur dans cet espace tel que les dilatations et les érosions morphologiques soient irrégulières et incohérentes. Le chapitre 3 est une tentative d'extension de la morphologie mathématique aux images à valeur dans un ensemble de labels non ordonnés.La deuxième partie de la thèse, « Estimation de densités de probabilités dans les espaces de Riemann » concerne l'adaptation des techniques classiques d'estimation de densités non paramétriques à certaines variétés Riemanniennes. Le chapitre 5 est un travail sur les histogrammes d'images couleurs dans le cadre de métriques perceptuelles. L'idée principale de ce chapitre consiste à calculer les histogrammes suivant une approximation euclidienne local de la métrique perceptuelle, et non une approximation globale comme dans les espaces perceptuels standards. Le chapitre 6 est une étude sur l'estimation de densité lorsque les données sont des lois Gaussiennes. Différentes techniques y sont analysées. Le résultat principal est l'expression de noyaux pour la métrique de Wasserstein. / Digital image processing has followed the evolution of electronic and computer science. It is now current to deal with images valued not in {0,1} or in gray-scale, but in manifolds or probability distributions. This is for instance the case for color images or in diffusion tensor imaging (DTI). Each kind of images has its own algebraic, topological and geometric properties. Thus, existing image processing techniques have to be adapted when applied to new imaging modalities. When dealing with new kind of value spaces, former operators can rarely be used as they are. Even if the underlying notion has still a meaning, a work must be carried out in order to express it in the new context.The thesis is composed of two independent parts. The first one, "Mathematical morphology on non-standard images", concerns the extension of mathematical morphology to specific cases where the value space of the image does not have a canonical order structure. Chapter 2 formalizes and demonstrates the irregularity issue of total orders in metric spaces. The main results states that for any total order in a multidimensional vector space, there are images for which the morphological dilations and erosions are irregular and inconsistent. Chapter 3 is an attempt to generalize morphology to images valued in a set of unordered labels.The second part "Probability density estimation on Riemannian spaces" concerns the adaptation of standard density estimation techniques to specific Riemannian manifolds. Chapter 5 is a work on color image histograms under perceptual metrics. The main idea of this chapter consists in computing histograms using local Euclidean approximations of the perceptual metric, and not a global Euclidean approximation as in standard perceptual color spaces. Chapter 6 addresses the problem of non parametric density estimation when data lay in spaces of Gaussian laws. Different techniques are studied, an expression of kernels is provided for the Wasserstein metric.
95

Méthodes variationnelles : Applications à l'analyse d'image et au modèle de Frenkel-Kontorova / Variational methods : Applications to image analysis and to Frenkel-Kontorova model

Issa, Samar 19 December 2011 (has links)
Cette thèse est décomposée en deux parties. La première est consacrée à l'étude de la restauration d'image et la seconde partie est consacrée à l'étude d'un modèle de Frenkel-Kontorova par des méthodes issues du calcul variationnel et des équations aux dérivées partielles. Au chapitre 1, nous présentons les questions essentielles que nous traiterons dans cette thèse, puis on fait des rappels sur les définitions et quelques propriétés d'espace des fonctions à variations bornées BV , l'espace d'Orlicz et le modèle de Frenkel-Kontorova. Au chapitre 2, nous montrons que les problèmes de minimisation non convexe (restauration d'image) contenant des termes de régularisation sous-linéaires sont mal posés. Au chapitre 3, nous étudions un modèle de restauration avec un terme de régularisation à croissance non standard, proposé par Blomgren et al. : le module du gradient est élevé a une puissance qui dépend elle même du gradient. On montre qu'elle est semi-continue inférieurement pour la topologie faible d'un certain espace d'Orlicz-Sobolev qui lui est associé, ce qui permet un résultat d'existence de la solution. Au chapitre 4, nous étudions un modèle de Frenkel-Kontorova, dont on montre l'existence d'au moins une solution de type travelling wave, u. / This thesis is divided into two parts. The first is devoted to the study of image restorationand the second part is devoted to the study of a Frenkel-Kontorova model using methodsfrom the calculus of variations and partial differential equations. In chapter 1, we presentthe key issues we will discuss in this thesis, and recal the denitions and some properties ofspaces of functions of bounded variations BV , Orlicz Sobolev spaces and Frenkel-Kontorovamodel results on image analysis. In chapter 2, we show that the non-convex minimizationproblems (restoration image) involving sublinear regularizing terms are ill-posed. In chapter3, we study a model of restoration with nonstandard increasing regularizing terms,proposedby Blomgren. We show that is lower semi-continuous in the weak topologie of some Sobolev-Orlicz space associated with it, which allows existence result of the solution. In Chaptre 4, we study a Frenkel-Kontorova model, that we show existence of at least a traveling wave type solution, u.
96

Méthode d'obtention d'images TEP paramétriques de la cinétique de fixation du FDG basée sur une approche mathématique intégrant un modèle d'erreur de mesures. / ParaPET, a new methodology to derive 3D kinetic parametric FDG PET images based on a mathematical approach integrating an error model of measurement

Colard, Elyse 04 December 2018 (has links)
La Tomographie par Emission de Positons (TEP) au 2-[18]-Fluoro-2-désoxy-D-glucose (FDG) est une méthode d’imagerie fonctionnelle particulièrement utilisée en oncologie afin de quantifier le métabolisme glucidique des lésions tumorales. En routine clinique, l’analyse quantitative de ces images est réalisée à l’aide de la valeur de fixation normalisée, notée SUV. Des approches de quantification plus élaborées existent dans la littérature, mais elles requièrent généralement de multiples prélèvements sanguins et/ou l’acquisition d’un examen TEP d’au moins 50 minutes. De ce fait, elles sont difficilement applicables en routine clinique. Notre travail a porté sur le développement d’une approche non-invasive, nommée ParaPET, basée sur les travaux initiaux de [Barbolosi et al.2016], permettant la détermination d’une cartographie de biomarqueurs dynamiques et requérant une unique acquisition TEP de durée limitée. Notre approche intègre plusieurs améliorations, parmi lesquelles l’élaboration d’un nouveau modèle d’estimation de la concentration moyenne de FDG et de l’erreur de mesure associée, basé sur un protocole de reconstructions TEP multiples utilisant un rééchantillonnage temporel des données, la détermination de la concentration d’activité sanguine de FDG à l’aide des images TEP de l’aorte, et la caractérisation des lésions tumorales à l’échelle du voxel. Notre approche a été évaluée sur une base de données de 31 patients atteints d’un cancer bronchique non à petites cellules (CBNPC) que nous avons construite au préalable. Notre analyse a porté sur la détermination du biomarqueur Ki , représentant le débit net entrant de FDG. Nos résultats ne montrent pas de différence significative dans l’estimation de Ki entre notre approche et la méthode de référence, l’analyse graphique de Patlak [Patlak et al. 1983]. Nous avons également montré l’existence d’une forte corrélation (R2 ¸ 0,87) entre les images de Ki et de SUV. Cependant, ces images ne sont pas identiques, et peuvent apporter des informations supplémentaires, par exemple pour les régions nécrotiques. Enfin, nous avons étudié la variation relative de Ki (¢(K¤ i )) et de SUVmax (¢(SUVmax )) entre les examens pré- et per-thérapeutiques. Nous avons constaté une corrélation médiocre entre ¢(K¤ i ) et ¢(SUVmax ) (R2 = 0,60) sur l’ensemble de la plage de variation, mais une corrélation plus importante à partir des valeurs de ¢(SUVmax ) ¸ 40 %. Il conviendrait d’approfondir la signification et l’intérêt médical associé aux faibles variations de SUV et de Ki . Au final, l’approche ParaPET permet une détermination simplifiée des paramètres cinétiques de la fixation du FDG, qui enrichiront les caractéristiques tumorales pouvant présenter un intérêt pour la radiomique. / Positron Emission Tomography (PET) with 2-[18]-Fluoro-2-deoxy-D-glucose (FDG) is a functional imaging technique especially used in oncology to quantify glucose metabolism of tumour lesions. In clinical routine, quantitative analysis of these images is carried out using the standardized uptake value (SUV). More sophisticated quantification approaches have been proposed in the literature, but they requiremultiple blood samples and/or at least a 50 minutes PET acquisition. As a result, they are difficult to implement in clinical routine. Our work focused on the development of a non-invasive approach, named ParaPET, based on the initial work of [Barbolosi et al. 2016], allowing the determination of 3D maps of dynamic biomarkers and only requiring a PET scan of a limited duration. Our approach includes several improvements, including the development of a new model for the estimation of the FDG activity concentration and the associated measurement error, based on amultiple PET reconstruction protocol using temporal data resampling, the determination of the blood FDG activity concentration using PET aorta images, and the characterisation of tumour lesions at a voxel level. Our approach was evaluated on a database of 31 patients with non-small cell lung cancer (NSCLC) treated by chemo-radiation therapy, that we previously constructed. Our analysis focused on thedetermination of the biomarker Ki , the net influx of FDG in the lesion. Our results show no significant difference in the Ki estimate between our approach and the reference method, the Patlak graphical analysis [Patlak et al. 1983]. We also have shown the existence of a strong correlation between Ki and SUV images (R2 ¸ 0,87).However, these images are not identical, and may provide additional information, for example for necrotic regions. Finally, we studied the relative variation of Ki (¢(K¤ i )) and SUVmax (¢(SUVmax )) between pre- et per-therapeutic PET scans. We have found a poor correlation between ¢(K¤i ) et ¢(SUVmax ) (R2 = 0,60) over the entire range of variation, but a higher correlation from ¢(SUVmax ) values ¸ 40 %. The meaning and the medical interest associated with small variations of SUV and Ki should be further investigated. To conclude, our ParaPET approach allows a simplified determination of kinetic parameters of FDG uptake, which will enhance the tumour characteristics that may be of interest for radiomics.
97

Video-projected augmented reality : Photometric compensation for static and dynamic concealment / Réalité augmentée vidéoprojetée : compensation photométrique pour l'effacement statique et dynamique

Bokaris, Panagiotis-Alexandros 25 November 2016 (has links)
Cette thèse développe de nouvelles approches pour l'effacement et la révélation de la présence humaine en utilisant des techniques de réalité augmentée. Elle se concentre sur les systèmes projecteur-caméra (ProCams) et leur application dans les «projections intelligentes», où le contenu virtuel projeté est adapté en fonction de l'environnement. Nous nous appuyons sur les travaux antérieurs sur la compensation photométrique pour projeter sur une surface colorée fixe qui permet au spectateur d'observer la même image telle qu'elle apparaîtrait sur une surface blanche. Malgré les différentes méthodes de compensation des couleurs qui ont été proposées au cours de décennie, la compensation appliquée à monde réel avec des couleurs saturées et vives est encore une question ouverte. L'objectif principal de ce travail est la compensation photométrique sur un objet 3D en mouvement en utilisant un ProCam, ce qui est un scénario considérablement plus difficile. Une nouvelle méthode pour la compensation de couleur à l'aide d'une image d'entrée unique est proposée. Elle consiste à estimer la réflectance spectrale de la surface afin de compenser celle-ci en supposant que les réponses du projecteur sont connues ou mesurées précédemment. Cette méthode a été entièrement développée sur GPU pour permettre une compensation en temps réel. Les méthodes antérieures sur la compensation couleur sont discutées et comparées afin d'évaluer la performance de notre technique. L'étalonnage photométrique et géométrique précis d'un ProCam est essentiel pour une compensation précise. Une nouvelle technique de calibration géométrique entre un capteur de profondeur et un ProCam est présentée dans le but de réaliser la projection sur un objet en mouvement. Une calibration photométrique est décrite pour la transformation des valeurs RGB de la caméra et du projecteur (dépendantes du périphérique) vers l'espace couleur CIE XYZ 1931 (indépendantes du périphérique). Le potentiel artistique des techniques de réalité augmentée proposées est en outre exploré à travers l'installation interactive artistique “Gardien du Temple”. La révélation et l'effacement ont toujours été un terrain d'expérimentation commun aux artistes et aux scientifiques. Cette installation audiovisuelle utilise la réalité augmentée pour effacer la présence d'un poème écrit sur un tapis invitant le spectateur à le révéler. Dans de telles applications, la précision et la robustesse des méthodes utilisées sont cruciales. Cette installation artistique a donc permis de tester et d'évaluer les travaux de cette thèse dans un contexte collaboratif et exigeant. / This thesis develops new approaches for human presence concealment and revelation using augmented reality techniques. It focuses on projector-camera systems (ProCams) and their application in “smart projections”, where the projected virtual content is adapted according to the environment. One previously-studied problem is the photometric compensation for projecting on a colored fixed surface that allows the viewer to observe the same image as it would appear on a white surface. Despite the various methods for color compensation that have been proposed the last decade, compensation on a real-world surface with saturated colors and sharp color boundaries is still an open issue. The main objective of this work is the color compensation on a moving 3D object using a ProCam, which is a dramatically more challenging scenario. A novel method for color compensation using a single input frame is proposed. It consists in estimating the spectral reflectance of the surface in order to compensate for it under the assumption that the projector responses are known or previously measured. This method was fully developed on GPU to enable real-time compensation. Previous methods on color compensation are discussed and compared in order to evaluate the performance of our technique. The accurate photometric and geometric calibration of a ProCam is essential for precise compensation. A new geometric calibration technique between a depth sensor and a ProCam is presented in order to make the projection on a moving object feasible. A photometric calibration is described for the transformation of the device-dependent camera and projector values to the device-independent CIE XYZ 1931 color space. The artistic potential of the proposed augmented reality techniques is further explored through the interactive art installation “Gardien du Temple”. Revelation and concealment has always been a common experimentation ground for both artists and scientists. This audio visual installation uses augmented reality to hide the presence of a written poem on a carpet inviting the spectator to reveal it. In such applications, the accuracy and robust performance of the methods employed is crucial and, thus, it offered a challenging ground for testing and evaluation.
98

Développement de méthodes itératives pour la reconstruction en tomographie spectrale / Iterative methods for spectral computed tomography reconstruction

Tairi, Souhil 20 June 2019 (has links)
Depuis quelques années les détecteurs à pixels hybrides ont ouvert la voie au développement de la tomographie à rayon X spectrale ou tomodensitométrie (TDM) spectrale. La TDM spectrale permet d’extraire plus d’information concernant la structure interne de l’objet par rapport à la TDM d’absorption classique. Un de ses objectifs dans l’imagerie médicale est d’identifier et quantifier des composants d’intérêt dans un objet, tels que des marqueurs biologique appelés agents de contraste (iode, baryum, etc.). La majeure partie de l’état de l’art procède en deux étapes : - la "pré-reconstruction" qui consiste à séparer les composants dans l’espace des projections puis reconstruire, - la "post-reconstruction", qui reconstruit l’objet puis sépare les composants.On s’intéresse dans ce travail de thèse à une approche qui consiste à séparer et reconstruire simultanément les composants de l’objet. L’état de l’art des méthodes de reconstruction et séparation simultanées de données de TDM spectrale reste à ce jour peu fourni et les approches de reconstruction existantes sont limitées dans leurs performances et ne tiennent souvent pas compte de la complexité du modèle d’acquisition.L’objectif principal de ce travail de thèse est de proposer des approches de reconstruction et séparation tenant compte de la complexité du modèle afin d’améliorer la qualité des images reconstruites. Le problème à résoudre est un problème inverse, mal-posé, non-convexe et de très grande dimension. Pour le résoudre, nous proposons un algorithme proximal à métrique variable. Des résultats prometteurs sont obtenus sur des données réelles et montrent des avantages en terme de qualité de reconstruction. / In recent years, hybrid pixel detectors have paved the way for the development of spectral X ray tomography or spectral tomography (CT). Spectral CT provides more information about the internal structure of the object compared to conventional absorption CT. One of its objectives in medical imaging is to obtain images of components of interest in an object, such as biological markers called contrast agents (iodine, barium, etc.).The state of the art of simultaneous reconstruction and separation of spectral CT data methods remains to this day limited. Existing reconstruction approaches are limited in their performance and often do not take into account the complexity of the acquisition model.The main objective of this thesis work is to propose better quality reconstruction approaches that take into account the complexity of the model in order to improve the quality of the reconstructed images. Our contribution considers the non-linear polychromatic model of the X-ray beam and combines it with an earlier model on the components of the object to be reconstructed. The problem thus obtained is an inverse, non-convex and misplaced problem of very large dimensions.To solve it, we propose a proximal algorithmwith variable metrics. Promising results are shown on real data. They show that the proposed approach allows good separation and reconstruction despite the presence of noise (Gaussian or Poisson). Compared to existing approaches, the proposed approach has advantages over the speed of convergence.
99

A vision system based real-time SLAM applications / Un système de vision pour la localisation et cartographie temps-réel

Nguyen, Dai-Duong 07 December 2018 (has links)
SLAM (localisation et cartographie simultanées) joue un rôle important dans plusieurs applications telles que les robots autonomes, les véhicules intelligents, les véhicules aériens sans pilote (UAV) et autres. De nos jours, les applications SLAM basées sur la vision en temps réel deviennent un sujet d'intérêt général dans de nombreuses recherches. L'une des solutions pour résoudre la complexité de calcul des algorithmes de traitement d'image, dédiés aux applications SLAM, consiste à effectuer un traitement de haut ou de bas niveau sur les coprocesseurs afin de créer un système sur puce. Les architectures hétérogènes ont démontré leur capacité à devenir des candidats potentiels pour un système sur puce dans une approche de co-conception de logiciels matériels. L'objectif de cette thèse est de proposer un système de vision implémentant un algorithme SLAM sur une architecture hétérogène (CPU-GPU ou CPU-FPGA). L'étude permettra d'évaluer ce type d'architectures et contribuer à répondre aux questions relatives à la définition des fonctions et/ou opérateurs élémentaires qui devraient être implantés et comment intégrer des algorithmes de traitement de données tout en prenant en considération l'architecture cible (dans un contexte d'adéquation algorithme architecture). Il y a deux parties dans un système SLAM visuel : Front-end (extraction des points d'intérêt) et Back-end (cœur de SLAM). Au cours de la thèse, concernant la partie Front-end, nous avons étudié plusieurs algorithmes de détection et description des primitives dans l’image. Nous avons développé notre propre algorithme intitulé HOOFR (Hessian ORB Overlapped FREAK) qui possède une meilleure performance par rapport à ceux de l’état de l’art. Cet algorithme est basé sur la modification du détecteur ORB et du descripteur bio-inspiré FREAK. Les résultats de l’amélioration ont été validés en utilisant des jeux de données réel connus. Ensuite, nous avons proposé l'algorithme HOOFR-SLAM Stereo pour la partie Back-end. Cet algorithme utilise les images acquises par une paire de caméras pour réaliser la localisation et cartographie simultanées. La validation a été faite sur plusieurs jeux de données (KITTI, New_College, Malaga, MRT, St_lucia…). Par la suite, pour atteindre un système temps réel, nous avons étudié la complexité algorithmique de HOOFR SLAM ainsi que les architectures matérielles actuelles dédiées aux systèmes embarqués. Nous avons utilisé une méthodologie basée sur la complexité de l'algorithme et le partitionnement des blocs fonctionnels. Le temps de traitement de chaque bloc est analysé en tenant compte des contraintes des architectures ciblées. Nous avons réalisé une implémentation de HOOFR SLAM sur une architecture massivement parallèle basée sur CPU-GPU. Les performances ont été évaluées sur un poste de travail puissant et sur des systèmes embarqués basés sur des architectures. Dans cette étude, nous proposons une architecture au niveau du système et une méthodologie de conception pour intégrer un algorithme de vision SLAM sur un SoC. Ce système mettra en évidence un compromis entre polyvalence, parallélisme, vitesse de traitement et résultats de localisation. Une comparaison avec les systèmes conventionnels sera effectuée pour évaluer l'architecture du système définie. Vue de la consommation d'énergie, nous avons étudié l'implémentation la partie Front-end sur l'architecture configurable type soc-FPGA. Le SLAM kernel est destiné à être exécuté sur un processeur. Nous avons proposé une architecture par la méthode HLS (High-level synthesis) en utilisant langage OpenCL. Nous avons validé notre architecture sur la carte Altera Arria 10 soc. Une comparaison avec les systèmes les plus récents montre que l’architecture conçue présente de meilleures performances et un compromis entre la consommation d’énergie et les temps de traitement. / SLAM (Simultaneous Localization And Mapping) has an important role in several applications such as autonomous robots, smart vehicles, unmanned aerial vehicles (UAVs) and others. Nowadays, real-time vision based SLAM applications becomes a subject of widespread interests in many researches. One of the solutions to solve the computational complexity of image processing algorithms, dedicated to SLAM applications, is to perform high or/and low level processing on co-processors in order to build a System on Chip. Heterogeneous architectures have demonstrated their ability to become potential candidates for a system on chip in a hardware software co-design approach. The aim of this thesis is to propose a vision system implementing a SLAM algorithm on a heterogeneous architecture (CPU-GPU or CPU-FPGA). The study will allow verifying if these types of heterogeneous architectures are advantageous, what elementary functions and/or operators should be added on chip and how to integrate image-processing and the SLAM Kernel on a heterogeneous architecture (i. e. How to map the vision SLAM on a System on Chip).There are two parts in a visual SLAM system: Front-end (feature extraction, image processing) and Back-end (SLAM kernel). During this thesis, we studied several features detection and description algorithms for the Front-end part. We have developed our own algorithm denoted as HOOFR (Hessian ORB Overlapped FREAK) extractor which has a better compromise between precision and processing times compared to those of the state of the art. This algorithm is based on the modification of the ORB (Oriented FAST and rotated BRIEF) detector and the bio-inspired descriptor: FREAK (Fast Retina Keypoint). The improvements were validated using well-known real datasets. Consequently, we propose the HOOFR-SLAM Stereo algorithm for the Back-end part. This algorithm uses images acquired by a stereo camera to perform simultaneous localization and mapping. The HOOFR SLAM performances were evaluated on different datasets (KITTI, New-College , Malaga, MRT, St-Lucia, ...).Afterward, to reach a real-time system, we studied the algorithmic complexity of HOOFR SLAM as well as the current hardware architectures dedicated for embedded systems. We used a methodology based on the algorithm complexity and functional blocks partitioning. The processing time of each block is analyzed taking into account the constraints of the targeted architectures. We achieved an implementation of HOOFR SLAM on a massively parallel architecture based on CPU-GPU. The performances were evaluated on a powerful workstation and on architectures based embedded systems. In this study, we propose a system-level architecture and a design methodology to integrate a vision SLAM algorithm on a SoC. This system will highlight a compromise between versatility, parallelism, processing speed and localization results. A comparison related to conventional systems will be performed to evaluate the defined system architecture. In order to reduce the energy consumption, we have studied the implementation of the Front-end part (image processing) on an FPGA based SoC system. The SLAM kernel is intended to run on a CPU processor. We proposed a parallelized architecture using HLS (High-level synthesis) method and OpenCL language programming. We validated our architecture for an Altera Arria 10 SoC. A comparison with systems in the state-of-the-art showed that the designed architecture presents better performances and a compromise between power consumption and processing times.
100

Assimilation de données d'images télédétectées en météorologie

Michel, Yann 17 December 2008 (has links) (PDF)
L'évolution libre des fluides géostrophiques turbulents bidimensionnels fait apparaitre des tourbillons présentant une grande cohérence spatio-temporelle. Les écoulements atmosphériques tridimensionnels présentent également ce genre de structures cohérentes, notamment dans les champs de tourbillon potentiel. Certains aspects de la cyclogenèse semblent gouvernés, ou très sensibles, à la position et à l'intensité de ces anomalies. Les images des satellites géostationnaires permettent par ailleurs de visualiser les signatures de ces phénomènes, appelées intrusions sèches. Une première partie du travail adapte des outils de traitement d'image à la détection et au suivi des intrusions sèches sur les images vapeur d'eau. On utilise une approche basée sur des multi-seuillages et le suivi automatisé de structures (logiciel RDT). Le développement de caractéristiques supplémentaires s'avère nécessaire afin de sélectionner les intrusions associées à des événements dynamiques importants. L'une d'entre elles utilise l'information sur le courant-jet à partir de vents d'altitude de l'ébauche. Un deuxième volet s'applique à dégager une méthodologie de correction des structures en tourbillon potentiel à partir de ces informations. L'assimilation de données conventionnelle ne permet pas d'initialiser spécifiquement les structures. Nous décrivons les méthodes alternatives et étudions les possibilités, et limitations, d'une méthodologie basée sur l'assimilation de pseudo-observations. Cela débouche en particulier sur une version renouvelée de la relation entre vapeur d'eau et tourbillon potentiel. Les outils développés sont appliqués à la prévision de la tempête des Landes (2006). L'utilisation de données de concentration d'ozone est finalement évoquée comme une méthode alternative d'initialisation du tourbillon potentiel à la tropopause

Page generated in 0.0719 seconds