Spelling suggestions: "subject:"imagerie industrielle"" "subject:"magerie industrielle""
1 |
Interprétation d'images acquises en situation de faible éclairement ou d'éclairement variable / Processing images acquired under low light and variable conditionsCarré, Maxime 20 September 2013 (has links)
La qualité d’une prise de vue est un point incontournable dans la résolution des problèmes d’imagerie. Un capteur non adapté, un éclairage non contrôlé, ou des conditions variables de la scène observée peuvent être à l’origine de problèmes très difficiles à surmonter. Nous présentons différentes méthodes de traitement d’image permettant de prendre en compte au mieux ces conditions de prise de vue instables. Les approches que nous proposons sont définies dans le cadre du modèle LIP (Logarithmic Image Processing). Dans une première partie, nous nous intéressons à des notions de contraste : le contraste LIP additif et un nouveau contraste LIP multiplicatif, ainsi qu’à leurs métriques associées. De nouveaux outils de traitement basés sur ces notions sont ensuite définis : seuillage, détecteur de contours, reconnaissance de modèle. L’utilisation de ces notions de contraste confère à ces algorithmes la capacité des contrastes LIP à s’adapter à différents types d’images mal conditionnées. Nous proposons ensuite de nouvelles techniques de correction de dynamique d’images en exploitant les opérations LIP. Différentes corrections globales et locales sont présentées ainsi que leurs applications directes : correction de dérive d’éclairement pour du contrôle industriel ou amélioration d’image pour de la visualisation. Nous obtenons notamment une méthode de correction locale dont les résultats se rapprochent de ceux de certaines techniques de tone mapping. En comparaison, notre technique s’avère simple, rapide (temps réel à 30 images par seconde) et réaliste car basée sur une interprétation physique de la problématique / The quality of image acquisitions is crucial in the resolution of imaging problems. Troubles during acquisiton can lead to unstability for image processing algorithms. We propose different methods (thresholding techniques, contour detection, pattern matching) based on new metrics and contrasts in the LIP context. The LIP (Logarithmic Image Processing) model is recognized as an efficient framework to process images acquired in transmitted light and to take into account the human visual system. LIP operations are also useful to simulate varitations of image parameters in situation of reflected light. Finally, we propose new methods of global and local dynamic enhancement in the LIP framework like a real time and realistic local dynamic correction that brings results close to those obtained by certain tone mapping methods
|
2 |
Scattering correction in cone beam tomography using continuously thickness-adapted kernels / Correction du diffusé en tomographie par une méthode de convolution par noyaux continusBhatia 1990-...., Navnina 29 September 2016 (has links)
La tomodensitométrie intégrant une source de rayons X à faisceau divergent et un détecteur grand champ est une technique bien connue dans le domaine de la tomographie industrielle. La nature des matériaux et les épaisseurs traversées conduisent inévitablement à la génération de rayonnement diffusé. Ce dernier est généré par l’objet mais également par le détecteur. La présence de rayonnement parasite conduit à ne plus respecter l’hypothèse de la loi de Beer-Lambert. Par conséquent, on voit apparaitre sur les coupes tomographiques des artefacts de reconstruction comme des streaks, des effets ventouses ou des valeurs d’atténuation linéaire erronée. Par conséquence, on retrouve dans la littérature de nombreuses méthodes de correction du diffusé. Ce travail vise à mettre en point et tester une méthode originale de correction du diffusé. Le premier chapitre de cette étude, dresse un état de l’art de la plupart des méthodes de corrections existantes. Nous proposons, dans le deuxième chapitre, une évolution de la méthode de superposition des noyaux de convolution (Scatter Kernel Superposition). Notre méthode repose sur une description continue des noyaux en fonction de l’épaisseur traversée. Dans cette méthode, les noyaux de diffusion sont paramétrés analytiquement sur toute la plage d'épaisseur. Le procédé a été testé pour des objets à la fois mono-matériaux et poly-matériaux, ainsi que sur des données expérimentales et simulées. Nous montrons dans le troisième chapitre l’importance de la contribution du diffusé détecteur dans la qualité de l’image reconstruite. Mais également l’importance de décrire les noyaux de convolution à l'aide d'un modèle à quatre gaussienne. Les résultats obtenus à partir de données expérimentales prouvent que la correction du diffusé de l'objet seul ne suffit pas pour obtenir une image de reconstruite sans artefacts. Afin de disposer d’une meilleur modélisation du diffusé du détecteur, nous décrivons, dans le dernier chapitre, une méthode basée sur la combinaison de données expérimentales et simulées permettant d’améliorer l’estimation des noyaux de diffusé. / Advanced Cone Beam Computed Tomography (CBCT) typically uses a divergent conebeam source and a large area detector. As a result, there an inevitable increase in the size area of illumination causing an increase in the intensity of X-ray scatter signal, both from the object and the detector. This leads to the violation of prime assumption of reconstruction process which is based on straight line integrals path followed by the photons. Consequently scatter artifacts appear in the reconstruction images as steaks, cupping effect and thus produce wrong reconstruction values. Due to the severity of the reconstruction artifact caused by scatter, many scatter corrections methods have been adopted in literature. The first part of this study, reviews most of the existing scatter correction methods. The effect of scattering becomes more prominent and challenging in case of X-ray source of high energy which is used in industrial Non Destructive Testing (NDT), due to higher scatter to primary ratio (SPR). Therefore, in this study, we propose a continuously thickness-adapted deconvolution approach based on improvements in the Scatter Kernel Superposition (SKS) method. In this method, the scatter kernels are analytically parameterized over the whole thickness range of the object under study to better sample the amplitude and shape of kernels with respect to the thickness. The method is tested for both homogeneous and heterogeneous objects as well as simulated and experimental data. Another important aspect of this study is the comprehensive evaluation of contribution of the detector scatter performed using continuous method by separating the contribution of scatter due to the object and the detector. This is performed by modeling the scatter kernels using a four-Gaussian model. In the first approach, we performed this evaluation based on simulation of kernels from Monte Carlo simulations and the corrections are performed on typical industrial experimental data. The results obtained prove that the scatter correction only due to the object is not sufficient to obtain reconstruction image, free from artifacts, as the detector also scatters considerably. In order to prove this point experimentally and to have a better modeling of the detector, we describe a method based on combination of experiments and simulations to calculate the scatter kernels. The results obtained also prove, the contribution of the detector scattering becomes important and the PSF of the detector is not constant as considered in the studies so far, but it varies to a great extend with the energy spectrum.
|
Page generated in 0.0997 seconds