• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 21
  • 4
  • Tagged with
  • 72
  • 72
  • 65
  • 47
  • 42
  • 35
  • 33
  • 22
  • 18
  • 16
  • 13
  • 12
  • 11
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Approche non supervisée de segmentation de bas niveau dans un cadre de surveillance vidéo d'environnements non contrôlés

Martel-Brisson, Nicolas 18 April 2018 (has links)
La présente thèse propose un algorithme de segmentation de bas niveau pour des environnements complexes, allant de scènes intérieures peuplées aux scènes extérieures dynamiques. Basé sur des méthodes d'apprentissage développées pour une séquence vidéo où la caméra est fixe, le système est en mesure d'identifier les sections de l'image appartenant aux objets ou personnes d'avant-plan et ce, en dépit de perturbations temporelles de l'image de l'arrière-plan causées par les ombres, éléments naturels, changements d'illumination, etc. Nous proposons un cadre statistique d'estimation de densité de probabilité basé sur des kernels (KDE). Méthode polyvalente, les KDE requièrent toutefois des séquences d'entraînement où l'activité de l'avant-plan est minimale afin d'obtenir une bonne description initiale de la distribution de l'arrière-plan. Afin d'augmenter la flexibilité de ce type d'approche, nous exploitons la cohérence spatiale des événements d'avant-plan : en minimisant une fonction d'énergie globale par coupure de graphe, nous estimons les probabilités à priori et les densités associées à l'avant et l'arrière-plan pour chaque pixel de la scène. Pour y arriver, des indices tels la dispersion des données, la probabilité associée aux modes dans l'espace RGB, la persistance spatiale des événements et l'entropie relative des régions dans l'image sont utilisés dans un cadre statistique cohérent. Les ombres projetées qui sont détectées lors du processus de soustraction d'arrière-plan induisent des perturbations, tels la distorsion et la fusion des silhouettes, qui nuisent à la performance générale d'algorithmes de plus haut niveau dans un contexte de surveillance vidéo. Deux stratégies sont alors proposées afin de d'éliminer l'ombre projetée de la région d'intérêt. La première méthode utilise la capacité d'apprentissage de l'algorithme de Mixtures de Gaussiennes (GMM) dans le but de caractériser le comportement des ombres projetées sur les surfaces composant l'arrière-plan. La deuxième méthode s'appuie sur les propriétés physiques de l'ombre projetée et d'une mesure de gradient dans un cadre statistique non paramétrique afin d'estimer les valeurs d'atténuation des surfaces ombragées. La méthode permet la différenciation des ombres et de l'avant-plan lorsque ceux-ci partagent des valeurs de chromaticité similaire. Les résultats démontrent que notre approche est efficace dans une multitude de scénarios complexes.
12

Combinaison de caméras thermique et couleur pour la segmentation cibles/arrière-plan en environnement non contrôlé

St-Laurent, Louis 18 April 2018 (has links)
La plupart des systèmes de surveillance vidéo que l’on retrouve actuellement sur le marché utilisent uniquement la région visible du spectre électromagnétique. De plus, les solutions proposées à ce jour afin de suivre automatiquement les objets en mouvement dans une scène sont souvent trop exigeantes numériquement pour pourvoir être effectuées en temps réel et présentent une dégradation significative des performances en environnement extérieur. L’objectif de cette thèse est d’exploiter la combinaison d’informations thermique et visible afin d’améliorer l’efficacité de détection et de suivi d’objets d’intérêt en environnement non contrôlé. Dans le cadre de ce projet, un seul nœud d’acquisition fixe est considéré. Un nœud est constitué d’une caméra thermique LWIR (8 - 12 m) et d’une caméra visible couleur. Trois défis techniques majeurs sont abordés : le développement d’une plateforme d’acquisition thermique / visible optimisée pour les applications de surveillance vidéo en environnement extérieur, la segmentation, en temps réel, d’objets en mouvement en environnement non contrôlé, et finalement, la combinaison de l’information thermique et couleur. Un intérêt soutenu est porté à la rapidité d’exécution afin d’atteindre une vitesse de traitement minimale de 10 trames par secondes. Il importe de mentionner que cette thèse a principalement été orientée selon les besoins du programme de Vision de l’INO, conférant ainsi un caractère très pratique et concret à la recherche. De ce fait, les algorithmes développés ont été continuellement testés et améliorés dans le cadre d'applications réelles. Les éléments relatifs à la mise en correspondance d'images thermique et visible ont permis le développement et la fabrication de le caméra VIRXCam, un produit offert par l'INO. Les algorithmes de détection constituent pour leur part le cœur du logiciel de surveillance vidéo AWARE, déjà utilisé depuis 2007 par un partenaire de l'INO s'intéressant au positionnement des objets en mouvement sur les pistes, voies de circulation et aires de stationnement d'aéroports. Cette thèse constitue un recueil très complet des éléments à considérer lors du développement d’une plateforme de vidéo surveillance en environnement extérieur. Tant les aspects matériels que logiciels sont traités. Nous espérons qu’elle constituera un ouvrage de référence pour les personnes qui s’intéressent au développement d’algorithmes temps réel pour des applications de détection de cibles en environnement non-contrôlé ou à la conception d’un capteur hybride thermique / visible. / Most existing video monitoring systems only use the visible range of the electromagnetic spectrum. Moreover, approaches proposed until now for automated target detection and tracking are often too computationally expensive for real-time applications and suffer significant performance degradation in outdoor environment. The purpose of this thesis is to make the most of thermal and visible information in order to improve efficiency of detection and tracking of moving target in uncontrolled environment. Within the framework of this project, only one motionless acquisition node is considered. A node includes a LWIR thermal camera (8 - 12 m) and a color electro-optical camera. Three main technical challenges are tackled: development of an hybrid thermal / visible acquisition platform optimized for video monitoring applications in outdoor environment, segmentation of moving targets in uncontrolled environment, and finally, combination of thermal and color information. For every aspect, special attention is addressed to computational efficiency to reach a minimum processing rate of 10 frames per second. It is worth to mention that this thesis has mainly been oriented along needs of INO's Vision program, conferring a very concrete and practical aspect to the research. Hence, developed algorithms have been continually assessed and improved in the context of real applications. Notions related to thermal / visible images registration have lead to development and manufacturing of the INO's VIRXCam camera, while detection algorithms are the grounding elements of INO's AWARE video monitoring library, used since 2007 by an INO's partner interested in positioning of moving targets on airport aprons, taxiways and runways. This thesis regroups most notions to be considered in the development of an outdoor video monitoring system. Both hardware and software aspects are addressed. We hope that this document will be used as a work of reference for those interested in the development of algorithms devoted to real-time detection of moving targets in uncontrolled environment, or interested in the design of hybrid thermal/electro-optical acquisition platform.
13

Algorithmes pour la modélisation de l'apparence

Perreault, Simon 12 April 2018 (has links)
Ce mémoire est divisé en (Unix parties indépendantes. La première; propose un nouvel algorithme de filtrage médian, lequel est une pierre; angulaire dans plusieurs situations de traitement d'image. Cependant, son utilisation a souvent été entravée; par sa complexité algorithmique de 0(r) selon le rayon de la fenêtre. Avec la tendance; vers des images de; meilleure résolution et des fenêtres de filtre proportionnellement plus larges, le besoin pour un algorithme de filtrage médian efficient devient pressant. Dans ce mémoire, un nouvel algorithme, simple mais bien plus rapide, affichant une complexité en temps d'exécution de O(l), est décrit et analysé. Sa performance est mesurée et comparée à celle des algorithmes précédents. Des extensions vers des données de plus haute dimensionnalité ou précision, ainsi qu'une approximation de fenêtre circulaire, sont aussi présentées. Dans la seconde partie, un système de modélisation de l'apparence d'objets est présenté. Il consiste en un robot à câbles déplaçant un appareil photo numérique autour du sujet en en prenant un grand nombre de photos. Le traitement informatique subséquent doit accomplir trois grandes tâches : segmentation, positionnement 3-D des photos et reconstruction de l'enveloppe visuelle de l'objet. Dans ce mémoire, les algorithmes impliqués sont analysés, critiqués et des améliorations sont proposées. En particulier, des algorithmes efficients pour le calcul d'enveloppe visuelle et pour la méthode des K plus proches voisins sont présentés. Le système dans son ensemble est finalement jugé selon les objectifs de conception préétablis et des recommandations sont faites afin d'en améliorer les performances. / This dissertation is divided into two independent parts. The first one proposes a new median filter algorithm. The median filter is one of the basic building blocks in many image processing situations. However, its use has long been hampered by its algorithmic complexity of 0(r) in the kernel radius. With the trend toward larger images and proportionally larger filter kernels, tlu; need for a more efficient median filtering algorithm becomes pressing. In this dissertation, a new, simple yet much faster algorithm exhibiting O(l) runtime complexity is described and analyzed. Tt is compared and benchmarked against previous algorithms. Extensions to higher-dimensional or higher-precision data and an approximation to a circular kernel are presented as well. In the second part, a system for modeling object appearances is presented. It consists in a cable robot moving a digital camera around the subject while taking a high number of photos of it. The ensuing computer processing must accomplish three tasks : segmentation, 3-D positioning of the photos, and reconstruction of the object's visual hull. In this dissertation, the implied algorithms are analyzed, criticized, and improved. In particular, efficient algorithms for Computing the visual hull and for performing the K nearest neighbors method are presented. The system as a whole is finally judged according to the preestablished design objectives and recommendations are made in order to improve its performances.
14

Ré-observabilité des points caractéristiques pour le calibrage et le positionnement d'un capteur multi-caméra

Ouellet, Jean-Nicolas 17 April 2018 (has links)
Le calibrage et le positionnement de caméras reposent sur l'extraction de caractéristiques dans l'image et leur reconnaissance dans les images subséquentes. Une caractéristique est une région de l'image localement saillante à laquelle sont associées une position et une description de l'apparence de cette région. Les algorithmes de calibrage et de positionnement reposent sur l'hypothèse qu'un ensemble de caractéristiques correspondantes est l'observation du même point physique de la scène. Toutefois, cette hypothèse n'est pas nécessairement respectée par toutes les caractéristiques correspondantes. Les causes de la présence de ces caractéristiques nuisibles sont multiples, allant de biais induits par la méthode de localisation dans l'image, jusqu'à la déformation de l'image lorsque la caméra change de point de vue. Le principal défi du calibrage et du positionnement est donc l'identification de caractéristiques fiables. Pour pallier ce problème, nous introduisons le concept de ré-observabilité d'une caractéristique. Ce concept regroupe l'unicité du point physique et la reconnaissance. Un point de la scène est défini par ses observations dans les images et par les poses associées à ces images. Ainsi, une caractéristique doit être localisée le plus précisément possible dans l'image. Pour ce faire, nous avons identifié les biais affectant la localisation des caractéristiques dans l'image en calibrage pour une scène contrôlée et en positionnement où le capteur évolue dans une scène inconnue. Pour chaque biais, nous proposons une solution simple permettant de réduire, voire éliminer le biais. Ceci a mené au développement de nouveaux détecteurs de caractéristiques. Ensuite, à partir de plusieurs images, nous évaluons la cohérence entre les observations et les poses de la caméra à l'aide de critères multi-vue. Les caractéristiques nuisibles peuvent alors être identifiées. L'aspect reconnaissance est traité en évaluant la distinction des caractéristiques qui peuvent être distinctes localement ou globalement dans la scène. Une application directe de ce concept concerne la visibilité des caractéristiques où l'observation d'une caractéristique distincte globalement renforce la probabilité d'observer une caractéristique distincte localement si elles ont été observées conjointement. Chacun des concepts de la ré-observabilité est appuyé par une application réelle de calibrage et de positionnement d'un capteur multi-caméra.
15

Segmentation, regroupement et classification pour l'analyse d'image polarimétrique radar

El Mabrouk, Abdelhai 18 April 2018 (has links)
Les images de télédétection radar sont caractérisées par un important bruit multi- plicatif, le chatoiement. La polarisation de l'onde est utilisée pour obtenir plus d'infor- mation sur la cible au sol. La décomposition du signal permet de caractériser le type de rétrodiffusion : de volume, de surface ou double bond. L'objectif de ce mémoire est d'illustrer et de mettre en évidence les avantages de la segmentation hiérarchique et du regroupement hiérarchique pour l'analyse d'images polarimétriques radar. Pour la classification H/A/alpha, on doit effectuer préalablement un filtrage pour réduire le bruit dans la classification. Nous proposons d'utiliser la segmentation hiérarchique et le regroupement hiérarchique pour faire un premier regroupement des pixels. Nous mon- trons que les résultats de la classification H/A/alpha et du regroupement de Wishart sont améliorés avec ce prétraitement. Nous utilisons deux images polarimétriques SAR pour notre étude. / Radar remote sensing images are characterized by an important multiplicative noise, the speckle. The polarization of the wave is used to obtain more information about the ground target. The scattering type is obtained from the signal decomposition : volume, surface or double bond. The objective of the thesis is to show and illustrate the advan- tages of the hierarchical segmentation and clustering for the analysis of polarimetric radar images. Filtering is needed to reduce the noise in H/A/alpha classification. We propose to use the hierarchical segmentation and the hierarchical clustering for a first grouping of the pixels. This produces a simple image while preserving the spatial infor- mation. The results of H/A/alpha classification and Wishart clustering are improved with this preprocessing. Two polarimetric images SAR are used for the study.
16

Une étude sur la réduction du PAPR dans un système OFDM

Arab, Samir 16 April 2018 (has links)
Les systèmes de communications ont beaucoup évolué ces dernières années, surtout les systèmes sans fil, et de plus en plus la nécessité d'utilisation d'une grande vitesse de transmission de données s'impose. Mais la technologie existante a des contraintes pour suivre la progression de la vitesse de transmission nécessaire ; plusieurs méthodes et techniques ont vu le jour pour remédier à ce problème. Le multiplexage par division en fréquences orthogonales (OFDM) est une alternative due à sa robustesse contre les évanouissements sélectifs en fréquence et sa résistance aux interférences entre symboles (IES). Ce dernier (IES) est un problème dans la communication de données à grande vitesse.L'émission pour les systèmes sans fil à grande distance nécessite l'utilisation d'amplificateurs de puissance (AP), mais l'utilisation des systèmes OFDM, entre autres, présente de forts pics d'amplitude de l'enveloppe du signal modulé et donc des variations importantes en puissance instantanée. Pour les systèmes OFDM on doit prendre en considération le paramètre (PAPR) "Peak-to- Aver age Power Ratio" qui a une influence directe sur l'AP. Parmi les techniques de réduction du PAPR, on retrouve les techniques qui consistent à traiter le signal avant l'émission. Ces méthodes sont en général simple à implémenter. Dans ce travail, on parle des différentes méthodes de réduction de PAPR, en mettant l'emphase sur la méthode d'écrêtage.
17

Combustion monitoring for biomass boilers using multivariate image analysis

Cousineau-Pelletier, Myriam 16 April 2018 (has links)
Les procédés de combustion sont utilisés dans la plupart des industries chimiques, métallurgiques et manufacturières, pour produire de la vapeur (chaudières), pour sécher des solides ou les transformer dans des fours rotatifs (ou autres). Or, les combustibles fossiles qui les alimentent (ex. : gaz naturel) sont de plus en plus dispendieux, ce qui incite plusieurs compagnies à utiliser d’autres sources de combustibles tels que de la biomasse, des rejets inflammables produits par le procédé lui-même ou des combustibles fossiles de moindre qualité. Ces alternatives sont moins coûteuses, mais de composition, et donc de pouvoir calorifique, plus variable. De telles variations dans la chaleur dégagée par la combustion perturbent l’opération des procédés et la qualité des produits qui dépendent de ces installations. De nouvelles stratégies de contrôle de la combustion doivent donc être élaborées afin de tenir compte de cette nouvelle réalité. Il a été récemment démontré que l’énergie dégagée par la combustion est corrélée à l’aspect visuel de la flamme, principalement sa couleur, ce qui permet d’en quantifier les variations par imagerie numérique. L’objectif de ce projet industriel consiste à faire la démonstration que l’analyse d’images multivariées peut servir à l’identification du comportement d’une chaudière à biomasse. La chaudière à biomasse opérée par Irving Pulp & Paper Ltd (Saint-John, Nouveau-Brunswick) fera office d’exemple. Les résultats montrent qu’un modèle bâtit à partir des informations fournies par les images ainsi que les données de procédé donne de bonnes prédictions de la quantité de vapeur produite (R2modèle=93.6%, R2validation=70.1%) et ce, 2,5 minutes à l’avance. Ce projet est la première étape du développement d’une nouvelle stratégie de contrôle automatique de la combustion de biomasse, capable de stabiliser l’énergie dégagée, malgré les variations imprévisibles dans le pouvoir calorifique et les proportions des combustibles utilisés provenant de différentes sources. / Biomass is increasingly used in the process industry, particularly in utility boilers, as a low cost source of renewable, carbon neutral energy. It is, however, a solid fuel with some degree of moisture which feed rate and heat of combustion is often highly variable and difficult to control. Indeed, the variable bark properties such as its carbon content or its moisture content have an influence on heat released. Moreover, the uncertain and unsteady bark flow rate increases the level of difficulty for predicting heat released. The traditional 3-element boiler control strategy normally used needs to be improved to make sure the resulting heat released remains as steady as possible, thus leading to a more widespread use biomass as a combustible. It has been shown in the past that the flame digital images can be used to estimate the heat released by combustion processes. Therefore, this work investigates the use of Multivariate Image Analysis (MIA) of biomass combustion images for early detection of combustion disturbances. Applied to a bark boiler operated by Irving Pulp & Paper Ltd, it was shown to provide good predictions, 2.5 minutes in advance, of variations in steam flow rate (R2fit=93.6%, R2val=70.1%) when information extracted from images were combined with relevant process data. This project is the first step in the development of a new automatic control scheme for biomass boilers, which would have the ability to take proactive control actions before such disturbances in the manipulated variable (i.e. bark flow and bark properties) could affect steam production and steam header pressure.
18

Unsupervised reconstruction of a Visual Hull in space, time and light domains

Mikhnevich, Maxim 23 April 2018 (has links)
Cette thèse présente une approche de segmentation d’images sans supervision pour obtenir une série de silhouettes et l’enveloppe visuelle («Visual Hull») d’un objet observé à partir de plusieurs points de vue. L’approche proposée peut traiter essentiellement n’importe quelles propriétés d’apparence comme la texture, des couleurs similaires d’arrière-plan, la specularité, la transparence et d’autre phénomènes tels que des ombres et des débordements de couleur. Par rapport aux méthodes plus classiques d’extraction de silhouettes sur plusieurs vues, où certaines hypothèses sur l’objet ou la scène sont formulès, nous ne modélisons ni l’arrière-plan ni les propriétés d’apparence de l’objet. La seule hypothèse est la constance de l’arrière-plan considéré comme inconnu pour un point de vue lorsque l’objet bouge. L’idée principale de l’approche est d’estimer l’évolution temporelle de chaque pixel pour obtenir une mesure de stabilité. Celle-ci est utilisée pour construire la fonction de coût d’arrière-plan. Pour faire face aux ombres et aux ombres projetées, un objet est capturé sous différentes conditions d’éclairage. En outre, les informations d’espace, de temps et d’éclairage sont fusionnées et utilisées dans un formalisme de champ aléatoire de Markov et la fonction d’énergie construite est minimisée par «Graph Cuts». Les expérimentations en laboratoire, sous différentes conditions d’éclairage, montrent que l’approche proposée permet la reconstruction robuste de l’enveloppe visuelle pour une grande variété d’objets difficiles tels que les objets en verre (effets de transparence) ou en métal brillant (effets de réflexions spéculaires). / This thesis presents an unsupervised image segmentation approach for obtaining a set of silhouettes along with the Visual Hull of an object observed from multiple viewpoints. The proposed approach can deal with mostly any type of appearance characteristics such as texture, similar background color, shininess, transparency besides other phenomena such as shadows and color bleeding. Compared to more classical methods for silhouette extraction from multiple views, for which certain assumptions are made on the object or scene, neither the background nor the object appearance properties are modeled. The only assumption is the constancy of the unknown background for a given camera viewpoint while the object is under motion. The principal idea of the approach is the estimation of the temporal evolution of each pixel over time which provides a stability measurement and leads to its associated background cost function. In order to cope with shadows and self-shadows, an object is captured under different lighting conditions. Furthermore, the information from the space, time and lighting domains is exploited and merged based on a Markov Random Field framework and the constructed energy function is minimized via graph-cut. Real-data experiments under different lighting condition show that the proposed approach allows for robust Visual Hull reconstruction of a variety of challenging objects such as objects made of shiny metal or glass.
19

Tatouage numérique des images dans le domaine des ondelettes basé sur la décomposition en valeurs singulières et l'optimisation multi-objective

Loukhaoukha, Khaled 17 April 2018 (has links)
Depuis l'extraordinaire révolution technique de l'analogique vers le numérique à la fin du 20ième siècle, les documents numériques sont devenus de plus en plus utilisés à cause de leur diffusion peu coûteuse et extrêmement rapide. Cependant ce passage de l'analogique vers le numérique ne s'est pas fait sans engendrer des inquiétudes en terme des droits d'auteurs. Des personnes non autorisées peuvent s'approprier des documents numériques pour faire des profits au dépends des propriétaires légitimes ayant les droits initiaux, puisque son contenu peut être facilement copié, modifié et distribué sans risque d'être détérioré. Dans cette optique, au début des années 1990, une nouvelle technique a été introduite qui s'inspire principalement de la cryptographie et la stéganographie : elle consiste à inscrire une marque dans un document numérique. Cette technique est nommée le tatouage numérique, en anglais digital watermarking. Cette thèse présente cinq différentes contributions relatives au domaine du tatouage numérique et du traitement d'image. La première contribution est la proposition de deux solutions au problème de la détection positive fausse de la marque constatée dans certains algorithmes de tatouage numérique basés sur la décomposition en valeurs singulières. L'une des solutions est basée sur les fonctions de hachage et l'autre sur le cryptage d'image. La deuxième contribution est la proposition d'un algorithme de cryptage d'image basé sur le principe du cube Rubik. La troisième contribution est la conception d'un algorithme de tatouage numérique basé sur la transformée en ondelettes à base du schéma de lifting (LWT) et la décomposition en valeurs singulières (SVD). Un facteur scalaire unique est utilisé pour contrôler l'intensité de l'insertion de la marque, et permet ainsi de trouver le meilleur compromis entre la robustesse et l'imperceptibilité du tatouage numérique. Cependant, l'utilisation des facteurs scalaires multiples au lieu d'un facteur scalaire unique est plus intéressante [CKLS97]. Toutefois, la détermination des valeurs optimales des facteurs scalaires multiples est un problème très difficile et complexe. Afin de trouver ces valeurs optimales, on a utilisé séparément l'optimisation multi-objective par algorithme génétique (MOGAO) et l'optimisation multi-objective par l'algorithme de colonie de fourmis (MOACO) qui sont considérés comme la quatrième et la cinquième contributions de cette thèse.
20

Improvements to ultrasonic imaging with post-processing of full matrix capture data

Deschênes Labrie, Patrick 13 December 2023 (has links)
Ce mémoire présente les comparaisons entre les différentes méthodes de reconstruction "Total Focusing Method" (TFM) et des différents algorithmes modifiés qui utilisent les données obtenues avec la "Full Matrix Capture" (FMC) dans le but d'améliorer certains points clés présents dans les méthodes d'imageries, tel que les problèmes de reconstructions en sous-résolution ou bien des améliorations sur la détection. Les algorithmes conçus sont comparés en analysant les mêmes données pour les différents cas. De ces cas, l'imagerie de défauts isolés et puis ensuite celle d'une séquence de défauts très rapprochée ont été effectuées. Différentes recherches ont été effectuées sur les performances des algorithmes de reconstruction TFM en basse résolution. Ce mémoire montre que tous les types d'algorithmes présentés, soit la TFM standard, la TFM avec enveloppe d'Hilbert, la TFM intégration, la TFM intégration avec enveloppe d'Hilbert, la TFM restreinte en angle, la Migration et la Migration d'Hilbert sont toutes des méthodes valides de post-traitements des données capables d'imager convenablement les défauts présentés. Les différentes méthodes de reconstruction démontrent également des habilitées dépassant celles de la TFM standard dans certains points clés, en ayant seulement quelques points négatifs, tel que les temps de traitement ou bien l'augmentation du bruit de l'image. / This study shows the comparison between standard Total Focusing Method (TFM) and various modified algorithms using the data obtained from the Full Matrix Capture (FMC) in order to improve on some key points present in the aforementioned standard method of imaging, such as sub-resolution problems and improvements on detection. The designed algorithms were compared by processing the same data for different cases. Off those cases, the imaging of isolated defects and then imaging an array of close defects were analyzed. Further work have also been done on the performance of TFM algorithms in low resolution settings. The study has shown that all presented algorithms, which are the standard TFM, the Hilbert envelope TFM, the integration TFM, the Hilbert integration TFM, the angle restricted TFM, the Migration and the Hilbert Migration are all valid image post-processing reconstruction methods able to properly detect the defects presented. The different reconstruction methods used have also shown to outperform the standard TFM in a few key points, while having a few negative points such as the processing time and the increase noise.

Page generated in 0.0964 seconds