• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Image processing in digital pathology: an opportunity to improve the characterization of IHC staining through normalization, compartmentalization and colocalization

Van Eycke, Yves-Remi 15 October 2018 (has links) (PDF)
With the increasing amount of information needed for diagnosis and therapeutic decision-making, and new trends such as “personalized medicine”, pathologists are expressing an increasing demand for automated tools that perform their most recurrent tasks in their daily practice, as well as an increase in the complexity of the analyses requested in their research activities. With current advances in histopathology, oncology, and biology, the current questions require the analysis of protein expression - evidenced using immunohistochemical (IHC) staining - within specific histological structures or tissue components, or the analysis of the co-expression of several proteins in a large number of tissue samples. In this Ph.D. thesis, we developed innovative solutions to make these analyses available for pathologists. To achieve this objective, we have used recent “machine learning” and, in particular, “deep learning” methodologies. We addressed different problems such as image normalization, to solve the important problem of inter-batch variability of IHC staining, and the automatic segmentation of histological structures, to compartmentalize protein expression quantification. Finally, we adapted image registration techniques to Tissue MicroArray (TMA) slide images to enable large-scale analyses of IHC staining colocalization. While imagenormalization will improve study reproducibility, the tools developed for automated segmentation will drastically reduce time and expert resources required for some studies as well as errors and imprecision due to the human factor. Finally, the work on image registration can provide answers to complex questions that require studying the potential interaction between several proteins on numerous histological samples. / Avec la quantité croissante d’informations nécessaires au diagnostic et à la prise de décision thérapeutique, et le développement de la “médecine personnalisée”, les pathologistes ont un besoin croissant d’outils automatisés pour exécuter leurs tâches les plus récurrentes. Ces outils se doivent également de réaliser des tâches de plus en plus complexes. En effet, avec les progrès récents en histopathologie, oncologie et biologie, les questions actuelles demandent, par exemple, l’analyse de l’expression de protéines révélées par marquages immunohistochimiques (IHC) au sein de structures ou compartiments histologiques spécifiques, ou encore l’analyse de la co-expression de plusieurs protéines dans un grand nombre d’échantillons. Dans cette thèse de doctorat, nous avons développé des solutions innovantes pour mettre ce type d’analyse à la disposition des pathologistes. Pour atteindre cet objectif, nous avons notamment fait appel à des méthodologies récentes de “machine learning” et, particulièrement, de “deep learning”. Nous avons ainsi abordé différentes questions telles que la normalisation d’images, pour résoudre l’important problème de la variabilité des marquages IHC, et la segmentation automatique de structures histologiques, pour permettre une quantification compartimentée de l’expression de protéines. Enfin, nous avons adapté des techniques dites de “recalage” aux images de lames de Tissue MicroArrays (TMA) pour permettre des analyses de colocalisation de marquages IHC à grande échelle. Alors que la normalisation des images améliore la reproductibilité des évaluations de marquages IHC, les outils développés pour la segmentation automatisée permettent de réduire significativement le temps et les ressources expertes nécessaires, ainsi que les erreurs et imprécisions dues au facteur humain. Enfin, les travaux sur le recalages d’images permettent d’apporter des éléments de réponse à des questions complexes qui nécessitent d’étudier l’interaction potentielle entre plusieurs protéines sur de nombreux échantillons histologiques. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
272

Évaluation d'un modèle a priori basé sur un seuillage de la TCD en super-résolution et comparaison avec d'autres modèles a priori

St-Onge, Philippe January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
273

Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmables / Contribution to the definition, optimization and implementation of signal processing IPs on programmable target

Ouerhani, Yousri 16 November 2012 (has links)
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s’affranchir de l’avènement des circuits numériques. C’est dans ce cadre que s’inscrivent les travaux de cette thèse dont l’objectif est de proposer une implantation numérique des méthodes optiques de traitement d’images. Pour réaliser cette implantation nous avons choisi d’utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP « Intellectual Properties ». Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l’IP FFT proposée 3 fois meilleure que celle de l’IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde. / The main objective of this thesis is to realize a numerical implementation of optical methods of image and signal processing. To achieve this end, we opted to use FPGA (Field Programmable Gate Array) and GPU (Graphical Processing Unit) devices. This choice is justified by their high performance in terms of speed. In addition, to improve productivity, we focused on the reuse of predesigned blocks or "Intellectual Properties" IP. While existing commercial IP are optimized, they are often paid and highly dependent on the card. The first contribution is to provide an optimized IP for Fourier transform (FFT) and the cosine transform (DCT) computing. Indeed, the choice of these two transformations is justified by the widespread use of these two transforms (FFT and DCT), particularly in pattern recognition and compression algorithms. The second contribution is to validate the operation of the proposed IP using a bench test. The last contribution is to implement on FPGA and GPU applications for pattern recognition and compression. One of the convincing results obtained in this thesis is to propose an IP for FFT computing three times faster than Xilinx IP and thus to achieve 4700 correlations per second.
274

Tree-based shape spaces : definition and applications in image processing and computer vision / Espaces de formes basés sur des arbres : définition et applications en traitement d'images et vision par ordinateur

Xu, Yongchao 12 December 2013 (has links)
Dans le travail présenté dans cette thèse, nous proposons d'élargir les idées des opérateurs connexes à base d'arbres. Nous introduisons la notion d'espaces de formes à base d'arbres, construit à partir des représentations d'image à base d'arbres. De nombreuses méthodes de l'état de l'art, s'appuyant sur ces représentations d'images à base d'arbres, consistent à analyser cet espace de forme. Une première conséquence de ce changement de point de vue est notre proposition d'un détecteur de caractéristiques locales, appelé les « tree-based Morse regions » (TBMR). Cette approche peut être considérée comme une variante de la méthode des MSER. La sélection des TBMRs est basée sur des informations topologiques, et donc extrait les régions indépendamment du contraste, ce qui la rend vraiment invariante aux changements de contraste; de plus, la méthode peut être considérée sans paramètres. La précision et la robustesse de l'approche TBMR sont démontrées par le test de reproductibilité et par des applications au recalage d'image et à la reconstruction 3D, en comparaison des méthodes de l'état de l'art. L'idée de base de la proposition principale dans cette thèse est d'appliquer les opérateurs connexes à l'espace des formes. Un tel traitement est appelé la morphologie basée sur la forme. Ce cadre polyvalent traite des représentations d'images à base de région. Il a trois conséquences principales. 1) Dans un but de filtrage, il s'agit d'une généralisation des opérateurs connexes à base d'arbres. En effet, le cadre englobe les opérateurs connexes classiques par attributs. En outre, il permet également de proposer deux nouvelles classes d'opérateurs connexes: nivellements inférieurs/supérieurs à base de forme et shapings. 2) Ce cadre peut être utilisé pour la détection/segmentation d'objets en sélectionnant les points pertinents dans l'espace des formes. 3) Nous pouvons également utiliser ce cadre pour transformer les hiérarchies en utilisant les valeurs d'extinction, obtenant ainsi une simplification/segmentation hiérarchique. Afin de montrer l'utilité de l'approche proposée, plusieurs applications sont développées. Les applications à l'analyse d'images rétinenne de filtrage basé sur la forme montrent qu'une simple étape de filtrage, comparée à des traitements plus évolués, réalise des résultats au niveau de l'état de l'art. Une application de shaping pour la simplification d'image est proposée, fondée sur une minimisation de la fonctionnelle de Mumford-Shah subordonnée à l'arbre de formes. Pour la détection/segmentation d'objets, nous proposons un estimateur de l'énergie basée sur le contexte. Cet estimateur est approprié pour caractériser la signification d'objet. Enfin, nous étendons le cadre de la connectivité contrainte en utilisant l'aspect de transformation de hiérarchie / In a large number of applications, the processing relies on objects or area of interests, and the pixel-based image representation is notwell adapted. These applications would benefit from a region-based processing. Early examples of region-based processing can be found in the area of image segmentation, such as the quad tree. Recently, in mathematical morphology, the connected operators have received much attention. They are region-based filtering tools that act by merging flat zones. They have good contour preservation properties in the sense that they do not create any new boundaries, neither do they shift the existing ones. One popular implementation for connected operators relies on tree-based image representations, notably threshold decomposition representations and hierarchical representations. Those tree-based image representations are widely used in many image processing and computer vision applications. Tree-based connected operators consist in constructing a set of nested or disjoint connected components, followed by a filtering of these connected components based on an attribute function characterizing each connected component. Finally, the filtered image is reconstructed from the simplified tree composed of the remaining connected components. In the work presented in this thesis, we propose to expand the ideas of tree-based connected operators. We introduce the notion of tree-based shape spaces, built from tree-based image representations. Many state-of-the-art methods relying on tree-based image representations consist of analyzing this shape space. A first consequence of this change of point of view is our proposition of a local feature detector, called the tree-based Morse regions (TBMR). It can be seen as a variant of the MSER method. The selection of TBMRs is based on topological information, and hence it extracts the regions independently of the contrast, which makes it truly contrast invariant and quasi parameters free. The accuracy and robustness of the TBMR approach are demonstrated by the repeatability test and by applications to image registration and 3D reconstruction, as compared to some state-of-the-art methods. The basic idea of the main proposition in this thesis is to apply connected filters on the shape space. Such a processing is called the framework of shape-based morphology. It is a versatile framework that deals with region-based image representations. It has three main consequences. 1) For filtering purpose, it is a generalization of the existing tree-based connected operators. Indeed, the framework encompasses classical existing connected operators by attributes. Besides, It also allows us to propose two classes of novel connected operators: shape-based lower/upper levelings and shapings. 2) This framework can be used to object detection/segmentation by selecting relevant points in the shape space. 3) We can also use this framework to transform the hierarchies using the extinction values, so that a hierarchical simplification or segmentation is obtained. Some applications are developed using the framework of shape-based morphology to demonstrate its usefulness. The applications of the shape-based filtering to retinal image analysis show that a mere filtering step that we compare to more evolved processings, achieves state-of-the-art results. An efficient shaping used for image simplification is proposed by minimizing Mumford-Shah functional subordinated to the topographic map. For object detection/segmentation, we proposed a context-based energy estimator that is suitable to characterize object meaningfulness. Last, we extend the hierarchy of constrained connectivity using the aspect of hierarchy transformation of constrained connectivity using the aspect ofhierarchy transformation.
275

Conception de métaheuristiques pour l'optimisation dynamique : application à l'analyse de séquences d'images IRM / Design of metaheuristics for dynamic optimization : application to the analysis of MRI image sequences

Lepagnot, Julien 01 December 2011 (has links)
Dans la pratique, beaucoup de problèmes d'optimisation sont dynamiques : leur fonction objectif (ou fonction de coût) évolue au cours du temps. L'approche principalement adoptée dans la littérature consiste à adapter des algorithmes d'optimisation statique à l'optimisation dynamique, en compensant leurs défauts intrinsèques. Plutôt que d'emprunter cette voie, déjà largement explorée, l'objectif principal de cette thèse est d'élaborer un algorithme entièrement pensé pour l'optimisation dynamique. La première partie de cette thèse est ainsi consacrée à la mise au point d'un algorithme, qui doit non seulement se démarquer des algorithmes concurrents par son originalité, mais également être plus performant. Dans ce contexte, il s'agit de développer une métaheuristique d'optimisation dynamique. Deux algorithmes à base d'agents, MADO (MultiAgent algorithm for Dynamic Optimization) et MLSDO (Multiple Local Search algorithm for Dynamic Optimization), sont proposés et validés sur les deux principaux jeux de tests existant dans la littérature en optimisation dynamique : MPB (Moving Peaks Benchmark) et GDBG (Generalized Dynamic Benchmark Generator). Les résultats obtenus sur ces jeux de tests montrent l'efficacité des stratégies mises en oeuvre par ces algorithmes, en particulier : MLSDO est classé premier sur sept algorithmes évalués sur GDBG, et deuxième sur seize algorithmes évalués sur MPB. Ensuite, ces algorithmes sont appliqués à des problèmes pratiques en traitement de séquences d'images médicales (segmentation et recalage de séquences ciné-IRM cérébrales). A notre connaissance, ce travail est innovant, en ce sens que l'approche de l'optimisation dynamique n'avait jamais été explorée pour ces problèmes. Les gains de performance obtenus montrent l'intérêt d'utiliser les algorithmes d'optimisation dynamique proposés pour ce type d'applications / Many real-world problems are dynamic, i.e. their objective function (or cost function) changes over time. The main approach used in the literature is to adapt static optimization algorithms to dynamic optimization, compensating for their intrinsic defects. Rather than adopting this approach, already widely investigated, the main goal of this thesis is to develop an algorithm completely designed for dynamic optimization. The first part of this thesis is then devoted to the design of an algorithm, that should not only stand out from competing algorithms for its originality, but also perform better. In this context, our goal is to develop a dynamic optimization metaheuristic. Two agent-based algorithms, MADO (MultiAgent algorithm for Dynamic Optimization) and MLSDO (Multiple Local Search algorithm for Dynamic Optimization), are proposed and validated using the two main benchmarks available in dynamic environments : MPB (Moving Peaks Benchmark) and GDBG (Generalized Dynamic Benchmark Generator). The benchmark results obtained show the efficiency of the proposed algorithms, particularly : MLSDO is ranked at the first place among seven algorithms tested using GDBG, and at the second place among sixteen algorithms tested using MPB. Then, these algorithms are applied to real-world problems in medical image sequence processing (segmentation and registration of brain cine-MRI sequences). To our knowledge, this work is innovative in that the dynamic optimization approach had never been investigated for these problems. The performance gains obtained show the relevance of using the proposed dynamic optimization algorithms for this kind of applications
276

Caractérisation de texture par analyse en ondelettes complexes pour la segmentation d’image : applications en télédétection et en écologie forestière / Textures characterization based on complex wavelet transform for image segmentation : applications on remote sensing images and forest ecology

Kennel, Pol 08 November 2013 (has links)
L'analyse des images numériques, bien que largement étudiée, reste encore aujourd'hui un réel défi. Avec pour objectifs la description pertinente et la reconnaissance sémantique du contenu de celles-ci, de nombreuses applications requièrent une attention particulière quant à cette analyse. Pour répondre à ces besoins, l'analyse du contenu des images est réalisée de façon automatique grâce à des méthodes informatiques se rapprochant par exemple des mathématiques, des statistiques, de la physique. Une façon pertinente et reconnue de représenter les objets observés dans les images réside dans leur segmentation. Couplée à la classification, la segmentation permet une ségrégation sémantique de ces objets. Cependant, les méthodes existantes ne peuvent être considérées comme génériques, et bien que motivées par de nombreux domaines (militaire, médical, satellite, etc.), celles-ci sont continuellement réévaluées, adaptées et améliorées. Par exemple, les images satellites se démarquent dans le milieu de l'image de par leur spécificité d'acquisition, de par leur support ou de par le sujet d'observation (la Terre dans notre cas).Cette thèse à pour but d'explorer les méthodes de caractérisation et de segmentation supervisées exploitant la notion de texture. Les sols observés depuis l'espace, à des échelles et des résolutions différentes, peuvent être perçus comme texturés. Les cartes d'occupation des sols peuvent être obtenues par la segmentation d'images satellites, notamment en utilisant l'information texturale. Nous proposons le développement d'algorithmes de segmentation compétitifs caractérisant la texture par l'utilisation de représentations multi-échelles des images obtenues par décomposition en ondelettes et de classificateurs supervisés tels que les Support Vector Machines. Dans cette optique, cette thèse est principalement articulée autour de plusieurs projets de recherche nécessitant une étude des images à des échelles et des résolutions différentes, ces images étant elles-mêmes de nature variée (e.g. multi-spectrales, optiques, LiDAR). Nous dériverons, pour ces différents cas d'étude, certains aspects de la méthodologie développée. / The analysis of digital images, albeit widely researched, continues to present a real challenge today. In the case of several applications which aim to produce an appropriate description and semantic recognition of image content, particular attention is required to be given to image analysis. In response to such requirements, image content analysis is carried out automatically with the help of computational methods that tend towards the domains of mathematics, statistics and physics. The use of image segmentation methods is a relevant and recognized way to represent objects observed in images. Coupled with classification, segmentation allows a semantic segregation of these objects. However, existing methods cannot be considered to be generic, and despite having been inspired by various domains (military, medical, satellite etc), they are continuously subject to reevaluation, adaptation or improvement. For example satellite images stand out in the image domain in terms of the specificity of their mode of acquisition, their format, or the object of observation (the Earth, in this case).The aim of the present thesis is to explore, by exploiting the notion of texture, methods of digital image characterization and supervised segmentation. Land, observed from space at different scales and resolutions, could be perceived as being textured. Land-use maps could be obtained through the segmentation of satellite images, in particular through the use of textural information. We propose to develop competitive algorithms of segmentation to characterize texture, using multi-scale representations of images obtained by wavelet decomposition and supervised classifiers such as Support Vector Machines.Given this context, the present thesis is principally articulated around various research projects which require the study of images at different scales and resolutions, and which are varying in nature (eg. multi-spectral, optic, LiDAR). Certain aspects of the methodology developed are applied to the different case studies undertaken.
277

Analyse multimodale et multicritères pour l'expertise et la localisation de défauts dans les composants électriques modernes / multimodal and multi-criteria analysis for the expertise and locating faults in modern electrical components

Boscaro, Anthony 20 November 2017 (has links)
Ce manuscrit de thèse illustre l’ensemble des travaux de recherche répondant aux problématiques de traitement des données issues des techniques de localisation de défauts. Cette phase de localisation étant une étape déterminante dans le processus d’analyse de défaillances des circuits submicroniques, il est primordial que l’analyste exploite les résultats de l’émission de lumière et du sondage laser. Cependant, ce procédé d’expertise reste séquentiel et dépend uniquement du jugement de l’expert. Cela induit une probabilité de localisation non quantifiée. Afin de pallier ces différents défis, nous avons développé tout au long de cette thèse, une méthodologie d’analyse multimodale et multicritères exploitant le caractère hétérogène et complémentaire des techniques d’émission de lumière et de sondage laser. Ce type d’analyse reposera sur des outils de haut niveau tels que le traitement du signal et la fusion de données, pour au final apporter une aide décisionnelle à l’expert à la fois qualitative et quantitative.Dans un premier temps, nous détaillerons l’ensemble des traitements utilisés en post-acquisition pour l’amélioration des données 1D et 2D. Par la suite, l’analyse spatio-temporelle des données en sondage laser sera explicitée. L’aide décisionnelle fera l’objet de la dernière partie de ce manuscrit, illustrant la méthode de fusion de données utilisée ainsi que des résultats de validation. / The purpose of this manuscript is to exhibit the research work solving the issue of data processing stem from defect localization techniques. This step being decisive in the failure analysis process, scientists have to harness data coming from light emission and laser techniques. Nevertheless, this analysis process is sequential and only depends on the expert’s decision. This factor leads to a not quantified probability of localization. Consequently to solve these issues, a multimodaland multicriteria analysis has been developped, taking advantage of the heterogeneous and complementary nature of light emission and laser probing techniques. This kind of process is based on advanced level tools such as signal/image processing and data fusion. The final aim being to provide a quantitive and qualitative decision help for the experts.The first part of this manuscript is dedicated to the description of the entire process for 1D and 2D data enhancement. Thereafter, the spatio-temporal analysis of laser probing waveforms will be tackled. Finally, the last part highlights the decision support brought by data fusion.
278

IRM de diffusion à haute résolution angulaire: estimation locale, segmentation et suivi de fibres

Descoteaux, Maxime 05 February 2008 (has links) (PDF)
La résolution actuelle des IRM pondérées en diffusion suggère qu'il y a entre un et deux tiers des voxels de la matière blanche qui contiennent plusieurs faisceaux de fibres qui se croisent. L'IRM par tenseur de diffusion (DTI) classique est intrinsèquement limitée à ces endroits par son hypothèse de base qu'un seul faisceau traverse chaque voxel de l'image. Le but de cette thèse est donc de développer des techniques d'IRM à haute résolution angulaire (HARDI) pour pouvoir retrouver une ou plusieurs fibres et surmonter aux limites DTI. L'imagerie par q-ball (QBI) est une technique récente qui permet d'estimer la distribution d'orientation des fibres (ODF). La technique de QBI ainsi que l'ODF de diffusion des fibres permettent de retrouver plusieurs directions de fibres en chaque voxel de l'image. Ceux-ci joueront donc un rôle important tout au long de ce document. Cette thèse propose plusieurs contributions originales. D'abord, nous développons l'estimation robuste du signal HARDI en utilisant une base modifiée d'harmoniques sphériques et un terme de régularisation. Ensuite, nous proposons la modélisation du coefficient de diffusion apparent (ADC) pour étudier les mesures d'anisotropie HARDI et faire la classification des voxels contenant une distribution isotrope, une distribution d'une seule population de fibres et une distribution de plusieurs faisceaux fibres. Nous proposons de plus, le développement d'une solution analytique pour estimer l'ODF de diffusion en QBI ainsi qu'un nouvel algorithme de segmentation de ces images d'ODF obtenues par le QBI. Nous présentons également le calcul de l'ODF de fibres avec une nouvelle méthode de déconvolution sphérique à partir des données QBI. Enfin, nous développons de nouveaux algorithmes de suivi de fibres (tracking) déterministes et probabilistes à partir de l'ODF du q-ball et l'ODF de fibres. Finalement, tous ces nouveaux algorithmes sont testés et appliqués sur des données HARDI simulées, sur un fantôme biologique et sur des données réelles de plusieurs sujets dans des régions complexes avec plusieurs faisceaux qui se croisent.Nos résultats illustrent clairement la valeur ajoutée de nos méthodes HARDI sur la plupart des méthodes courantes en DTI qui négligent ces faisceaux complexes, ce qui peut amener à une mauvaise analyse et interprétation de l'anatomie et des fonctions cérébrales.
279

Traitement d'images en analyse de défaillances de circuits intégrés par faisceau d'électrons

Conard, Dider 11 February 1991 (has links) (PDF)
Cette thèse présente l'étude et la réalisation d'un système automatique et intégré d'analyse de défaillances de circuits VLSI par faisceau d'électrons. Le principe d'analyse consiste a comparer les images représentant en contraste de potentiel le fonctionnement interne du circuit défaillant a celles d'un circuit de référence. L'application de cette technique de test a des circuits dont la structure détaillée est inconnue, a nécessité le développement d'un outil automatique permettant d'extraire les différences de contraste sur la totalité du circuit. L'automatisation s'est heurtée aux problèmes d'alignement entre les images a comparer. Une technique de reconnaissance des formes, basée sur la détection des coins, a été mise en œuvre pour s'affranchir de ces problèmes. Ces travaux ont été valides par une étude expérimentale menée sur des microprocesseurs 68000
280

Analyse de défaillances de circuits VLSI par testeur à faisceau d'électrons

Savart, Denis 27 June 1990 (has links) (PDF)
Cette thèse concerne l'analyse de défaillances de circuits VLSI et plus particulièrement la localisation automatique de défauts sur des circuits a structure non connue a l'aide d'un testeur par faisceau d'électrons. La première partie décrit le problème du point de vue de l'analyste et conclut sur la nécessité de l'emploi des techniques de test sans contact et plus particulièrement du testeur par faisceau d'électrons. La seconde partie décrit la methode employée pour localiser une défaillance au sein d'un circuit intégré, fondée sur la comparaison de l'image en contraste de potentiel du circuit défaillant avec l'image d'un circuit identique réputé bon. Les problèmes lies a l'automatisation complète de la phase de comparaison sont ensuite détaillés et des solutions sont apportées. Les algorithmes de traitement des images sont décrits en détail; certains ayant été spécialement développés pour la nature spécifique des images de circuits intégrés (binarisation et corrélation par recherche des coins). La troisième partie décrit les deux phases expérimentales effectuées sur deux équipements différents et permet de montrer la faisabilité de la methode de comparaison et surtout la fiabilité du processus automatique. La dernière partie conclut par la nécessité de développer les applications informatisées autour de l'outil testeur par faisceau d'électrons

Page generated in 0.1128 seconds