• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 54
  • 23
  • 18
  • 16
  • 8
  • 7
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 154
  • 38
  • 31
  • 28
  • 28
  • 28
  • 26
  • 24
  • 23
  • 23
  • 18
  • 17
  • 16
  • 15
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Automatic Liver and Tumor Segmentation from CT Scan Images using Gabor Feature and Machine Learning Algorithms

Shrestha, Ujjwal 19 December 2018 (has links)
No description available.
102

Rendu d'images en demi-tons par diffusion d'erreur sensible à la structure

Alain, Benoît 12 1900 (has links)
Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie. / This work covers some important methods in the domain of halftoning: analog screening, ordered dither, direct binary search, and most particularly error diffusion. The methods will be compared in the modern perspective of sensitivity to structure. A novel halftoning method is also presented and subjected to various evaluations. It produces images of visual quality comparable to that of the state-of-the-art Structure-aware Halftoning method; at the same time, it is two to three orders of magnitude faster. First is described how an image can be decomposed into its local frequency content. Then, the basic behavior of the proposed method is given. Next, a carefully chosen set of parameters is presented that allow modifications to this behavior, so as to maximize the eventual reactivity to frequency content. Finally, a calibration step determines what values the parameters should take for any local frequency information encountered. Once the algorithm is assembled, any image can be treated very efficiently: each pixel is attached to its dominant frequency, the frequency serves as lookup index to the calibration table, proper diffusion parameters are retrieved, and the determined output color contributes in expectation to underline the structure from which the pixel comes.
103

Efficient FPGA Architectures for Separable Filters and Logarithmic Multipliers and Automation of Fish Feature Extraction Using Gabor Filters

Joginipelly, Arjun Kumar 13 August 2014 (has links)
Convolution and multiplication operations in the filtering process can be optimized by minimizing the resource utilization using Field Programmable Gate Arrays (FPGA) and separable filter kernels. An FPGA architecture for separable convolution is proposed to achieve reduction of on-chip resource utilization and external memory bandwidth for a given processing rate of the convolution unit. Multiplication in integer number system can be optimized in terms of resources, operation time and power consumption by converting to logarithmic domain. To achieve this, a method altering the filter weights is proposed and implemented for error reduction. The results obtained depict significant error reduction when compared to existing methods, thereby optimizing the multiplication in terms of the above mentioned metrics. Underwater video and still images are used by many programs within National Oceanic Atmospheric and Administration (NOAA) fisheries with the objective of identifying, classifying and quantifying living marine resources. They use underwater cameras to get video recording data for manual analysis. This process of manual analysis is labour intensive, time consuming and error prone. An efficient solution for this problem is proposed which uses Gabor filters for feature extraction. The proposed method is implemented to identify two species of fish namely Epinephelus morio and Ocyurus chrysurus. The results show higher rate of detection with minimal rate of false alarms.
104

Comparative study of table layout analysis : Layout analysis solutions study for Swedish historical hand-written document

Liang, Xusheng January 2019 (has links)
Background. Nowadays, information retrieval system become more and more popular, it helps people retrieve information more efficiently and accelerates daily task. Within this context, Image processing technology play an important role that help transcribing content in printed or handwritten documents into digital data in information retrieval system. This transcribing procedure is called document digitization. In this transcribing procedure, image processing technique such as layout analysis and word recognition are employed to segment the document content and transcribe the image content into words. At this point, a Swedish company (ArkivDigital® AB) has a demand to transcribe their document data into digital data. Objectives. In this study, the aim is to find out effective solution to extract document layout regard to the Swedish handwritten historical documents, which are featured by their tabular forms containing the handwritten content. In this case, outcome of application of OCRopus, OCRfeeder, traditional image processing techniques, machine learning techniques on Swedish historical hand-written document is compared and studied. Methods. Implementation and experiment are used to develop three comparative solutions in this study. One is Hessian filtering with mask operation; another one is Gabor filtering with morphological open operation; the last one is Gabor filtering with machine learning classification. In the last solution, different alternatives were explored to build up document layout extraction pipeline. Hessian filter and Gabor filter are evaluated; Secondly, filter images with the better filter evaluated at previous stage, then refine the filtered image with Hough line transform method. Third, extract transfer learning feature and custom feature. Fourth, feed classifier with previous extracted features and analyze the result. After implementing all the solutions, sample set of the Swedish historical handwritten document is applied with these solutions and compare their performance with survey. Results. Both open source OCR system OCRopus and OCRfeeder fail to deliver the outcome due to these systems are designed to handle general document layout instead of table layout. Traditional image processing solutions work in more than a half of the cases, but it does not work well. Combining traditional image process technique and machine leaning technique give the best result, but with great time cost. Conclusions. Results shows that existing OCR system cannot carry layout analysis task in our Swedish historical handwritten document. Traditional image processing techniques are capable to extract the general table layout in these documents. By introducing machine learning technique, better and more accurate table layout can be extracted, but comes with a bigger time cost. / Scalable resource-efficient systems for big data analytics
105

Modèle connexionniste neuromimétique pour la perception visuelle embarquée du mouvement

Castellanos SÁnchez, Claudio 21 October 2005 (has links) (PDF)
Le recherche en connexionnisme est en face des fortes contraintes d'autonomie en robotique notamment issues des tâches perceptives visuelles qui n'ont pas encore été satisfaites par les modèles neuronaux utilisés jusqu'à aujourd'hui, surtout celles liées à la perception du mouvement. Dans ce cadre, nous proposons un modèle connexionniste neuromimétique permettant de traiter un ensemble de tâches de perception visuelle dynamique (robot/objets environnants en mouvement). Cela implique le compromis de maintenir la satisfaction des contraintes (bio-inspiration, traitements locaux massivement distribués en vue d'une implantation ultérieure temps-réel embarquée sur circuit FPGA, Field Programmable Gate Array) au coeur de la définition du modèle proposé, malgré la complexité des tâches en jeu.<br />Le modèle connexionniste proposé pour la perception visuelle du mouvement est constitué de trois modules : le premier opère un filtrage spatio-temporel causal issu des filtres de Gabor et inspiré des réponses des cellules simples du cortex visuel primaire, V1. Le deuxième met en place un mécanisme distribué de fortes interactions localisées fondé sur un principe antagoniste inspiré de l'organisation en colonnes d'orientation dans V1. Finalement, en nous inspirant des propriétés des champs récepteurs des neurones de MT et MST (aire temporelle moyenne et supérieur moyenne, respectivement), nous intégrons les réponses du second module et les envoyons au troisième. Ce dernier fait émerger un seul objet en mouvement à travers l'évolution en différentes cartes des interactions latérales, en pro-action et en retro-action d'une population neuronale densément interconnectée selon le principe de la CNFT (Continuum Neural Field Theory). L'attention sur l'objet émergé nous permet donc de le suivre.
106

Application de la théorie des bancs de filtres à l'analyse et à la conception de modulations multiporteuses orthogonales et biorthogonales

Siclet, Cyrille 18 November 2002 (has links) (PDF)
Les modulations multiporteuses ont prouvé leur intérêt pour les transmissions à haut débit, avec fil (ADSL) ou sans fil (DAB, DVB-T, HIPERLAN,...). Les applications citées mettent toutes en oeuvre un cas particulier de modulation multiporteuse, l'OFDM avec un filtre de mise en forme rectangulaire. Le but de cette thèse est de déterminer de nouvelles formes de modulations multiporteuses plus générales et utilisant des filtres de mise en forme mieux adaptés à certains types de canaux de transmission. Les techniques BFDM/QAM suréchantillonnées et BFDM/OQAM qui utilisent des filtres de modulation (dits prototypes) orthogonaux ou non sont ainsi étudiées avec une approche à temps discret qui prend en compte leur réalisation matérielle. Cette étude se base d'une part sur l'analogie existant entre les systèmes de Weyl-Heisenberg et les modulations multiporteuses, et d'autre part sur l'analogie existant entre les bancs de filtres et les modulations multiporteuses. Une écriture à l'aide de familles de Weyl-Heisenberg et une réalisation sous la forme d'un transmultiplexeur sont fournies pour chacune de ces modulations. Dans chacun de ces deux cas, on établit des conditions de biorthogonalité (c'est-à-dire des conditions de démodulation parfaite sur canal parfait) équivalentes portant sur les composantes polyphases des filtres prototypes. On en déduit alors des relations de dualité entre les bancs de filtres MDFT et les modulations BFDM/OQAM. Ceci est aussi équivalent au fait que, pour un type particulier de système de Weyl-Heisenberg dans $\lZ$ considéré comme un espace de Hilbert sur $\R$, deux familles de Weyl-Heisenberg sont biorthogonales, si et seulement si elles constituent deux frames duales. Par ailleurs, l'étude des transmultiplexeurs associés aux modulations BFDM/QAM et BFDM/OQAM conduit à plusieurs schémas de réalisation équivalents mettant en oeuvre des algorithmes de FFT et IFFT et la dualité établie entre les modulations BFDM/OQAM et les bancs de filtres MDFT aboutit à un nouveau codeur en sous-bandes MDFT généralisé et à délai de reconstruction réduit. Deux critères d'optimisation des prototypes sont utilisés : la maximisation de la localisation temps-fréquence et la minimisation de l'énergie hors-bande. Des techniques d'optimisation permettant d'obtenir des filtres orthogonaux ou biorthogonaux quasi-optimaux vis-à-vis de l'un de ces deux critères sont décrites. Enfin, les intérêts respectifs des prototypes orthogonaux et biorthogonaux, optimisés vis-à-vis de l'un ou l'autre de ces critères sont illustrés par des simulations sur différents types de canaux de transmission.
107

Extraction and Application of Secondary Crease Information in Fingerprint Recognition Systems

Hymér, Pontus January 2005 (has links)
<p>This thesis states that cracks and scars, referred to as Secondary Creases, in fingerprint images can be used as means for aiding and complementing fingerprint recognition, especially in cases where there is not enough clear data to use traditional methods such as minutiae based or correlation techniques. A Gabor filter bank is used to extract areas with linear patterns, where after the Hough Transform is used to identify secondary creases in a r, theta space. The methods proposed for Secondary Crease extraction works well, and provides information about what areas in an image contains usable linear pattern. Methods for comparison is however not as robust, and generates False Rejection Rate at 30% and False Acceptance Rate at 20% on the proposed dataset that consists of bad quality fingerprints. In short, our methods still makes it possible to make use of fingerprint images earlier considered unusable in fingerprint recognition systems.</p>
108

In-situ temperature and thickness characterization for silicon wafers undergoing thermal annealing

Vedantham, Vikram 15 November 2004 (has links)
Nano scale processing of IC chips has become the prime production technique as the microelectronic industry aims towards scaling down product dimensions while increasing accuracy and performance. Accurate control of temperature and a good monitoring mechanism for thickness of the deposition layers during epitaxial growth are critical parameters influencing a good yield. The two-fold objective of this thesis is to establish the feasibility of an alternative to the current pyrometric and ellipsometric techniques to simultaneously measure temperature and thickness during wafer processing. TAP-NDE is a non-contact, non-invasive, laser-based ultrasound technique that is employed in this study to contemporarily profile the thermal and spatial characteristics of the wafer. The Gabor wavelet transform allows the wave dispersion to be unraveled and the group velocity of individual frequency components to be extracted from the experimentally acquired time waveform. The thesis illustrates the formulation of a theoretical model that is used to identify the frequencies sensitive to temperature and thickness changes. The group velocity of the corresponding frequency components is determined and their corresponding changes with respect to temperature for different thickness are analytically modeled. TAP-NDE is then used to perform an experimental analysis on Silicon wafers of different thickness to determine the maximum possible resolution of TAP-NDE towards temperature sensitivity, and to demonstrate the ability to differentiate between wafers of different deposition layer thickness at temperatures up to 600?C. Temperature resolution is demonstrated for ?10?C resolution and for ?5?C resolution; while thickness differentiation is carried out with wafers carrying 4000? and 8000? of aluminum deposition layer. The experimental group velocities of a set of selected frequency components extracted using the Gabor Wavelet time-frequency analysis as compared to their corresponding theoretical group velocities show satisfactory agreement. As a result of this work, it is seen that TAP-NDE is a suitable tool to identify and characterize thickness and temperature changes simultaneously during thermal annealing that can replace the current need for separate characterization of these two important parameters in semiconductor manufacturing.
109

Robust recognition of facial expressions on noise degraded facial images

Sheikh, Munaf January 2011 (has links)
<p>We investigate the use of noise degraded facial images in the application of facial expression recognition. In particular, we trained Gabor+SVMclassifiers to recognize facial expressions images with various types of noise. We applied Gaussian noise, Poisson noise, varying levels of salt and pepper noise, and speckle noise to noiseless facial images. Classifiers were trained with images without noise and then tested on the images with noise. Next, the classifiers were trained using images with noise, and then on tested both images that had noise, and images that were noiseless. Finally, classifiers were tested on images while increasing the levels of salt and pepper in the test set. Our results reflected distinct degradation of recognition accuracy. We also discovered that certain types of noise, particularly Gaussian and Poisson noise, boost recognition rates to levels greater than would be achieved by normal, noiseless images. We attribute this effect to the Gaussian envelope component of Gabor filters being sympathetic to Gaussian-like noise, which is similar in variance to that of the Gabor filters. Finally, using linear regression, we mapped a mathematical model to this degradation and used it to suggest how recognition rates would degrade further should more noise be added to the images.</p>
110

Caracterització, reconeixement de patrons i detecció de defectes en textures periòdiques mitjançant anàlisi d'imatges. Aplicació a teixits textils

Escofet Soteras, Jaume 23 September 1999 (has links)
La forta exigència de qualitat a que són sotmesos els productes actuals fa que els processos d'inspecció i control industrial ocupin, cada vegada més, un lloc destacat en la seva fabricació. La indústria relacionada amb els materials de superfície texturada i periòdica (malles metàl·liques, plàstics, paper, làmines, roba, etc.) no és aliena a aquest problema i, en l'actualitat, està esmerçant molts esforços en aquest camp. Un cas representatiu dels materials anteriors, que presenta una ampla problemàtica en quan a inspecció i control així com una elevada exigència de qualitat en l'acabat, és el teixit tèxtil.La majoria de defectes que es produeixen en el procés productiu d'un material tèxtil, com en tants altres materials i productes industrials, són detectats encara per inspectors humans. La seva feina és, en general, molt repetitiva i rutinària i, moltes vegades, el consum de temps que hi dediquen és molt elevat. A més cal fixar l'atenció en petits detalls situats en un camp extens, que sovint es troba en moviment, el que acaba produint fatiga visual en l'operari.En les últimes dècades, gràcies al gran desenvolupament tecnològic que hi ha hagut, estem assistint a una sèrie d'avenços, molt ràpids i de gran abast, en el món dels processos d'automatització i control. A conseqüència d'això, cada vegada el procés de producció és més ràpid, el que requereix que el control de qualitat també ho sigui.L'interès industrial en automatitzar les operacions d'inspecció és cada vegada més gran. A tall d'exemple la fira tèxtil internacional que reuneix més interès i expectació a nivell mundial, ITMA-99, celebrada aquest any a París, mostrava en els seus stands diferents productes dedicats a l'automatització dels processos d'inspecció i control de qualitat. Entre les ofertes d'aquesta fira cal citar una gran varietat d'instruments i dispositius: sensors òptics per inspeccionar la qualitat del fil en temps real en processos de filatura, espectrecolorímetres acoblats a l'estampadora i a la màquina de tintar per determinar amb més precisió el color, cameres lineals i cameres 2-D ultraràpides per detectar fils trencats en ordidors. En el camp del tissatge s'ha començat a veure en aquesta fira un sistema d'inspecció format per un conjunt (10 o 12) de cameres 2-D, situades damunt del teler, que detecta defectes locals que es poden produir en la roba durant el procés de producció. Des de la penúltima fira (ITMA-94) ha sigut novetat una màquina de repassar automàtica, on un sistema digital de processat format per 4 cameres i un potent ordinador, permet detectar una més ampla varietat de defectes locals i amb una velocitat nominal que pot arribar fins a 300 metres de roba per minut. Malgrat tot, les novetats aportades per la fira presenten grans limitacions: preu elevat, infrastructura complexa en la captació i processat de la imatge i, els resultats que s'obtenen només han estat validats per casos limitats (teixit de plana i d'un sol color). A més, si es té en compte que molts processos de producció són de tirada curta, canviant constantment el tipus d'article del teler, es necessita un sistema que sigui robust i versàtil, capaç de treballar amb diferents lligaments i colors i que el seu cost sigui més baix que el dels productes actuals.Revisant la última dècada, la més rellevant en el desenvolupament d'aquestes tecnologies, s'observa un clar increment en l'aplicació de tècniques de processat digital de la imatge a l'anàlisi de mostres texturades [Brzakovic-1992]. En el cas de la inspecció de materials tèxtils Chetverikov [Chetverikov-1988] desenvolupà un procés d'inspecció automàtica en teixits tèxtils que combina l'anàlisi de textures i la segmentació d'imatges. Neubauer [Neubauer-1992] segmentà defectes en mostres reals amb l'ajut d'una camera lineal i una xarxa neuronal. Siew et al. [Siew-1988] mesuraren les característiques texturals en catifes a partir d'estadístiques de primer i segon ordre aplicades als nivells de grisos de la imatge. Zhang i Bresse [Zhang-1995] detectaren i classificaren nusos, carreres i trencades mitjançant l'autocorrelació i operacions de morfologia matemàtica. Tsai et al. [Tsai-1995] detectaren i classificaren exactament quatre classes de defectes en teixits tèxtils utilitzant matrius de co-ocurrència i xarxes neuronals. Xu [Xu-1997] mesurà la rugositat en les superfícies de catifes a partir de la dimensió fractal de la imatge. Mitjançant tècniques combinades de filtrat Gaussià, umbralització, equalització de l'histograma i autocorrelació Kang et al. [Kang-1999] determinaren densitats lineals de fils en els direccions de trama i ordit per teixits de plana.La inspecció de materials texturats quasiperiòdics i, en particular els tèxtils, mitjançant tècniques de processat òptic-digital de la imatge és un camp d'investigació relativament poc treballat i que presenta un interès renovat. En aquest apartat es troben poques contribucions entre les que cal destacar Kang et al. [Kang-1999] que trobaven directament, a partir de la llum transmesa pel teixit, el punt de creuament dels fils en teixits de plana i Ciamberlini [Ciamberlini-1996] que operava amb la TF òptica de la llum transmesa pel teixit.Les eines que actualment estan al mercat són insuficients i es centren principalment en la resolució d'un aspecte: la detecció de defectes locals. En la literatura no és troben plantejaments generals que abastin des de models i procediments per caracteritzar les estructures fins a mecanismes que determinin la seva evolució o resistència davant d'agressions, la detecció de defectes globals en l'estructura i la detecció de defectes locals. Creiem que aquest plantejament general, que pot ser vàlid per a una gran varietat de materials, és també necessari. En aquest treball s'han aplicat, principalment a materials tèxtils, un conjunt d'eines inspirades en aquest plantejament.

Page generated in 0.1328 seconds