• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 832
  • 277
  • 83
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 1199
  • 502
  • 427
  • 295
  • 260
  • 259
  • 222
  • 207
  • 196
  • 192
  • 173
  • 135
  • 126
  • 122
  • 115
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

MOS Capacitor Deep Trench Isolation (CDTI) for CMOS Image Sensors / Tranchée d'isolement profonde de type capacité MOS verticale pour les capteurs d'images CMOS

Ahmed, Nayera 08 April 2015 (has links)
. / The development of high-resolution image sensors with smaller pixel sizes is facing critical issues, such as optical and electrical crosstalk, dark current and dynamic range. As part of this thesis, we addressed this issue by proposing the integration of MOS capacitor deep trench isolation (CDTI). Our studies focus on the validation of the proposal with the aim of improving performances compared to the state of the art. First, we modeled interface states Si/SiO2 and the charge in the oxide. By TCAD simulations, using our model, we were able to evaluate the main characteristics of a pixel. We have validated this approach by comparison between simulations and measurements on a 1.4μm DTI pixel. Then, we developed manufacturing processes for integrating CDTI and defined the associated key parameters. With TCAD simulations of process type, we could achieve the desired performances while keeping a short development cycle and cost. Finally, we have designed, manufactured and tested a 1.4μm CDTI pixel ; we got a very low dark current: ~ 1 aA/pixel at 60°C, which is 6 times less than the DTI pixel, and doubled saturation charge up to 12000e-. Other performances are comparable between the two types of pixels. We have demonstrated the validity of the proposed CDTI solution CDTI
142

Méthodes quantitatives d'analyse d'images rayons x pour usage en test non destructif et en reconnaissance assistée de défauts

Bélanger, Yohan 02 February 2024 (has links)
Ce mémoire porte sur l’étude de nouvelles méthodes quantitatives d’analyse d’images rayons x en test non destructif. Ces méthodes permettent d’obtenir plus d’information à partir d’images radiographiques numériques et devraient faciliter l’automatisation de l’inspection industrielle de pièces. Le travail se sépare en trois parties. Premièrement, le contexte de radiographie industrielle qui a mené à ce travail de recherche sera détaillé. Ensuite, il sera question d’un article publié dans le cadre de la conférence de recherche de l’ASNT en avril 2019 [5]. Cet article propose une nouvelle méthode quantitative d’analyse radiographique pour le craquement par corrosion sous contrainte des pipelines. Il est parfait pour introduire le reste de ce mémoire puisque le travail fait dans le cadre de cet article a directement contribué au reste de la recherche. Il sera ensuite question du travail effectué pour obtenir des images rayons x de défauts internes de pièces d’inspection industrielle. Nous parlerons des nouvelles méthodes ayant été appliquées, telles que la simulation, le recalage itératif d’une image simulée et l’optimisation de la courbe d’atténuation globale de la pièce. Pour terminer, nous montrerons le résultat de ce projet sous la forme d’images de différences entre les images simulées et les images réelles.
143

Détection d'anomalies basée sur les représentations latentes d'un autoencodeur variationnel

Caron, Stéphane 10 February 2024 (has links)
Dans ce mémoire, nous proposons une méthodologie qui permet de détecter des anomalies parmi un ensemble de données complexes, plus particulièrement des images. Pour y arriver, nous utilisons un type spécifique de réseau de neurones, soit un autoencodeur variationnel (VAE). Cette approche non-supervisée d'apprentissage profond nous permet d'obtenir une représentation plus simple de nos données sur laquelle nous appliquerons une mesure de distance de Kullback-Leibler nous permettant de discriminer les anomalies des observations "normales". Pour déterminer si une image nous apparaît comme "anormale", notre approche se base sur une proportion d'observations à filtrer, ce qui est plus simple et intuitif à établir qu'un seuil sur la valeur même de la distance. En utilisant notre méthodologie sur des images réelles, nous avons démontré que nous pouvons obtenir des performances de détection d'anomalies supérieures en termes d'aire sous la courbe ROC, de précision et de rappel par rapport à d'autres approches non-supervisées. De plus, nous avons montré que la simplicité de l'approche par niveau de filtration permet d'adapter facilement la méthode à des jeux de données ayant différents niveaux de contamination d'anomalies. / In this master's thesis, we propose a methodology that aims to detect anomalies among complex data, such as images. In order to do that, we use a specific type of neural network called the varitionnal autoencoder (VAE). This non-supervised deep learning approach allows us to obtain a simple representation of our data on which we then use the Kullback-Leibler distance to discriminate between anomalies and "normal" observations. To determine if an image should be considered "abnormal", our approach is based on a proportion of observations to be filtered, which is easier and more intuitive to establish than applying a threshold based on the value of a distance metric. By using our methodology on real complex images, we can obtain superior anomaly detection performances in terms of area under the ROC curve (AUC),precision and recall compared to other non-supervised methods. Moreover, we demonstrate that the simplicity of our filtration level allows us to easily adapt the method to datasets having different levels of anomaly contamination.
144

Removing camera shake blur and unwanted occluders from photographs / Restauration des images par l'élimination du flou et des occlusions

Whyte, Oliver 15 March 2012 (has links)
Cette thèse se concerne avec la restauration des images par l'élimination des occlusions indésirables et du flou attribué au mouvement de l'appareil. Ce flou est modélisé par un ensemble pondéré des poses de l'appareil, qui induit des transformations projectives sur l'image. Le flou est caractérisé par les poids, qui décrivent complètement le flou à tous les pixels de l'image. Nous montrons l'estimation directe de ces poids à partir des images seuls et des pairs d'images, en adaptent des algorithmes existants pour le défloutage (spatiellement-invariant) des images. Ceci nous permet de retrouver un version nette d'une image floue de manière automatique. Pour réduire le coût de l'utilisation de notre modèle, nous proposons une approximation fondée sur l'uniformité locale du flou. En groupant les pixels dans quelques régions locales, avec une seule fonction d'étalement du point (PSF) pour chaque région, nous pouvons utiliser des convolutions efficaces 2D pour calculer le flou. Ensuite, nous considérons le défloutage des images qui contiennent des pixels saturés et modifions notre modèle du flou pour inclure cette non-linéarité. Avec cette modèle, nous redérivons l'algorithme Richardson-Lucy en le modifiant afin de réduire le "ringing" attribué à celui-ci. Pour éliminer les occlusions indésirables, nous retrouvons automatiquement de l'Internet un ensemble d'images de la même scène. Nous obtenons une correspondance entre les pixels de chacune de ces images et de l'image cible avec des homgographies, et combinons plusieurs de ces images dans l'image cible pour remplacer les pixels occlus, en résoudrant un problème de minimisation d'énergie. / This thesis investigates the removal of spatially-variant blur from photographs degraded by camera shake, and the removal of large occluding objects from photographs of popular places. Spatially-variant blur caused by camera shake is modelled using a weighted set of camera poses, which induce homographies on the image. The blur in an image is parameterised by the set of weights, which fully describe the spatially-variant blur at all pixels. We demonstrate direct estimation of the blur weights from single and multiple images captured by conventional cameras, by adapting existing (spatially-invariant) deblurring algorithms. This permits a sharp image to be recovered from a blurry "shaken" image without any user interaction. To reduce the computational cost of our model, we introduce an approximation based on local-uniformity of the blur. By grouping pixels into local regions which share a single PSF, we can use fast 2D convolutions to perform the blur computation. For deblurring images with saturated pixels, we modify the forward model to include this non-linearity, and re-derive the Richardson-Lucy algorithm. To prevent ringing appearing in the output, we propose separate updates for pixels affected/not affected by saturation. In order to remove large occluders from photos, we automatically retrieve a set of exemplar images of the same scene from the Internet. We extract homographies between each of these images and the target image to provide pixel correspondences. Finally we combine pixels from several exemplars in a seamless manner to replace the occluded pixels, by solving an energy minimisation problem.
145

La programmation DC et DCA en analyse d'image : acquisition comprimée, segmentation et restauration / DC programming and DCA in image processing : compressed sensing, segmentation and restoration

Nguyen, Thi Bich Thuy 11 December 2014 (has links)
L’image est une des informations les plus importantes dans la vie. Avec le développement rapide des dispositifs d’acquisition d’images numériques par exemple les appareils photo numériques, les caméras de téléphones, les appareils d’imagerie médicale ou les dispositifs d’imagerie satellite..., les besoins de traitement et d’analyse des images sont de plus en plus croissants. Ils concernent les problèmes de l’acquisition, du stockage des images, de l’amélioration ou de l’information d’extraction d’une image,... Dans cette thèse, nous étudions le traitement et l’analyse des problèmes: acquisition comprimée, apprentissage de dictionnaire et débruitage d’images, segmentation d’images. La méthode que nous décrivons se base sur les approches d’optimisation déterministe, nommées la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution des problèmes d’analyse d’images cités précédemment. 1. Acquisition comprimée: une technique de traitement du signal pour acquérir et reconstruire un signal respectant les limites traditionnelles du théorème d’échantillonnage de Nyquist–Shannon, en trouvant la solution la plus parcimonieuse d’un système linéaire sous-déterminé. Cette méthode apporte la parcimonie ou la compressibilité du signal lorsqu’il est représenté dans une base ou un dictionnaire approprié qui permet au signal entier d’être déterminé à partir de certains mesures relatives. Dans cette thématique, nous nous intéressons à deux problèmes. Le premier est de trouver la représentation parcimonieuse d’un signal. Le second est la récupération du signal à partir de ses mesures compressées sur une base incohérente ou un dictionnaire. Les deux problèmes ci-dessus conduisent à résoudre un problème d’optimisation non convexe. Nous étudions trois modèles avec quatre approximations pour ces problèmes. Des algorithmes appropriés basés sur la programmation DC et DCA sont présentés. 2. Apprentissage du dictionnaire: Nous avons vu la puissance et les avantages de la représentation parcimonieuse des signaux dans l’acquisition comprimée. La représentation parcimonieuse d’un signal entier dépend non seulement des algorithmes de représentation mais aussi de la base ou du dictionnaire qui sont utilisés dans la représentation. Ainsi conduit un problème critique et les autres applications d’une manière naturelle. Au lieu d’utiliser une base fixe, comme wavelets (ondelettes) ou Fourier, on peut apprendre un dictionnaire, la matrice D, pour optimiser la représentation parcimonieuse d’une large classe de signaux donnés. La matrice D est appelée le dictionnaire appris. Pour ce problème, nous avons proposé un algorithme efficace basé sur DCA qui comprend deux étapes: la première étape - codage parcimonieux; le seconde étape - dictionnaire mis à jour. Une application de ce problème, débruitage d’images, est également considérée. 3. Segmentation d’images: il s’agit de partitionner une image numérique en segments multiples (ensembles des pixels). Le but de la segmentation est de simplifier et/ou de modifier la représentation d’une image en une forme qui est plus significative et plus facile à analyser. Nous avons développé une méthode efficace pour la segmentation d’images via le clustering flou avec la pondération de variables. Nous étudions également une application médicale qui est le problème de comptage de cellules. Nous proposons une combinaison de phase de segmentation et des opérations morphologiques pour compter automatiquement le nombre de cellules. Notre approche donne des résultats prometteurs dans la comparaison avec l’analyse manuelle traditionnelle en dépit de la densité cellulaire très élevée / Image is one of the most important information in our lives. Along with the rapid development of digital image acquisition devices such as digital cameras, phone cameras, the medical imaging devices or the satellite imaging devices..., the needs of processing and analyzing images is more and more demanding. It concerns with the problem of image acquiring, storing, enhancing or extracting information from an image,... In this thesis, we are considering the image processing and analyzing problems including: compressed sensing, dictionary learning and image denoising, and image segmentation. Our method is based on deterministic optimization approach, named the DC (Difference of Convex) programming and DCA (Difference of Convex Algorithms) for solving some classes of image analysis addressed above. 1. Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing a signal, which is breaking the traditional limits of sampling theory of Nyquist–Shannon by finding solutions to underdetermined linear systems. This takes advantage of the signal’s sparseness or compressibility when it is represented in a suitable basis or dictionary, which allows the entire signal to be determined from few relative measurements. In this problem, we are interested in two aspects phases. The first one is finding the sparse representation of a signal. The other one is recovering the signal from its compressed measurements on an incoherent basis or dictionary. These problems lead to solve a NP–hard nonconvex optimization problem. We investigated three models with four approximations for each model. Appropriate algorithms based on DC programming and DCA are presented. 2. Dictionary learning: we have seen the power and the advantages of the sparse representation of signals in compressed sensing. Finding out the sparsest representation of a set of signals depends not only on the sparse representation algorithms but also on the basis or the dictionary used to represent them. This leads to the critical problems and other applications in a natural way. Instead of using a fixed basis such as wavelets or Fourier, one can learn the dictionary, a matrix D, to optimize the sparsity of the representation for a large class of given signals (data). The matrix D is called the learned dictionary. For this problem, we proposed an efficient DCA based algorithm including two stages: sparse coding and dictionary updating. An application of this problem, image denoising, is also considered. 3. Image segmentation: partitioning a digital image into multiple segments (sets of pixels). The goal of segmentation is to simplify and/or change the representation of an image into a form that is more meaningful and easier to analyze. We have developed an efficient method for image segmentation via feature weighted fuzzy clustering model. We also study an application of image segmentation for cell counting problem in medicine. We propose a combination of segmentation phase and morphological operations to automatically count the number of cells. Our approach gives promising results in comparison with the traditional manual analysis in despite of the very high cell density
146

Outils de traitement d'images adaptés au traitement d'images omnidirectionnelles

Bigot-Marchand, Stéphanie 15 October 2008 (has links) (PDF)
Cette thèse est consacrée au développement d'outils de traitement adaptés aux images omnidirectionnelles grâce à la "sphère équivalente". En effet, l'utilisation directe de méthodes classiques (c'est-à-dire appropriées aux images réelles) sur des images omnidirectionnelles introduit des erreurs car elle ne prend pas en considération les distorsions introduites par le miroir. Projeter les images omnidirectionnelles sur cette sphère offre l'avantage de pouvoir effectuer les différents traitements sur un espace plus uniforme. Dans un premier temps, nous rappelons le principe de la vision omnidirectionnelle, puis nous nous attardons sur un capteur en particulier, celui composé d'une caméra observant un miroir parabolique. Nous donnons ensuite les éléments de démonstration pour justifier l'existence de la "sphère équivalente". Dans un second temps, nous présentons différents outils mathématiques (harmoniques sphériques, convolution sphérique...) nécessaires au développement de nos méthodes sphériques. Nous proposons ensuite la construction de plusieurs traitements bas-niveaux adaptés aux images sphériques : débruitage et détection de contours. Ces différentes méthodes ont fait l'objet de tests afin de déterminer leurs avantages par rapport aux "méthodes classiques" de traitements d'images omnidirectionnelles. Ces comparaisons ont mis en évidence l'avantage de ces "méthodes sphériques" qui offrent un traitement uniforme sur toute l'image.
147

Segmentation et suivi de structures par modèle déformable élastique non-linéaire. Application à l'analyse automatisée de séquences d'IRM cardiaques.

Schaerer, Joël 16 December 2008 (has links) (PDF)
Les pathologies cardio-vasculaires constituent une des premières causes de mortalité dans les pays occidentaux et en France. En particulier, les pathologies ischémiques en représentent une part significative qui sont elles- mêmes la consé- quence de pathologies vasculaires comme l'athérosclérose. Les progrès de l'imagerie cardiaque permettent aujourd'hui de voir en détail les effets des pathologies ischémiques sur le mouvement du cœur, notamment. L'imagerie cardiaque est ainsi un outil précieux pour l'aide au diagnostic de ce type de pathologies, et pour mieux comprendre leurs causes et leur évolution. A ce jour, l'exploitation de ces données en clinique reste cependant très incomplète. En effet, le volume très important de données rend quasiment impossible le trai- tement manuel complet des images acquises sur chaque patient. D'autre part, le traitement manuel des images manque d'objectivité et de reproductibilité, com- promettant la validité des résultats obtenus, tant dans un contexte de recherche que pour un diagnostic en clinique. Nous proposons de recourir à des méthodes d'analyse assistées par l'ordinateur pour améliorer l'exploitation de ces images, à savoir l'extraction de l'anatomie et du mouvement du cœur en 3D. Ces méthodes permettront d'apporter une aide au diagnostic précieuse en fournissant des para- mètres globaux et locaux de la fonction contractile. Elles permettront en outre de faire avancer les connaissances en permettant une analyse accélérée et objective de groupes importants de patients. L'analyse automatisée d'images cardiaques pose cependant de nombreux pro- blèmes méthodologiques. Les travaux menés à ce sujet ont montré que l'utilisation de modèles réalistes comme a priori dans les algorithmes est un pré-requis indis- pensable à leur efficacité. Dans le cadre de cette thèse, nous nous sommes focalisés sur l'évolution de la méthode du Gabarit Déformable Élastique (GDE) pour l'extraction automatique de l'anatomie cardiaque (cavités ventriculaires et enveloppe péricardique), déve- loppée au laboratoire Creatis-LRMN. Le GDE consiste à représenter le myocarde par un modèle de forme a priori que l'on déforme élastiquement pour l'adapter à la forme spécifique du cœur du patient. Au cours de cette thèse, un nouvel algorithme non-linéaire, permettant une meilleure prise en compte de la variabilité de la forme du cœur, a été développé en collaboration avec l'Institut Camille Jordan de Mathématiques Appliquées à Lyon. La collaboration avec des mathématiciens permet d'asseoir nos travaux sur des bases théoriques solides : une preuve de convergence de l'algorithme a été proposée [13]. Nous proposons en outre une méthode de multirésolution sur le maillage qui permet une accélération significative de l'algorithme, ainsi qu'une méthode de perturbation singulière permettant de s'assurer que le modèle est par- faitement adapté aux données [14]. Parallèlement, un travail a été réalisé pour l'amélioration de l'attache aux don- nées [15] et en particulier du champ de force qui guide la déformation du gabarit, de manière à améliorer la robustesse de la méthode, notamment avec les données issues des imageurs modernes. Nous proposons également plusieurs contributions pour le positionnement ini- tial du modèle dans les images. En particulier, l'utilisation d'un recalage par fonc- tions splines de plaque mince a été proposé [16], en collaboration avec le Profes- seur L. Axel à New York. Enfin, nous proposons d'étendre le GDE pour une modélisation dynamique et non plus statique du cœur, en s'appuyant sur une représentation harmonique du mouvement sur l'ensemble du cycle cardiaque et en proposant un algorithme original de résolution [17, 18]. Cette dernière proposition constitue sans doute la principale contribution de notre travail. Elle s'appuie là-aussi sur des résultats théoriques. Les méthodes proposées sont évaluées sur des données de synthèse et des données réelles acquises chez l'homme et le petit animal.
148

Caractérisation, modélisation et simulation des effets visuels du brouillard pour l'usager de la route

Dumont, Eric 27 November 2002 (has links) (PDF)
Sur la route, le brouillard est relativement rare, mais particulièrement meurtrier. Pour améliorer la sécurité des usagers, les solutions passent d'abord par la prévention, la prévision et la détection, mais également par la signalisation, l'éclairage et l'aide à la conduite. Toutefois, la conception de solutions adaptées, susceptibles de compenser la perte de visibilité induite par le brouillard, repose sur la compréhension du phénomène. De plus, l'évaluation de ces solutions en termes de comportement de conduite passe nécessairement par la simulation, étant donnée la quasi-impossibilité des expérimentations en brouillard réel. L'objet de cette étude est de décrire les dégradations induites par le brouillard dans l'environnement visuel du conducteur, en vue de les modéliser et de les reproduire sur simulateur de conduite.<br />Dans la première partie, essentiellement bibliographique, on commence par constater la contradiction entre la complexité et la diversité des propriétés microphysiques et optiques du brouillard d'une part, et l'utilisation courante de la notion de “ distance de visibilité ” pour en décrire les effets perceptifs d'autre part. On montre ensuite que la caractérisation des effets visuels du brouillard passe par une analyse fréquentielle des perturbations induites par la diffusion de la lumière dans la distribution de luminance formant le signal visuel. En vue de maîtriser le recueil des images indispensables à cette analyse, on choisit de faire appel à la synthèse d'images en privilégiant la méthode du tracé de rayons.<br />Dans la deuxième partie, on commence par décrire la technique de tracé de photons de type Monte-Carlo développée pour simuler la diffusion multiple et anisotrope de la lumière au sein d'un milieu polydispersé tel que le brouillard. Le code ainsi mis au point est ensuite mis en œuvre afin d'étudier les propriétés de la fonction de transfert de modulation d'une couche de brouillard, assimilée à un filtre optique, ce qui nous conduit à définir un opérateur fréquentiel de contraste pour caractériser le halo généré autour du signal transmis par l'énergie lumineuse diffusée. En se basant sur la loi de Koschmieder, on propose finalement un modèle étendu des effets visuels du brouillard – extinction, halo et voiles (atmosphérique et rétro-diffusé) – permettant de prédire les dégradations engendrées par le brouillard dans l'environnement visuel de l'usager de la route en toutes conditions de circulation. On montre également que le modèle proposé est compatible avec une mise en œuvre interactive sur simulateur de conduite.<br />Le modèle photométrique des effets visuels du brouillard issu de ce travail a dores et déjà fait l'objet d'une validation expérimentale, en collaboration avec des psychologues de la conduite. Il a également été utilisé pour améliorer les outils de simulation de conduite dans le brouillard, en collaboration avec une société spécialisée dans la simulation temps-réel. Il est prévu de mettre en œuvre ces outils pour étudier les performances de l'infrastructure routière en termes de visibilité et de lisibilité par temps de brouillard.
149

Modélisation et recherche de graphes visuels : une approche par modèles de langue pour la reconnaissance de scènes

Pham, Trong-Ton 02 December 2010 (has links) (PDF)
Content-based image indexing and retrieval (CBIR) system needs to consider several types of visual features and spatial information among them (i.e., different point of views) for better image representation. This thesis presents a novel approach that exploits an extension of the language modeling approach from information retrieval to the problem of graph-based image retrieval. Such versatile graph model is needed to represent the multiple points of views of images. This graph-based framework is composed of three main stages: Image processing stage aims at extracting image regions from the image. It also consists of computing the numerical feature vectors associated with image regions. Graph modeling stage consists of two main steps. First, extracted image regions that are visually similar will be grouped into clusters using an unsupervised learning algorithm. Each cluster is then associated with a visual concept. The second step generates the spatial relations between the visual concepts. Each image is represented by a visual graph captured from a set of visual concepts and a set of spatial relations among them. Graph retrieval stage is to retrieve images relevant to a new image query. Query graphs are generated following the graph modeling stage. Inspired by the language model for text retrieval, we extend this framework for matching the query graph with the document graphs from the database. Images are then ranked based on the relevance values of the corresponding image graphs. Two instances of the visual graph model have been applied to the problem of scene recognition and robot localization. We performed the experiments on two image collections: one contained 3,849 touristic images and another composed of 3,633 images captured by a mobile robot. The achieved results show that using visual graph model outperforms the standard language model and the Support Vector Machine method by more than 10% in accuracy.
150

Segmentation d'images à très haute résolution spatiale basée sur l'analyse multifractale

Voorons, Matthieu. January 1900 (has links)
Thèses (Ph.D.)--Université de Sherbrooke (Canada), 2007. / Titre de l'écran-titre (visionné le 23 juin 2008). In ProQuest dissertations and theses. Publié aussi en version papier.

Page generated in 0.0523 seconds