• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Prédiction de performance d'algorithmes de traitement d'images sur différentes architectures hardwares / Image processing algorithm performance prediction on different hardware architectures

Soucies, Nicolas 07 May 2015 (has links)
Dans le contexte de la vision par ordinateur, le choix d’une architecture de calcul est devenu de plus en plus complexe pour un spécialiste du traitement d’images. Le nombre d’architectures permettant de résoudre des algorithmes de traitement d’images augmente d’année en année. Ces algorithmes s’intègrent dans des cadres eux-mêmes de plus en plus complexes répondant à de multiples contraintes, que ce soit en terme de capacité de calculs, mais aussi en terme de consommation ou d’encombrement. A ces contraintes s’ajoute le nombre grandissant de types d’architectures de calculs pouvant répondre aux besoins d’une application (CPU, GPU, FPGA). L’enjeu principal de l’étude est la prédiction de la performance d’un système, cette prédiction pouvant être réalisée en phase amont d’un projet de développement dans le domaine de la vision. Dans un cadre de développement, industriel ou de recherche, l’impact en termes de réduction des coûts de développement, est d’autant plus important que le choix de l’architecture de calcul est réalisé tôt. De nombreux outils et méthodes d’évaluation de la performance ont été développés mais ceux-ci, se concentrent rarement sur un domaine précis et ne permettent pas d’évaluer la performance sans une étude complète du code ou sans la réalisation de tests sur l’architecture étudiée. Notre but étant de s’affranchir totalement de benchmark, nous nous sommes concentrés sur le domaine du traitement d’images pour pouvoir décomposer les algorithmes du domaine en éléments simples ici nommées briques élémentaires. Dans cette optique, un nouveau paradigme qui repose sur une décomposition de tout algorithme de traitement d’images en ces briques élémentaires a été conçu. Une méthode est proposée pour modéliser ces briques en fonction de paramètres software et hardwares. L’étude démontre que la décomposition en briques élémentaires est réalisable et que ces briques élémentaires peuvent être modélisées. Les premiers tests sur différentes architectures avec des données réelles et des algorithmes comme la convolution et les ondelettes ont permis de valider l'approche. Ce paradigme est un premier pas vers la réalisation d’un outil qui permettra de proposer des architectures pour le traitement d’images et d’aider à l’optimisation d’un programme dans ce domaine. / In computer vision, the choice of a computing architecture is becoming more difficult for image processing experts. Indeed, the number of architectures allowing the computation of image processing algorithms is increasing. Moreover, the number of computer vision applications constrained by computing capacity, power consumption and size is increasing. Furthermore, selecting an hardware architecture, as CPU, GPU or FPGA is also an important issue when considering computer vision applications.The main goal of this study is to predict the system performance in the beginning of a computer vision project. Indeed, for a manufacturer or even a researcher, selecting the computing architecture should be done as soon as possible to minimize the impact on development.A large variety of methods and tools has been developed to predict the performance of computing systems. However, they do not cover a specific area and they cannot predict the performance without analyzing the code or making some benchmarks on architectures. In this works, we specially focus on the prediction of the performance of computer vision algorithms without the need for benchmarking. This allows splitting the image processing algorithms in primitive blocks.In this context, a new paradigm based on splitting every image processing algorithms in primitive blocks has been developed. Furthermore, we propose a method to model the primitive blocks according to the software and hardware parameters. The decomposition in primitive blocks and their modeling was demonstrated to be possible. Herein, the performed experiences, on different architectures, with real data, using algorithms as convolution and wavelets validated the proposed paradigm. This approach is a first step towards the development of a tool allowing to help choosing hardware architecture and optimizing image processing algorithms.
242

On salience and non-accidentalness : comparing human vision to a contrario algorithms / Saillance et non-accidentalité : la vision humaine comparée à des algorithmes a-contrario

Blusseau, Samy 22 September 2015 (has links)
Dans cette thèse, nous comparons la vision humaine à des algorithmes de vision par ordinateur, basés sur un modèle mathématique appelé théorie a-contrario. Pour cela, nous nous concentrons sur deux taches visuelles dont la modélisation d'une part, et l'expérimentation psychophysique d'autre part, sont simples. Celles-ci consistent dans le groupement perceptuel d'éléments orientés appelés patchs de Gabor. Dans la première tache il s'agit de détecter des alignements, et dans la seconde des courbes, soit des configurations plus générales d'éléments en bonne continuation. Dans les deux cas, des expériences psychophysiques ont été menées afin de collecter des données sur la perception visuelle humaine dans un contexte de masquage.Le principe de non-accidentalité désigne le fait que les relations spatiales entre des éléments prennent un sens pour la perception lorsqu'il semble invraisemblable qu'elles soient le fruit du hasard. Ce principe trouve une formalisation dans la théorie a-contrario, qui est utilisée en vision par ordinateur pour déterminer des seuils de détection en accord avec la non-accidentalité. Dans cette thèse, les méthodes a-contrario sont appliquées dans l'implémentation de deux algorithmes conçus pour détecter respectivement des alignements et des courbes non-accidentels. Ces algorithmes ont joué le role de sujets artificiels dans nos expériences.Les données expérimentales des sujets humains ont donc été comparées aux algorithmes sur les memes taches, conduisant à deux principaux résultats. Premièrement, le Nombre de Fausses Alarmes (NFA), qui est la mesure scalaire de non-accidentalité dans la théorie a-contrario, est en forte corrélation avec les taux de détection obtenus par lessujets humains sur un large éventail de stimuli. Deuxièmement, les réponses des algorithmes ressemblent précisément à celles de la moyenne des sujets humains.La contribution de cette thèse est donc double. D'une part, elle valide de façon rigoureuse la pertinence des méthodes a-contrario dans l'estimation de seuils perceptuels, et leur application en vision par ordinateur. D'autre part, elle souligne l'importance du principe de non-accidentalité dans la vision humaine.Dans le but de rendre ces recherches reproductibles, les méthodes décrites dans la thèse ont été publiées dans le journal IPOL. Ces publications fournissent le détail des algorithmes, leur code source commenté, ainsi qu'une démonstration en ligne pour chacun d'eux. / The present dissertation compares the human visual perception to computer vision algorithms based on a mathematical model called a-contrario theory. To this aim, it focuses on two visual tasks that are at the same time easy to model and convenient to test in psychophysical experiments. Both tasks consist in the perceptual grouping of oriented elements, namely Gabor patches. The first one is the detection of alignments and the second one extends to curves, that is to say to more general arrangements of elements in good continuation. In both cases, alignments and curves, psychophysical experiments were set up to collect data on the human visual perception in a masking context.The non-accidentalness principle states that spatial relations are perceptually relevant when their accidental occurrence is unlikely. The a-contrario theory is a formalization of this principle, and is used in computer vision to set detection thresholds accordingly. In this thesis, the a-contrario framework is applied in two practical algorithms designed to detect non-accidental alignments and curves respectively. These algorithms play the part of artificial subjects for our experiments.The experimental data of human subjects is then compared to the detection algorithms on the very same tasks, yielding two main results. First, this procedure shows that the Number of False Alarms (NFA), which is the scalar measure of non-accidentalness in the a-contrario theory, strongly correlates with the detection rates achieved by human subjects on a large variety of stimuli. Secondly,the algorithms' responses match very well the average behavior of human observers.The contribution of this thesis is therefore two-sided. On the one hand, it provides a rigorous validation of the a-contrario theory's relevance to estimate visual thresholds and implement visual tasks in computer vision. On the other hand, it reinforces the importance of the non-accidentalness principle in human vision.Aiming at reproducible research, all the methods are submitted to IPOL journal, including detailed descriptions of the algorithms, commented reference source codes, and online demonstrations for each one.
243

High precision camera calibration / Calibration de caméra à haute précision

Tang, Zhongwei 01 July 2011 (has links)
Cette thèse se concentre sur les aspects de précision de la reconstruction 3D avec un accent particulier sur la correction de distorsion. La cause de l'imprécision dans la stéréoscopie peut être trouvée à toute étape de la chaîne. L'imprécision due à une certaine étape rend inutile la précision acquise dans les étapes précédentes, puis peut se propage, se amplifie ou se mélange avec les erreurs dans les étapes suivantes, conduisant finalement à une reconstruction 3D imprécise. Il semble impossible d'améliorer directement la précision globale d'une chaîne de reconstruction 3D qui conduit à données 3D imprécises. L'approche plus approprié pour obtenir un modèle 3D précis est d'étudier la précision de chaque composant. Une attention maximale est portée à la calibration de l'appareil photo pour trois raisons. Premièrement, il est souvent le premier composant dans la chaîne. Deuxièmement, il est en soi déjà un système compliqué contenant de nombreux paramètres inconnus. Troisièmement, il suffit de calibrer les paramètres intrinsèques d'un appareil photo une fois, en fonction de la configuration de l'appareil photo (et à température constante). Le problème de calibration de l'appareil photo est censé d'avoir été résolu depuis des années. Néanmoins, méthodes et modèles de calibration qui étaient valables pour les exigences de précision autrefois deviennent insatisfaisants pour les nouveaux appareils photo numériques permettant une plus grande précision. Dans nos expériences, nous avons régulièrement observé que les méthodes globales actuelles peuvent laisser une distorsion résiduelle en ordre d'un pixel, ce qui peut conduire à des distorsions dans les scènes reconstruites. Nous proposons deux méthodes dans la thèse pour corriger la distorsion, avec une précision beaucoup plus élevée. Avec un outil d'évaluation objective, nous montrons que la précision de correction finalement réalisable est d'environ 0,02 pixels. Cette valeur représente l'écart moyen d'une ligne droite observée traversant le domaine de l'image à sa ligne de régression parfaitement droite. La haute précision est également nécessaire ou souhaitée pour d'autres tâches de traitement d'images cruciales en 3D, comme l'enregistrement des images. Contrairement au progrès dans l'invariance de détecteurs des point d'intérêt, la précision de matchings n'a pas été étudiée avec soin. Nous analysons la méthode SIFT (Scale-Invariant Feature Transform) et d'évaluer sa précision de matchings. Il montre que par quelques modifications simples dans l'espace d'échelle de SIFT, la précision de matchings peut être améliorée à être d'environ 0,05 pixels sur des tests synthétiques. Un algorithme plus réaliste est également proposé pour augmenter la précision de matchings pour deux images réelles quand la transformation entre elles est localement lisse. Une méthode de débruitage avec une série des images, appelée ''burst denoising'', est proposée pour profiter des matchings précis pour estimer et enlever le bruit en même temps. Cette méthode produit une courbe de bruit précise, qui peut être utilisée pour guider le débruitage par la moyenne simple et la méthode classique. ''burst denoising'' est particulièrement puissant pour restaurer la partie fine texturée non-périodique dans les images, même par rapport aux meilleures méthodes de débruitage de l'état de l'art. / The thesis focuses on precision aspects of 3D reconstruction with a particular emphasis on camera distortion correction. The causes of imprecisions in stereoscopy can be found at any step of the chain. The imprecision caused in a certain step will make useless the precision gained in the previous steps, then be propagated, amplified or mixed with errors in the following steps, finally leading to an imprecise 3D reconstruction. It seems impossible to directly improve the overall precision of a reconstruction chain leading to final imprecise 3D data. The appropriate approach to obtain a precise 3D model is to study the precision of every component. A maximal attention is paid to the camera calibration for three reasons. First, it is often the first component in the chain. Second, it is by itself already a complicated system containing many unknown parameters. Third, the intrinsic parameters of a camera only need to be calibrated once, depending on the camera configuration (and at constant temperature). The camera calibration problem is supposed to have been solved since years. Nevertheless, calibration methods and models that were valid for past precision requirements are becoming unsatisfying for new digital cameras permitting a higher precision. In our experiments, we regularly observed that current global camera methods can leave behind a residual distortion error as big as one pixel, which can lead to distorted reconstructed scenes. We propose two methods in the thesis to correct the distortion with a far higher precision. With an objective evaluation tool, it will be shown that the finally achievable correction precision is about 0.02 pixels. This value measures the average deviation of an observed straight line crossing the image domain from its perfectly straight regression line. High precision is also needed or desired for other image processing tasks crucial in 3D, like image registration. In contrast to the advance in the invariance of feature detectors, the matching precision has not been studied carefully. We analyze the SIFT method (Scale-invariant feature transform) and evaluate its matching precision. It will be shown that by some simple modifications in the SIFT scale space, the matching precision can be improved to be about 0.05 pixels on synthetic tests. A more realistic algorithm is also proposed to increase the registration precision for two real images when it is assumed that their transformation is locally smooth. A multiple-image denoising method, called ''burst denoising'', is proposed to take advantage of precise image registration to estimate and remove the noise at the same time. This method produces an accurate noise curve, which can be used to guide the denoising by the simple averaging and classic block matching method. ''burst denoising'' is particularly powerful to recover fine non-periodic textured part in images, even compared to the best state of the art denoising method.
244

Quelque progrès en débruitage d'images / Advances in Image Denoising

Pierazzo, Nicola 20 September 2016 (has links)
Cette thèse explore les dernières évolutions du débruitage d'images, et elle essaie de développer une vision synthétique des techniques utilisées jusqu'à présent. Elle aboutit à un nouvel algorithme de débruitage d'image évitant les artefacts et avec un meilleur PSNR que tous les algorithmes que nous avons pu évaluer. La première méthode que nous présentons est DA3D, un algorithme de débruitage fréquentiel avec guide, inspiré de DDID. La surprise de cet algorithme, c'est que le débruitage fréquentiel peut battre l'état de l'art sans produire artefacts. Cet algorithme produit des bons résultats non seulement en PSNR, mais aussi (et surtout) en qualité visuelle. DA3D marche particulièrement bien pour améliorer les textures des images et pour enlever les effets de staircasing.DA3D, guidé par un autre algorithme de débruitage améliore presque toujours le résultat de son guide. L'amélioration est particulièrement nette quand le guide est un algorithme à patchs, et alors on combine deux principes différents: auto-similarité suivi de seuillage fréquentiel. Le deuxième résultat présenté est une méthode universelle de débruitage multi-échelle, applicable à tout algorithme. Une analyse qualitative montre en effet que les algorithmes de débruitage à patchs éliminent surtout les hautes fréquences du bruit, à cause de la taille limitée des voisinages traités. Plutôt que d'agrandir ces voisinages nous décomposons l'image en une pyramide basée sur la transformée en cosinus discrète, avec une méthode de recomposition évitant le ringing. Cette méthode traite le bruit à basse fréquence, et améliore la qualité de l'image. Le troisième problème sérieux que nous abordons est l'évaluation des algorithmes de débruitage. Il est bien connu que le PSNR n'est pas un indice suffisant de qualité. Un artefact sur une zone lisse de l'image est bien plus visible qu'une altération en zone texturée. Nous proposons une nouvelle métrique basée sur un Smooth PSNR et un Texture PSNR, pour mesurer les résultats d'un algorithme sur ces deux types des régions. Il apparaît qu'un algorithme de débruitage, pour être considéré acceptable, doit avoir des bons résultats pour les deux métriques. Ces métriques sont finalement utilisées pour comparer les algorithmes de l'état de l'art avec notre algorithme final, qui combine les bénéfices du multi-échelle et du filtrage fréquentiel guidé. Les résultats étant très positifs, nous espérons que la thèse contribue à résoudre un vieux dilemme, pour lequel la méthode DDID avait apporté de précieuses indications : comment choisir entre le seuillage fréquentiel et les méthodes basées sur l'auto-similarité pour le débruitage d'images ? La réponse est qu'il ne faut pas choisir. Cette thèse termine avec quelques perspectives sur la faisabilité du débruitage "externe". Son principe est de débruiter un patch en utilisant une grande base de données externe de patches sans bruit. Un principe bayésien démontré par Levin et Nadler en 2011 implique que le meilleur résultat possible serait atteint avec cette méthode, à condition d'utiliser tous les patches observables. Nous donnons les arguments mathématiques prouvant que l'espace des patches peut être factorisé, ce qui permet de réduire la base de données de patches utilisés d'un facteur au moins 1000. / This thesis explores the last evolutions on image denoising, and attempts to set a new and more coherent background regarding the different techniques involved. In consequence, it also presents a new image denoising algorithm with minimal artifacts and the best PSNR performance known so far.A first result that is presented is DA3D, a frequency-based guided denoising algorithm inspired form DDID [Knaus-Zwicker 2013]. This demonstrates that, contrarily to what was thought, frequency-based denoising can beat state-of-the-art algorithms without presenting artifacts. This algorithm achieves good results not only in terms of PSNR, but also (and especially) with respect to visual quality. DA3D works particularly well on enhancing the textures of the images and removing staircasing effects.DA3D works on top of another denoising algorithm, that is used as a guide, and almost always improve its results. In this way, frequency-based denoising can be applied on top of patch-based denoising algorithms, resulting on a hybrid method that keeps the strengths of both. The second result presented is Multi-Scale Denoising, a framework that allows to apply any denoising algorithm on a multi-scale fashion. A qualitative analysis shows that current denoising algorithms behave better on high-frequency noise. This is due to the relatively small size of patches and search windows currently used. Instead of enlarging those patches, that can cause other sorts of problems, the work proposes to decompose the image on a pyramid, with the aid of the Discrete Cosine Transformation. A quantitative study is performed to recompose this pyramid in order to avoid the appearance of ringing artifacts. This method removes most of the low-frequency noise, and improves both PSNR and visual results for smooth and textured areas.A third main issue addressed in this thesis is the evaluation of denoising algorithms. Experiences indicate that PSNR is not always a good indicator of visual quality for denoising algorithms, since, for example, an artifact on a smooth area can be more noticeable than a subtle change in a texture. A new metric is proposed to improve on this matter. Instead of a single value, a ``Smooth PNSR'' and a ``Texture PSNR'' are presented, to measure the result of an algorithm for those two types of image regions. We claim that a denoising algorithm, in order to be considered acceptable, must at least perform well with respect to both metrics. Following this claim, an analysis of current algorithms is performed, and it is compared with the combined results of the Multi-Scale Framework and DA3D.We found that the optimal solution for image denoising is the application of a frequency shrinkage, applied to regular regions only, while a multiscale patch based method serves as guide. This seems to resolve a long standing question for which DDID gave the first clue: what is the respective role of frequency shrinkage and self-similarity based methods for image denoising? We describe an image denoising algorithm that seems to perform better in quality and PSNR than any other based on the right combination of both denoising principles. In addition, a study on the feasibility of external denoising is carried, where images are denoised by means of a big database of external noiseless patches. This follows a work of Levin and Nadler, in 2011, that claims that state-of-the-art results are achieved with this method if a large enough database is used. In the thesis it is shown that, with some observation, the space of all patches can be factorized, thereby reducing the number of patches needed in order to achieve this result. Finally, secondary results are presented. A brief study of how to apply denoising algorithms on real RAW images is performed. An improved, better performing version of the Non-Local Bayes algorithm is presented, together with a two-step version of DCT Denoising. The latter is interesting for its extreme simplicity and for its speed.
245

Détection non-supervisée de contours et localisation de formes à l'aide de modèles statistiques

Destrempes, François January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
246

Approche non supervisée de segmentation de bas niveau dans un cadre de surveillance vidéo d'environnements non contrôlés

Martel-Brisson, Nicolas 18 April 2018 (has links)
La présente thèse propose un algorithme de segmentation de bas niveau pour des environnements complexes, allant de scènes intérieures peuplées aux scènes extérieures dynamiques. Basé sur des méthodes d'apprentissage développées pour une séquence vidéo où la caméra est fixe, le système est en mesure d'identifier les sections de l'image appartenant aux objets ou personnes d'avant-plan et ce, en dépit de perturbations temporelles de l'image de l'arrière-plan causées par les ombres, éléments naturels, changements d'illumination, etc. Nous proposons un cadre statistique d'estimation de densité de probabilité basé sur des kernels (KDE). Méthode polyvalente, les KDE requièrent toutefois des séquences d'entraînement où l'activité de l'avant-plan est minimale afin d'obtenir une bonne description initiale de la distribution de l'arrière-plan. Afin d'augmenter la flexibilité de ce type d'approche, nous exploitons la cohérence spatiale des événements d'avant-plan : en minimisant une fonction d'énergie globale par coupure de graphe, nous estimons les probabilités à priori et les densités associées à l'avant et l'arrière-plan pour chaque pixel de la scène. Pour y arriver, des indices tels la dispersion des données, la probabilité associée aux modes dans l'espace RGB, la persistance spatiale des événements et l'entropie relative des régions dans l'image sont utilisés dans un cadre statistique cohérent. Les ombres projetées qui sont détectées lors du processus de soustraction d'arrière-plan induisent des perturbations, tels la distorsion et la fusion des silhouettes, qui nuisent à la performance générale d'algorithmes de plus haut niveau dans un contexte de surveillance vidéo. Deux stratégies sont alors proposées afin de d'éliminer l'ombre projetée de la région d'intérêt. La première méthode utilise la capacité d'apprentissage de l'algorithme de Mixtures de Gaussiennes (GMM) dans le but de caractériser le comportement des ombres projetées sur les surfaces composant l'arrière-plan. La deuxième méthode s'appuie sur les propriétés physiques de l'ombre projetée et d'une mesure de gradient dans un cadre statistique non paramétrique afin d'estimer les valeurs d'atténuation des surfaces ombragées. La méthode permet la différenciation des ombres et de l'avant-plan lorsque ceux-ci partagent des valeurs de chromaticité similaire. Les résultats démontrent que notre approche est efficace dans une multitude de scénarios complexes.
247

Combinaison de caméras thermique et couleur pour la segmentation cibles/arrière-plan en environnement non contrôlé

St-Laurent, Louis 18 April 2018 (has links)
La plupart des systèmes de surveillance vidéo que l’on retrouve actuellement sur le marché utilisent uniquement la région visible du spectre électromagnétique. De plus, les solutions proposées à ce jour afin de suivre automatiquement les objets en mouvement dans une scène sont souvent trop exigeantes numériquement pour pourvoir être effectuées en temps réel et présentent une dégradation significative des performances en environnement extérieur. L’objectif de cette thèse est d’exploiter la combinaison d’informations thermique et visible afin d’améliorer l’efficacité de détection et de suivi d’objets d’intérêt en environnement non contrôlé. Dans le cadre de ce projet, un seul nœud d’acquisition fixe est considéré. Un nœud est constitué d’une caméra thermique LWIR (8 - 12 m) et d’une caméra visible couleur. Trois défis techniques majeurs sont abordés : le développement d’une plateforme d’acquisition thermique / visible optimisée pour les applications de surveillance vidéo en environnement extérieur, la segmentation, en temps réel, d’objets en mouvement en environnement non contrôlé, et finalement, la combinaison de l’information thermique et couleur. Un intérêt soutenu est porté à la rapidité d’exécution afin d’atteindre une vitesse de traitement minimale de 10 trames par secondes. Il importe de mentionner que cette thèse a principalement été orientée selon les besoins du programme de Vision de l’INO, conférant ainsi un caractère très pratique et concret à la recherche. De ce fait, les algorithmes développés ont été continuellement testés et améliorés dans le cadre d'applications réelles. Les éléments relatifs à la mise en correspondance d'images thermique et visible ont permis le développement et la fabrication de le caméra VIRXCam, un produit offert par l'INO. Les algorithmes de détection constituent pour leur part le cœur du logiciel de surveillance vidéo AWARE, déjà utilisé depuis 2007 par un partenaire de l'INO s'intéressant au positionnement des objets en mouvement sur les pistes, voies de circulation et aires de stationnement d'aéroports. Cette thèse constitue un recueil très complet des éléments à considérer lors du développement d’une plateforme de vidéo surveillance en environnement extérieur. Tant les aspects matériels que logiciels sont traités. Nous espérons qu’elle constituera un ouvrage de référence pour les personnes qui s’intéressent au développement d’algorithmes temps réel pour des applications de détection de cibles en environnement non-contrôlé ou à la conception d’un capteur hybride thermique / visible. / Most existing video monitoring systems only use the visible range of the electromagnetic spectrum. Moreover, approaches proposed until now for automated target detection and tracking are often too computationally expensive for real-time applications and suffer significant performance degradation in outdoor environment. The purpose of this thesis is to make the most of thermal and visible information in order to improve efficiency of detection and tracking of moving target in uncontrolled environment. Within the framework of this project, only one motionless acquisition node is considered. A node includes a LWIR thermal camera (8 - 12 m) and a color electro-optical camera. Three main technical challenges are tackled: development of an hybrid thermal / visible acquisition platform optimized for video monitoring applications in outdoor environment, segmentation of moving targets in uncontrolled environment, and finally, combination of thermal and color information. For every aspect, special attention is addressed to computational efficiency to reach a minimum processing rate of 10 frames per second. It is worth to mention that this thesis has mainly been oriented along needs of INO's Vision program, conferring a very concrete and practical aspect to the research. Hence, developed algorithms have been continually assessed and improved in the context of real applications. Notions related to thermal / visible images registration have lead to development and manufacturing of the INO's VIRXCam camera, while detection algorithms are the grounding elements of INO's AWARE video monitoring library, used since 2007 by an INO's partner interested in positioning of moving targets on airport aprons, taxiways and runways. This thesis regroups most notions to be considered in the development of an outdoor video monitoring system. Both hardware and software aspects are addressed. We hope that this document will be used as a work of reference for those interested in the development of algorithms devoted to real-time detection of moving targets in uncontrolled environment, or interested in the design of hybrid thermal/electro-optical acquisition platform.
248

Segmentation d'un patron de lumière structurée : vision 3D active et codée utilisant la lumière blanche

Paradis, Nicolas 17 April 2018 (has links)
Les capteurs basés sur la lumière structurée codée prennent une ampleur grandissante dans le domaine de la numérisation 3D. Ce type de capteur permet une numérisation plus rapide de la surface d'un objet comparativement aux capteurs laser ou aux systèmes de palpage (i.e. numérisation avec contact). De plus, les capteurs fonctionnant par la projection d'une seule trame offrent la possibilité de numériser des scènes en mouvement, ce qui est un avantage indéniable sur la majorité des capteurs commercialisés depuis quelques années. Le projet de recherche traité dans ce mémoire a été réalisé dans le cadre du développement d'un capteur basé sur la lumière blanche structurée, conçu par l'équipe de vision 3D du Laboratoire de Vision et Systèmes Numériques de l'Université Laval. Un tel capteur utilise un projecteur afin de projeter un patron de lumière codée sur la scène. Ce patron se déforme au contact de la surface et sa réflexion est captée par une caméra. Cette déformation permet de déduire la profondeur de la surface et ainsi calculer la position de points 3D représentant la surface de l'objet. Le rôle de ce mémoire est de développer et implanter un algorithme de segmentation d'images qui a comme objectif d'extraire le patron de la scène. Les images acquises par le capteur sont traitées en utilisant une approche basée sur les arêtes pour détecter les primitives contenue dans le patron. Chacune de ces primitives encode un symbole formant un mot codé. Le but de l'algorithme est donc de déterminer la position et l'étiquette (i.e. la valeur du symbole) associées à ces primitives. L'apparence de la scène complique cette tâche, car les propriétés de la surface (e.g. texture, déformations géométriques, type de matériaux) peuvent interférer avec la réflexion du patron. Par exemple, un objet de couleur foncée réfléchira très peu la lumière projetée, tandis qu'une surface géométriquement complexe déformera le patron, pouvant rendre les symboles flous et difficiles à détecter. La robustesse de l'algorithme face à ces défis est analysée et nous soulevons les limitations d'une telle approche de segmentation.
249

Rehaussement des primitives de contours à l'aide d'une segmentation multi-échelle en arbre quaternaire

Bergeron, Vincent 13 April 2018 (has links)
Ce mémoire présente une approche permettant de rehausser la silhouette d'un objet multie-parties dans une image. L'entrée est une carte de CCPs (Constant Curvature Primitives) provenant d'une segmentation de l'image originale par le logiciel MAGNO. Ces CCPs sont en fait des arcs de cercle et des segments de droite. L'objectif est de rehausser la silhouette de l'objet, c'est-à-dire de conserver les CCPs se trouvant sur la silhouette de l'objet et d'éliminer les autres. L'approche retenue est d'utiliser l'image originale (avant la segmentation par le logiciel MAGNO) et de la diviser en utilisant l'algorithme de l'arbre quaternaire. Une fois l'image divisée en carrés, ces derniers sont superposés à la carte de CCPs et cinq critères permettent à la fois d'éliminer et de donner un poids à chacun des CCPs. Les CCPs ayant les plus grands poids sont plus susceptibles de se trouver sur la silhouette de l'objet
250

Augmentation de la profondeur de champs par encoddage du front d'onde

Desaulniers, Pierre 13 April 2018 (has links)
Une augmentation de la profondeur de champs d'un système d'analyse cytologique par introduction d'un masque de phase couplé à un traitement numérique des images est proposée. La conception et l'optimisation des paramètres d'un masque de phase cubique ont été faites à l'aide du logiciel de conception optique Zemax®. Les masques de phase optimisés ont été réalisés selon 2 méthodes de fabrication. L'algorithme de traitement d'image par déconvolution ainsi que l'ajustement des pas de discrétisation des spectres nécessaires à ce traitement sont aussi démontrés dans ce mémoire. Finalement, les images résultantes présentent une profondeur de champs 20 fois plus grande que celle du système initial. / This thesis displays an extension of the depth of field of a cytologic System by introduction of a phase mask coupled with post-digital image processing. The phase masks parameters have been optimized using the Zemax® optical design software. The optimized cubic phase masks were fabricated using two different methods. An analysis of the fabricated phase masks and their performances are shown. The image processing deconvolution algorithm and the resulting depth extended images are also presented in this thesis. Finally, the depth of field of the cytologic System has been extended by 20 times.

Page generated in 0.0191 seconds