• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Algorithmes pour la modélisation de l'apparence

Perreault, Simon 12 April 2018 (has links)
Ce mémoire est divisé en (Unix parties indépendantes. La première; propose un nouvel algorithme de filtrage médian, lequel est une pierre; angulaire dans plusieurs situations de traitement d'image. Cependant, son utilisation a souvent été entravée; par sa complexité algorithmique de 0(r) selon le rayon de la fenêtre. Avec la tendance; vers des images de; meilleure résolution et des fenêtres de filtre proportionnellement plus larges, le besoin pour un algorithme de filtrage médian efficient devient pressant. Dans ce mémoire, un nouvel algorithme, simple mais bien plus rapide, affichant une complexité en temps d'exécution de O(l), est décrit et analysé. Sa performance est mesurée et comparée à celle des algorithmes précédents. Des extensions vers des données de plus haute dimensionnalité ou précision, ainsi qu'une approximation de fenêtre circulaire, sont aussi présentées. Dans la seconde partie, un système de modélisation de l'apparence d'objets est présenté. Il consiste en un robot à câbles déplaçant un appareil photo numérique autour du sujet en en prenant un grand nombre de photos. Le traitement informatique subséquent doit accomplir trois grandes tâches : segmentation, positionnement 3-D des photos et reconstruction de l'enveloppe visuelle de l'objet. Dans ce mémoire, les algorithmes impliqués sont analysés, critiqués et des améliorations sont proposées. En particulier, des algorithmes efficients pour le calcul d'enveloppe visuelle et pour la méthode des K plus proches voisins sont présentés. Le système dans son ensemble est finalement jugé selon les objectifs de conception préétablis et des recommandations sont faites afin d'en améliorer les performances. / This dissertation is divided into two independent parts. The first one proposes a new median filter algorithm. The median filter is one of the basic building blocks in many image processing situations. However, its use has long been hampered by its algorithmic complexity of 0(r) in the kernel radius. With the trend toward larger images and proportionally larger filter kernels, tlu; need for a more efficient median filtering algorithm becomes pressing. In this dissertation, a new, simple yet much faster algorithm exhibiting O(l) runtime complexity is described and analyzed. Tt is compared and benchmarked against previous algorithms. Extensions to higher-dimensional or higher-precision data and an approximation to a circular kernel are presented as well. In the second part, a system for modeling object appearances is presented. It consists in a cable robot moving a digital camera around the subject while taking a high number of photos of it. The ensuing computer processing must accomplish three tasks : segmentation, 3-D positioning of the photos, and reconstruction of the object's visual hull. In this dissertation, the implied algorithms are analyzed, criticized, and improved. In particular, efficient algorithms for Computing the visual hull and for performing the K nearest neighbors method are presented. The system as a whole is finally judged according to the preestablished design objectives and recommendations are made in order to improve its performances.
2

Improvements to ultrasonic imaging with post-processing of full matrix capture data

Deschênes Labrie, Patrick 13 December 2023 (has links)
Ce mémoire présente les comparaisons entre les différentes méthodes de reconstruction "Total Focusing Method" (TFM) et des différents algorithmes modifiés qui utilisent les données obtenues avec la "Full Matrix Capture" (FMC) dans le but d'améliorer certains points clés présents dans les méthodes d'imageries, tel que les problèmes de reconstructions en sous-résolution ou bien des améliorations sur la détection. Les algorithmes conçus sont comparés en analysant les mêmes données pour les différents cas. De ces cas, l'imagerie de défauts isolés et puis ensuite celle d'une séquence de défauts très rapprochée ont été effectuées. Différentes recherches ont été effectuées sur les performances des algorithmes de reconstruction TFM en basse résolution. Ce mémoire montre que tous les types d'algorithmes présentés, soit la TFM standard, la TFM avec enveloppe d'Hilbert, la TFM intégration, la TFM intégration avec enveloppe d'Hilbert, la TFM restreinte en angle, la Migration et la Migration d'Hilbert sont toutes des méthodes valides de post-traitements des données capables d'imager convenablement les défauts présentés. Les différentes méthodes de reconstruction démontrent également des habilitées dépassant celles de la TFM standard dans certains points clés, en ayant seulement quelques points négatifs, tel que les temps de traitement ou bien l'augmentation du bruit de l'image. / This study shows the comparison between standard Total Focusing Method (TFM) and various modified algorithms using the data obtained from the Full Matrix Capture (FMC) in order to improve on some key points present in the aforementioned standard method of imaging, such as sub-resolution problems and improvements on detection. The designed algorithms were compared by processing the same data for different cases. Off those cases, the imaging of isolated defects and then imaging an array of close defects were analyzed. Further work have also been done on the performance of TFM algorithms in low resolution settings. The study has shown that all presented algorithms, which are the standard TFM, the Hilbert envelope TFM, the integration TFM, the Hilbert integration TFM, the angle restricted TFM, the Migration and the Hilbert Migration are all valid image post-processing reconstruction methods able to properly detect the defects presented. The different reconstruction methods used have also shown to outperform the standard TFM in a few key points, while having a few negative points such as the processing time and the increase noise.
3

Perceptual hashing-based movement compensation applied to in vivo two-photon microscopy

Sadetsky, Gregory 20 April 2018 (has links)
Le mouvement animal, présent lors d’expériences in vivo effectuées à l’aide de microscopie à effet deux photons, nuit à l’observation de phénomènes biologiques et à l’analyse subséquente des flux vidéos acquis. Ceci s’explique entre autres par le fait que, dû au sectionnement optique, tout déplacement dans l’axe z (perpendiculaire au plan d’imagerie) modifie drastiquement l’image et ne permet qu’une observation instable de l’échantillon examiné. En appliquant une fonction de hachage aux images acquises, nous produisons des vecteurs décrivant les qualités perceptuelles de ces images ; ces vecteurs peuvent alors servir à comparer les images une à une, en temps réel. Ces comparaisons nous permettent de réunir les images en groupes correspondant à des plans z distincts. Ainsi, du processus de hachage, de comparaison et de groupage d’images résulte une méthode logicielle de compensation de mouvement en temps réel qui peut être utilisée dans le cadre d’expériences biologiques en laboratoire. / Animal movement during in vivo two-photon microscopy experiments hinders efforts at observing biological phenomena and the subsequent analysis of the acquired video streams. One of the reasons for this is that, due to optical sectioning, any displacement in the z-axis (perpendicular to the plane of imaging) dramatically changes the collected image and thus provides the experimenter with an unstable view of the imaged sample. By applying a hashing function on the acquired video frames, we produce vectors embodying the images’ perceptual qualities; these vectors can then be used to compare the frames one to another, in real-time. These comparisons allow us to group similar images in clusters corresponding to distinct z-planes. In effect, the process of perceptually hashing, comparing and grouping video frames provides us with software-based, real-time movement compensation which can be used in a biological laboratory setting.

Page generated in 0.1315 seconds