• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Analyse de la reconstruction 3D par stéréo multivue dans l'optique des défis de l'appariement

Dubé, Julie 16 April 2018 (has links)
Le sujet de la reconstruction 3D par stéréo multivue a été tant étudié, tellement de méthodes ont été développées qu'il n'est pas toujours facile de s'y retrouver. Qu'est-ce qui fait qu'un algorithme est plus efficace qu'un autre? Pour répondre à cette question, il faut être en mesure de reconnaître les caractéristiques fondamentalement intéressantes d'un algorithme. Dans le but d'acquérir ce savoir, nous allons décortiquer les différentes étapes de la reconstruction d'un objet, en partant par la base de la stéréo: l'appariement. Trouver des positions dans différentes images qui correspondent au même point de la surface comprend plusieurs défis: la visibilité (quel point est vu dans quelle image?), l'ambiguïté (quel ensemble de pixels correspond à un point de la surface?), la variation d'apparence angulaire (la couleur d'un point de la surface peut changer selon le point de vue) et la discrétisation de l'apparence (une image est un échantillonnage de l'apparence d'une partie de la surface). Apparier implique de pouvoir évaluer que la variation de couleur angulaire d'un point est cohérente avec le modèle de réflectance de l'objet. Pour évaluer la photo-cohérence, un critère de comparaison, des contraintes sur la surface et une façon d'emmagasiner les données sont nécessaires. Compte tenu des problèmes d'appariement, la photo-cohérence n'est pas suffisante pour trouver la surface. Pour trouver les meilleurs appariements, les algorithmes de reconstruction intègrent donc les façons d'évaluer la photo-cohérence aux autres hypothèses sur la surface (ex: lisse, cohérente aux silhouettes).
262

Optimisation par recuit simulé et fabrication de masques de phase pour l'augmentation de la profondeur de champ d'un microscope

Caron, Nicolas 13 April 2018 (has links)
La profondeur de champ est un paramètre crucial pour la conception des systèmes optiques. Cette affirmation est particulièrement vraie dans le cas des microscopes. Plusieurs solutions ont été proposées dans le passé pour contourner les limites imposées par ce paramètre. L'ingénierie du front d'onde consiste par exemple à ajouter un masque de phase dans le système optique pour rendre la fonction de transfert optique invariante par rapport à la position axiale de l'objet. Ce mémoire propose d'atteindre ce but en optimisant des masques de phase polynomiaux par la méthode du recuit simulé. L'invariance de la fonction de transfert optique est assurée par la minimisation d'une fonction de coût faisant intervenir la MTF du système optique en fonction de l'aberration du défocus. L'optique de Fourier est utilisée pour obtenir cette information à partir d'un modèle théorique du microscope. Les masques de phases sont optimisés selon deux géométries en particulier : le système de coordonnées cartésiennes séparables et la symétrie de rotation. Cette façon de procéder permet d'évaluer un grand nombre de solutions différentes dans un temps raisonnable, ce qui maximise les chances d'atteindre le minimum global de la fonction de coût. Le meilleur masque ainsi obtenu est fabriqué par la méthode des gravures binaires successives. Cette technique photolithographique permet d'obtenir quatre niveaux de phase. Le masque fabriqué est finalement ajouté au montage du microscope afin de vérifier son effet sur la profondeur de champ. Les résultats obtenus après déconvolution des images acquises respectent le but initialement fixé.
263

Approche intégrée de traitements numériques des données bathymétriques acoustiques et optiques en vue de réduire l'intervention humaine

Pouliot, Jacynthe 11 April 2018 (has links)
Québec Université Laval, Bibliothèque 2016
264

Caractérisation de minéraux indicateurs par imagerie hyperspectrale et traitement de l'image dans l'infrarouge proche et l'infrarouge lointain

Sojasi, Saeed 24 April 2018 (has links)
L'imagerie hyperspectrale (HSI) fournit de l'information spatiale et spectrale concernant l'émissivité de la surface des matériaux, ce qui peut être utilisée pour l'identification des minéraux. Pour cela, un matériel de référence ou endmember, qui en minéralogie est la forme la plus pure d'un minéral, est nécessaire. L'objectif principal de ce projet est l'identification des minéraux par imagerie hyperspectrale. Les informations de l'imagerie hyperspectrale ont été enregistrées à partir de l'énergie réfléchie de la surface du minéral. L'énergie solaire est la source d'énergie dans l'imagerie hyperspectrale de télédétection, alors qu'un élément chauffant est la source d'énergie utilisée dans les expériences de laboratoire. Dans la première étape de ce travail, les signatures spectrales des minéraux purs sont obtenues avec la caméra hyperspectrale, qui mesure le rayonnement réfléchi par la surface des minéraux. Dans ce projet, deux séries d'expériences ont été menées dans différentes plages de longueurs d'onde (0,4 à 1 µm et 7,7 à 11,8 µm). Dans la deuxième partie de ce projet, les signatures spectrales obtenues des échantillons individuels sont comparées avec des signatures spectrales de la bibliothèque hyperspectrale de l'ASTER. Dans la troisième partie, trois méthodes différentes de classification hyperspectrale sont considérées pour la classification. Spectral Angle Mapper (SAM), Spectral Information Divergence (SID), et Intercorrélation normalisée (NCC). Enfin, un système d'apprentissage automatique, Extreme Learning Machine (ELM), est utilisé pour identifier les minéraux. Deux types d'échantillons ont été utilisés dans ce projet. Le système d'ELM est divisé en deux parties, la phase d'entraînement et la phase de test du système. Dans la phase d'entraînement, la signature d'un seul échantillon minéral est entrée dans le système, et dans la phase du test, les signatures spectrales des différents minéraux, qui sont entrées dans la phase d'entraînement, sont comparées par rapport à des échantillons de minéraux mixtes afin de les identifier.
265

Perceptual hashing-based movement compensation applied to in vivo two-photon microscopy

Sadetsky, Gregory 20 April 2018 (has links)
Le mouvement animal, présent lors d’expériences in vivo effectuées à l’aide de microscopie à effet deux photons, nuit à l’observation de phénomènes biologiques et à l’analyse subséquente des flux vidéos acquis. Ceci s’explique entre autres par le fait que, dû au sectionnement optique, tout déplacement dans l’axe z (perpendiculaire au plan d’imagerie) modifie drastiquement l’image et ne permet qu’une observation instable de l’échantillon examiné. En appliquant une fonction de hachage aux images acquises, nous produisons des vecteurs décrivant les qualités perceptuelles de ces images ; ces vecteurs peuvent alors servir à comparer les images une à une, en temps réel. Ces comparaisons nous permettent de réunir les images en groupes correspondant à des plans z distincts. Ainsi, du processus de hachage, de comparaison et de groupage d’images résulte une méthode logicielle de compensation de mouvement en temps réel qui peut être utilisée dans le cadre d’expériences biologiques en laboratoire. / Animal movement during in vivo two-photon microscopy experiments hinders efforts at observing biological phenomena and the subsequent analysis of the acquired video streams. One of the reasons for this is that, due to optical sectioning, any displacement in the z-axis (perpendicular to the plane of imaging) dramatically changes the collected image and thus provides the experimenter with an unstable view of the imaged sample. By applying a hashing function on the acquired video frames, we produce vectors embodying the images’ perceptual qualities; these vectors can then be used to compare the frames one to another, in real-time. These comparisons allow us to group similar images in clusters corresponding to distinct z-planes. In effect, the process of perceptually hashing, comparing and grouping video frames provides us with software-based, real-time movement compensation which can be used in a biological laboratory setting.
266

Unsupervised reconstruction of a Visual Hull in space, time and light domains

Mikhnevich, Maxim 23 April 2018 (has links)
Cette thèse présente une approche de segmentation d’images sans supervision pour obtenir une série de silhouettes et l’enveloppe visuelle («Visual Hull») d’un objet observé à partir de plusieurs points de vue. L’approche proposée peut traiter essentiellement n’importe quelles propriétés d’apparence comme la texture, des couleurs similaires d’arrière-plan, la specularité, la transparence et d’autre phénomènes tels que des ombres et des débordements de couleur. Par rapport aux méthodes plus classiques d’extraction de silhouettes sur plusieurs vues, où certaines hypothèses sur l’objet ou la scène sont formulès, nous ne modélisons ni l’arrière-plan ni les propriétés d’apparence de l’objet. La seule hypothèse est la constance de l’arrière-plan considéré comme inconnu pour un point de vue lorsque l’objet bouge. L’idée principale de l’approche est d’estimer l’évolution temporelle de chaque pixel pour obtenir une mesure de stabilité. Celle-ci est utilisée pour construire la fonction de coût d’arrière-plan. Pour faire face aux ombres et aux ombres projetées, un objet est capturé sous différentes conditions d’éclairage. En outre, les informations d’espace, de temps et d’éclairage sont fusionnées et utilisées dans un formalisme de champ aléatoire de Markov et la fonction d’énergie construite est minimisée par «Graph Cuts». Les expérimentations en laboratoire, sous différentes conditions d’éclairage, montrent que l’approche proposée permet la reconstruction robuste de l’enveloppe visuelle pour une grande variété d’objets difficiles tels que les objets en verre (effets de transparence) ou en métal brillant (effets de réflexions spéculaires). / This thesis presents an unsupervised image segmentation approach for obtaining a set of silhouettes along with the Visual Hull of an object observed from multiple viewpoints. The proposed approach can deal with mostly any type of appearance characteristics such as texture, similar background color, shininess, transparency besides other phenomena such as shadows and color bleeding. Compared to more classical methods for silhouette extraction from multiple views, for which certain assumptions are made on the object or scene, neither the background nor the object appearance properties are modeled. The only assumption is the constancy of the unknown background for a given camera viewpoint while the object is under motion. The principal idea of the approach is the estimation of the temporal evolution of each pixel over time which provides a stability measurement and leads to its associated background cost function. In order to cope with shadows and self-shadows, an object is captured under different lighting conditions. Furthermore, the information from the space, time and lighting domains is exploited and merged based on a Markov Random Field framework and the constructed energy function is minimized via graph-cut. Real-data experiments under different lighting condition show that the proposed approach allows for robust Visual Hull reconstruction of a variety of challenging objects such as objects made of shiny metal or glass.
267

Tatouage numérique des images dans le domaine des ondelettes basé sur la décomposition en valeurs singulières et l'optimisation multi-objective

Loukhaoukha, Khaled 17 April 2018 (has links)
Depuis l'extraordinaire révolution technique de l'analogique vers le numérique à la fin du 20ième siècle, les documents numériques sont devenus de plus en plus utilisés à cause de leur diffusion peu coûteuse et extrêmement rapide. Cependant ce passage de l'analogique vers le numérique ne s'est pas fait sans engendrer des inquiétudes en terme des droits d'auteurs. Des personnes non autorisées peuvent s'approprier des documents numériques pour faire des profits au dépends des propriétaires légitimes ayant les droits initiaux, puisque son contenu peut être facilement copié, modifié et distribué sans risque d'être détérioré. Dans cette optique, au début des années 1990, une nouvelle technique a été introduite qui s'inspire principalement de la cryptographie et la stéganographie : elle consiste à inscrire une marque dans un document numérique. Cette technique est nommée le tatouage numérique, en anglais digital watermarking. Cette thèse présente cinq différentes contributions relatives au domaine du tatouage numérique et du traitement d'image. La première contribution est la proposition de deux solutions au problème de la détection positive fausse de la marque constatée dans certains algorithmes de tatouage numérique basés sur la décomposition en valeurs singulières. L'une des solutions est basée sur les fonctions de hachage et l'autre sur le cryptage d'image. La deuxième contribution est la proposition d'un algorithme de cryptage d'image basé sur le principe du cube Rubik. La troisième contribution est la conception d'un algorithme de tatouage numérique basé sur la transformée en ondelettes à base du schéma de lifting (LWT) et la décomposition en valeurs singulières (SVD). Un facteur scalaire unique est utilisé pour contrôler l'intensité de l'insertion de la marque, et permet ainsi de trouver le meilleur compromis entre la robustesse et l'imperceptibilité du tatouage numérique. Cependant, l'utilisation des facteurs scalaires multiples au lieu d'un facteur scalaire unique est plus intéressante [CKLS97]. Toutefois, la détermination des valeurs optimales des facteurs scalaires multiples est un problème très difficile et complexe. Afin de trouver ces valeurs optimales, on a utilisé séparément l'optimisation multi-objective par algorithme génétique (MOGAO) et l'optimisation multi-objective par l'algorithme de colonie de fourmis (MOACO) qui sont considérés comme la quatrième et la cinquième contributions de cette thèse.
268

Ré-observabilité des points caractéristiques pour le calibrage et le positionnement d'un capteur multi-caméra

Ouellet, Jean-Nicolas 17 April 2018 (has links)
Le calibrage et le positionnement de caméras reposent sur l'extraction de caractéristiques dans l'image et leur reconnaissance dans les images subséquentes. Une caractéristique est une région de l'image localement saillante à laquelle sont associées une position et une description de l'apparence de cette région. Les algorithmes de calibrage et de positionnement reposent sur l'hypothèse qu'un ensemble de caractéristiques correspondantes est l'observation du même point physique de la scène. Toutefois, cette hypothèse n'est pas nécessairement respectée par toutes les caractéristiques correspondantes. Les causes de la présence de ces caractéristiques nuisibles sont multiples, allant de biais induits par la méthode de localisation dans l'image, jusqu'à la déformation de l'image lorsque la caméra change de point de vue. Le principal défi du calibrage et du positionnement est donc l'identification de caractéristiques fiables. Pour pallier ce problème, nous introduisons le concept de ré-observabilité d'une caractéristique. Ce concept regroupe l'unicité du point physique et la reconnaissance. Un point de la scène est défini par ses observations dans les images et par les poses associées à ces images. Ainsi, une caractéristique doit être localisée le plus précisément possible dans l'image. Pour ce faire, nous avons identifié les biais affectant la localisation des caractéristiques dans l'image en calibrage pour une scène contrôlée et en positionnement où le capteur évolue dans une scène inconnue. Pour chaque biais, nous proposons une solution simple permettant de réduire, voire éliminer le biais. Ceci a mené au développement de nouveaux détecteurs de caractéristiques. Ensuite, à partir de plusieurs images, nous évaluons la cohérence entre les observations et les poses de la caméra à l'aide de critères multi-vue. Les caractéristiques nuisibles peuvent alors être identifiées. L'aspect reconnaissance est traité en évaluant la distinction des caractéristiques qui peuvent être distinctes localement ou globalement dans la scène. Une application directe de ce concept concerne la visibilité des caractéristiques où l'observation d'une caractéristique distincte globalement renforce la probabilité d'observer une caractéristique distincte localement si elles ont été observées conjointement. Chacun des concepts de la ré-observabilité est appuyé par une application réelle de calibrage et de positionnement d'un capteur multi-caméra.
269

Segmentation, regroupement et classification pour l'analyse d'image polarimétrique radar

El Mabrouk, Abdelhai 18 April 2018 (has links)
Les images de télédétection radar sont caractérisées par un important bruit multi- plicatif, le chatoiement. La polarisation de l'onde est utilisée pour obtenir plus d'infor- mation sur la cible au sol. La décomposition du signal permet de caractériser le type de rétrodiffusion : de volume, de surface ou double bond. L'objectif de ce mémoire est d'illustrer et de mettre en évidence les avantages de la segmentation hiérarchique et du regroupement hiérarchique pour l'analyse d'images polarimétriques radar. Pour la classification H/A/alpha, on doit effectuer préalablement un filtrage pour réduire le bruit dans la classification. Nous proposons d'utiliser la segmentation hiérarchique et le regroupement hiérarchique pour faire un premier regroupement des pixels. Nous mon- trons que les résultats de la classification H/A/alpha et du regroupement de Wishart sont améliorés avec ce prétraitement. Nous utilisons deux images polarimétriques SAR pour notre étude. / Radar remote sensing images are characterized by an important multiplicative noise, the speckle. The polarization of the wave is used to obtain more information about the ground target. The scattering type is obtained from the signal decomposition : volume, surface or double bond. The objective of the thesis is to show and illustrate the advan- tages of the hierarchical segmentation and clustering for the analysis of polarimetric radar images. Filtering is needed to reduce the noise in H/A/alpha classification. We propose to use the hierarchical segmentation and the hierarchical clustering for a first grouping of the pixels. This produces a simple image while preserving the spatial infor- mation. The results of H/A/alpha classification and Wishart clustering are improved with this preprocessing. Two polarimetric images SAR are used for the study.
270

Développement d'outils d'IA pour évaluer l'état de douleur d'une souris

Bonilla Villatoro, William Ricardo 30 April 2024 (has links)
Ce mémoire présente une méthodologie novatrice pour mesurer les niveaux de douleur chez la souris en utilisant des techniques d'interprétation des images par apprentissage profond. L'un des principaux défis rencontrés dans cette étude a été l'acquisition de données de haute qualité. Une fois les données de qualité obtenues, il a été possible d'entraîner des réseaux de neurones capables de mesurer les niveaux de douleur. Afin de relever ces défis, nous avons développé un système de capture et de traitement d'images spécifiquement conçu pour cette étude. Ce système permet l'acquisition d'images de haute résolution avec un éclairage ajustable, ainsi que le traitement presque en temps réel des images. Grâce à ce système, nous avons pu constituer une base de données, appelée *MGS_UL*, comprenant plus de 2000 images annotées. Ensuite, des algorithmes d'apprentissage profond sont exploités pour évaluer de manière fiable les niveaux de douleur chez les souris. Ces algorithmes ont été testés sur la base de données *MGS_UL* pour évaluer leur efficacité à mesurer les niveaux de douleur. Les résultats obtenus démontrent la viabilité de ces algorithmes d'apprentissage profond pour la mesure de la douleur chez les souris. Ils ouvrent également la voie à de nouvelles avancées dans ce domaine de recherche.

Page generated in 0.1029 seconds