• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 5
  • Tagged with
  • 23
  • 23
  • 23
  • 23
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Détection d'objets multi-parties par algorithme adaptatif et optimisé

Villeneuve, Guillaume January 2012 (has links)
Dans ce mémoire, nous proposons des améliorations à une méthode existante de dé- tection d'objets de forme inconnue à partir de primitives simples. Premièrement, avec un algorithme adaptatif, nous éliminons les cas où on n'obtenait aucun résultat avec certaines images en retirant la plupart des seuils fixes, ce qui assure un certain nombre de groupes de primitives à chaque étape. Ensuite, l'ajout de certaines optimisations et d'une version parallèle de la méthode permettent de rendre le temps d'exécution raisonnable pour ce nouvel algorithme. Nous abordons ensuite le problème des solutions trop semblables en ajoutant une nouvelle étape de structuration qui réduira leur nombre sans en affecter la variété grâce au regroupement hiérarchique. Finalement, nous ajustons certains paramètres et des résultats sont produits avec trois ensembles de 10 images. Nous réussissons à prouver de manière objective que les résultats obtenus sont meilleurs qu'avec la méthode précédente. / In this thesis, we propose improvements to an existing unknown shape object detection method that uses simple primitives. Firstly, we eliminate cases where no results were obtained with some images using an adaptive algorithm by removing most of the fixed thresholds, assuring a certain number of primitive groups at each step. Secondly, adding some optimizations and a parallel version of the algorithm make the running time of this new algorithm reasonable. Thirdly, we approach the problem of the redundant solutions by adding a new structuring step that will reduce their number without affecting their variety using hierarchical clustering. Finally, we adjust some parameters and results are produced using three sets of 10 images. We prove in an objective manner that the obtained results are better than those of the previous method.
2

Étude de la géométrie dans la synthèse de vue

Lambert, Philippe January 2012 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
3

Visualisation d'information pour l'aide à la compréhension de situations complexes

Girardin, Maxime January 2012 (has links)
Ce mémoire présente les concepts et la réalisation d’outils de visualisation d’information dans un objectif d’aide à la compréhension de systèmes complexes. L’implantation des différents outils proposés a été réalisée dans le cadre du projet IMAGE mené au centre RDDC Valcartier. L’objectif principal de ce projet est de fournir une méthodologie et des outils afin d’aider à la compréhension de systèmes complexes. Le concept proposé par IMAGE repose principalement sur la synergie de quatre principes, soit la représentation, la scénarisation, la simulation et l’exploration. Nous nous attarderons ici essentiellement à l’aspect exploration. On propose d’abord une version desktop non immersive du module d’exploration. Différents outils de visualisation ont été développés à l’aide de l’outil de développement graphique Eye-Sys. Un ensemble d’affichages graphiques interactifs est proposé et s’inspire notamment de plusieurs techniques dans le domaine de la visualisation d’information. Ensuite, une version immersive des outils de visualisation a été réalisée. À partir de différents concepts de réalité virtuelle connus comme la stéréoscopie off-axis, des outils de visualisation ont été adaptés pour que l’on puisse les utiliser de façon immersive dans un environnement virtuel de type CAVE. On propose également l’intégration de différents périphériques de contrôle comme une télécommande sans fil et une tablette PC afin de faciliter la navigation dans l’environnement et la manipulation des différents outils de visualisation développés.
4

Système de localisation relative ultrasonique pour équipe de véhicules sans-pilote : principes et expérimentations

Morris, Alexandre 19 April 2018 (has links)
Ce mémoire présente les concepts théoriques et pratiques qui permettront à un groupe de véhicules sans-pilote hétérogène d'estimer la position et l'orientation relative des véhicules voisins en temps réel. Le système de localisation relative leur permettra donc de se coordonner localement afin d'effectuer des missions d'équipe telles que le transport d'une charge et le vol en formation. La localisation relative est effectuée avec une matrice de capteurs ultrasoniques et un algorithme de différence de temps d'arrivée des signaux. Le système présenté peut être monté à bord de véhicules sans-pilote et ne requiert pas d'architecture externe.
5

Approche non supervisée de segmentation de bas niveau dans un cadre de surveillance vidéo d'environnements non contrôlés

Martel-Brisson, Nicolas 18 April 2018 (has links)
La présente thèse propose un algorithme de segmentation de bas niveau pour des environnements complexes, allant de scènes intérieures peuplées aux scènes extérieures dynamiques. Basé sur des méthodes d'apprentissage développées pour une séquence vidéo où la caméra est fixe, le système est en mesure d'identifier les sections de l'image appartenant aux objets ou personnes d'avant-plan et ce, en dépit de perturbations temporelles de l'image de l'arrière-plan causées par les ombres, éléments naturels, changements d'illumination, etc. Nous proposons un cadre statistique d'estimation de densité de probabilité basé sur des kernels (KDE). Méthode polyvalente, les KDE requièrent toutefois des séquences d'entraînement où l'activité de l'avant-plan est minimale afin d'obtenir une bonne description initiale de la distribution de l'arrière-plan. Afin d'augmenter la flexibilité de ce type d'approche, nous exploitons la cohérence spatiale des événements d'avant-plan : en minimisant une fonction d'énergie globale par coupure de graphe, nous estimons les probabilités à priori et les densités associées à l'avant et l'arrière-plan pour chaque pixel de la scène. Pour y arriver, des indices tels la dispersion des données, la probabilité associée aux modes dans l'espace RGB, la persistance spatiale des événements et l'entropie relative des régions dans l'image sont utilisés dans un cadre statistique cohérent. Les ombres projetées qui sont détectées lors du processus de soustraction d'arrière-plan induisent des perturbations, tels la distorsion et la fusion des silhouettes, qui nuisent à la performance générale d'algorithmes de plus haut niveau dans un contexte de surveillance vidéo. Deux stratégies sont alors proposées afin de d'éliminer l'ombre projetée de la région d'intérêt. La première méthode utilise la capacité d'apprentissage de l'algorithme de Mixtures de Gaussiennes (GMM) dans le but de caractériser le comportement des ombres projetées sur les surfaces composant l'arrière-plan. La deuxième méthode s'appuie sur les propriétés physiques de l'ombre projetée et d'une mesure de gradient dans un cadre statistique non paramétrique afin d'estimer les valeurs d'atténuation des surfaces ombragées. La méthode permet la différenciation des ombres et de l'avant-plan lorsque ceux-ci partagent des valeurs de chromaticité similaire. Les résultats démontrent que notre approche est efficace dans une multitude de scénarios complexes.
6

Une méthode de machine à état liquide pour la classification de séries temporelles : A new liquid state machine method for temporal classification / New liquid state machine method for temporal classification

Rhéaume, François 19 April 2018 (has links)
L'intérêt envers la neuroscience informatique pour les applications d'intelligence arti- cielle est motivé par plusieurs raisons. Parmi elles se retrouve la rapidité avec laquelle le domaine evolue, promettant de nouvelles capacités pour l'ingénieur. Dans cette thèse, une méthode exploitant les récents avancements en neuroscience informatique est présentée: la machine à état liquide (\liquid state machine"). Une machine à état liquide est un modèle de calcul de données inspiré de la biologie qui permet l'apprentissage sur des ux de données. Le modèle représente un outil prometteur de reconnaissance de formes temporelles. Déjà, il a démontré de bons résultats dans plusieurs applications. En particulier, la reconnaissance de formes temporelles est un problème d'intérêt dans les applications militaires de surveillance telle que la reconnaissance automatique de cibles. Jusqu'à maintenant, la plupart des machines à état liquide crées pour des problèmes de reconnaissance de formes sont demeurées semblables au modèle original. D'un point de vue ingénierie, une question se dégage: comment les machines à état liquide peuvent-elles être adaptées pour améliorer leur aptitude à solutionner des problèmes de reconnaissance de formes temporelles ? Des solutions sont proposées. La première solution suggèrée se concentre sur l'échantillonnage de l'état du liquide. À ce sujet, une méthode qui exploite les composantes fréquentielles du potentiel sur les neurones est définie. La combinaison de différents types de vecteurs d'état du liquide est aussi discutée. Deuxièmement, une méthode pour entrâner le liquide est développée. La méthode utilise la plasticité synaptique à modulation temporelle relative pour modeler le liquide. Une nouvelle approche conditionnée par classe de données est proposée, où différents réseaux de neurones sont entraînés exclusivement sur des classes particuli ères de données. Concernant cette nouvelle approche ainsi que celle concernant l'échantillonnage du liquide, des tests comparatifs ont été effectués avec l'aide de jeux de données simulées et réelles. Les tests permettent de constater que les méthodes présentées surpassent les méthodes conventionnelles de machine à état liquide en termes de taux de reconnaissance. Les résultats sont encore plus encourageants par le fait qu'ils ont été obtenus sans l'optimisation de plusieurs paramètres internes pour les differents jeux de données testés. Finalement, des métriques de l'état du liquide ont été investiguées pour la prédiction de la performance d'une machine à état liquide. / There are a number of reasons that motivate the interest in computational neuroscience for engineering applications of artificial intelligence. Among them is the speed at which the domain is growing and evolving, promising further capabilities for artificial intelligent systems. In this thesis, a method that exploits the recent advances in computational neuroscience is presented: the liquid state machine. A liquid state machine is a biologically inspired computational model that aims at learning on input stimuli. The model constitutes a promising temporal pattern recognition tool and has shown to perform very well in many applications. In particular, temporal pattern recognition is a problem of interest in military surveillance applications such as automatic target recognition. Until now, most of the liquid state machine implementations for spatiotemporal pattern recognition have remained fairly similar to the original model. From an engineering perspective, a challenge is to adapt liquid state machines to increase their ability for solving practical temporal pattern recognition problems. Solutions are proposed. The first one concentrates on the sampling of the liquid state. In this subject, a method that exploits frequency features of neurons is defined. The combination of different liquid state vectors is also discussed. Secondly, a method for training the liquid is developed. The method implements synaptic spike-timing dependent plasticity to shape the liquid. A new class-conditional approach is proposed, where different networks of neurons are trained exclusively on particular classes of input data. For the suggested liquid sampling methods and the liquid training method, comparative tests were conducted with both simulated and real data sets from different application areas. The tests reveal that the methods outperform the conventional liquid state machine approach. The methods are even more promising in that the results are obtained without optimization of many internal parameters for the different data sets. Finally, measures of the liquid state are investigated for predicting the performance of the liquid state machine.
7

Combinaison de caméras thermique et couleur pour la segmentation cibles/arrière-plan en environnement non contrôlé

St-Laurent, Louis 18 April 2018 (has links)
La plupart des systèmes de surveillance vidéo que l’on retrouve actuellement sur le marché utilisent uniquement la région visible du spectre électromagnétique. De plus, les solutions proposées à ce jour afin de suivre automatiquement les objets en mouvement dans une scène sont souvent trop exigeantes numériquement pour pourvoir être effectuées en temps réel et présentent une dégradation significative des performances en environnement extérieur. L’objectif de cette thèse est d’exploiter la combinaison d’informations thermique et visible afin d’améliorer l’efficacité de détection et de suivi d’objets d’intérêt en environnement non contrôlé. Dans le cadre de ce projet, un seul nœud d’acquisition fixe est considéré. Un nœud est constitué d’une caméra thermique LWIR (8 - 12 m) et d’une caméra visible couleur. Trois défis techniques majeurs sont abordés : le développement d’une plateforme d’acquisition thermique / visible optimisée pour les applications de surveillance vidéo en environnement extérieur, la segmentation, en temps réel, d’objets en mouvement en environnement non contrôlé, et finalement, la combinaison de l’information thermique et couleur. Un intérêt soutenu est porté à la rapidité d’exécution afin d’atteindre une vitesse de traitement minimale de 10 trames par secondes. Il importe de mentionner que cette thèse a principalement été orientée selon les besoins du programme de Vision de l’INO, conférant ainsi un caractère très pratique et concret à la recherche. De ce fait, les algorithmes développés ont été continuellement testés et améliorés dans le cadre d'applications réelles. Les éléments relatifs à la mise en correspondance d'images thermique et visible ont permis le développement et la fabrication de le caméra VIRXCam, un produit offert par l'INO. Les algorithmes de détection constituent pour leur part le cœur du logiciel de surveillance vidéo AWARE, déjà utilisé depuis 2007 par un partenaire de l'INO s'intéressant au positionnement des objets en mouvement sur les pistes, voies de circulation et aires de stationnement d'aéroports. Cette thèse constitue un recueil très complet des éléments à considérer lors du développement d’une plateforme de vidéo surveillance en environnement extérieur. Tant les aspects matériels que logiciels sont traités. Nous espérons qu’elle constituera un ouvrage de référence pour les personnes qui s’intéressent au développement d’algorithmes temps réel pour des applications de détection de cibles en environnement non-contrôlé ou à la conception d’un capteur hybride thermique / visible. / Most existing video monitoring systems only use the visible range of the electromagnetic spectrum. Moreover, approaches proposed until now for automated target detection and tracking are often too computationally expensive for real-time applications and suffer significant performance degradation in outdoor environment. The purpose of this thesis is to make the most of thermal and visible information in order to improve efficiency of detection and tracking of moving target in uncontrolled environment. Within the framework of this project, only one motionless acquisition node is considered. A node includes a LWIR thermal camera (8 - 12 m) and a color electro-optical camera. Three main technical challenges are tackled: development of an hybrid thermal / visible acquisition platform optimized for video monitoring applications in outdoor environment, segmentation of moving targets in uncontrolled environment, and finally, combination of thermal and color information. For every aspect, special attention is addressed to computational efficiency to reach a minimum processing rate of 10 frames per second. It is worth to mention that this thesis has mainly been oriented along needs of INO's Vision program, conferring a very concrete and practical aspect to the research. Hence, developed algorithms have been continually assessed and improved in the context of real applications. Notions related to thermal / visible images registration have lead to development and manufacturing of the INO's VIRXCam camera, while detection algorithms are the grounding elements of INO's AWARE video monitoring library, used since 2007 by an INO's partner interested in positioning of moving targets on airport aprons, taxiways and runways. This thesis regroups most notions to be considered in the development of an outdoor video monitoring system. Both hardware and software aspects are addressed. We hope that this document will be used as a work of reference for those interested in the development of algorithms devoted to real-time detection of moving targets in uncontrolled environment, or interested in the design of hybrid thermal/electro-optical acquisition platform.
8

Parallélisation des algorithmes de Monte-Carlo multicanoniques

Brunet, Charles 19 April 2018 (has links)
Les méthodes de Monte-Carlo multicanoniques sont des techniques adaptatives de simulation numérique permettant d'estimer des distributions de probabilités complexes, particulièrement lorsque les probabilités recherchées sont extrêmement petites. Ces méthodes sont basées notamment sur les chaînes de Markov. Avec ces méthodes il est possible d'obtenir des résultats de manière beaucoup plus rapide qu'avec d'autres techniques comme le Monte-Carlo. Nous discutons ici de la parallélisation de ces algorithmes, pour en permettre l'utilisation sur un super-ordinateur. De cette manière, il deviendra possible de simuler des systèmes encore plus complexes avec davantage de précision. Dans ce mémoire, nous voyons tout d'abord des notions de base à propos de la programmation parallèle. Puis nous étudions les fondements mathématiques du Monte-Carlo multicanonique. Ensuite, nous déterminons des critères pour en estimer la performance et la précision. Enfin, nous étudions comment on peut le paralléliser afin de l'utiliser sur un super-ordinateur.
9

Représentation et manipulation de données de simulation dans un environnement virtuel immersif

Ouellet, Etienne 19 April 2018 (has links)
Le projet IMAGE vise à offrir des outils aux utilisateurs pour augmenter et accélérer la compréhension de situations complexes. En utilisant des technologies de pointe et des concepts de réalité virtuelle, un environnement virtuel immersif a été développé. Ce mémoire présente la deuxième version du projet IMAGE et se concentre sur les aspects visuels et immersifs de l'environnement. Les outils de visualisation et de manipulation sont conçus dans le but d'offrir de nouvelles possibilités dans l'analyse de situations complexes. La première version du projet (IMAGE VI) est tout d'abord présentée. Par la suite, une revue des différents concepts utilisés dans le projet est effectuée. Après une présentation du module Exploration, principale plateforme développée dans le cadre d'IMAGE V2, la problématique de la représentation des simulations dans un environnement immersif est abordée. La solution proposée, nommée arbre multichronique, est une manière de visualiser de l'information dans un espace virtuel et sera ensuite expliquée en détails. Finalement, une évaluation du système ainsi qu'une discussion sur le développement du projet complètent le mémoire.
10

Nondestructive testing of metals and composite materials using ultrasound thermography : comparison with pulse-echo ultrasonics

Peycheva, Kira 19 April 2018 (has links)
La thermographie stimulée par ultrasons (TU) est une méthode de contrôle non destructif qui a été inventée en 1979 mais qui a s'est répandue à la fin des années 90. L'idée de cette méthode est d'exciter le matériau à inspecter avec des ondes mécaniques à des fréquences allant de 20kHz à 40kHz et d'observer ensuite leur température de surface avec une caméra infrarouge. TU est une méthode de thermographie active; les autres méthodes les plus connues sont la thermographie optique et celle stimulée par courants de Foucault. Son habilité à révéler des défauts dans des cas où les autres techniques échouent, fait d'elle une méthode pertinente ou complémentaire. L'inconvénient de la TU est que beaucoup de conditions expérimentales doivent être respectées pour obtenir des résultats adéquats incluant quelques paramètres qui doivent être bien choisis. Le but de ce projet est d'explorer les capacités, les avantages et les limites de la TU. Pour comparer la performance de la TU à celle des ultrasons conventionnels, des tests ultrasons de type C-Scan ont été réalisés pour quelques échantillons. Quatre matériaux différents avec quatre types de défauts ont été investigués afin de mieux définir les conditions optimales pour améliorer la détection des défauts. Les résultats bruts obtenus étaient traités dans chaque cas afin de mieux visualiser les contrastes thermiques causés par les discontinuités cachées.

Page generated in 0.0196 seconds