• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 105
  • Tagged with
  • 340
  • 340
  • 334
  • 87
  • 50
  • 43
  • 42
  • 41
  • 37
  • 37
  • 35
  • 35
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Combinaison de caméras thermique et couleur pour la segmentation cibles/arrière-plan en environnement non contrôlé

St-Laurent, Louis 18 April 2018 (has links)
La plupart des systèmes de surveillance vidéo que l’on retrouve actuellement sur le marché utilisent uniquement la région visible du spectre électromagnétique. De plus, les solutions proposées à ce jour afin de suivre automatiquement les objets en mouvement dans une scène sont souvent trop exigeantes numériquement pour pourvoir être effectuées en temps réel et présentent une dégradation significative des performances en environnement extérieur. L’objectif de cette thèse est d’exploiter la combinaison d’informations thermique et visible afin d’améliorer l’efficacité de détection et de suivi d’objets d’intérêt en environnement non contrôlé. Dans le cadre de ce projet, un seul nœud d’acquisition fixe est considéré. Un nœud est constitué d’une caméra thermique LWIR (8 - 12 m) et d’une caméra visible couleur. Trois défis techniques majeurs sont abordés : le développement d’une plateforme d’acquisition thermique / visible optimisée pour les applications de surveillance vidéo en environnement extérieur, la segmentation, en temps réel, d’objets en mouvement en environnement non contrôlé, et finalement, la combinaison de l’information thermique et couleur. Un intérêt soutenu est porté à la rapidité d’exécution afin d’atteindre une vitesse de traitement minimale de 10 trames par secondes. Il importe de mentionner que cette thèse a principalement été orientée selon les besoins du programme de Vision de l’INO, conférant ainsi un caractère très pratique et concret à la recherche. De ce fait, les algorithmes développés ont été continuellement testés et améliorés dans le cadre d'applications réelles. Les éléments relatifs à la mise en correspondance d'images thermique et visible ont permis le développement et la fabrication de le caméra VIRXCam, un produit offert par l'INO. Les algorithmes de détection constituent pour leur part le cœur du logiciel de surveillance vidéo AWARE, déjà utilisé depuis 2007 par un partenaire de l'INO s'intéressant au positionnement des objets en mouvement sur les pistes, voies de circulation et aires de stationnement d'aéroports. Cette thèse constitue un recueil très complet des éléments à considérer lors du développement d’une plateforme de vidéo surveillance en environnement extérieur. Tant les aspects matériels que logiciels sont traités. Nous espérons qu’elle constituera un ouvrage de référence pour les personnes qui s’intéressent au développement d’algorithmes temps réel pour des applications de détection de cibles en environnement non-contrôlé ou à la conception d’un capteur hybride thermique / visible. / Most existing video monitoring systems only use the visible range of the electromagnetic spectrum. Moreover, approaches proposed until now for automated target detection and tracking are often too computationally expensive for real-time applications and suffer significant performance degradation in outdoor environment. The purpose of this thesis is to make the most of thermal and visible information in order to improve efficiency of detection and tracking of moving target in uncontrolled environment. Within the framework of this project, only one motionless acquisition node is considered. A node includes a LWIR thermal camera (8 - 12 m) and a color electro-optical camera. Three main technical challenges are tackled: development of an hybrid thermal / visible acquisition platform optimized for video monitoring applications in outdoor environment, segmentation of moving targets in uncontrolled environment, and finally, combination of thermal and color information. For every aspect, special attention is addressed to computational efficiency to reach a minimum processing rate of 10 frames per second. It is worth to mention that this thesis has mainly been oriented along needs of INO's Vision program, conferring a very concrete and practical aspect to the research. Hence, developed algorithms have been continually assessed and improved in the context of real applications. Notions related to thermal / visible images registration have lead to development and manufacturing of the INO's VIRXCam camera, while detection algorithms are the grounding elements of INO's AWARE video monitoring library, used since 2007 by an INO's partner interested in positioning of moving targets on airport aprons, taxiways and runways. This thesis regroups most notions to be considered in the development of an outdoor video monitoring system. Both hardware and software aspects are addressed. We hope that this document will be used as a work of reference for those interested in the development of algorithms devoted to real-time detection of moving targets in uncontrolled environment, or interested in the design of hybrid thermal/electro-optical acquisition platform.
92

La thermographie infrarouge à détection synchrone appliquée aux matériaux composites

Guibert, Stéphane 12 April 2018 (has links)
Ce document présente; l'intégration de la thermographie modulée au laboratoire de tests non destructifs. Tous les détails de l'équipement choisi, des réglages des logiciels utilisés et développés, et le choix d'un système modulaire; sont inclus. Les expériences portent sur des échantillons à base de matériaux composites. La technique est donc validée; par les résultats. Les résultats sont ensuite comparés avec la thermographie puisée et la simulation par la méthode; des éléments finis. / This document shows the intergration of the Lock-in thermography method for the non-destructif-testing laboratory. All the details of the equipment, software; settings (used and developped) and the choice of the modular system are included. The experiences arc; done on composite; material samples. The method is also validated by results. Those results are then compared with pulsed thermography and the finite element simulation method.
93

Bateau solaire et combinaison isothermique pour nager en eau froide

Coban, Selma 13 April 2018 (has links)
Ce projet a pour objectif de développer un nouveau système solaire gonflable et portable qui facilitera les sports aquatiques en eau froide sur la période avril-octobre de l'année. En permettant la nage et le bronzage, ce projet peut bonifier considérablement le tourisme sur les côtes marines et sur les lacs. Le bateau solaire est muni de panneaux photovoltaïques. L'énergie ainsi recueillie dans la batterie marine joue un rôle dans la propulsion à l'aide du moteur électrique et dans le système de pompage, qui achemine de l'eau chaude à l'intérieur de l' habit hermétique pour nager en eau froide. Sur cet habit ont eu lieu des tests de performance validés par la comparaison des résultats expérimentaux avec les calculs théoriques.
94

Head motion tracking in 3D space for drivers

Ntawiniga, Frédéric 13 April 2018 (has links)
Ce travail présente un système de vision par ordinateur capable de faire un suivi du mouvement en 3D de la tête d’une personne dans le cadre de la conduite automobile. Ce système de vision par ordinateur a été conçu pour faire partie d'un système intégré d’analyse du comportement des conducteurs tout en remplaçant des équipements et des accessoires coûteux, qui sont utilisés pour faire le suivi du mouvement de la tête, mais sont souvent encombrants pour le conducteur. Le fonctionnement du système est divisé en quatre étapes : l'acquisition d'images, la détection de la tête, l’extraction des traits faciaux, la détection de ces traits faciaux et la reconstruction 3D des traits faciaux qui sont suivis. Premièrement, dans l'étape d'acquisition d'images, deux caméras monochromes synchronisées sont employées pour former un système stéréoscopique qui facilitera plus tard la reconstruction 3D de la tête. Deuxièmement, la tête du conducteur est détectée pour diminuer la dimension de l’espace de recherche. Troisièmement, après avoir obtenu une paire d’images de deux caméras, l'étape d'extraction des traits faciaux suit tout en combinant les algorithmes de traitement d'images et la géométrie épipolaire pour effectuer le suivi des traits faciaux qui, dans notre cas, sont les deux yeux et le bout du nez du conducteur. Quatrièmement, dans une étape de détection des traits faciaux, les résultats 2D du suivi sont consolidés par la combinaison d'algorithmes de réseau de neurones et la géométrie du visage humain dans le but de filtrer les mauvais résultats. Enfin, dans la dernière étape, le modèle 3D de la tête est reconstruit grâce aux résultats 2D du suivi et ceux du calibrage stéréoscopique des caméras. En outre, on détermine les mesures 3D selon les six axes de mouvement connus sous le nom de degrés de liberté de la tête (longitudinal, vertical, latéral, roulis, tangage et lacet). La validation des résultats est effectuée en exécutant nos algorithmes sur des vidéos préenregistrés des conducteurs utilisant un simulateur de conduite afin d'obtenir des mesures 3D avec notre système et par la suite, à les comparer et les valider plus tard avec des mesures 3D fournies par un dispositif pour le suivi de mouvement installé sur la tête du conducteur. / This work presents a computer vision module capable of tracking the head motion in 3D space for drivers. This computer vision module was designed to be part of an integrated system to analyze the behaviour of the drivers by replacing costly equipments and accessories that track the head of a driver but are often cumbersome for the user. The vision module operates in five stages: image acquisition, head detection, facial features extraction, facial features detection, and 3D reconstruction of the facial features that are being tracked. Firstly, in the image acquisition stage, two synchronized monochromatic cameras are used to set up a stereoscopic system that will later make the 3D reconstruction of the head simpler. Secondly the driver’s head is detected to reduce the size of the search space for finding facial features. Thirdly, after obtaining a pair of images from the two cameras, the facial features extraction stage follows by combining image processing algorithms and epipolar geometry to track the chosen features that, in our case, consist of the two eyes and the tip of the nose. Fourthly, in a detection stage, the 2D tracking results are consolidated by combining a neural network algorithm and the geometry of the human face to discriminate erroneous results. Finally, in the last stage, the 3D model of the head is reconstructed from the 2D tracking results (e.g. tracking performed in each image independently) and calibration of the stereo pair. In addition 3D measurements according to the six axes of motion known as degrees of freedom of the head (longitudinal, vertical and lateral, roll, pitch and yaw) are obtained. The validation of the results is carried out by running our algorithms on pre-recorded video sequences of drivers using a driving simulator in order to obtain 3D measurements to be compared later with the 3D measurements provided by a motion tracking device installed on the driver’s head.
95

Écosystème : un Framework pour la simulation visuelle interactive assistée

Drouin, Richard. 03 May 2018 (has links)
La simulation visuelle interactive (SVI) permet d’analyser et de comprendre des systèmes complexes. Par contre, leur compréhension est limitée par la capacité humaine de traiter et d’analyser l’information véhiculée par la simulation afin de prendre de bonne décision concernant son déroulement futur. Le projet présenté dans cette thèse vise à aider la compréhension d’un scénario simulé par l’utilisation d’un Framework qui permet de simplifier la tâche d’analyse de l’utilisateur. En effet, le Framework effectue de façon autonome des tâches d’analyse et de traitement pour informer l’utilisateur du type d’interactions entre les entités du scénario simulé. Pour ce faire, le Framework permet tout d’abord de structurer les éléments de la simulation en s’inspirant du paradigme des écosystèmes. Ensuite, le Framework trouve et identifie les types d’interactions présentes dans le scénario. Finalement, le Framework informe l’utilisateur de façon claire et simple des comportements à noter. Comme les résultats obtenus le démontrent, le Framework permet de simplifier la tâche d’analyse d’un utilisateur de SVI en l’informant du type d’interactions présentes dans le scénario à l’étude. -- Mots clés : Simulation visuelle interactive, logique floue, écosystème, interaction biologique, détection d’interaction, Framework, architecture logiciel, interaction, biomimétisme, système complexe, modélisation.
96

Étalonnage d'un système de positionnement 3D optique

Gagné, Pierre-Luc 17 April 2018 (has links)
Ce projet se déroule dans le cadre du projet ICIS-DP (3d Intelligent and Configurable Inspection System for Deformable Parts) et il s'agit d'une collaboration entre Creaform inc., l'Université de l'Alberta et l'Université Laval. Le sous-objectif discuté dans ce mémoire est le système de positionnement. Le système retenu est le HiBall de la compagnie 3rdTech. Ce système fonctionne avec une caméra multivue et un ensemble de DEL disposées au plafond. Suite à une étude réalisée par Y. Martin [14] ce système ne satisfait pas les caractéristiques voulues avec une erreur maximale en position de 7 mm. Le système doit avoir une erreur maximale en position inférieure à 500 fim et à 0,1 "en orientation. Une nouvelle procédure pour l'étalonnage des positions des DEL a donc été développée. Cette nouvelle méthode est basée sur le "bundle adjustment" ce qui permet d'étalonner les DEL même si les poses du HiBall ne sont pas parfaitement connues. Une barre, appelée barre de calibrage, est utilisée afin d'ajouter davantage de contraintes au système et afin de valider l'étalonnage. Cette barre permet de déplacer le HiBall selon une translation pure de norme connue. Dans le but de mieux analyser les résultats, un simulateur a été créé. La méthode initiale a été révisée afin de diminuer davantage l'erreur maximale en position pour atteindre 1,2 mm. Il resterait une étape supplémentaire pour atteindre l'objectif.
97

Parallélisation des algorithmes de Monte-Carlo multicanoniques

Brunet, Charles 19 April 2018 (has links)
Les méthodes de Monte-Carlo multicanoniques sont des techniques adaptatives de simulation numérique permettant d'estimer des distributions de probabilités complexes, particulièrement lorsque les probabilités recherchées sont extrêmement petites. Ces méthodes sont basées notamment sur les chaînes de Markov. Avec ces méthodes il est possible d'obtenir des résultats de manière beaucoup plus rapide qu'avec d'autres techniques comme le Monte-Carlo. Nous discutons ici de la parallélisation de ces algorithmes, pour en permettre l'utilisation sur un super-ordinateur. De cette manière, il deviendra possible de simuler des systèmes encore plus complexes avec davantage de précision. Dans ce mémoire, nous voyons tout d'abord des notions de base à propos de la programmation parallèle. Puis nous étudions les fondements mathématiques du Monte-Carlo multicanonique. Ensuite, nous déterminons des critères pour en estimer la performance et la précision. Enfin, nous étudions comment on peut le paralléliser afin de l'utiliser sur un super-ordinateur.
98

Universal decoder for low density parity check, turbo and convolutional codes

Hussein, Ahmed Refaey Ahmed 18 April 2018 (has links)
De nombreux systèmes de communication sans fil ont adopté les codes turbo et les codes convolutifs comme schéma de codes correcteurs d'erreurs vers l'avant (FEC) pour les données et les canaux généraux. Toutefois, certaines versions proposent les codes LDPC pour la correction d'erreurs en raison de la complexité de l'implémentation des décodeurs turbo et le succès de certains codes LDPC irréguliers dans la réalisation des mêmes performances que les codes turbo les dépassent dans certains cas avec une complexité de décodage plus faible. En fait, les nouvelles versions des standards de ces systèmes travaillent côte à côte dans des dispositifs réels avec les plus anciennes qui sont basées sur les codes turbo et les codes convolutifs. En effet, ces deux familles de codes offrent toutes deux d'excellentes performances en termes de taux d'erreur binaire (TEB). Par conséquent, il semble être une bonne idée d'essayer de les relier de manière à améliorer le transfert de technologie et l'hybridation entre les deux méthodes. Ainsi, la conception efficace de décodeurs universels des codes convolutifs, turbo, et LDPC est critique pour l'avenir de l'implémentation des systèmes sans fil. En outre, un décodeur efficace pour les codes turbo et codes convolutifs est obligatoire pour la mise en oeuvre de ces systèmes sans fil. Cela pourrait se faire par l'élaboration d'un algorithme de décodage unifié des codes convolutifs, turbo et LDPC par des simulations et des études analytiques suivies d'une phase de mise en oeuvre. Pour introduire ce décodeur universel, il existe deux approches, soit sur la base de l'algorithme du maximum a posteriori (MAP) ou l'algorithme de propagation de croyance (BP). D'une part, nous étudions une nouvelle approche pour décoder les codes convolutifs et les turbo codes au moyen du décodeur par propagation de croyances (BP) décodeur utilisé pour les codes de parité à faible densité (codes LDPC). En outre, nous introduisons un système de représentation général pour les codes convolutifs par des matrices de contrôle de parité. De plus, les matrices de contrôle de parité des codes turbo sont obtenus en traitant les codes turbo parallèles comme des codes convolutifs concaténés. En effet, l'algorithme BP fournit une méthodologie très efficace pour la conception générale des algorithmes de décodage itératif de faible complexité pour toutes les classes des codes convolutifs ainsi que les turbo-codes. Alors qu'une petite perte de performance est observée lors du décodage de codes turbo avec BP au lieu du MAP, cela est compensé par la complexité moindre de l'algorithme BP et les avantages inhérents à une architecture unifiée de décodage. En outre, ce travail exploite la représentation tail-biting de la matrice de contrôle de parité des codes convolutifs et des codes turbo, ce qui permet le décodage par un algorithme de propagation de croyance unifiée (BP) pour les nouveaux systèmes de communication sans fils tels que le WiMAX (Worldwide Interoperability for Microwave Access) et le LTE (Long Term Evolution). D'autre part, comme solution alternative, une recherche est effectuée sur la façon de produire un décodeur combiné de ces deux familles de codes basé sur l'algorithme MAP. Malheureusement, cette seconde solution nécessite beaucoup de calculs et de capacité de stockage pour sa mise en oeuvre. En outre, ses récurrences en avant et en arrière résultent en de longs délais de décodage. Entre temps, l'algorithme MAP est basé sur le treillis et la structure en treillis du code LDPC est suffisamment compliquée en raison de la matrice de contrôle de parité de grande taille. En conséquence, cette approche peut être difficile à mettre en oeuvre efficacement car elle nécessite beaucoup de calculs et une grande capacité de stockage. Enfin, pour prédire le seuil de convergence des codes turbo, nous avons appliqué la méthode de transfert d'information extrinsèque (EXIT) pour le décodeur correspondant en le traitant comme une concaténation de noeuds de variable et de contrôle.
99

Brouillage coopératif pour le renforcement de la sécurité à la couche physique

Bouguettaya, Salim 23 April 2018 (has links)
Le brouillage coopératif est une approche qui a été proposée récemment pour améliorer la sécurité sur la base de la couche physique pour les réseaux sans fil soumis à l’écoute clandestine. Il permet d’augmenter la capacité secrète entre les utilisateurs légitimes. Alors que la source transmet son message au destinataire, des noeuds de relais coopèrent entre eux pour diffuser des signaux perturbateurs à l’espion pour l’empêcher d’écouter avec fiabilité la communication légitime. En plus, la connaissance des messages des utilisateurs légitimes permet d’interférer intelligemment l’espion. Dans le présent mémoire, on étudie plusieurs scénarios de brouillage coopératif avec NJ relais brouilleurs. Chaque scénario sera une amélioration des inconvénients détectés dans celui qui le précède. A la fin, on propose un algorithme qui garantit une liaison légitime fiable et assurer au même temps un taux sécuritaire le plus élevé possible. Cela, en se basant sur les observations des précédentes stratégies étudiées. / Cooperative jamming is an approach that has recently been proposed to improve security on the basis of the physical layer for wireless networks subject to eavesdropping. It allows an increase in the secrecy capacity between legitimate users. While a source transmits its message to its destination, relay nodes cooperate with each other to broadcast interference signals to the eavesdroppers to prevent him to make reliable observations of the legitimate communication. The knowledge of the messages of other users allows the legitimate user to interfere or jam intelligently. In this Master’s thesis, we study several cooperative interference scenarios with NJ jammers relays. Each scenario will be an improvement of the inconveniences detected in the preceding one. Finally, we propose an algorithm that ensures a reliable connection between legitimate users and at the same time ensure a safe secret rates as high as possible. This, based on observations of previous strategies studied.
100

Algorithmes pour la modélisation de l'apparence

Perreault, Simon 12 April 2018 (has links)
Ce mémoire est divisé en (Unix parties indépendantes. La première; propose un nouvel algorithme de filtrage médian, lequel est une pierre; angulaire dans plusieurs situations de traitement d'image. Cependant, son utilisation a souvent été entravée; par sa complexité algorithmique de 0(r) selon le rayon de la fenêtre. Avec la tendance; vers des images de; meilleure résolution et des fenêtres de filtre proportionnellement plus larges, le besoin pour un algorithme de filtrage médian efficient devient pressant. Dans ce mémoire, un nouvel algorithme, simple mais bien plus rapide, affichant une complexité en temps d'exécution de O(l), est décrit et analysé. Sa performance est mesurée et comparée à celle des algorithmes précédents. Des extensions vers des données de plus haute dimensionnalité ou précision, ainsi qu'une approximation de fenêtre circulaire, sont aussi présentées. Dans la seconde partie, un système de modélisation de l'apparence d'objets est présenté. Il consiste en un robot à câbles déplaçant un appareil photo numérique autour du sujet en en prenant un grand nombre de photos. Le traitement informatique subséquent doit accomplir trois grandes tâches : segmentation, positionnement 3-D des photos et reconstruction de l'enveloppe visuelle de l'objet. Dans ce mémoire, les algorithmes impliqués sont analysés, critiqués et des améliorations sont proposées. En particulier, des algorithmes efficients pour le calcul d'enveloppe visuelle et pour la méthode des K plus proches voisins sont présentés. Le système dans son ensemble est finalement jugé selon les objectifs de conception préétablis et des recommandations sont faites afin d'en améliorer les performances. / This dissertation is divided into two independent parts. The first one proposes a new median filter algorithm. The median filter is one of the basic building blocks in many image processing situations. However, its use has long been hampered by its algorithmic complexity of 0(r) in the kernel radius. With the trend toward larger images and proportionally larger filter kernels, tlu; need for a more efficient median filtering algorithm becomes pressing. In this dissertation, a new, simple yet much faster algorithm exhibiting O(l) runtime complexity is described and analyzed. Tt is compared and benchmarked against previous algorithms. Extensions to higher-dimensional or higher-precision data and an approximation to a circular kernel are presented as well. In the second part, a system for modeling object appearances is presented. It consists in a cable robot moving a digital camera around the subject while taking a high number of photos of it. The ensuing computer processing must accomplish three tasks : segmentation, 3-D positioning of the photos, and reconstruction of the object's visual hull. In this dissertation, the implied algorithms are analyzed, criticized, and improved. In particular, efficient algorithms for Computing the visual hull and for performing the K nearest neighbors method are presented. The system as a whole is finally judged according to the preestablished design objectives and recommendations are made in order to improve its performances.

Page generated in 0.0334 seconds