• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 11
  • 9
  • Tagged with
  • 64
  • 21
  • 17
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Calibration de la distorsion radiale

Gauthier, Alexandre January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Système de vidéosurveillance intelligent et adaptatif, dans un environnement de type Fog/Cloud / Intelligent and adaptive video surveillance system, in a Fog/Cloud environment

Sbai, Hugo 20 April 2018 (has links)
Les systèmes de vidéosurveillance utilisent des caméras sophistiquées (caméras réseau, smart caméras) et des serveurs informatiques pour l’enregistrement vidéo dans un système entièrement numérique. Ces systèmes intègrent parfois des centaines de caméras et génèrent une quantité colossale de données, dépassant largement les capacités des agents humains. Ainsi, l'un des défis modernes les plus importants est de faire évoluer un système basé sur le Cloud intégrant plusieurs caméras intelligentes hétérogènes et l'adapter à une architecture Fog/Cloud pour en améliorer les performances. Les FPGA sont de plus en plus présents dans les architectures FCIoT (FoG-Cloud-IoT). Ils sont caractérisés par des modes de configuration dynamiques et partiels, permettant de s'adapter rapidement aux changements survenus tout en augmentant la puissance de calcul disponible. De telles plateformes présentent de sérieux défis scientifiques, notamment en termes de déploiement et de positionnement des FoGs.Cette thèse propose un modèle de vidéosurveillance composé de caméras intelligentes plug & play, dotées de FPGAs dynamiquement reconfigurables sur une base hiérarchique FOG/ CLOUD. Dans ce système fortement évolutif, à la fois en nombre de caméras et de cibles trackées, nous proposons une approche automatique et optimisée d’authentification des caméras et de leur association dynamique avec les FoGs. L’approche proposée comporte également une méthodologie pour l’affectation optimale des trackers matériels aux ressources électroniques disponibles pour maximiser les performances et minimiser la consommation d’énergie. Toutes les contributions ont été validées avec un prototype de taille réelle. / CCTV systems use sophisticated cameras (network cameras, smart cameras) and computer servers for video recording in a fully digital system. They often integrate hundreds of cameras generating a huge amount of data, far beyond human agent monitoring capabilities. One of the most important and modern challenges, in this field, is to scale an existing cloud-based video surveillance system with multiple heterogeneous smart cameras and adapt it to a Fog / Cloud architecture to improve performance without a significant cost overhead. Recently, FPGAs are becoming more and more present in FCIoT (FoG-Cloud-IoT) platform architectures. These components are characterized by dynamic and partial configuration modes, allowing platforms to quickly adapt themselves to changes resulting from an event, while increasing the available computing power. Today, such platforms present a certain number of serious scientific challenges, particularly in terms of deployment and positioning of FoGs. This thesis proposes a video surveillance model composed of plug & play smart cameras, equipped with dynamically reconfigurable FPGAs on a hierarchical FOG / CLOUD basis. In this highly dynamic and scalable system, both in terms of intelligent cameras (resources) and in terms of targets to track, we propose an automatic and optimized approach for camera authentication and their dynamic association with the FOG components of the system. The proposed approach also includes a methodology for an optimal allocation of hardware trackers to the electronic resources available in the system to maximize performance and minimize power consumption. All contributions have been validated with a real size prototype.
3

Style-driven virtual camera control in 3D environments / Contrôle, basé sur le style, de caméras virtuelles dans des environnements 3D

Merabti, Billal 24 September 2015 (has links)
Calculer automatiquement une séquence d'images cinématographiquement cohérente, sur un ensemble d'actions qui se produisent dans un monde 3D, est une tâche complexe. Elle nécessite non seulement le calcul des plans de caméra ( points de vue ) et les transitions appropriées entre ces plans (coupures), mais aussi la capacité d'encoder et de reproduire des éléments de style cinématographique. Les modèles proposés dans la littérature, fondés généralement sur des représentations à machines d'états finis (FSMs), fournissent des fonctionnalités limitées pour construire des séquences de plans et ne permettent pas d'effectuer d'importantes variations de style sur une même séquence d'actions. Dans cette thèse, nous proposons d'abord un modèle cinématographique expressif, basé données, qui peut calculer des variations significatives en termes de style, avec la possibilité de contrôler la durée des prises de vue et la possibilité d'ajouter des contraintes spécifiques à la séquence souhaitée. Le modèle est paramétré de manière à faciliter l'application de techniques d'apprentissage pour reproduire des éléments de style extraits de films réels en utilisant une représentation à base de modèle de Markov caché du processus de montage. Le modèle proposé est à la fois plus général que les représentations existantes, et se révèle être plus expressif dans sa capacité à encoder précisément des éléments de style cinématographique pour des scènes de dialogues. Ensuite, nous introduisons une extension plus générique pour généraliser notre système de montage afin de traiter des contenus cinématographique plus complexes (autres que les dialogues). Il s'agit d'utiliser des Réseaux bayésiens dynamiques à la place des modèles de Markov à états cachés. Enfin, nous avons conçu un outil d'annotation et un format de représentation de données cinématographiques afin de simplifier le processus de création et de manipulation de ses données. Les données collectées serviront comme bases d'apprentissage pour des techniques basées données, telles que les nôtres, ainsi que pour l'analyse de films. / Automatically computing a cinematographically consistent sequence of shots, over a set of actions occurring in a 3D world, is a complex task which requires not only the computation of appropriate shots (viewpoints) and appropriate transitions between shots (cuts), but the ability to encode and reproduce elements of cinematographic style. The models proposed in the literature, generally rule-based, provide limited functionalities to build sequences of shots. These approaches are not designed in mind to easily learn elements of cinematographic style, nor do they allow to perform significant variations in style over the same sequence of actions. In this thesis, we first propose a data-driven model for automated cinematography (framing and editing) that can compute significant variations in terms of cinematographic style, with the ability to control the duration of shots and the possibility to add specific constraints to the desired sequence. By using a Hidden Markov Model representation of the editing process, we demonstrate the possibility of easily reproducing elements of style extracted from real movies. The proposed model is more elaborate in handling dialogue scenes than existing representations, and proves to be more expressive in its ability to precisely encode elements of cinematographic style. Then, we introduce an extension of this model to account for more complex environments (more than dialogues). To this end, we use a more general statistical model: Dynamic Bayesian Network, which enlarges considerably the possibilities in editing and film analysis. We finally designed a data annotation tool and a format to easily create film annotations that would be used for data-driven cinematography or film analysis.
4

Interface de contrôle automatisé d’un système de caméras robotisées pour la télétraumatologie

Tran Thanh, Thanh Tung January 2011 (has links)
De nos jours, la télémédecine est appliquée universellement dans plusieurs domaines de la médecine comme la radiologie, la pathologie et la psychiatrie. Depuis 2004, le Centre hospitalier universitaire de Sherbrooke (CHUS), la Faculté de médecine et des sciences de la santé et la Faculté de génie de l’Université de Sherbrooke développent un système des caméras robotisées permettant à un traumatologue d’interagir à distance avec un médecin intervenant en salle d’urgence, dans un contexte de télétraumatologie. Ce système demande au traumatologue de contrôler et de positionner les caméras tout en observant l’intervention. Afin qu’il puisse se concentrer le plus possible sur l’intervention chirurgicale au lieu de s’attarder au contrôle du système, une assistance de positionnement des caméras s’avérerait utile. L’objectif de ce projet est de concevoir une interface qui permet de positionner automatiquement les caméras robotisées tout en laissant la possibilité à l’opérateur de les déplacer directement au besoin. Pour ce faire, l’interface de contrôle automatisé utilise des algorithmes de traitement d’images permettant le suivi d’éléments visuels, la détection d’obstructions dans la scène observée et l’approximation de coordonnées tridimensionnelles d’un point dans l’image. Elle exploite deux modes de contrôle : l’opérateur sélectionne une zone d’intérêt directement dans la vue vidéo, ou identifie une région d’intérêt qui est suivie automatiquement par le système, et qui permet au besoin que les deux bras regardent simultanément le dit objet de deux points de vue différents. Avec la détection d’obstructions, l’interface est en mesure de repositionner automatiquement les caméras pour garder la vue sur la zone ou la région d’intérêt. Des tests pré-cliniques menés au Laboratoire de robotique intelligente, interactive et interdisciplinaire de l’Université de Sherbrooke permettent d’évaluer l’efficacité et la pertinence de l’interface de contrôle automatisé. Malgré certaines limitations inhérentes à la rapidité de traitement des commandes de positionnement des caméras intégrées au système, l’analyse des résultats suggère que l’interface de contrôle automatisé est conviviale et diminue la charge cognitive des opérateurs. La performance avec l’interface de contrôle automatisé permettant la sélection de la zone d’intérêt est plus élevée que l’interface de contrôle nonautomatisé (dite manuel, demandant le positionnement manuel des bras robotisés et des caméras), tandis que la performance de l’interface de contrôle automatisé permettant de sélectionner et de suivre une région d’intérêt simultanément par les deux caméras est moins élevée que l’interface de contrôle manuel.
5

Analyse et modélisation des performances d'un nouveau type de détecteur en médecine nucléaire : du détecteur Anger au détecteur Semi-conducteur

Imbert, Laetitia 10 December 2012 (has links) (PDF)
La tomoscintigraphie myocardique est considérée comme un examen de référence pour le diagnostic et l'évaluation de la maladie coronarienne. Mise au point dans les années 1980 avec le développement des gamma-caméras d'Anger rotatives, cette technique est en pleine mutation depuis l'arrivée de nouvelles caméras à semi-conducteurs dont les performances sont nettement supérieures. Deux caméras à semi-conducteurs, dédiées à la cardiologie nucléaire et utilisant des détecteurs de Cadmium Zinc Telluride sont actuellement commercialisées : la Discovery NM-530c (General Electric) et la DSPECT (Spectrum Dynamics). Les performances de ces caméras CZT ont été évaluées : 1) à la fois sur fantôme et sur des examens d'effort provenant de patients à faible probabilité de maladie coronaire, et 2) avec les paramètres d'acquisition et de reconstruction utilisés en clinique. Les résultats ont démontré la nette supériorité des caméras CZT en termes de sensibilité de détection, de résolution spatiale et de rapport contraste sur bruit par rapport à la génération de caméras d'Anger. Ces propriétés vont permettre de diminuer très fortement les temps d'acquisition et les activités injectées, tout en améliorant la qualité des images. Néanmoins, on connaît encore mal les limites et possibles artéfacts liés à la géométrie particulière d'acquisition. Pour cela, nous avons développé un simulateur numérique à partir de la modélisation avec la plateforme GATE de la géométrie des détecteurs de la caméra DSPECT et de leur réponse en énergie. Des données effectivement enregistrées ont été comparées aux données simulées selon trois paramètres de performance : sensibilité de détection en mode tomographique, résolution spatiale et résolution en énergie. Les résultats sont concordants, ce qui permet de valider ce simulateur DSPECT et d'envisager de nombreuses études d'optimisation, en particulier pour les protocoles d'acquisition complexes (acquisitions double traceur, études cinétiques).
6

eCandy Evolutionary Camera Network Deploy

Fortin, Félix-Antoine 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / Les systèmes de surveillance vidéo comme méthode de prévention et de protection connaissent une popularité grandissante. Cependant, des études tendent à démontrer que le placement des caméras est généralement inadéquat, se soldant en des systèmes à efficacité limitée. Ce mémoire propose une méthode permettant le placement automatique d'un nombre variable de caméras dans un environnement arbitraire en vue d'en optimiser le coût et la performance. Nous développons une formulation de la problématique pouvant servir à l'expression générale de plusieurs problèmes de placement de caméras. Les problèmes sont résolus grâce à un algorithme évolutionnaire, utilisant une représentation à taille variable, qui produit en sortie un ensemble de solutions exprimant les compromis possibles entre le coût et la performance. L'analyse qualitative des solutions est réalisée à l'aide de trois paradigmes de visualisation développée pour ce projet. Nous analysons trois problèmes concrets résolus par l'algorithme.
7

PAIRE STÉRÉO AGILE en vue d'une application à MONNET : étude du Viewport

Buteau-Vaillancourt, Louis 12 April 2018 (has links)
Le but du projet est de remplacer une caméra d'un nœud du système MONNET (Monitoring of Extended Premises : Tracking Pedestrains Using a Network of Loosely Coupled Caméras) par une paire de caméras stéréo agiles. Cette paire de caméras permettra une détection plus poussée des sujets, en effectuant un suivi 3D de ceux-ci sur une plus longue période et pour en tirer plus d'informations. Il sera aussi possible d'extraire de l'information géométrique sur les sujets détectés. Problématique Notre société (locale et internationale) fait face à des besoins croissants sur le plan de la sécurité. Nous sommes à la recherche de nouvelles approches de surveillance pour augmenter cette sécurité. Une voie de recherche en expansion est la surveillance automatisée par vision artificielle. Les systèmes actuels souffrent de l'incapacité des caméras présentement disponibles d'extraire de l'information géométrique sur les sujets ainsi que de faire un suivi 3D sur un sujet intéressant et nécessitant une plus grande attention / analyse. Motivation & Approche Ce travail se greffe au projet MONNET. Le projet a pour objectif la réalisation d'un système de surveillance utilisant un groupe de nœuds faiblement couplés. L'idée principale est de pouvoir placer des nœuds sans se soucier de leur emplacement par rapport au reste du système et sans reposer sur un serveur central. Ce travail explore la possibilité d'ajouter un nœud formé d'une paire de caméras stéréo agiles. Le projet est déjà capable d'extraire de l'information de la scène observée, mais le système reste statique au niveau des capteurs vision. Avec l'ajout d'une paire stéréo, le système de vision sera dynamique et réagira à son environnement. L'approche employée sera de détecter un sujet dans le champ de vue des caméras de la paire stéréo et d'y extraire le maximum d'informations durant son parcours dans le champ de vue commun. Lorsque le sujet quittera le champ de vue commun, le système estimera sa trajectoire à partir de sa position actuelle et antérieure, afin de se rediriger vers le sujet pour le suivre à nouveau. Cela se fera jusqu'à la limite du déplacement des caméras. Défis L'un des défis majeurs du projet impliquant la paire stéréo agile est la soustraction de Parrière-plan. Comme les caméras vont changer d'orientation tout au long du suivi, le fond de scène va aussi changer (sera statique suivi d'un changement brusque). Différentes techniques devront être utilisées afin de surmonter le problème. Un autre point important qu'il ne faut pas négliger est que lors du déplacement de la caméra, si l'estimation de la position du sujet est erronée et que nous le perdons, l'on doit récupérer rapidement de cette erreur, afin de toujours suivre le sujet. Applications L'application principale serait dans un système de surveillance qui, lorsqu'un événement douteux se produit, pourrait continuer à suivre plus longtemps et avec plus de précision ou de détails la personne qui a engendré l'événement douteux.
8

Augmentation du champ de vue d'une caméra temps-de-vol commerciale

Gagnon, Mathieu 04 July 2019 (has links)
Ce mémoire présente une méthode d’augmentation du champ de vue d’une caméra temps-de-vol commerciale. Cette augmentation étendrait leur utilisation dans certaines applications où la perception de l’environnement sur un large champ de vision est un critère, notamment en robotique mobile. La conception inclut l’ajout d’une lentille de conversion au système optique de la caméra infrarouge ainsi qu’une modification du système d’illumination. Dans le cas d’une Kinect V2, les capacités de reconstruction 3D ont été conservées pour une augmentation d’environ 50% du champ de vue, soit de 70°x60° à 106°x86°. Afin de tenir compte des modifications apportées au système optique, une calibration de la caméra a été effectuée. Le système modifié comporte une bonne précision (<1%) et une bonne exactitude (<1,5%). Ces résultats sont calculés avec 100 acquisitions en considérant un peu moins de 40% des pixels disponibles sur le senseur. Les performances diminuent rapidement en dehors de la zone centrale du senseur. Un compromis a été fait sur les performances du système afin d’augmenter son champ de vue. / This dissertation presents a method to increase the field of view of a commercially available time-of-flight camera. This increase could extend the field of application of such cameras, especially in mobile robotics where awareness of the surrounding is an important factor. The design includes a conversion lens added in front of the optical system and a modification to the illumination system. In the specific case of a Kinect v2, capability of 3D reconstruction has been preserved for an augmentation of 50% of the field of view, from 70°x60° to 106°x86°. To take into consideration the optical modifications, a calibration of the camera has been made. The modified system is characterised by a good precision (<1%) and a good accuracy (<1,5%). These results are calculated on slightly under 40% of the available pixels using 100 acquisitions. Performances decrease at a great rate outside of the central pixel zone. A trade-off has been made on the system performances in order to increase the original field of view.
9

Étalonnage de caméras numériques à l'aide de splines cubiques composées

Arfaoui, Aymen 16 April 2018 (has links)
Étalonner une caméra numérique consiste à calculer ses paramètres intrinsèques et extrinsèques qui décrivent la transformation du système de coordonnées de la scène vers celui de l'image. Plusieurs méthodes existent et permettent le calcul de ses éléments en se basant sur la minimisation d'un critère linéaire ou non. Le but de ce mémoire est de proposer un modèle simple et précis permettant, à partir d'un site d'étalonnage au laboratoire de métrologie du Département des sciences géomatiques de l'Université Laval, d'extraire les paramètres d'une caméra numérique. Nous avons modélisé la distorsion et nous avons corrigé la déformation des droites dans l'image afin de se placer dans un modèle projectif. Nous avons utilisé la spline cubique composée qui a permis de calculer les deux types de distorsions radiale et tangentielle et a montré que l'erreur d'interpolation est négligeable devant la fonction de distorsion. En conclusion, nous présentons un algorithme permettant d'étalonner une caméra en deux étapes. La première étape consiste à corriger l'image afin de maintenir la notion de la projection perspective et de déduire la fonction de la distorsion. La deuxième étape permet de calculer les paramètres qui identifient la position et l'orientation de la caméra par rapport à la scène ainsi que ses caractéristiques.
10

Contrôle redondant de la position d'un robot par capteurs externes. Applications en milieux médical et industriel

Poyet, Agnés 23 January 1996 (has links) (PDF)
Les problèmes de sécurité constituent le principal obstacle à l'utilisation de robots dans des applications sensibles. Nous répertorions ces problèmes et les solutions partielles qui y sont apportées dans divers domaines d'application de la robotique. Nous détaillons en particulier deux applications qui nous intéressent : le guidage d'un geste médico-chirurgical et l'inspection d'un bol de générateur de vapeur dans une centrale nucléaire. Notre objectif consiste à vérifier de manière globale la bonne exécution de la tâche planifiée. Nous cherchons donc à contrôler la position du robot au moyen de capteurs externes. Aussi étudions-nous les divers types de capteurs de position envisageables avant de proposer une solution qui consiste à apposer des marqueurs passifs sur le robot et à surveiller leur position au moyen de caméras vidéo. Cette manière de procéder implique le calibrage préalable de chacun des composants du système. Nous étudions en détail les méthodes de calibrage intrinsèque de caméras et adoptons une méthode multi-plans que nous étendons au calibrage de caméras à focale variable. Les caméras étant calibrées intrinsèquement, nous proposons une solution pour les recaler par rapport à l'environnement spécifique de chacune de nos deux applications. La dernière phase de calibrage consiste à repérer la position d'un marqueur par rapport au segment du robot qui le porte. Ce problème est tout à fait similaire à la détermination de la position d'une caméra portée par un robot. Nous étudions particulièrement deux solutions classiques dont nous améliorons la précision en minimisant une erreur globale sur un ensemble important de données. Toutes ces étapes étant réalisées, la position des marqueurs peut être prédite, puis vérifiée grâce à un traitement d'images approprié. Des expérimentations complètes ont été menées en vue de montrer la faisabilité du projet et d'évaluer la précision que l'on peut espérer.

Page generated in 0.0347 seconds