• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 11
  • 9
  • Tagged with
  • 64
  • 21
  • 17
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Les caméras portatives améliorent-elles la qualité des rapports policiers ?

Nadon, Charlotte 08 1900 (has links)
La caméra portative est de plus en plus convoitée en tant que solution pour améliorer les pratiques policières. Dans cette optique, ce projet propose de contribuer au développement des connaissances sur l’impact du visionnement de vidéos de caméras portatives sur la rédaction de rapport, puisqu’il existe actuellement peu d’études et de directives claires sur les politiques qui décrivent les meilleures pratiques de rédaction de rapport. Cette étude vise donc à étendre les résultats de recherches sur les caméras portatives sur la qualité des rapports policiers. Trois objectifs spécifiques sont visés : 1) évaluer l’impact du visionnement prérapport sur la qualité des rapports policiers, et plus particulièrement en évaluant la qualité globale, la précision et l’exhaustivité des rapports ; 2) évaluer l’impact de la rédaction de rapport en deux temps, notamment en ce qui concerne la précision et le type de modifications apportées aux rapports complémentaire ; 3) analyser l’impact que peuvent avoir le sexe, le rôle dans l’intervention et l’expérience sur la qualité des rapports policiers, indépendamment des conditions expérimentales. 361 participants ont donc participé à des simulations d’interventions policières à l’École nationale de police du Québec. Le scénario d’intervention policière impliquait des acteurs et nécessitait l’utilisation de force mortelle par arme à feu afin de conclure l’intervention. Par la suite, les rapports policiers des participants ont été évalués selon quatre conditions expérimentales liées aux caméras portatives (1 — sans caméra, 2 — caméra sans visionnement, 3 — caméra avec visionnement, 4 — rédactions en deux temps). Les résultats soutiennent que le fait de porter une caméra corporelle améliore légèrement la qualité de rapports policiers. De plus, le visionnement prérapport est le meilleur prédicteur de la précision des rapports policiers, car il diminue la présence d’erreurs factuelles, en plus d’avoir un faible impact sur l’exhaustivité des détails. La rédaction de rapport en deux étapes obtient les meilleurs résultats pour la précision des rapports en plus d’améliorer l’exhaustivité, tout en respectant le principe d’objectivité des rapports selon la perception des policiers. Finalement, l’expérience en tant que policier est un prédicteur important de la qualité d’un rapport. / Body-worn cameras are coveted as a solution to improve police practices. Thereby, this project proposes to contribute to the development of knowledge on the impact of of viewing body-worn cameras footage on police report writing, since there are currently few studies and a lack of clear guidelines on policies for best practices in report writing. This study therefore aims to extend the research results of body-worn cameras on the quality of police reports. Three specific objectives are targeted: 1) to examine the effect that viewing body-worn cameras footage has on the quality of police reports, and more specifically by evaluating the overall quality, accuracy and the number of details of reports; 2) to assess the implication of the two-step writing process, particularly in regard to the accuracy and the type of modifications revised in complementary reports; 3) to analyze the impact that gender, role in the intervention and experience can have on the quality of police reports, regardless of experimental conditions. 361 participants took part in simulations of police interventions at the École nationale de police du Québec. The police intervention scenario involved actors and required the use of lethal force by firearm in order to conclude the intervention. Afterwards, the police reports of the participants were evaluated according to four experimental conditions related to body-worn cameras (1- without camera, 2- camera without viewing, 3- camera with viewing, 4- two-step writing). The results support that wearing a body- worn camera slightly improves the quality of police reports. In addition, pre-report viewing is the best predictor of the accuracy of police reports, because it reduces the presence of factual errors, in addition to having a small impact on the number of details. The two-step report writing obtains the best results for the precision of the reports and for improving the exhaustivity, while respecting the principle of objectivity of the reports according to the perception of the police officers. Finally, experience as a police officer is an important predictor of the quality of a report.
12

Système de vision hybride : modélisation et application au suivi haute résolution

Badri, Julie 24 October 2008 (has links) (PDF)
Cette thèse traite du suivi automatique de personne à travers la mise en oeuvre d'un système de vision hybride alliant un capteur ayant un grand champ de vue et une résolution faible avec un dispositif Pan-Tilt-Zoom orientable garantissant le détail de l'information. Une première partie est consacrée à la proposition d'une solution originale de calibrage lorsque les centres optiques des deux capteurs sont pratiquement confondus. Dans une seconde partie, nous abordons la mise en relation des informations extraites de chaque capteur et leur enrichissement mutuel nécessaire à la relation du suivi de personne basée sur une approche de filtrage particulaire : l'étape de prédiction du filtre est guidée par la détection issue de la caméra statique et la mesure est donnée par une modélisation d'apparence de la cible extraite de la caméra dynamique. Enfin, les premiers résultats de suivi sont présentés et analysés.
13

Analyse et modélisation des performances d'un nouveau type de détecteur en médecine nucléaire : du détecteur Anger au détecteur semi-conducteur / Analysis and modelling of the performance of a new solid-state detector in nuclear medicine : from Anger- to Semiconductor-detectors

Imbert, Laëtitia 10 December 2012 (has links)
La tomoscintigraphie myocardique est considérée comme un examen de référence pour le diagnostic et l'évaluation de la maladie coronarienne. Mise au point dans les années 1980, cette technique est en pleine mutation depuis l'arrivée de nouvelles caméras à semi-conducteurs. Deux caméras à semi-conducteurs, dédiées à la cardiologie nucléaire et utilisant des détecteurs de Cadmium Zinc Telluride sont actuellement commercialisées : la Discovery NM-530c (General Electric) et la DSPECT (Spectrum Dynamics). Les performances de ces caméras CZT ont été évaluées : 1) à la fois sur fantôme et sur des examens d'effort provenant de patients à faible probabilité de maladie coronaire, et 2) avec les paramètres d'acquisition et de reconstruction utilisés en clinique. Les résultats ont démontré la nette supériorité des caméras CZT en termes de sensibilité de détection, de résolution spatiale et de rapport contraste sur bruit par rapport à la génération de caméras d'Anger. Ces propriétés vont permettre de diminuer très fortement les temps d'acquisition et les activités injectées, tout en améliorant la qualité des images. Néanmoins, on connaît encore mal les limites et possibles artéfacts liés à la géométrie particulière d'acquisition. C'est pourquoi nous avons développé, avec la plateforme de simulations Monte Carlo GATE, un simulateur numérique spécifique de la caméra DSPECT. Nous avons pu ensuite le valider en comparant des données effectivement enregistrées aux données simulées. Ce simulateur pourrait aider à optimiser les protocoles de reconstruction et d'acquisition, en particulier les protocoles les plus complexes (acquisitions double traceur, études cinétiques) / Myocardial single-photon emission computed tomography (SPECT) is considered as the gold standard for the diagnosis of coronary artery disease. Developed in the 1980s with rotating Anger gamma-cameras, this technique could be dramatically enhanced by new imaging systems working with semi-conductor detectors. Two semiconductor cameras, dedicated to nuclear cardiology and equipped with Cadmium Zinc Telluride detectors, have been recently commercialized: the Discovery NM- 530c (General Electric) and the DSPECT (Spectrum Dynamics). The performances of these CZT cameras were compared: 1) by a comprehensive analysis of phantom and human SPECT images considered as normal and 2) with the parameters commonly recommended for SPECT recording and reconstruction. The results show the superiority of the CZT cameras in terms of detection sensitivity, spatial resolution and contrast-to-noise ratio, compared to conventional Anger cameras. These properties might lead to dramatically reduce acquisition times and/or the injected activities. However, the limits of these new CZT cameras, as well as the mechanism of certain artefacts, remain poorly known. That?s why we developed, with the GATE Monte Carlo simulation plateform, a specific simulator of the DSPECT camera. We validated this simulator by comparing actually recorded data with simulated data. This simulator may yet be used to optimize the recorded and reconstruction processes, especially for complex protocols such as simultaneous dual-radionuclide acquisition and kinetics first-pass studies
14

Système d'acquisition 3D pour le pied humain

Marchessoux, Cédric 12 December 2003 (has links) (PDF)
Ce projet a été réalisé dans le cadre d'une thèse CIFRE avec le laboratoire IRCOM-SIC à Poitiers et l'entreprise GABILLY située à Limoges. Cette société fabrique des chaussures orthopédiques grâce aux mesures sur le pied effectuées manuellement par un podo-orthésiste. La précision est de +/- 4 mm. Cette société souhaite développer un système de métrologie du pied pour obtenir une précision de 1 mm. Les informations fournies par un tel système doivent aussi donner des indications de pression du pied. Ce système dépend des contraintes imposées par la prise de mesure sur le patient, par la difficulté de numériser et modéliser l'objet entier, par le choix du système d'acquisition et de la modélisation. Le système à développer doit être le plus simple possible, entièrement automatique, le moins cher possible et doit être géré par un ordinateur PC standard. Il doit permettre d'extraire à partir du pied humain un nuage de points. Le projet a été envisagé sous un axe vision à l'aide de caméras couleur. Une technique d'étalonnage particulière avec une simple mire plane a été mise en place pour faciliter la prise en main du système. La détection de la mire est effectuée par la transformée de Hough. Le système d'acquisition en trois dimensions pour le pied humain est un système de vision passive. Les méthodes mises en oeuvre doivent permettre de traiter n'importe quel type de pied donc de peau, quelque soit la couleur, la forme ou la texture. Dans un premier temps, une étude sur la peau humaine a permis de choisir un espace de représentation de la couleur et une couleur particulière pour le fond du système. Les images du pied sont segmentées par une méthode spécifique afin d'éliminer tous les pixels n'appartenant pas au pied. La segmentation est effectuée dans l'espace Teinte-Luminance-Saturation et par une opération de dilatation géodésique. Les points de pression sont obtenus par un traitement spécifique de l'histogramme de l'image de la Teinte segmentée. Ensuite, plu-sieurs méthodes de reconstruction 3D ont été mises en place pour extraire un nuage de points 3D appartenant à la surface du pied. La première méthode est une technique de reconstruction par projection et la deuxième est basée sur la stéréovision dont la mise en correspondance des points est faite par corrélation. La modélisation ou reconstruction de surface du nuage de points obtenu n'est pas le premier objectif mais elle permet de valider les méthodes d'extraction de nuages de points, plusieurs méthodes de reconstruction de surfaces ont été expérimentées sur des nuages de points organisés et non organisés. Finalement, deux systèmes d'acquisition ont été développés : 2D et 3D. Le système 2D est inclus dans le système 3D et il permet la fabrication des semelles orthopédiques qui représentent cinquante des cas rencontrés. Les informations extraites sont les contours de la plante du pied, la métrologie et les points de pression. Les fichiers de nuage de points obtenus sont directement exploitables par les logiciels de conception assistée par ordinateur.
15

Supporting collaborative practices across wall-sized displays with video-mediated communication / Communication médiatisée par la vidéo pour les pratiques collaboratives à distance entre murs d’écrans

Avellino, Ignacio 12 December 2017 (has links)
La collaboration entre plusieurs personnes peut prendre plusieurs formes, et la technologie soutient depuis longtemps ces pratiques. Mais lorsque la collaboration doit se faire à distance, est-elle aussi bien assistée par la technologie ? Dans ce travail, je soutiens l'idée selon laquelle le succès d'un système de télécommunications ne dépend pas de sa capacité à imiter une collaboration colocalisée, mais dans sa capacité à faciliter les pratiques collaboratives découlant des caractéristiques spécifiques de la technologie. J'explore cet argument en utilisant un mur d'écrans en tant que technologie collaborative. J'ai commencé par observer des collaborateurs effectuer leur travail quotidien à distance en utilisant des prototypes. Ensuite j'ai conduit des expériences et j'ai trouvé que les utilisateurs peuvent interpréter avec précision les instructions déictiques à distance et le regard direct quand un collaborateur à distance est affiché par une vidéo, même si celle-ci n'est pas placée directement devant l'observateur. À partir de ces résultats, j'ai créé CamRay, un outil de télécommunication qui utilise une rangée de caméras pour enregistrer le visage des utilisateurs lorsqu'ils parcourent physiquement les données le long de l'écran et présente cette vidéo sur un autre mur d'écrans distant par dessus le contenu existant. Je propose deux possibilités pour afficher la vidéo: Follow-Local, où le flux vidéo de l'utilisateur distant suit l'utilisateur local, et Follow-Remote où il suit l'utilisateur distant. Je montre que Follow-Remote préserve les relations spatiales entre le collaborateur à distance et le contenu de l'écran, créant ainsi la possibilité de désigner les objets par des gestes de pointage, tandis que Follow-Local facilite les conversations grâce à un face-à-face virtuel qui transmet plus facilement la communication gestuelle. Finalement, je me base sur ces résultats pour guider la conception de futurs systèmes de communications à distance entre murs d'écrans, et dégager des considérations à suivre lorsque des capacités de communication à distance sont ajoutées à de nouvelles technologies. / Collaboration can take many forms, for which technology has long provided digital support. But when collaborators are located remotely, to what extent does technology support these activities? In this dissertation, I argue that the success of a telecommunications system does not depend on its capacity to imitate co-located conditions, but in its ability to support the collaborative practices that emerge from the specific characteristics of the technology. I explore this using wall-sized displays as a collaborative technology. I started by observing collaborators perform their daily work at a distance using prototypes. I then conducted experiments and found that people can accurately interpret remote deictic instructions and direct gaze when performed by a remote collaborator through video, even when this video is not placed directly in front of the observer. Based on these findings, I built CamRay, a telecommunication system that uses an array of cameras to capture users' faces as they physically navigate data on a wall-sized display, and presents this video in a remote display on top of existing content. I propose two ways of displaying video: Follow-Local, where the video feed of the remote collaborator follows the local user, and Follow-Remote, where it follows the remote user. I find that Follow-Remote preserves the spatial relations between the remote speaker and the content, supporting pointing gestures, while Follow-Local enables virtual face-to-face conversations, supporting representational gestures. Finally, I summarize these findings to inform the design of future systems for remote collaboration across wall-sized displays.
16

Système de caméras intelligentes pour l’étude en temps-réel de personnes en mouvement / Smart Camera System for Kinetic Behavior Study in Real-time.

Burbano, Andres 06 June 2018 (has links)
Nous proposons un système dedétection et de suivi des personnes enmouvement dans des grands espaces. Notresolution repose sur un réseau de camérasintelligentes pour l'extraction desinformations spatio-temporelles despersonnes. Les caméras sont composées d'uncapteur 3D, d'un système embarqué et decommunication. Nous avons montrél'efficacité du placement des capteurs 3D enposition zénithale par rapport auxoccultations et variations d’échelle.Nous garantissons l'exécution des traitementsen temps-réel (~20 fps), permettantde détecter des déplacements rapides avecune précision jusqu’à 99 %, et capable d’unfiltrage paramétrique des cibles non désiréescomme les enfants ou les caddies.Nous avons réalisé une étude sur la viabilitétechnologique des résultats pour de grandsespaces, rendant la solution industrialisable / We propose a detection and trackingsystem of people moving in large spacessystem. Our solution is based on a network ofsmart cameras capable of retrievingspatiotemporal information from the observedpeople. These smart cameras are composed bya 3d sensor, an onboard system and acommunication and power supply system. Weexposed the efficacy of the overhead positionto decreasing the occlusion and the scale'svariation.Finally, we carried out a study on the use ofspace, and a global trajectories analysis ofrecovered information by our and otherssystems, able to track people in large andcomplex spaces.
17

Caractérisation d’un système d’acquisition CCD sans lentilles pour la mesure de dose employant un dosimètre à scintillateur plastique

Gagnon, Louis-Philippe 19 April 2018 (has links)
Actuellement, les mesures de dose en radiothérapie sont effectuées en employant différents types de détecteurs tels que les chambres à ionisation, les diodes et les films radiosensibles. Bien que ces différents détecteurs permettent d’obtenir une mesure de dose très précise, aucun d’entre eux n’a les propriétés nécessaires pour permettre la mesure de dose en temps réel sur un patient tout en ne perturbant pas le champ radiatif de traitement. Depuis une vingtaine d’années, les scintillateurs plastiques gagnent en popularité grâce à leurs propriétés relativement identiques à celles de l’eau, et du fait qu’ils génèrent un signal lumineux proportionnel à la dose déposée. Cette étude vise à construire un dispositif CCD sans lentilles pour la collecte de la lumière de scintillation, pour ensuite caractériser le signal obtenu et comparer le tout à un système optique plus conventionnel à base de lentilles. Pour ce faire, nous avons conçu un détecteur à fibre scintillante ayant servi pour l’acquisition des mesures des deux systèmes étudiés, soit le système à objectif photographique et le système équipé d’un « taper » à fibre optique. Nous avons évalué les signaux mesurés en termes de qualité par le ratio de signal sur bruit, en limite minimale de dose mesurable, en stabilité et en reproductibilité des mesures. Les résultats obtenus démontrent la supériorité du nouveau système sans lentille sur le système conventionnel en termes de gain de collecte de photon et en diminution des incertitudes de mesures. Ces résultats ouvrent la voie à des applications de mesure de très faibles doses et à la réduction des dimensions des détecteurs à des fins d’applications cliniques « in vivo », ou encore pour effectuer divers tests de contrôle de qualité des appareils.
18

Technologies pour la reconnaissance et l'acquisition d'images des débris spatiaux avec HiCIBaS-II (T.R.A.S.H.)

Watanabe-Brouillette, Koichi 30 May 2024 (has links)
Les objets spatiaux en basse orbite dont les satellites et les débris spatiaux représentent une menace croissante; leur vitesse relative fait que même les plus petits représentent un potentiel danger pour les infrastructures spatiales. Alors que les instruments optiques et radars permettent une bonne couverture des débris de grande taille (> 1 m), la population de débris spatiaux proche du centimètre est mal représentée dans les catalogues. Le suivi de ces objets implique l'utilisation d'un imageur fixe sur des observatoires ou des satellites à la recherche d'objets en mouvement, mais cette solution est coûteuse et le temps d'accessibilité est limité selon le nombre de projets. Une alternative est d'utiliser les ballons stratosphériques pour l'observation du ciel avec un détecteur capable d'effectuer des acquisitions rapides, empêchant ainsi le signal faible de l'objet d'être noyé dans le signal du bruit de fond. Ce projet de recherche se concentre sur l'observation de cette population de débris, en utilisant une caméra *Electron Multiplying Charge Coupled Device*, Hnü512 de Nüvü Caméras, avec sa capacité de comptage de photons et une fréquence d'acquisition rapide, dans le domaine du visible sur un ballon stratosphérique à 35-40 km d'altitude. Le lancement du ballon stratosphérique a été effectué le 22 août 2023 à la base de lancement de l'Agence Spatiale Canadienne, à Timmins, Ontario. Ce document présente les différentes phases de la conception d'une charge utile et une analyse d'une séquence d'empilement d'un objet en mouvement sur 113 acquisitions avec un champ de vue de 2,347°, un temps d'exposition de 4,5 ms et un gain EM de 2500. De plus, ce projet est en collaboration avec le projet HiCIBaS-II, un télescope pour l'observation directe d'exoplanète par imagerie à haut contraste embarqué sur un ballon. Ce travail contribue à l'effort global sur la connaissance de la situation spatiale en évaluant l'impact de l'inclusion de l'imagerie optique embarquée dans les systèmes de détection sur ballon. / Low-orbit space objects represent a growing threat ; their relative speed means that even the smallest objects are a potential danger to space infrastructures. While optical and radar instruments provide good coverage of large debris objects (> 1 m), the near-centimeter space debris population is poorly represented in catalogs. Tracking these objects involves searching for moving objects using a fixed imager on observatories or satellites, but this solution is costly and time is limited by the number of astronomical projects. An alternative is to use stratospheric balloons for sky observation, with a detector capable of making short exposures, thus preventing the object's weak signal from being drowned out by the background signal. This research project focuses on observing this debris population, using an Electron Multiplying Charge Coupled Device camera, Hnü512 from Nüvü Cameras, with its photon-counting capability and fast frame rate, in the visible range on a stratospheric balloon at 35-40 km altitude. The stratospheric balloon was launched on August 22, 2023 from the Canadian Space Agency's launch pad in Timmins, Ontario. This document presents the various phases involved in designing a payload and an analysis of a stacking sequence of a moving object over 113 acquisitions with a field of view of 2.347°, an exposure time of 4.5 ms and an EM gain of 2500. In addition, this project is in collaboration with the HiCIBaS-II project, a balloon-borne telescope for direct observation of exoplanets using high-contrast imaging. This work contributes to the global effort on space situational awareness by assessing the impact of including onboard optical imaging in balloon-based detection systems.
19

Placement interactif de capteurs mobiles dans des environnements tridimensionnels non convexes

De Rainville, François-Michel 23 April 2018 (has links)
La présente thèse propose un système complet de placement de capteurs mobiles dans un environnement pleinement tridimensionnel et préalablement inconnu. Les capteurs mobiles sont des capteurs placés sur des unités robotiques autonomes, soit des véhicules possédant une unité de calcul et pouvant se déplacer dans l’environnement. Le placement de capteur est fondé sur une vue désirée par un utilisateur du système nommé vue virtuelle. La vue virtuelle est contrôlée à distance en changeant les paramètres intrinsèques et extrinsèques du capteur virtuel, soit sa position, sa résolution, son champ de vue, etc. Le capteur virtuel n’est alors soumis à aucune contrainte physique, par exemple il peut être placé à n’importe quelle hauteur dans l’environnement et avoir un champ de vue et une résolution arbitrairement grande. Les capteurs mobiles (réels) ont pour tâche de récupérer toute l’information contenue dans le point de vue virtuel. Ce n’est qu’en combinant leur capacité sensorielle que les capteurs mobiles pourront capter l’information demandée par l’utilisateur. Tout d’abord, cette thèse s’attaque au problème de placement de capteurs en définissant une fonction de visibilité servant à évaluer le positionnement d’un groupe de capteurs dans l’environnement. La fonction de visibilité développée est applicable aux environnements tridimensionnels et se base sur le principe de ligne de vue directe entre un capteur et la cible. De plus, la fonction prend en compte la densité d’échantillonnage des capteurs afin de reproduire la densité désirée indiquée par le capteur virtuel. Ensuite, ce travail propose l’utilisation d’un modèle de l’environnement pleinement tridimensionnel et pouvant être construit de manière incrémentale, rendant son utilisation possible dans un environnement tridimensionnel non convexe préalablement inconnu. Puis, un algorithme d’optimisation coopératif est présenté afin de trouver simultanément le nombre de capteurs et leur positionnement respectif afin d’acquérir l’information contenue dans la vue virtuelle. Finalement, la thèse démontre expérimentalement dans diverses conditions que le système proposé est supérieur à l’état de l’art pour le placement de capteurs dans le but d’observer une scène bidimensionnelle. Il est aussi établi expérimentalement en simulation et en réalité que les performances se transposent à l’observation d’environnements tridimensionnels non convexes préalablement inconnus. / This Thesis proposes a novel mobile sensor placement system working in initially unknown three dimensional environment. The mobile sensors are fix sensors placed on autonomous robots, which are ground and aerial vehicles equipped with computing units. The sensor placement is based on a user-defined view, named the virtual view. This view is manipulated through a virtual sensor intrinsic and extrinsic parameters, such as its position, orientation, field of view, resolution, etc. The virtual sensor is not subject to any physical constraint, for example it can be place where no sensor could be or it possess an arbitrary large field of view and resolution. The mobile (real) sensors have to acquire the entire information contained in this virtual view. It is only by combining the sensory capacity of an unknown number of sensors that they can acquire the necessary information. First, this Thesis addresses the sensor placement problem by defining a visibility function to qualify a group of sensor configurations in the environment. This function is applicable to three dimensional environments and is based on direct line of sight principle, where we compute the sensor sampling density in its visibility region. Then, this Thesis proposes the use of an incrementally built model of the environment containing all the information needed by the objective function. Next, a cooperative optimization algorithm is put forward to simultaneously find the number of sensors and their respective position required to capture all the information in the virtual view. Finally, the proposed system is experimentally shown to use less sensor to acquire the scene of interest at a higher resolution than state of the art methods in initially known two dimensional environments. It is also shown in simulation and practice that the performance of the system can be transposed to initially unknown non-convex three dimensional environments.
20

Une approche de calibrage géométrique de caméras par speckle laser pour la vision artificielle stéréoscopique active et passive

Samson, Éric 17 April 2018 (has links)
Le calibrage des caméras est l'une des pierres angulaires de la plupart des systèmes de vision artificielle car c'est cette opération qui établit le lien entre le monde physique et l'image. On dispose aujourd'hui de plusieurs techniques bien établies pour réaliser cette opération. Il existe toutefois certaines situations pour lesquelles les techniques usuelles ne sont pas assez précises. C'est le cas notamment des systèmes de vision 3D actifs. Les systèmes dits ``actifs'' disposent d'un mécanisme d'entraînement qui leur permet repositionner leurs caméras en temps réel. Puisque les mesures 3D en vision reposent sur la connaissance de la position relative des caméras, les déplacements de celles-ci à l'intérieur d'un système actif doivent être modélisés et calibrés afin que leur position exacte puisse être mise à jour en continue. Mener à bien ce type de calibrage exige que les déplacements des caméras puissent être mesurés avec une très grande précision. Cette thèse propose une approche pour le calibrage géométrique de caméras qui répond aux besoins en précision des systèmes actifs. L'originalité de cette approche vient du fait qu'elle exploite les propriétés du speckle laser. Les bases théoriques sur lesquelles elle s'appuie sont tirées du domaine de la mesure par speckle (``speckle metrology''). C'est la première fois que les principes de la mesure par speckle sont appliqués au domaine de la vision artificielle. L'intérêt de faire intervenir le speckle laser dans le calibrage est qu'il permet de découpler les composantes en rotation de celles en translation du mouvement des caméras. Dans le contexte des systèmes actifs, ce découplage des deux types de mouvements permet d'atteindre un niveau de précision de calibrage qu'il est impossible d'atteindre avec les approches classiques basées sur l'observation d'une cible de calibrage conventionnelle. Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant deux avantages pratiques importants. Le premier est que le dispositif permettant d'effectuer le calibrage est compact et le second est que le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. %Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant les avantages pratiques suivant. Le dispositif permettant d'effectuer le calibrage est compact. Le calibrage peut être complété avec moins de manipulations. Enfin, le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. / Because it establishes the link between image coordinates and the physical world, camera calibration is one of the corner stones of computer vision systems. Several existing techniques can perform this operation, but these are not always accurate enough, depending on circumstances. This is particularly the case for ``active'' 3D systems that incorporate mechanisms to allow real time repositioning of cameras. Since 3D measurements in computer vision rely on the knowledge of the relative camera positions, their exact movements within the active system must be updated in a continuous fashion. Calibrating such systems is only feasible when camera movements can be measured very accurately, which is not possible using current techniques. In this thesis, an original approach is proposed for the geometric camera calibration of active vision systems, based on the theoretical foundations of speckle metrology. It exploits the unique properties of laser speckle to meet the special requirements of active vision systems. It also represents the first use of laser speckle in this field. The main benefit of laser speckle is that it allows the measurement of rotational component of the camera movements independently from its translational component. The ability to perform independent measurements of these two components is what gives this new approach a much improved accuracy compared to conventional techniques based on the use of calibration targets. Besides the calibration of active vision systems, the proposed approach can be applied to other types of vision systems as well. In particular, the thesis shows that the proposed approach can also be applied to calibrate a classical pair of static stereoscopic cameras. The proposed technique show equivalent accuracy compared to conventional techniques while providing two major practical advantages. First, the calibration device is very compact and second, the calibration procedure doesn't require the working area of the stereo pair to be accessed.

Page generated in 0.026 seconds