Spelling suggestions: "subject:"caméras électronique."" "subject:"caméra électronique.""
1 |
Augmentation du champ de vue d'une caméra temps-de-vol commercialeGagnon, Mathieu 04 July 2019 (has links)
Ce mémoire présente une méthode d’augmentation du champ de vue d’une caméra temps-de-vol commerciale. Cette augmentation étendrait leur utilisation dans certaines applications où la perception de l’environnement sur un large champ de vision est un critère, notamment en robotique mobile. La conception inclut l’ajout d’une lentille de conversion au système optique de la caméra infrarouge ainsi qu’une modification du système d’illumination. Dans le cas d’une Kinect V2, les capacités de reconstruction 3D ont été conservées pour une augmentation d’environ 50% du champ de vue, soit de 70°x60° à 106°x86°. Afin de tenir compte des modifications apportées au système optique, une calibration de la caméra a été effectuée. Le système modifié comporte une bonne précision (<1%) et une bonne exactitude (<1,5%). Ces résultats sont calculés avec 100 acquisitions en considérant un peu moins de 40% des pixels disponibles sur le senseur. Les performances diminuent rapidement en dehors de la zone centrale du senseur. Un compromis a été fait sur les performances du système afin d’augmenter son champ de vue. / This dissertation presents a method to increase the field of view of a commercially available time-of-flight camera. This increase could extend the field of application of such cameras, especially in mobile robotics where awareness of the surrounding is an important factor. The design includes a conversion lens added in front of the optical system and a modification to the illumination system. In the specific case of a Kinect v2, capability of 3D reconstruction has been preserved for an augmentation of 50% of the field of view, from 70°x60° to 106°x86°. To take into consideration the optical modifications, a calibration of the camera has been made. The modified system is characterised by a good precision (<1%) and a good accuracy (<1,5%). These results are calculated on slightly under 40% of the available pixels using 100 acquisitions. Performances decrease at a great rate outside of the central pixel zone. A trade-off has been made on the system performances in order to increase the original field of view.
|
2 |
Placement interactif de capteurs mobiles dans des environnements tridimensionnels non convexesDe Rainville, François-Michel 23 April 2018 (has links)
La présente thèse propose un système complet de placement de capteurs mobiles dans un environnement pleinement tridimensionnel et préalablement inconnu. Les capteurs mobiles sont des capteurs placés sur des unités robotiques autonomes, soit des véhicules possédant une unité de calcul et pouvant se déplacer dans l’environnement. Le placement de capteur est fondé sur une vue désirée par un utilisateur du système nommé vue virtuelle. La vue virtuelle est contrôlée à distance en changeant les paramètres intrinsèques et extrinsèques du capteur virtuel, soit sa position, sa résolution, son champ de vue, etc. Le capteur virtuel n’est alors soumis à aucune contrainte physique, par exemple il peut être placé à n’importe quelle hauteur dans l’environnement et avoir un champ de vue et une résolution arbitrairement grande. Les capteurs mobiles (réels) ont pour tâche de récupérer toute l’information contenue dans le point de vue virtuel. Ce n’est qu’en combinant leur capacité sensorielle que les capteurs mobiles pourront capter l’information demandée par l’utilisateur. Tout d’abord, cette thèse s’attaque au problème de placement de capteurs en définissant une fonction de visibilité servant à évaluer le positionnement d’un groupe de capteurs dans l’environnement. La fonction de visibilité développée est applicable aux environnements tridimensionnels et se base sur le principe de ligne de vue directe entre un capteur et la cible. De plus, la fonction prend en compte la densité d’échantillonnage des capteurs afin de reproduire la densité désirée indiquée par le capteur virtuel. Ensuite, ce travail propose l’utilisation d’un modèle de l’environnement pleinement tridimensionnel et pouvant être construit de manière incrémentale, rendant son utilisation possible dans un environnement tridimensionnel non convexe préalablement inconnu. Puis, un algorithme d’optimisation coopératif est présenté afin de trouver simultanément le nombre de capteurs et leur positionnement respectif afin d’acquérir l’information contenue dans la vue virtuelle. Finalement, la thèse démontre expérimentalement dans diverses conditions que le système proposé est supérieur à l’état de l’art pour le placement de capteurs dans le but d’observer une scène bidimensionnelle. Il est aussi établi expérimentalement en simulation et en réalité que les performances se transposent à l’observation d’environnements tridimensionnels non convexes préalablement inconnus. / This Thesis proposes a novel mobile sensor placement system working in initially unknown three dimensional environment. The mobile sensors are fix sensors placed on autonomous robots, which are ground and aerial vehicles equipped with computing units. The sensor placement is based on a user-defined view, named the virtual view. This view is manipulated through a virtual sensor intrinsic and extrinsic parameters, such as its position, orientation, field of view, resolution, etc. The virtual sensor is not subject to any physical constraint, for example it can be place where no sensor could be or it possess an arbitrary large field of view and resolution. The mobile (real) sensors have to acquire the entire information contained in this virtual view. It is only by combining the sensory capacity of an unknown number of sensors that they can acquire the necessary information. First, this Thesis addresses the sensor placement problem by defining a visibility function to qualify a group of sensor configurations in the environment. This function is applicable to three dimensional environments and is based on direct line of sight principle, where we compute the sensor sampling density in its visibility region. Then, this Thesis proposes the use of an incrementally built model of the environment containing all the information needed by the objective function. Next, a cooperative optimization algorithm is put forward to simultaneously find the number of sensors and their respective position required to capture all the information in the virtual view. Finally, the proposed system is experimentally shown to use less sensor to acquire the scene of interest at a higher resolution than state of the art methods in initially known two dimensional environments. It is also shown in simulation and practice that the performance of the system can be transposed to initially unknown non-convex three dimensional environments.
|
3 |
Génération de vues nouvelles pour scènes dynamiques, évaluation des méthodes modernesPageau, Jean-Michel 14 November 2024 (has links)
Dans le domaine de la vision par ordinateur, la reconstruction de scènes et l'estimation des positions des caméras sont essentielles pour des applications telles que la réalité virtuelle, la numérisation d'objets et la réalité augmentée. Cette thèse aborde deux défis principaux : le positionnement précis des caméras et la reconstruction dynamique des scènes. Un placement précis des caméras est crucial pour garantir la fidélité des modèles 3D, notamment dans des applications comme la surveillance sous-marine, où les conditions environnementales peuvent affecter la qualité des images. La première partie de cette thèse se concentre sur l'évaluation des techniques de photogrammétrie utilisant des modèles d'intelligence artificielle dans des environnements difficiles. Ces techniques sont indispensables pour estimer les positions des caméras dans des conditions telles que la faible luminosité, les intempéries et les textures complexes. En intégrant des modèles avancés d'IA, nous visons à améliorer la précision et la fiabilité de la photogrammétrie. La deuxième partie propose une méthodologie pour évaluer différentes techniques de reconstruction de scènes dynamiques avec des configurations synthétiques. Les avancées récentes, comme les champs de radiances neuronaux et le Gaussien Splatting en 3D, montrent des améliorations pour gérer les variations spatiales et temporelles. Cependant, ces méthodes font face à des défis majeurs dans des contextes dynamiques, nécessitant des algorithmes robustes capables de s'adapter en temps réel. Nos contributions incluent un cadre d'évaluation complet pour comparer différentes méthodes de photogrammétrie et de reconstruction de scènes dynamiques. Ce cadre permet une évaluation systématique des forces et des faiblesses de chaque méthode, fournissant des informations précieuses pour des avancées futures. Cette thèse est structurée en trois chapitres : le premier introduit les concepts fondamentaux de la vision par ordinateur liés à la reconstruction de scènes, le deuxième évalue les techniques de photogrammétrie dans des environnements difficiles, et le troisième présente un pipeline pour évaluer les techniques de reconstruction de scènes dynamiques. Ces contributions visent à offrir un cadre d'évaluation pour mieux comprendre les limitations actuelles et les améliorations potentielles dans ces domaines critiques.
|
4 |
Amélioration de la résolution temporelle des caméras infrarouges par hétérodynage : application à la détection de transitions thermiques rapides en microélectronique et en thermophysiqueBoutellis, Nabil 18 April 2018 (has links)
Le transport thermique dans les puces électroniques est un excellent exemple des classes de problèmes non encore maîtrisés. Cette difficulté peut être attribuée à de nombreux problèmes qui ne peuvent pas être traités par des moyens classiques. Il est également connu que plus de 50% des défaillances électroniques sont reliées à la thermique. Un problème majeur dans la conception thermique des puces électroniques est lié à des phénomènes thermiques à grande vitesse qui peuvent survenir dans certains composants de tailles micrométriques. Actuellement, les caméras IR commercialisées ont une cadence relativement limitée, soit quelques centaines d'images par seconde, au mieux, ce qui est très lent comparé aux hautes fréquences transitoires impliquées dans le transfert de chaleur dans les puces, soit plus de quelques kHz. Dans ce mémoire, nous proposons une procédure expérimentale qui permet l'amélioration des capacités de la résolution temporelle de systèmes d'imagerie IR. La procédure est basée sur une approche hétérodyne et est utilisée pour l'observation de la température en fonction du temps sur de minuscules microrésistances chauffées par effet Joule de façon périodique. L'approche hétérodyne consiste à utiliser une fréquence d'acquisition pour le système d'imagerie IR qui serait légèrement différente de la fréquence du phénomène de transfert de chaleur sous observation. L'intégration de l'approche hétérodyne à un système d'imagerie IR n'est pas aussi simple qu'il semble être, de nombreux défis doivent être résolus. Nous décrivons ici notre configuration hétérodyne, intégrée à la caméra IR Phoenix MWIR de FLIR Systems (qui présente un taux d'acquisition en trame entière d'environ 90 FIz). Nous avons montré aussi que des estimations de diffusivité thermique dans le plan ou transverse peuvent également être possibles par une méthode d'hétérodynage en flash répétés. On utilisera la méthode de Degiovanni qui tient compte des pertes pour l'analyse de la diffusivité dans l'épaisseur (méthode flash ID) et les méthodes Lachi et Philippi pour la diffusivité dans le plan (méthode flash 2D). Contrairement .à l'application microélectronique, nous réalisons ainsi dans le volet thermophysique non seulement une analyse qualitative mais également une analyse quantitative.
|
5 |
Conception d'une station d'acquisition d'images infrarouges et d'autres données contrôlée à distance S.A.I.I.A.A.D.Béland, Marc-André 18 April 2018 (has links)
Ce mémoire porte sur la conception d'une station d'acquisition d'images infrarouges et d'autres données. La station d'acquisition permet à des chercheurs de faire l'acquisition d'images infrarouges et visibles dans un environnement quelconque depuis leur laboratoire en contrôlant la caméra à distance. Il est également possible d'investiguer des cibles étendues en procédant à un balayage du champ de vision de la caméra infrarouge par le biais d'une unité Pan-Tilt contrôlée à distance. Un télémètre permettant de mesurer une distance et un angle d'inclinaison peut aussi être contrôlé à distance. Il est utilisé ici pour déterminer la distance et l'orientation de la scène sous observation par rapport à la station d'acquisition. Une simple interface web permet de réaliser certaines captures en temps réel. De même, un interpréteur Python permet d'exécuter des séquences d'actions et d'acquisition de données.
|
Page generated in 0.0819 seconds