• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 105
  • Tagged with
  • 340
  • 340
  • 334
  • 87
  • 50
  • 43
  • 42
  • 41
  • 37
  • 37
  • 35
  • 35
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Évolution d'un contrôleur de robot mobile visuellement référencé

Dupuis, Jean-François 12 April 2018 (has links)
Ce mémoire présente les résultats d'une recherche ayant pour but d'explorer l'utilisation d'un simulateur pour accélérer l'évolution de contrôleurs d'un robot mobile exécutant une tâche visuelle au sein d'un environnement de réalité augmentée. La tâche retenue pour effectuer la démonstration de l'intégration du système évolutionnaire consiste à suivre une ligne au sol à l'aide d'une caméra. La réalisation de ce projet a nécessité le développement d'une plate-forme de robot mobile compacte, d'une capacité de calcul suffisante pour être complètement autonome. Ce robot est destiné à un environnement synthétique généré à l'aide d'un projecteur à cristaux liquides. La modélisation du robot dans cet environnement a permis l'élaboration d'un simulateur pouvant être déployé sur une grappe d'ordinateurs permettant une accélération considérable de l'évolution grâce à la parallélisation de l'évaluation de la performance des contrôleurs. Les meilleurs contrôleurs obtenus au terme de l'évolution, employant la technique de programmation génétique, ont été transférés avec succès sur le robot.
212

Exploitation of the vector field representation for pose estimation, view integration and 3D modeling using natural features

Nguyen, Van Tung 23 April 2018 (has links)
La mise en registre et l'intégration des vues est une phase essentielle et inévitable dans un processus de modélisation 3D. L'étape la plus difficile de ce problème est d'estimer les poses relatives entre les vues sans utiliser l'information initiale sur la position du capteur ni d'intervention de l'utilisateur avant l'étape d'acquisition. Nous proposons une méthode de mise en registre globale automatique pour les données en format de nuages de points. Le principal problème abordé dans cette thèse est de résoudre le problème d'intégration et de mise en registre de vues dans la modélisation 3D pour les données en format de nuages de points. L'approche globale proposée est basée sur le framework de champ vectoriel et effectue automatiquement une mise en registre de grossière à plus précise sans formuler d'hypothèse sur la position initiale entre les vues ou de pré-traitement manuel de positionnement initial. En particulier, nous exploitons une représentation de champ vectoriel augmentée afin d'implémenter la segmentation et l'extraction de caractéristiques sur la surface d'un objet afin de détecter des correspondances. En outre, le processus de rafinement de pose dans le champ vectoriel réduit la complexité de la recherche de correspondances du point le plus proche puisque l'information est implicitement codée dans la représentation de champ vectoriel. De plus, en exploitant la représentation de champ vectoriel, nous offrons une nouvelle méthode de mise en registre qui supporte toutes les étapes de la modélisation 3D sans nécessiter de transformation de la représentation des données. Une solution alternative à l'aide d'une variation de RANSAC-DARCES basée sur le champ vectoriel permet au procédé proposé de traiter des objets de différents types de géométrie. Enfin, l'approche proposée est validée sur plusieurs ensembles de données tels que les modèles standards, ainsi que de vrais modèles numérisés par des scanners portatifs tenus en main. La performance de la méthode proposée est évaluée par inspection visuelle et quantitativement par la mesure de l'erreur de correspondance. / View integration and registration is an essential and unavoidable phase in a 3D modeling process. The most challenging step of this problem is to estimate relative poses between views without using any initial information of the scanning position or using intervention prior to the acquisition step. We propose an automatic global registration method for point cloud data. The main problem addressed in this thesis is to solve the view integration and registration problem in 3D modeling for point cloud data. The proposed global approach is based on the Vector Field framework and automatically performs coarse to fine registration without requiring any assumption on the initial position between views or manual pre-processing for initial positioning. In particular, we exploit an augmented Vector Field representation to implement segmentation and extraction of features on the surface of an object in order to detect correspondences. In addition, the pose refinement process in the Vector Field reduces the complexity of the search for closest point correspondence since the information is implicitly encoded in the Vector Field representation. Also by exploiting the Vector Field representation, we provide a new method of registration that supports all steps of 3D modeling without requiring transformation of the data representation. An alternative solution using a variation of RANSAC-DARCES based in the Vector Field enables the proposed method to deal with objects of various types of geometry. Finally, the proposed approach is validated on multiple data sets such as standard models as well as real models scanned by hand-held scanners. The performance of the proposed method is evaluated by visual inspection as well as quantitatively by measuring the correspondence error.
213

Bayesian hyperparameter optimization : overfitting, ensembles and conditional spaces

Lévesque, Julien-Charles 24 April 2018 (has links)
Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés. / In this thesis, we consider the analysis and extension of Bayesian hyperparameter optimization methodology to various problems related to supervised machine learning. The contributions of the thesis are attached to 1) the overestimation of the generalization accuracy of hyperparameters and models resulting from Bayesian optimization, 2) an application of Bayesian optimization to ensemble learning, and 3) the optimization of spaces with a conditional structure such as found in automatic machine learning (AutoML) problems. Generally, machine learning algorithms have some free parameters, called hyperparameters, allowing to regulate or modify these algorithms’ behaviour. For the longest time, hyperparameters were tuned by hand or with exhaustive search algorithms. Recent work highlighted the conceptual advantages in optimizing hyperparameters with more rational methods, such as Bayesian optimization. Bayesian optimization is a very versatile framework for the optimization of unknown and non-derivable functions, grounded strongly in probabilistic modelling and uncertainty estimation, and we adopt it for the work in this thesis. We first briefly introduce Bayesian optimization with Gaussian processes (GP) and describe its application to hyperparameter optimization. Next, original contributions are presented on the dangers of overfitting during hyperparameter optimization, where the optimization ends up learning the validation folds. We show that there is indeed overfitting during the optimization of hyperparameters, even with cross-validation strategies, and that it can be reduced by methods such as a reshuffling of the training and validation splits at every iteration of the optimization. Another promising method is demonstrated in the use of a GP’s posterior mean for the selection of final hyperparameters, rather than directly returning the model with the minimal crossvalidation error. Both suggested approaches are demonstrated to deliver significant improvements in the generalization accuracy of the final selected model on a benchmark of 118 datasets. The next contributions are provided by an application of Bayesian hyperparameter optimization for ensemble learning. Stacking methods have been exploited for some time to combine multiple classifiers in a meta classifier system. Those can be applied to the end result of a Bayesian hyperparameter optimization pipeline by keeping the best classifiers and combining them at the end. Our Bayesian ensemble optimization method consists in a modification of the Bayesian optimization pipeline to search for the best hyperparameters to use for an ensemble, which is different from optimizing hyperparameters for the performance of a single model. The approach has the advantage of not requiring the training of more models than a regular Bayesian hyperparameter optimization. Experiments show the potential of the suggested approach on three different search spaces and many datasets. The last contributions are related to the optimization of more complex hyperparameter spaces, namely spaces that contain a structure of conditionality. Conditions arise naturally in hyperparameter optimization when one defines a model with multiple components – certain hyperparameters then only need to be specified if their parent component is activated. One example of such a space is the combined algorithm selection and hyperparameter optimization, now better known as AutoML, where the objective is to choose the base model and optimize its hyperparameters. We thus highlight techniques and propose new kernels for GPs that handle structure in such spaces in a principled way. Contributions are also supported by experimental evaluation on many datasets. Overall, the thesis regroups several works directly related to Bayesian hyperparameter optimization. The thesis showcases novel ways to apply Bayesian optimization for ensemble learning, as well as methodologies to reduce overfitting or optimize more complex spaces. / Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés.
214

High speed optical communications in silicon photonics modulators

Zhalehpour, Sasan 16 March 2024 (has links)
Les communications optiques basées sur la photonique sur silicium (SiP) sont au centre des récents efforts de recherche pour le développement des futures technologies de réseaux optiques à haut débit. Dans cette thèse, nous étudions le traitement numérique du signal (DSP) pour pallier aux limites physiques des modulateurs Mach-Zehnder sur silicium (MZM) opérés à haut débit et exploitant des formats de modulation avancés utilisant la détection cohérente. Dans le premier chapitre, nous présentons une nouvelle méthode de précompensation adaptative appelée contrôle d’apprentissage itératif par gain (G-ILC, aussi utilisé en linéarisation d’amplificateurs RF) permettant de compenser les distorsions non-linéaires. L’adaptation de la méthode G-ILC et la précompensation numérique linéaire sont accomplies par une procédure « hardware-in-the-loop » en quasi-temps réel. Nous examinons différents ordres de modulation d’amplitude en quadrature (QAM) de 16QAM à 256QAM avec des taux de symboles de 20 à 60 Gbaud. De plus, nous combinons les précompensations numériques et optiques pour contrevenir surmonter les limitations de bande-passante du système en régime de transmission haut débit. Dans le second chapitre, inspiré par les faibles taux de symbole du G-ILC, nous augmentons la vitesse de transmission au-delà de la limite de bande-passante du système SiP. Pour la première fois, nous démontrons expérimentalement un record de 100 Gbaud par 16QAM et 32QAM en transmission consécutive avec polarisation mixte. L’optimisation est réalisée sur le point d’opération du MZM et sur la DSP. Les performances du G-ILC sont améliorées par égalisation linéaire à entrées/sorties multiples (MIMO). Nous combinons aussi notre précompensation non-linéaire innovante avec une post-compensation. Par émulation de la polarisation mixte, nous réalisons un taux net de 833 Gb/s avec 32QAM au seuil de correction d’erreur (FEC) pour une expansion en largeur de bande de 20% et 747 Gb/s avec 16QAM (une expansion en largeur de bande de 7% du FEC). Dans le troisième chapitre, nous démontrons expérimentalement un algorithme de précompensation numérique basé sur une table de consultation (LUT) unidimensionnelle pour compenser les non-linéarités introduites à l’émetteur, e.g. réponse en fréquence non-linéaire du MZM en silicium, conversion numérique-analogique et amplificateur RF. L’évaluation est réalisée sur un QAM d’ordre élevé, i.e. 128QAM et 256QAM. Nous examinons la diminution en complexité de la LUT et son impact sur la performance. Finalement, nous examinons la généralisation de la méthode de précompensation proposée pour des jeux de données différents des données d’apprentissage de la table de consultation. / Optical communications based on silicon photonics (SiP) have become a focus of the recent research for future high speed optical network technologies. In this thesis, we investigate digital signal processing (DSP) approaches to combat the physical limits of SiP Mach-Zehnder modulators (MZM) driven at high baud rates and exploiting advanced modulation formats with coherent detection. In the first section, we present a novel adaptive pre-compensation method known as gain based iterative learning control (G-ILC, previously used in RF amplifier linearization) to overcome nonlinear distortions. We experimentally evaluate the G-ILC technique. Adaptation of the G-ILC, in combination with linear digital pre-compensation, is accomplished with a quasireal- time hardware-in-the-loop procedure. We examine various orders of quadrature amplitude modulation (QAM), i.e., 16QAM to 256QAM, and symbol rates, i.e., 20 to 60 Gbaud. Furthermore, we exploit joint digital and optical linear pre-compensation to overcome the bandwidth limitation of the system in the higher baud rate regime. In the second section, inspired by lower symbol rate G-ILC results, we push the baud rate beyond the bandwidth limit of the SiP system. For the first time, we experimentally report record-breaking 16QAM and 32QAM at 100 Gbaud in dual polarization back-to-back transmission. The optimization is performed on both MZM operating point and DSP. The G-ILC performance is improved by employing linear multiple input multiple output (MIMO) equalization during the adaptation. We combine our innovative nonlinear pre-compensation with post-compensation as well. Via dual polarization emulation, we achieve a net rate of 833 Gb/s with 32QAM at the forward error correction (FEC) threshold for 20% overhead and 747 Gb/s with 16QAM (7% FEC overhead). In the third section, we experimentally present a digital pre-compensation algorithm based on a one-dimensional lookup table (LUT) to compensate the nonlinearity introduced at the transmitter, e.g., nonlinear frequency response of the SiP MZM, digital to analog converter and RF amplifier. The evaluation is performed on higher order QAM, i.e., 128QAM and 256QAM. We examine reduction of LUT complexity and its impact on performance. Finally, we examine the generalization of the proposed pre-compensation method to data sets other than the original training set for the LUT.
215

Ajout d'un module d'évaluation de la qualité vidéo à un encodeur MPEG

Lafontaine, Sébastien 11 April 2018 (has links)
Créé au L.V.S.N. (Laboratoire de Vision et de Systèmes Numériques) de l'Université Laval, ce mémoire de maîtrise a pour but l'ajout d'un module d'évaluation de la qualité vidéo à un encodeur vidéo afin de contrôler la qualité d'une séquence vidéo produite par cet encodeur. Le système développé est supporté dans un environnement Microsoft Windows 2000 et est transférable directement vers le système d'exploitation Windows XP. Il utilise les composantes contenues dans l'environnement MFC (Microsoft Fondation Class) comme interface utilisateur et utilise quelques programmes utilisant la console. Il possède divers modules réalisant les tâches d'encodage vidéo, de décodage vidéo ainsi qu'un dernier module servant à l'évaluation de la qualité vidéo à proprement parler. Le logiciel peut être adapté pour d'autres systèmes d'exploitation, mais son interface doit être refaite pour tenir compte des nécessités graphiques du nouveau système d'exploitation. Le projet est soumis avec le plus grand respect pour les détenteurs des marques de commerce déposées Microsoft Corporation (MS), MFC, MS Windows, MS Studio .NET et Star Wars ainsi que tous les personnages de la série.
216

Représentation et manipulation de données de simulation dans un environnement virtuel immersif

Ouellet, Etienne 19 April 2018 (has links)
Le projet IMAGE vise à offrir des outils aux utilisateurs pour augmenter et accélérer la compréhension de situations complexes. En utilisant des technologies de pointe et des concepts de réalité virtuelle, un environnement virtuel immersif a été développé. Ce mémoire présente la deuxième version du projet IMAGE et se concentre sur les aspects visuels et immersifs de l'environnement. Les outils de visualisation et de manipulation sont conçus dans le but d'offrir de nouvelles possibilités dans l'analyse de situations complexes. La première version du projet (IMAGE VI) est tout d'abord présentée. Par la suite, une revue des différents concepts utilisés dans le projet est effectuée. Après une présentation du module Exploration, principale plateforme développée dans le cadre d'IMAGE V2, la problématique de la représentation des simulations dans un environnement immersif est abordée. La solution proposée, nommée arbre multichronique, est une manière de visualiser de l'information dans un espace virtuel et sera ensuite expliquée en détails. Finalement, une évaluation du système ainsi qu'une discussion sur le développement du projet complètent le mémoire.
217

Mise en place d'un réseau sans fil de capteurs déployés à Salluit

Bouchara, Syryn 21 December 2018 (has links)
Pour suivre les effets du changement climatique et aider à la compréhension et la capacité de prédiction, des capteurs ont été installés dans le nord du Québec. Salluit à Nunavik est parmi les villages où un ensemble de capteurs a été installé. Cependant, la collecte de ces données est manuellement effectuée une fois par an par des scientifiques. Étant donné l’importance de ces informations, le chantier 1.5 du projet Sentinelle Nord vise à mesurer, enregistrer, et envoyer les données en temps réel. Notre projet a d’abord pour but l’installation d’un réseau sans fil permettant aux capteurs de transmettre les données tout au long de l’année, pour anticiper les risques et dommages. La conception du projet a été lancée en 2016 et les premiers travaux ont eu lieu en été 2017. Après une collecte de données réussie pendant les premiers mois suivants l’installation, des problèmes de réseau LTE sont survenus. La connexion LTE n’étant point fiable, les capteurs n’ont été visibles de l’université qu’entre 5 et 9% du temps, avant une perte totale du signal LTE à partir du mois de janvier 2017. Les conditions environnementales et météorologiques de la région ont confirmé les défis rencontrés de tels systèmes de collecte de données sans fil. Dans ce mémoire, nous détaillons les étapes prises pour déployer un tel réseau de capteurs dans des conditions extrêmes et inconnues. Nous expliquons aussi les défis, les problèmes et les limitations rencontrés lors du projet et donnons des recommandations et améliorations pour le futur. / To monitor the effects of climate change and to help the understanding and predictability, sensors have been installed in northern Québec. Salluit in Nunavik is among the villages of which a set of sensors has been installed. However, the collection of this data is manually done once a year by scientists. Given the importance of this information, Sentinel North project site 1.5 aims to measure, record, and send data in real time. Our project is primarily aimed at installing a wireless network that allows sensors to transmit data throughout the year, to anticipate risks and damages. The project design was launched in 2016, and the first work took place in summer 2017. After a successful data collection during the first months after installation, LTE network problems have occurred. Since the LTE connection is not reliable, the sensors were only visible from the university between 5% and 9% of the time, before a total loss of the LTE signal starting in January 2017. Environmental and meteorological conditions of the region have confirmed the challenges faced by such a system of wireless data collection. In this thesis, we detail the steps taken to deploy such a sensor network under extreme and unknown conditions. We also explain the challenges, problems and limitations encountered during the project and give recommendations and improvement for the future.
218

L'EcoChip : une plate-forme de capteurs sans fil pour la surveillance bio-environnementale

Sylvain, Matthieu 08 November 2019 (has links)
Le système proposé dans le cadre de ce travail est une plate-forme de capteurs sans fil permettant de mesurer la croissance de cultures de micro-organismes dans leur habitat naturel tout en effectuant diverses mesures environnementales. L’évaluation de la croissance des micro-organismes dans les 96 puits individuels du système est réalisée à l’aide d’un système de mesure d’impédance puisqu’il est possible de relier l’impédance d’une colonie de microorganismes à sa population en fonction du temps. Ces différentes informations sont très utiles afin d’évaluer l’état de santé d’un milieu donné et en particulier d’un milieu nordique pour ce projet. Les mesures d’impédance effectuées permettent d’identifier les puits où une croissance s’est produit et donc de les isoler plus facilement pour analyse future, ce qui simplifie le processus. Ce système effectue des mesures à intervalles régulier et peut transmettre ces mesures par un système de communication sans fil à un récepteur proche en plus de sauvegarder localement les données. Le système présente une consommation électrique très faible ce qui lui permet une autonomie de plusieurs mois avec une batterie dans des régions isolées. La conception en plusieurs puits de culture permet d’isoler plusieurs échantillons et de prendre des mesures séparées sur chacun de ceux-ci. Le projet est effectué dans le cadre de la stratégie Sentinelle Nord de l’Université Laval qui vise à améliorer la compréhension de l’environnement nordique. Le système proposé est unique en son genre au moment d’écrire ce mémoire puisqu’il permet simultanément la culture de micro-organismes in situ et l’évaluation de la croissance de ces derniers. La plate-forme proposée offre ainsi plusieurs opportunités pour les chercheurs en biologie et en microbiologie d’obtenir des informations sur ces milieux isolés. Des essais sur le terrain dans la région du Nord-du-Québec à Kuujjuarapik et au Lac à l’Eau Claire ont d’ailleurs permis de valider le fonctionnement du dispositif dans les conditions d’utilisations désirées en plus de démontrer, suite à une analyse du contenu des puits de culture, qu’il est possible de faire prospérer des micro-organismes dans ces derniers. / The proposed system consist of a wireless multi-sensors platform that can measure the growth of multiples microorganism populations inside their natural habitat while also measuring various environmental parameters. An impedance measuring circuit is used to evaluate the growth of the microorganisms inside the 96 culture wells of the EcoChip. This method is used since the impedance of these colonies is directly related to the number of microorganisms in the growth medium. These impedance measurements over time are then used to evaluate if microbial growth is normal and this can be used to give an idea of the overall health state of a given environment, which for this project is a nordic one. These impedance measurements are also used to produce growth curves that can be used to isolate wells inside which there was an increase in microorganism concentration and then easily screen them for further analyses. The designed system is programmed to scan the culture wells at regular intervals and to transmit the results to a nearby base station via a wireless link. These data are also saved on the on-board memory to ensure that they can be recovered later when there are no nearby receivers. The multi-well conception of the system also allows to isolate multiple samples and to conduct individual measurements on each of them. Since the platform is autonomous and is powered with a battery, it is designed to have a very low power consumption which allows for a long lifetime while in an isolated location. This project is done as part of the Sentinel Nord Strategy of Université Laval which aims to improve our understanding of the northern environment. At the time of the redaction of this thesis, the proposed system is unique in its kind since it allows the culture of microorganisms in situ and the evaluation of the culture growth with an electronic system while in the wild. The platform offers many opportunities for scientists in biology and microbiology since it enables them to obtain information on various isolated places where environmental data and microorganism samples can be hard to get. Field tests at Kuujjuarapik and Clearwater Lake (Nord-du-Québec) with the device have proven that the system allows the growth of microorganism colonies in its wells while conducting successful impedance analyses.
219

Nondestructive testing of metals and composite materials using ultrasound thermography : comparison with pulse-echo ultrasonics

Peycheva, Kira 19 April 2018 (has links)
La thermographie stimulée par ultrasons (TU) est une méthode de contrôle non destructif qui a été inventée en 1979 mais qui a s'est répandue à la fin des années 90. L'idée de cette méthode est d'exciter le matériau à inspecter avec des ondes mécaniques à des fréquences allant de 20kHz à 40kHz et d'observer ensuite leur température de surface avec une caméra infrarouge. TU est une méthode de thermographie active; les autres méthodes les plus connues sont la thermographie optique et celle stimulée par courants de Foucault. Son habilité à révéler des défauts dans des cas où les autres techniques échouent, fait d'elle une méthode pertinente ou complémentaire. L'inconvénient de la TU est que beaucoup de conditions expérimentales doivent être respectées pour obtenir des résultats adéquats incluant quelques paramètres qui doivent être bien choisis. Le but de ce projet est d'explorer les capacités, les avantages et les limites de la TU. Pour comparer la performance de la TU à celle des ultrasons conventionnels, des tests ultrasons de type C-Scan ont été réalisés pour quelques échantillons. Quatre matériaux différents avec quatre types de défauts ont été investigués afin de mieux définir les conditions optimales pour améliorer la détection des défauts. Les résultats bruts obtenus étaient traités dans chaque cas afin de mieux visualiser les contrastes thermiques causés par les discontinuités cachées.
220

Une approche de calibrage géométrique de caméras par speckle laser pour la vision artificielle stéréoscopique active et passive

Samson, Éric 17 April 2018 (has links)
Le calibrage des caméras est l'une des pierres angulaires de la plupart des systèmes de vision artificielle car c'est cette opération qui établit le lien entre le monde physique et l'image. On dispose aujourd'hui de plusieurs techniques bien établies pour réaliser cette opération. Il existe toutefois certaines situations pour lesquelles les techniques usuelles ne sont pas assez précises. C'est le cas notamment des systèmes de vision 3D actifs. Les systèmes dits ``actifs'' disposent d'un mécanisme d'entraînement qui leur permet repositionner leurs caméras en temps réel. Puisque les mesures 3D en vision reposent sur la connaissance de la position relative des caméras, les déplacements de celles-ci à l'intérieur d'un système actif doivent être modélisés et calibrés afin que leur position exacte puisse être mise à jour en continue. Mener à bien ce type de calibrage exige que les déplacements des caméras puissent être mesurés avec une très grande précision. Cette thèse propose une approche pour le calibrage géométrique de caméras qui répond aux besoins en précision des systèmes actifs. L'originalité de cette approche vient du fait qu'elle exploite les propriétés du speckle laser. Les bases théoriques sur lesquelles elle s'appuie sont tirées du domaine de la mesure par speckle (``speckle metrology''). C'est la première fois que les principes de la mesure par speckle sont appliqués au domaine de la vision artificielle. L'intérêt de faire intervenir le speckle laser dans le calibrage est qu'il permet de découpler les composantes en rotation de celles en translation du mouvement des caméras. Dans le contexte des systèmes actifs, ce découplage des deux types de mouvements permet d'atteindre un niveau de précision de calibrage qu'il est impossible d'atteindre avec les approches classiques basées sur l'observation d'une cible de calibrage conventionnelle. Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant deux avantages pratiques importants. Le premier est que le dispositif permettant d'effectuer le calibrage est compact et le second est que le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. %Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant les avantages pratiques suivant. Le dispositif permettant d'effectuer le calibrage est compact. Le calibrage peut être complété avec moins de manipulations. Enfin, le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. / Because it establishes the link between image coordinates and the physical world, camera calibration is one of the corner stones of computer vision systems. Several existing techniques can perform this operation, but these are not always accurate enough, depending on circumstances. This is particularly the case for ``active'' 3D systems that incorporate mechanisms to allow real time repositioning of cameras. Since 3D measurements in computer vision rely on the knowledge of the relative camera positions, their exact movements within the active system must be updated in a continuous fashion. Calibrating such systems is only feasible when camera movements can be measured very accurately, which is not possible using current techniques. In this thesis, an original approach is proposed for the geometric camera calibration of active vision systems, based on the theoretical foundations of speckle metrology. It exploits the unique properties of laser speckle to meet the special requirements of active vision systems. It also represents the first use of laser speckle in this field. The main benefit of laser speckle is that it allows the measurement of rotational component of the camera movements independently from its translational component. The ability to perform independent measurements of these two components is what gives this new approach a much improved accuracy compared to conventional techniques based on the use of calibration targets. Besides the calibration of active vision systems, the proposed approach can be applied to other types of vision systems as well. In particular, the thesis shows that the proposed approach can also be applied to calibrate a classical pair of static stereoscopic cameras. The proposed technique show equivalent accuracy compared to conventional techniques while providing two major practical advantages. First, the calibration device is very compact and second, the calibration procedure doesn't require the working area of the stereo pair to be accessed.

Page generated in 0.0188 seconds