• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 105
  • Tagged with
  • 340
  • 340
  • 334
  • 87
  • 50
  • 43
  • 42
  • 41
  • 37
  • 37
  • 35
  • 35
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Détection des défauts du bois franc et du bois mou par effet trachéïde

Rivet-Sabourin, Geoffroy 05 July 2019 (has links)
L’augmentation de productivité et de capacité de production est aujourd’hui au coeur des problématiques industrielles. Ceci touche particulièrement l’industrie forestière qui cherche depuis de nombreuses années à accroître sa productivité par, entre autres, des méthodes d’automatisation appliquées à leur processus de transformation du bois. Pour automatiser les méthodes d’inspection industrielle, plusieurs voies ont été empruntées jusqu’à ce jour : photométrie, ultrason, rayon-X, thermographie, etc . La technique présentée ici, l’effet trachéïde, utilise les caractéristiques de diffusion d’un laser dans les fibres de bois pour faire ressortir la densité et la direction du grain du bois. Cette technique produit rapidement une image en tons de gris de la pièce. À partir de cette image plusieurs méthodes ont été développées afin de faire ressortir les défauts sur la pièce. Une méthode de fusion des données a été mise au point afin de faire le regroupement des résultats des différentes techniques de détection. Finalement, une méthode de détection de contours adaptée à la détection des noeuds a été explorée. / Québec Université Laval, Bibliothèque 2019
82

Face recognition using infrared vision

Shoja Ghiass, Reza 20 April 2018 (has links)
Au cours de la dernière décennie, la reconnaissance de visage basée sur l’imagerie infrarouge (IR) et en particulier la thermographie IR est devenue une alternative prometteuse aux approches conventionnelles utilisant l’imagerie dans le spectre visible. En effet l’imagerie (visible et infrarouge) trouvent encore des contraintes à leur application efficace dans le monde réel. Bien qu’insensibles à toute variation d’illumination dans le spectre visible, les images IR sont caractérisées par des défis spécifiques qui leur sont propres, notamment la sensibilité aux facteurs qui affectent le rayonnement thermique du visage tels que l’état émotionnel, la température ambiante, la consommation d’alcool, etc. En outre, il est plus laborieux de corriger l’expression du visage et les changements de poses dans les images IR puisque leur contenu est moins riche aux hautes fréquences spatiales ce qui représente en fait une indication importante pour le calage de tout modèle déformable. Dans cette thèse, nous décrivons une nouvelle méthode qui répond à ces défis majeurs. Concrètement, pour remédier aux changements dans les poses et expressions du visage, nous générons une image synthétique frontale du visage qui est canonique et neutre vis-à-vis de toute expression faciale à partir d’une image du visage de pose et expression faciale arbitraires. Ceci est réalisé par l’application d’une déformation affine par morceaux précédée par un calage via un modèle d’apparence active (AAM). Ainsi, une de nos publications est la première publication qui explore l’utilisation d’un AAM sur les images IR thermiques ; nous y proposons une étape de prétraitement qui rehausse la netteté des images thermiques, ce qui rend la convergence de l’AAM rapide et plus précise. Pour surmonter le problème des images IR thermiques par rapport au motif exact du rayonnement thermique du visage, nous le décrivons celui-ci par une représentation s’appuyant sur des caractéristiques anatomiques fiables. Contrairement aux approches existantes, notre représentation n’est pas binaire ; elle met plutôt l’accent sur la fiabilité des caractéristiques extraites. Cela rend la représentation proposée beaucoup plus robuste à la fois à la pose et aux changements possibles de température. L’efficacité de l’approche proposée est démontrée sur la plus grande base de données publique des vidéos IR thermiques des visages. Sur cette base d’images, notre méthode atteint des performances de reconnaissance assez bonnes et surpasse de manière significative les méthodes décrites précédemment dans la littérature. L’approche proposée a également montré de très bonnes performances sur des sous-ensembles de cette base de données que nous avons montée nous-mêmes au sein de notre laboratoire. A notre connaissance, il s’agit de l’une des bases de données les plus importantes disponibles à l’heure actuelle tout en présentant certains défis. / Over the course of the last decade, infrared (IR) and particularly thermal IR imaging based face recognition has emerged as a promising complement to conventional, visible spectrum based approaches which continue to struggle when applied in the real world. While inherently insensitive to visible spectrum illumination changes, IR images introduce specific challenges of their own, most notably sensitivity to factors which affect facial heat emission patterns, e.g., emotional state, ambient temperature, etc. In addition, facial expression and pose changes are more difficult to correct in IR images because they are less rich in high frequency details which is an important cue for fitting any deformable model. In this thesis we describe a novel method which addresses these major challenges. Specifically, to normalize for pose and facial expression changes we generate a synthetic frontal image of a face in a canonical, neutral facial expression from an image of the face in an arbitrary pose and facial expression. This is achieved by piecewise affine warping which follows active appearance model (AAM) fitting. This is the first work which explores the use of an AAM on thermal IR images; we propose a pre-processing step which enhances details in thermal images, making AAM convergence faster and more accurate. To overcome the problem of thermal IR image sensitivity to the exact pattern of facial temperature emissions we describe a representation based on reliable anatomical features. In contrast to previous approaches, our representation is not binary; rather, our method accounts for the reliability of the extracted features. This makes the proposed representation much more robust both to pose and scale changes. The effectiveness of the proposed approach is demonstrated on the largest public database of thermal IR images of faces on which it achieves satisfying recognition performance and significantly outperforms previously described methods. The proposed approach has also demonstrated satisfying performance on subsets of the largest video database of the world gathered in our laboratory which will be publicly available free of charge in future. The reader should note that due to the very nature of the feature extraction method in our system (i.e., anatomical based nature of it), we anticipate high robustness of our system to some challenging factors such as the temperature changes. However, we were not able to investigate this in depth due to the limits which exist in gathering realistic databases. Gathering the largest video database considering some challenging factors is one of the other contributions of this research.
83

Évolution d'un contrôleur de robot mobile visuellement référencé

Dupuis, Jean-François 12 April 2018 (has links)
Ce mémoire présente les résultats d'une recherche ayant pour but d'explorer l'utilisation d'un simulateur pour accélérer l'évolution de contrôleurs d'un robot mobile exécutant une tâche visuelle au sein d'un environnement de réalité augmentée. La tâche retenue pour effectuer la démonstration de l'intégration du système évolutionnaire consiste à suivre une ligne au sol à l'aide d'une caméra. La réalisation de ce projet a nécessité le développement d'une plate-forme de robot mobile compacte, d'une capacité de calcul suffisante pour être complètement autonome. Ce robot est destiné à un environnement synthétique généré à l'aide d'un projecteur à cristaux liquides. La modélisation du robot dans cet environnement a permis l'élaboration d'un simulateur pouvant être déployé sur une grappe d'ordinateurs permettant une accélération considérable de l'évolution grâce à la parallélisation de l'évaluation de la performance des contrôleurs. Les meilleurs contrôleurs obtenus au terme de l'évolution, employant la technique de programmation génétique, ont été transférés avec succès sur le robot.
84

High speed optical communications in silicon photonics modulators

Zhalehpour, Sasan 13 February 2020 (has links)
Les communications optiques basées sur la photonique sur silicium (SiP) sont au centre des récents efforts de recherche pour le développement des futures technologies de réseaux optiques à haut débit. Dans cette thèse, nous étudions le traitement numérique du signal (DSP) pour pallier aux limites physiques des modulateurs Mach-Zehnder sur silicium (MZM) opérés à haut débit et exploitant des formats de modulation avancés utilisant la détection cohérente. Dans le premier chapitre, nous présentons une nouvelle méthode de précompensation adaptative appelée contrôle d’apprentissage itératif par gain (G-ILC, aussi utilisé en linéarisation d’amplificateurs RF) permettant de compenser les distorsions non-linéaires. L’adaptation de la méthode G-ILC et la précompensation numérique linéaire sont accomplies par une procédure « hardware-in-the-loop » en quasi-temps réel. Nous examinons différents ordres de modulation d’amplitude en quadrature (QAM) de 16QAM à 256QAM avec des taux de symboles de 20 à 60 Gbaud. De plus, nous combinons les précompensations numériques et optiques pour contrevenir surmonter les limitations de bande-passante du système en régime de transmission haut débit. Dans le second chapitre, inspiré par les faibles taux de symbole du G-ILC, nous augmentons la vitesse de transmission au-delà de la limite de bande-passante du système SiP. Pour la première fois, nous démontrons expérimentalement un record de 100 Gbaud par 16QAM et 32QAM en transmission consécutive avec polarisation mixte. L’optimisation est réalisée sur le point d’opération du MZM et sur la DSP. Les performances du G-ILC sont améliorées par égalisation linéaire à entrées/sorties multiples (MIMO). Nous combinons aussi notre précompensation non-linéaire innovante avec une post-compensation. Par émulation de la polarisation mixte, nous réalisons un taux net de 833 Gb/s avec 32QAM au seuil de correction d’erreur (FEC) pour une expansion en largeur de bande de 20% et 747 Gb/s avec 16QAM (une expansion en largeur de bande de 7% du FEC). Dans le troisième chapitre, nous démontrons expérimentalement un algorithme de précompensation numérique basé sur une table de consultation (LUT) unidimensionnelle pour compenser les non-linéarités introduites à l’émetteur, e.g. réponse en fréquence non-linéaire du MZM en silicium, conversion numérique-analogique et amplificateur RF. L’évaluation est réalisée sur un QAM d’ordre élevé, i.e. 128QAM et 256QAM. Nous examinons la diminution en complexité de la LUT et son impact sur la performance. Finalement, nous examinons la généralisation de la méthode de précompensation proposée pour des jeux de données différents des données d’apprentissage de la table de consultation. / Optical communications based on silicon photonics (SiP) have become a focus of the recent research for future high speed optical network technologies. In this thesis, we investigate digital signal processing (DSP) approaches to combat the physical limits of SiP Mach-Zehnder modulators (MZM) driven at high baud rates and exploiting advanced modulation formats with coherent detection. In the first section, we present a novel adaptive pre-compensation method known as gain based iterative learning control (G-ILC, previously used in RF amplifier linearization) to overcome nonlinear distortions. We experimentally evaluate the G-ILC technique. Adaptation of the G-ILC, in combination with linear digital pre-compensation, is accomplished with a quasireal- time hardware-in-the-loop procedure. We examine various orders of quadrature amplitude modulation (QAM), i.e., 16QAM to 256QAM, and symbol rates, i.e., 20 to 60 Gbaud. Furthermore, we exploit joint digital and optical linear pre-compensation to overcome the bandwidth limitation of the system in the higher baud rate regime. In the second section, inspired by lower symbol rate G-ILC results, we push the baud rate beyond the bandwidth limit of the SiP system. For the first time, we experimentally report record-breaking 16QAM and 32QAM at 100 Gbaud in dual polarization back-to-back transmission. The optimization is performed on both MZM operating point and DSP. The G-ILC performance is improved by employing linear multiple input multiple output (MIMO) equalization during the adaptation. We combine our innovative nonlinear pre-compensation with post-compensation as well. Via dual polarization emulation, we achieve a net rate of 833 Gb/s with 32QAM at the forward error correction (FEC) threshold for 20% overhead and 747 Gb/s with 16QAM (7% FEC overhead). In the third section, we experimentally present a digital pre-compensation algorithm based on a one-dimensional lookup table (LUT) to compensate the nonlinearity introduced at the transmitter, e.g., nonlinear frequency response of the SiP MZM, digital to analog converter and RF amplifier. The evaluation is performed on higher order QAM, i.e., 128QAM and 256QAM. We examine reduction of LUT complexity and its impact on performance. Finally, we examine the generalization of the proposed pre-compensation method to data sets other than the original training set for the LUT.
85

Exploitation of the vector field representation for pose estimation, view integration and 3D modeling using natural features

Nguyen, Van Tung 23 April 2018 (has links)
La mise en registre et l'intégration des vues est une phase essentielle et inévitable dans un processus de modélisation 3D. L'étape la plus difficile de ce problème est d'estimer les poses relatives entre les vues sans utiliser l'information initiale sur la position du capteur ni d'intervention de l'utilisateur avant l'étape d'acquisition. Nous proposons une méthode de mise en registre globale automatique pour les données en format de nuages de points. Le principal problème abordé dans cette thèse est de résoudre le problème d'intégration et de mise en registre de vues dans la modélisation 3D pour les données en format de nuages de points. L'approche globale proposée est basée sur le framework de champ vectoriel et effectue automatiquement une mise en registre de grossière à plus précise sans formuler d'hypothèse sur la position initiale entre les vues ou de pré-traitement manuel de positionnement initial. En particulier, nous exploitons une représentation de champ vectoriel augmentée afin d'implémenter la segmentation et l'extraction de caractéristiques sur la surface d'un objet afin de détecter des correspondances. En outre, le processus de rafinement de pose dans le champ vectoriel réduit la complexité de la recherche de correspondances du point le plus proche puisque l'information est implicitement codée dans la représentation de champ vectoriel. De plus, en exploitant la représentation de champ vectoriel, nous offrons une nouvelle méthode de mise en registre qui supporte toutes les étapes de la modélisation 3D sans nécessiter de transformation de la représentation des données. Une solution alternative à l'aide d'une variation de RANSAC-DARCES basée sur le champ vectoriel permet au procédé proposé de traiter des objets de différents types de géométrie. Enfin, l'approche proposée est validée sur plusieurs ensembles de données tels que les modèles standards, ainsi que de vrais modèles numérisés par des scanners portatifs tenus en main. La performance de la méthode proposée est évaluée par inspection visuelle et quantitativement par la mesure de l'erreur de correspondance. / View integration and registration is an essential and unavoidable phase in a 3D modeling process. The most challenging step of this problem is to estimate relative poses between views without using any initial information of the scanning position or using intervention prior to the acquisition step. We propose an automatic global registration method for point cloud data. The main problem addressed in this thesis is to solve the view integration and registration problem in 3D modeling for point cloud data. The proposed global approach is based on the Vector Field framework and automatically performs coarse to fine registration without requiring any assumption on the initial position between views or manual pre-processing for initial positioning. In particular, we exploit an augmented Vector Field representation to implement segmentation and extraction of features on the surface of an object in order to detect correspondences. In addition, the pose refinement process in the Vector Field reduces the complexity of the search for closest point correspondence since the information is implicitly encoded in the Vector Field representation. Also by exploiting the Vector Field representation, we provide a new method of registration that supports all steps of 3D modeling without requiring transformation of the data representation. An alternative solution using a variation of RANSAC-DARCES based in the Vector Field enables the proposed method to deal with objects of various types of geometry. Finally, the proposed approach is validated on multiple data sets such as standard models as well as real models scanned by hand-held scanners. The performance of the proposed method is evaluated by visual inspection as well as quantitatively by measuring the correspondence error.
86

Bayesian hyperparameter optimization : overfitting, ensembles and conditional spaces

Lévesque, Julien-Charles 24 April 2018 (has links)
Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés. / In this thesis, we consider the analysis and extension of Bayesian hyperparameter optimization methodology to various problems related to supervised machine learning. The contributions of the thesis are attached to 1) the overestimation of the generalization accuracy of hyperparameters and models resulting from Bayesian optimization, 2) an application of Bayesian optimization to ensemble learning, and 3) the optimization of spaces with a conditional structure such as found in automatic machine learning (AutoML) problems. Generally, machine learning algorithms have some free parameters, called hyperparameters, allowing to regulate or modify these algorithms’ behaviour. For the longest time, hyperparameters were tuned by hand or with exhaustive search algorithms. Recent work highlighted the conceptual advantages in optimizing hyperparameters with more rational methods, such as Bayesian optimization. Bayesian optimization is a very versatile framework for the optimization of unknown and non-derivable functions, grounded strongly in probabilistic modelling and uncertainty estimation, and we adopt it for the work in this thesis. We first briefly introduce Bayesian optimization with Gaussian processes (GP) and describe its application to hyperparameter optimization. Next, original contributions are presented on the dangers of overfitting during hyperparameter optimization, where the optimization ends up learning the validation folds. We show that there is indeed overfitting during the optimization of hyperparameters, even with cross-validation strategies, and that it can be reduced by methods such as a reshuffling of the training and validation splits at every iteration of the optimization. Another promising method is demonstrated in the use of a GP’s posterior mean for the selection of final hyperparameters, rather than directly returning the model with the minimal crossvalidation error. Both suggested approaches are demonstrated to deliver significant improvements in the generalization accuracy of the final selected model on a benchmark of 118 datasets. The next contributions are provided by an application of Bayesian hyperparameter optimization for ensemble learning. Stacking methods have been exploited for some time to combine multiple classifiers in a meta classifier system. Those can be applied to the end result of a Bayesian hyperparameter optimization pipeline by keeping the best classifiers and combining them at the end. Our Bayesian ensemble optimization method consists in a modification of the Bayesian optimization pipeline to search for the best hyperparameters to use for an ensemble, which is different from optimizing hyperparameters for the performance of a single model. The approach has the advantage of not requiring the training of more models than a regular Bayesian hyperparameter optimization. Experiments show the potential of the suggested approach on three different search spaces and many datasets. The last contributions are related to the optimization of more complex hyperparameter spaces, namely spaces that contain a structure of conditionality. Conditions arise naturally in hyperparameter optimization when one defines a model with multiple components – certain hyperparameters then only need to be specified if their parent component is activated. One example of such a space is the combined algorithm selection and hyperparameter optimization, now better known as AutoML, where the objective is to choose the base model and optimize its hyperparameters. We thus highlight techniques and propose new kernels for GPs that handle structure in such spaces in a principled way. Contributions are also supported by experimental evaluation on many datasets. Overall, the thesis regroups several works directly related to Bayesian hyperparameter optimization. The thesis showcases novel ways to apply Bayesian optimization for ensemble learning, as well as methodologies to reduce overfitting or optimize more complex spaces. / Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés.
87

Fibres optiques à coeur creux comme éléments sélectifs et compensateurs de dispersion pour les systèmes de communication multilongueurs d'onde

Arfaoui, Imen 12 April 2018 (has links)
L'évolution rapide des nouvelles technologies dans le domaine des télécommunications a tendance à créer de jour en jour de nouveaux besoins et de nouveaux défis et de fertiliser de plus en plus les esprits créateurs pour enrichir le domaine des communications par fibres optiques en inventant et en améliorant les réseaux existants. De nos jours, la fibre optique présente des pertes inférieures à 0.2 dB/km à 1550 nm. Néanmoins plusieurs effets indésirables subsistent lors des transmissions par fibres optiques. Dans ce cadre, nous avons concentré nos travaux de recherche sur la caractérisation, la modélisation, la conception et la réalisation de compensateurs de dispersion chromatique ainsi que des filtres Fabry-Perot pour les réseaux optiques à base de fibres monomodes. Nos recherches se sont penchées sur de nouveaux types de guides cylindriques à cœur creux à base de capillaires en silice ainsi que des guides plans à cœur creux à base de pellicules en nitrocellulose et d'étalons de silice. Ce genre de fibre creuse se comportant comme un guide à perte peut aussi jouer le rôle d'un résonateur Fabry-Perot. Ainsi, grâce à ses propriétés Fabry-Perot, on a pu exploiter et étudier la compensation de la dispersion chromatique à large bande. Les fibres à cœur creux proposées ont montré les fonctions attendues et ciblées dans cette thèse. De futures recherches devraient mener à l'amélioration de la compensation de la dispersion ainsi que l'expérimentation de la partie couplage entre une fibre à cœur creux et une fibre monomode.
88

Approche non supervisée de segmentation de bas niveau dans un cadre de surveillance vidéo d'environnements non contrôlés

Martel-Brisson, Nicolas 18 April 2018 (has links)
La présente thèse propose un algorithme de segmentation de bas niveau pour des environnements complexes, allant de scènes intérieures peuplées aux scènes extérieures dynamiques. Basé sur des méthodes d'apprentissage développées pour une séquence vidéo où la caméra est fixe, le système est en mesure d'identifier les sections de l'image appartenant aux objets ou personnes d'avant-plan et ce, en dépit de perturbations temporelles de l'image de l'arrière-plan causées par les ombres, éléments naturels, changements d'illumination, etc. Nous proposons un cadre statistique d'estimation de densité de probabilité basé sur des kernels (KDE). Méthode polyvalente, les KDE requièrent toutefois des séquences d'entraînement où l'activité de l'avant-plan est minimale afin d'obtenir une bonne description initiale de la distribution de l'arrière-plan. Afin d'augmenter la flexibilité de ce type d'approche, nous exploitons la cohérence spatiale des événements d'avant-plan : en minimisant une fonction d'énergie globale par coupure de graphe, nous estimons les probabilités à priori et les densités associées à l'avant et l'arrière-plan pour chaque pixel de la scène. Pour y arriver, des indices tels la dispersion des données, la probabilité associée aux modes dans l'espace RGB, la persistance spatiale des événements et l'entropie relative des régions dans l'image sont utilisés dans un cadre statistique cohérent. Les ombres projetées qui sont détectées lors du processus de soustraction d'arrière-plan induisent des perturbations, tels la distorsion et la fusion des silhouettes, qui nuisent à la performance générale d'algorithmes de plus haut niveau dans un contexte de surveillance vidéo. Deux stratégies sont alors proposées afin de d'éliminer l'ombre projetée de la région d'intérêt. La première méthode utilise la capacité d'apprentissage de l'algorithme de Mixtures de Gaussiennes (GMM) dans le but de caractériser le comportement des ombres projetées sur les surfaces composant l'arrière-plan. La deuxième méthode s'appuie sur les propriétés physiques de l'ombre projetée et d'une mesure de gradient dans un cadre statistique non paramétrique afin d'estimer les valeurs d'atténuation des surfaces ombragées. La méthode permet la différenciation des ombres et de l'avant-plan lorsque ceux-ci partagent des valeurs de chromaticité similaire. Les résultats démontrent que notre approche est efficace dans une multitude de scénarios complexes.
89

Une méthode de machine à état liquide pour la classification de séries temporelles : A new liquid state machine method for temporal classification / New liquid state machine method for temporal classification

Rhéaume, François 19 April 2018 (has links)
L'intérêt envers la neuroscience informatique pour les applications d'intelligence arti- cielle est motivé par plusieurs raisons. Parmi elles se retrouve la rapidité avec laquelle le domaine evolue, promettant de nouvelles capacités pour l'ingénieur. Dans cette thèse, une méthode exploitant les récents avancements en neuroscience informatique est présentée: la machine à état liquide (\liquid state machine"). Une machine à état liquide est un modèle de calcul de données inspiré de la biologie qui permet l'apprentissage sur des ux de données. Le modèle représente un outil prometteur de reconnaissance de formes temporelles. Déjà, il a démontré de bons résultats dans plusieurs applications. En particulier, la reconnaissance de formes temporelles est un problème d'intérêt dans les applications militaires de surveillance telle que la reconnaissance automatique de cibles. Jusqu'à maintenant, la plupart des machines à état liquide crées pour des problèmes de reconnaissance de formes sont demeurées semblables au modèle original. D'un point de vue ingénierie, une question se dégage: comment les machines à état liquide peuvent-elles être adaptées pour améliorer leur aptitude à solutionner des problèmes de reconnaissance de formes temporelles ? Des solutions sont proposées. La première solution suggèrée se concentre sur l'échantillonnage de l'état du liquide. À ce sujet, une méthode qui exploite les composantes fréquentielles du potentiel sur les neurones est définie. La combinaison de différents types de vecteurs d'état du liquide est aussi discutée. Deuxièmement, une méthode pour entrâner le liquide est développée. La méthode utilise la plasticité synaptique à modulation temporelle relative pour modeler le liquide. Une nouvelle approche conditionnée par classe de données est proposée, où différents réseaux de neurones sont entraînés exclusivement sur des classes particuli ères de données. Concernant cette nouvelle approche ainsi que celle concernant l'échantillonnage du liquide, des tests comparatifs ont été effectués avec l'aide de jeux de données simulées et réelles. Les tests permettent de constater que les méthodes présentées surpassent les méthodes conventionnelles de machine à état liquide en termes de taux de reconnaissance. Les résultats sont encore plus encourageants par le fait qu'ils ont été obtenus sans l'optimisation de plusieurs paramètres internes pour les differents jeux de données testés. Finalement, des métriques de l'état du liquide ont été investiguées pour la prédiction de la performance d'une machine à état liquide. / There are a number of reasons that motivate the interest in computational neuroscience for engineering applications of artificial intelligence. Among them is the speed at which the domain is growing and evolving, promising further capabilities for artificial intelligent systems. In this thesis, a method that exploits the recent advances in computational neuroscience is presented: the liquid state machine. A liquid state machine is a biologically inspired computational model that aims at learning on input stimuli. The model constitutes a promising temporal pattern recognition tool and has shown to perform very well in many applications. In particular, temporal pattern recognition is a problem of interest in military surveillance applications such as automatic target recognition. Until now, most of the liquid state machine implementations for spatiotemporal pattern recognition have remained fairly similar to the original model. From an engineering perspective, a challenge is to adapt liquid state machines to increase their ability for solving practical temporal pattern recognition problems. Solutions are proposed. The first one concentrates on the sampling of the liquid state. In this subject, a method that exploits frequency features of neurons is defined. The combination of different liquid state vectors is also discussed. Secondly, a method for training the liquid is developed. The method implements synaptic spike-timing dependent plasticity to shape the liquid. A new class-conditional approach is proposed, where different networks of neurons are trained exclusively on particular classes of input data. For the suggested liquid sampling methods and the liquid training method, comparative tests were conducted with both simulated and real data sets from different application areas. The tests reveal that the methods outperform the conventional liquid state machine approach. The methods are even more promising in that the results are obtained without optimization of many internal parameters for the different data sets. Finally, measures of the liquid state are investigated for predicting the performance of the liquid state machine.
90

Interactions tridimensionnelles avec gants de données

Lévesque, Julien-Charles 18 April 2018 (has links)
Ce mémoire couvre le développement d'une interface bimanuelle pour IMAGE v2, une application de simulation visuelle interactive aidant à la compréhension de situations complexes. Cette interface est centrée sur l'utilisateur et est développée principalement pour les environnements immersifs, environnements dans lesquels IMAGE v2 doit être déployé. Il s'agit d'une interface gestuelle, car l'utilisateur devra interagir avec les objets de l'application à l'aide de ses mains. Deux variantes de l'interface ont été implémentées, l'une requérant l'utilisation d'une seule main et l'autre permettant d'utiliser les deux mains. Ces deux variantes ont été comparées dans une étude sur un groupe d'utilisateurs qui devaient exécuter une série de tâches avec chaque variante de l'interface, le temps étant mesuré. L'étude a montré que l'interface bimanuelle augmente significativement la performance et la précision des utilisateurs. / This thesis covers the conception of a bimanual interface for IMAGE v2, an application of visual interactive simulation aiming to help in understanding complex situations. This interface is user-centric and is developed principally for virtual immersive environments, environments in which IMAGE v2 is to be used. It is a gestural interface because users will interact with the application by using their hands. Two variants of the interface have been implemented, the first requiring the user to use only one hand and the other allowing the use of both hands. Those two variants were compared in a study on a group of users who executed a series of tasks with each variant of the interface, time being measured. This study showed that the bimanual interface increased significantly the performance and precision of the users.

Page generated in 0.0619 seconds