• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 11
  • Tagged with
  • 24
  • 24
  • 24
  • 24
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Bayesian hyperparameter optimization : overfitting, ensembles and conditional spaces

Lévesque, Julien-Charles 24 April 2018 (has links)
Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés. / In this thesis, we consider the analysis and extension of Bayesian hyperparameter optimization methodology to various problems related to supervised machine learning. The contributions of the thesis are attached to 1) the overestimation of the generalization accuracy of hyperparameters and models resulting from Bayesian optimization, 2) an application of Bayesian optimization to ensemble learning, and 3) the optimization of spaces with a conditional structure such as found in automatic machine learning (AutoML) problems. Generally, machine learning algorithms have some free parameters, called hyperparameters, allowing to regulate or modify these algorithms’ behaviour. For the longest time, hyperparameters were tuned by hand or with exhaustive search algorithms. Recent work highlighted the conceptual advantages in optimizing hyperparameters with more rational methods, such as Bayesian optimization. Bayesian optimization is a very versatile framework for the optimization of unknown and non-derivable functions, grounded strongly in probabilistic modelling and uncertainty estimation, and we adopt it for the work in this thesis. We first briefly introduce Bayesian optimization with Gaussian processes (GP) and describe its application to hyperparameter optimization. Next, original contributions are presented on the dangers of overfitting during hyperparameter optimization, where the optimization ends up learning the validation folds. We show that there is indeed overfitting during the optimization of hyperparameters, even with cross-validation strategies, and that it can be reduced by methods such as a reshuffling of the training and validation splits at every iteration of the optimization. Another promising method is demonstrated in the use of a GP’s posterior mean for the selection of final hyperparameters, rather than directly returning the model with the minimal crossvalidation error. Both suggested approaches are demonstrated to deliver significant improvements in the generalization accuracy of the final selected model on a benchmark of 118 datasets. The next contributions are provided by an application of Bayesian hyperparameter optimization for ensemble learning. Stacking methods have been exploited for some time to combine multiple classifiers in a meta classifier system. Those can be applied to the end result of a Bayesian hyperparameter optimization pipeline by keeping the best classifiers and combining them at the end. Our Bayesian ensemble optimization method consists in a modification of the Bayesian optimization pipeline to search for the best hyperparameters to use for an ensemble, which is different from optimizing hyperparameters for the performance of a single model. The approach has the advantage of not requiring the training of more models than a regular Bayesian hyperparameter optimization. Experiments show the potential of the suggested approach on three different search spaces and many datasets. The last contributions are related to the optimization of more complex hyperparameter spaces, namely spaces that contain a structure of conditionality. Conditions arise naturally in hyperparameter optimization when one defines a model with multiple components – certain hyperparameters then only need to be specified if their parent component is activated. One example of such a space is the combined algorithm selection and hyperparameter optimization, now better known as AutoML, where the objective is to choose the base model and optimize its hyperparameters. We thus highlight techniques and propose new kernels for GPs that handle structure in such spaces in a principled way. Contributions are also supported by experimental evaluation on many datasets. Overall, the thesis regroups several works directly related to Bayesian hyperparameter optimization. The thesis showcases novel ways to apply Bayesian optimization for ensemble learning, as well as methodologies to reduce overfitting or optimize more complex spaces. / Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés.
12

Écosystème : un Framework pour la simulation visuelle interactive assistée

Drouin, Richard. 03 May 2018 (has links)
La simulation visuelle interactive (SVI) permet d’analyser et de comprendre des systèmes complexes. Par contre, leur compréhension est limitée par la capacité humaine de traiter et d’analyser l’information véhiculée par la simulation afin de prendre de bonne décision concernant son déroulement futur. Le projet présenté dans cette thèse vise à aider la compréhension d’un scénario simulé par l’utilisation d’un Framework qui permet de simplifier la tâche d’analyse de l’utilisateur. En effet, le Framework effectue de façon autonome des tâches d’analyse et de traitement pour informer l’utilisateur du type d’interactions entre les entités du scénario simulé. Pour ce faire, le Framework permet tout d’abord de structurer les éléments de la simulation en s’inspirant du paradigme des écosystèmes. Ensuite, le Framework trouve et identifie les types d’interactions présentes dans le scénario. Finalement, le Framework informe l’utilisateur de façon claire et simple des comportements à noter. Comme les résultats obtenus le démontrent, le Framework permet de simplifier la tâche d’analyse d’un utilisateur de SVI en l’informant du type d’interactions présentes dans le scénario à l’étude. -- Mots clés : Simulation visuelle interactive, logique floue, écosystème, interaction biologique, détection d’interaction, Framework, architecture logiciel, interaction, biomimétisme, système complexe, modélisation.
13

Mineral identification using data-mining in hyperspectral infrared imagery

Yousefi, Bardia 05 July 2018 (has links)
Les applications de l’imagerie infrarouge dans le domaine de la géologie sont principalement des applications hyperspectrales. Elles permettent entre autre l’identification minérale, la cartographie, ainsi que l’estimation de la portée. Le plus souvent, ces acquisitions sont réalisées in-situ soit à l’aide de capteurs aéroportés, soit à l’aide de dispositifs portatifs. La découverte de minéraux indicateurs a permis d’améliorer grandement l’exploration minérale. Ceci est en partie dû à l’utilisation d’instruments portatifs. Dans ce contexte le développement de systèmes automatisés permettrait d’augmenter à la fois la qualité de l’exploration et la précision de la détection des indicateurs. C’est dans ce cadre que s’inscrit le travail mené dans ce doctorat. Le sujet consistait en l’utilisation de méthodes d’apprentissage automatique appliquées à l’analyse (au traitement) d’images hyperspectrales prises dans les longueurs d’onde infrarouge. L’objectif recherché étant l’identification de grains minéraux de petites tailles utilisés comme indicateurs minéral -ogiques. Une application potentielle de cette recherche serait le développement d’un outil logiciel d’assistance pour l’analyse des échantillons lors de l’exploration minérale. Les expériences ont été menées en laboratoire dans la gamme relative à l’infrarouge thermique (Long Wave InfraRed, LWIR) de 7.7m à 11.8 m. Ces essais ont permis de proposer une méthode pour calculer l’annulation du continuum. La méthode utilisée lors de ces essais utilise la factorisation matricielle non négative (NMF). En utlisant une factorisation du premier ordre on peut déduire le rayonnement de pénétration, lequel peut ensuite être comparé et analysé par rapport à d’autres méthodes plus communes. L’analyse des résultats spectraux en comparaison avec plusieurs bibliothèques existantes de données a permis de mettre en évidence la suppression du continuum. Les expérience ayant menés à ce résultat ont été conduites en utilisant une plaque Infragold ainsi qu’un objectif macro LWIR. L’identification automatique de grains de différents matériaux tels que la pyrope, l’olivine et le quartz a commencé. Lors d’une phase de comparaison entre des approches supervisées et non supervisées, cette dernière s’est montrée plus approprié en raison du comportement indépendant par rapport à l’étape d’entraînement. Afin de confirmer la qualité de ces résultats quatre expériences ont été menées. Lors d’une première expérience deux algorithmes ont été évalués pour application de regroupements en utilisant l’approche FCC (False Colour Composite). Cet essai a permis d’observer une vitesse de convergence, jusqu’a vingt fois plus rapide, ainsi qu’une efficacité significativement accrue concernant l’identification en comparaison des résultats de la littérature. Cependant des essais effectués sur des données LWIR ont montré un manque de prédiction de la surface du grain lorsque les grains étaient irréguliers avec présence d’agrégats minéraux. La seconde expérience a consisté, en une analyse quantitaive comparative entre deux bases de données de Ground Truth (GT), nommée rigid-GT et observed-GT (rigide-GT: étiquet manuel de la région, observée-GT:étiquetage manuel les pixels). La précision des résultats était 1.5 fois meilleur lorsque l’on a utlisé la base de données observed-GT que rigid-GT. Pour les deux dernières epxérience, des données venant d’un MEB (Microscope Électronique à Balayage) ainsi que d’un microscopie à fluorescence (XRF) ont été ajoutées. Ces données ont permis d’introduire des informations relatives tant aux agrégats minéraux qu’à la surface des grains. Les résultats ont été comparés par des techniques d’identification automatique des minéraux, utilisant ArcGIS. Cette dernière a montré une performance prometteuse quand à l’identification automatique et à aussi été utilisée pour la GT de validation. Dans l’ensemble, les quatre méthodes de cette thèse représentent des méthodologies bénéfiques pour l’identification des minéraux. Ces méthodes présentent l’avantage d’être non-destructives, relativement précises et d’avoir un faible coût en temps calcul ce qui pourrait les qualifier pour être utilisée dans des conditions de laboratoire ou sur le terrain. / The geological applications of hyperspectral infrared imagery mainly consist in mineral identification, mapping, airborne or portable instruments, and core logging. Finding the mineral indicators offer considerable benefits in terms of mineralogy and mineral exploration which usually involves application of portable instrument and core logging. Moreover, faster and more mechanized systems development increases the precision of identifying mineral indicators and avoid any possible mis-classification. Therefore, the objective of this thesis was to create a tool to using hyperspectral infrared imagery and process the data through image analysis and machine learning methods to identify small size mineral grains used as mineral indicators. This system would be applied for different circumstances to provide an assistant for geological analysis and mineralogy exploration. The experiments were conducted in laboratory conditions in the long-wave infrared (7.7μm to 11.8μm - LWIR), with a LWIR-macro lens (to improve spatial resolution), an Infragold plate, and a heating source. The process began with a method to calculate the continuum removal. The approach is the application of Non-negative Matrix Factorization (NMF) to extract Rank-1 NMF and estimate the down-welling radiance and then compare it with other conventional methods. The results indicate successful suppression of the continuum from the spectra and enable the spectra to be compared with spectral libraries. Afterwards, to have an automated system, supervised and unsupervised approaches have been tested for identification of pyrope, olivine and quartz grains. The results indicated that the unsupervised approach was more suitable due to independent behavior against training stage. Once these results obtained, two algorithms were tested to create False Color Composites (FCC) applying a clustering approach. The results of this comparison indicate significant computational efficiency (more than 20 times faster) and promising performance for mineral identification. Finally, the reliability of the automated LWIR hyperspectral infrared mineral identification has been tested and the difficulty for identification of the irregular grain’s surface along with the mineral aggregates has been verified. The results were compared to two different Ground Truth(GT) (i.e. rigid-GT and observed-GT) for quantitative calculation. Observed-GT increased the accuracy up to 1.5 times than rigid-GT. The samples were also examined by Micro X-ray Fluorescence (XRF) and Scanning Electron Microscope (SEM) in order to retrieve information for the mineral aggregates and the grain’s surface (biotite, epidote, goethite, diopside, smithsonite, tourmaline, kyanite, scheelite, pyrope, olivine, and quartz). The results of XRF imagery compared with automatic mineral identification techniques, using ArcGIS, and represented a promising performance for automatic identification and have been used for GT validation. In overall, the four methods (i.e. 1.Continuum removal methods; 2. Classification or clustering methods for mineral identification; 3. Two algorithms for clustering of mineral spectra; 4. Reliability verification) in this thesis represent beneficial methodologies to identify minerals. These methods have the advantages to be a non-destructive, relatively accurate and have low computational complexity that might be used to identify and assess mineral grains in the laboratory conditions or in the field.
14

Transmetteurs optiques modulés directement pour les liens optiques haut débit courte distance

Sarraute, Jean-Maxime 17 October 2018 (has links)
"Thèse en cotutelle : Université Laval, Québec, Canada, Philosophiæ doctor (Ph. D.) et Télécom ParisTech, Paris, France" / L’échange d’informations est devenu une question de première importance et les systèmes optiques leur réponse. En effet, ils permettent de proposer des liens de communication pouvant contenir un flux toujours grandissant de données. Si le développement des liaisons intercontinentales reste au centre de toutes les attentions, la question de la connexion de réseaux plus modestes n’est pas à négliger, tant les notions de centre de données ou de stockage sur le « nuage » prennent de l’ampleur. En particulier, la longueur du lien de transmission joue un rôle central dans la question du coût énergétique. En effet, si pour couvrir de grandes distances, les réseaux optiques doivent se munir de structures robustes, capables de juguler ce flot, les liens courte distance peuvent quant à eux se dispenser de ces éléments onéreux. Pour répondre à ces besoins, cette thèse aborde la problématique des diodes lasers à modulation directe (DML) lesquelles figurent parmi les concurrents les plus incontournables pour les liens courte distance. Ces émetteurs de petite taille brillent notamment par leur faible coût ainsi que par leur facilité d’implémentation dans une chaine de transmission optique et une consommation énergétique - par bits transmis – plus faible que les transmetteurs exploitant la modulation externe. Néanmoins, la modulation directe de la lumière impacte fortement la bande passante de transmission et par conséquent le débit binaire maximal atteignable. Dans cette thèse, nous proposons d’explorer de nouvelles architectures de DMLs à capacité de transmission augmentée compatibles avec des débits supérieurs à 50 Gbps. Dans ce but, deux axes d’étude ont été privilégiés. Le premier repose sur une nouvelle structure DML exploitant des effets non-linéaires combinés comme le levier de gain et l’injection optique. Les simulations révèlent d’excellents résultats avec des bandes passantes prometteuses > 85 GHz et un diagramme de l’œil toujours ouvert à 40 Gbps. De plus, il est démontré que l’utilisation conjointe du levier de gain et de l’injection optique renforce la résistance aux phénomènes de compression du gain et de dérive de fréquence (chirp) garantissant ainsi une utilisation stable du DML dans un système de transmission. Le deuxième axe de la thèse se polarise sur l’étude de transmetteurs dont le volume de cavité se rapproche de la limite de diffraction. Les résultats montrent que le contrôle de l’émission spontanée est un élément vital pour diminuer substantiellement les puissances consommées tout en conservant une bonne dynamique de modulation. Le seuil optique étant atteint avant que le milieu ne soit totalement inversé (seuil électrique), les niveaux de courants de polarisation utilisés sont très faibles, typiquement <1 mA. Pour des dimensions de cavités proches de celles des structures verticales à émission par la surface (VCSELs), des bandes passantes de plus de 60 GHz sont obtenues. En transmission, les mésolasers apparaîssent comme les meilleurs candidats pour la modulation directe avec des diagrammes de l’œil permettant une décision à plus de 50 Gbps pour un courant de 6 mA. Lorsque le volume de cavité devient inférieur à la limite de diffraction (nanolaser), l’émetteur optique ne permet plus de conserver une dynamique de modulation efficace et une transmission compétitive. Couplés aux techniques de traitement de signal déjà employées pour la modulation directe, ce travail montre que les nouveaux composants DML susmentionnés possèdent des capacités d’opération exaltées (> 50 Gbps) ce qui en font d’excellents candidats pour les liens courte distance. / Development of ultrafast chips operating at speeds exceeding 100 Gbps is of paramount importance for increasing the transmission capacity of fiber-based networks, directly impacting G5 wireless networks, internet, local area networks, metropolitan area networks, and long-haul backbones, thus bringing closer the concept of networked society. Although complex modulation formats combined with digital signal post-processing are usually preferred to reach ultra-high modulation bandwidth, the long latency introduced by electronic processing results in a severe communication bottleneck. To this end, direct-detection systems implemented with directly modulated semiconductor lasers remain promising candidates as sources of high-speed intensity modulated signals thanks to their low-cost, well-established fabrication, compactness and most importantly their low energy consumption - by transmitted bits – much lower than transmitters using external modulation of light. In order to improve the performance and capacity of optical networks, it is necessary to enhance the modulation efficiency and 3-dB electro-optical bandwidth of optical transmitters without increasing their intensity noise and inducing excessive frequency chirp as well as intrinsic parasitic effects driven by nonlinear gain suppression or carrier transport delay. In order to improve the modulation characteristics, this PhD thesis explores new architectures of directly modulated lasers with increased transmission capacities compatible with high-speed operations at 50 Gbps and beyond. For this purpose, we first study a new DML exploiting combined non-linear effects such as gain lever and optical injection. Simulations reveal excellent results with promising bandwidths> 85 GHz and an eye diagram still open at 40 Gbps. In addition, it is demonstrated that the joint use of the gain lever and the optical injection greatly enhances the resistance to the gain compression and strongly lowers the frequency chirping making such a DML highly robust in a transmission system environment. The second axis of the thesis is focused on the modulation dynamics of optical transmitters whose cavity volume is closer to the diffraction limit. In such lasers in which the spontaneous emission rate is strongly enhanced, the optical threshold occurs before themedium is totally inverted (electrical threshold e.g. clamping condition). As a consequence, simulations show that nanolasers with cavity volumes below the diffraction limit can operate with extremely low injected currents (<<1 mA) which is desirable for reducing power consumption however without great performance at high-speeds. On the contrary, mesolasers with cavity sizes similar to that of surface-emitting vertical structures (VCSELs) are found to be the best candidates for high-speed operation with 3-dB electro-optics bandwidths as large as 60 GHz and an eye diagram allowing a decision at 50 Gbps for a current of 6 mA. Coupled with the signal processing techniques already employed for direct modulation, this work shows that the aforementioned directly modulated lasers have exalted operating capabilities (>50 Gbps) making them excellent candidates for short-reach communications.
15

Wearable electronic sensors for vital sign monitoring

Besrour, Marouen 01 May 2018 (has links)
On propose dans ce mémoire un nouveau type de capteur pour la mesure des fonctions respiratoires et cardiaques à des fins médicales. Le système offre la possibilité de mesurer le rythme respiratoire et la profondeur de respiration et de transmettre les données vers une station locale pour une analyse plus poussé et un diagnostic. Le capteur proposé est basé sur une approche électromagnétique où on utilise deux antennes posées sur la cage thoracique du patient. Lorsque le patient inspire et expire l’air avec ses poumons, le diamètre de la cage thoracique de ce dernier va augmenter et par conséquent la distance entre les deux antennes aussi. Le système mesure l’écart relatif entre les deux pour extraire le rythme respiratoire. Le point clé du capteur est d’encoder le signal de respiration sous forme de différence de phase entre l’onde émise et l’onde reçue conférant au système une bonne immunité contre les bruits des signaux externes. Le design a été implémenté sur un PCB (46mm x 46mm) pour fournir une preuve de concept de la méthode proposée. Les tests ont été conduits sur trois sujets de deux sexes et d’âges distincts. Les données mesurées démontrent que le système fonctionne sur différentes morphologies physiques. Finalement, le capteur a été capable de recueillir avec grande précision le rythme respiratoire et même la fréquence cardiaque. / We propose in this project a wearable electronic Patch Radar sensor that can monitor respiration rate and respiration depth continuously in real-time and transmit data to a base station for analysis. The device relies on a two-antenna configuration. Both antennas are bent to the patient chest, and when the patient breathes, the mechanical movement of the chest wall changes the distance between them. The system measures the relative distance between the antennas to extract the respiration pattern. The key feature of the sensor is that it transduces respiration movements to phase shifts in RF wave signals which make it very robust against external interferences. The design was implemented on a PCB (46mm x 46mm) to demonstrate a proof of concept for the proposed device. The system was able to acquire respiration signals and even cardiac frequency. Experimental results are presented for three different subjects, an adult male and female and a child. The data gathered gives enough sensitivity and accuracy to state that the device can work with different physical morphologies.
16

Système de détection de mouvements complexes de la main à partir des signaux EMG, pour le contrôle d'une prothèse myoélectrique

Crepin, Roxane 21 December 2018 (has links)
Les avancées technologiques en ingénierie biomédicale à travers le monde permettent le développement de systèmes automatisés et adaptés, visant à fournir aux personnes vivant avec un handicap un meilleur confort de vie. Les prothèses intelligentes basées sur l'activité myoélectrique permettent aux personnes amputées d'interagir intuitivement avec leur environnement et d'effectuer des activités de la vie quotidienne. Des électrodes placées sur la surface de la peau et une électronique embarquée dédiée recueillent les signaux musculaires et les traduisent en commandes pour piloter les actionneurs de la prothèse. Atteindre une performance accrue tout en diminuant le coût des prothèses myoélectriques est une étape importante dans l'ingénierie de réadaptation. Les mains prothétiques, actuellement disponibles à travers le monde, bénéficieraient d'un contrôle plus efficace et plus intuitif. Ce mémoire présente une approche en temps réel pour classifier les mouvements des doigts à l’aide des signaux d'électromyographie (EMG) de surface. Une plateforme multicanale d'acquisition de signaux, de notre conception, est utilisée pour enregistrer 7 canaux EMG provenant de l'avant-bras. La classification des signaux EMG est effectuée en temps réel, en utilisant une approche d'analyse discriminante linéaire. Treize mouvements de la main peuvent être identifiés avec une précision allant jusqu'à 95,8% et de 92,7% en moyenne pour 8 participants, avec une prédiction mise à jour toutes les 192 ms. L'approche a voulu être adaptée pour créer un système embarqué ouvrant de grandes opportunités pour le développement des prothèses myoélectriques légères, peu coûteuses et plus intuitives. / Technological advances in biomedical engineering worldwide enable the development of automated and patient-friendly systems, aiming at providing the severely disabled a better comfort of life. Intelligent prostheses based on myoelectric activity allow amputees to intuitively interact with their environment and perform daily life activities. Electrodes placed on the surface of the skin, and dedicated embedded electronics allow to collect muscle signals and translate them into commands to drive a prosthesis actuators. Increasing performance while decreasing the cost of surface electromyography (sEMG) prostheses is an important milestone in rehabilitation engineering. The prosthetic hands that are currently available to patients worldwide would benefit from more effective and intuitive control. This memoir presents a real-time approach to classify finger motions based on sEMG signals. A multichannel signal acquisition platform of our design is used to record forearm sEMG signals from 7 channels. sEMG pattern classification is performed in real time, using a Linear Discriminant Analysis (LDA) approach. Thirteen hand motions can be successfully identified with an accuracy of up to 95.8% and of 92.7% on average for 8 participants, with an updated prediction every 192 ms. The approach wanted to be adapted to create an embedded system opening great opportunities for the development of lightweight, inexpensive and more intuitive electromyographic hand prostheses.
17

Optimization of line scanning thermography of composite materials for aerospace industry using advanced modeling and analysis algorithms

Khodayar, Fariba 27 September 2018 (has links)
Ces dernières années, l'émergence de matériaux avancés et de méthodes de fabrication a conduit à la production de composants mécaniques qui fournissent de meilleures spécifications mécaniques avec un poids inférieur. Ces produits spéciaux sont utilisés dans les industries de haute technologie comme l'aérospatiale et l'armée. Par conséquent, la qualité du produit est essentielle pour obtenir un produit sécurisé. Les controles non destructifs (CND) sont l'une des méthodes les plus utilisées pour détecter les défauts internes de différents matériaux. Cette technique n'a pas d'effet négatif sur les spécimens. Les différentes techniques de tests non destructifs sont utilisées dans différents domaines pour assurer l'exactitude, vérifier l'intégrité, réduire les coûts de production et détecter les défauts. Diverses méthodes CND ont été introduites et développées pour détecter les défauts et les délaminages qui ont été utilisés en fonction de la taille et du type de défaut, du matériau et de la localisation des défauts. La thermographie par balayage linéaire (LST) est une technique de thermographie dynamique qui permet d'inspecter de grands composants de surfaces métalliques et de composites couramment utilisés dans l'industrie aérospatiale. En tant que technique de test et de controle non destructive (CND), la LST est une technique dynamique adaptée à l'inspection de composants aérospatiaux importants et complexes. La méthode LST robotisée présente des avantages par rapport aux approches statiques. La LST robotisé fournit une uniformité de chauffage et permet un traitement d'image qui améliore la probabilité de détection, permettant à un composant à grande échelle d'être inspecté sans perte de résolution. En utilisant l'approche LST, il est possible d'inspecter de grandes surfaces à des vitesses de balayage élevées. De plus, les résultats d'inspection sont immédiatement disponibles pour analyse pendant que le processus de numérisation se poursuit. / In the last decade, emerging of advanced materials and manufacturing methods leads to produce the mechanical components, which provide better mechanical specifications with lower weight. These special products are used in the high technology industries such as aerospace and military. Hence, the product quality is vital to achieve a secure product. Non-destructive Testing (NDT) is one of the popular methods, which is employed to detect the internal defects of different materials. This technique does not have any negative effect on the specimens. The various techniques of nondestructive testing are used in different fields to ensure accuracy, verify integrity, reduce production costs and detect defects. Various NDT methods were introduced and developed to detect the flaws and delamination which have been used according to defect size and type, material, and defect location. Line scan thermography (LST) is a dynamic thermography technique, which is used to inspect large components of metallic surfaces and composites, commonly used in the aerospace industry. As a nondestructive testing and evaluation (NDT&E) technique, LST is a dynamic technique suited to inspect large and complex aerospace components. The robotized LST method provides advantages in comparison to the static approaches. Robotized LST provides heating uniformity and allows image processing which enhances the detection probability, allowing a large-scale component to be inspected without the loss of resolution. Using the LST approach, it is possible to inspect large areas at high scan speeds. Also, the inspection results are immediately available for analysis while the scanning process continues. One of the important challenges in LST method is the number of parameters such as scanning speed, power, the distance between source and specimen, which affect the LST performance. The optimal values are dependent on the material structure, thermal specifications of the composite material, defect shape and infrared camera resolution. In order to determine the optimal parameters, the LST is simulated using a 3D finite element method (FEM). The main objective of this thesis is to maximize the detection depth and the signal-to-noise (SNR) value at maximum signal contrast as the criteria to evaluate the inspection quality and performance. A composition of the analytical model of LST thermography, 3D finite element approach and experimental data is employed to find the optimal LST parameters. The signal processing techniques that were initially developed to be applied on pulse thermography have been successfully implemented to enhance the detection probability.
18

Conception et implémentation d'un réseau sans-fil pour la surveillance continue des signes vitaux

Elfaramawy, Tamer 25 January 2019 (has links)
Les dépenses de santé augmentent continuellement année après année et prennent une grande partie du budget d’un pays. Pendant les soins médicaux, les signes vitaux, tels que le rythme cardiaque et la respiration, sont des paramètres clés qui sont surveillés en permanence. La toux est un indicateur important de plusieurs problèmes comme la maladie pulmonaire obstructive chronique (MPOC), et c’est aussi la principale raison pour laquelle les patients consultent un médecin. En fait, c’est un mécanisme de défense pulmonaire des voies respiratoires qui permet l’expulsion de substances indésirables et irritantes. Les capteurs de corps sans fil sont de plus en plus utilisés par les cliniciens et les chercheurs, dans un large éventail d’applications telles que le sport, l’ingénierie spatiale et la médecine. La surveillance des signes vitaux en temps réel peut considérablement augmenter la précision du diagnostic et peut permettre des méthodes de guérison automatiques, par exemple, la détection et l’arrêt des crises d’épilepsie ou de narcolepsie. Les paramètres respiratoires sont essentiels en oxygénothérapie, en milieu hospitalier et en surveillance ambulatoire, tandis que l’évaluation de la sévérité de la toux est essentielle pour traiter plusieurs maladies, comme la bronchopneumopathie chronique obstructive (BPCO). Dans cette thèse, un système de surveillance respiratoire sans fil de faible puissance avec détection de la toux est présenté. Ce système utilise des capteurs multimodaux, portables et sans-fils, conçus à l’aide de composants conventionnels disponibles dans le commerce. Ces capteurs portables utilisent une unité de mesure inertielle à 9 axes de faible puissance pour mesurer la fréquence respiratoire, et un microphone MEMS pour effectuer la détection de la toux. L’architecture de chaque capteur sans fil est présentée. De plus, les résultats montrent que le capteur à petite taille de 26,67 x 65,53 mm² consomme environ 12 à 16,2 mA et peut durer au moins 6 heures avec une batterie lithium-ion miniature de 100 mA. L’unité d’acquisition, l’unité de communication sans fil et les algorithmes de traitement de données sont décrits. Les performances du réseau de capteurs sont présentées pour des tests expérimentaux en comparant avec la pléthysmographie d’inductance respiratoire. / Health care expenses are continuously increasing year after year and taking a large part of a country’s budget. During medical care, vital signs, such as heart and breathing rates, are key parameters that are continuously monitored. Coughing is a prominent indicator of several problems such as COPD, and it is also the main reason for why patients seek medical advice. In fact, it is a pulmonary defense mechanism of the respiratory tract that allows the expulsion of undesirable and irritating substances. Wireless body sensors are increasingly used by clinicians and researchers, in a wide range of applications such as sports, space engineering and medicine. Monitoring vital signs in real time can dramatically increase diagnosis accuracy and enable automatic curing procedures, e.g. detect and stop epilepsy or narcolepsy seizures. Breathing parameters are critical in oxygen therapy, hospital and ambulatory monitoring, while the assessment of cough severity is essential when dealing with several diseases, such as chronic obstructive pulmonary disease (COPD). In this thesis, a low-power wireless respiratory monitoring system with cough detection is proposed to measure the breathing rate and the frequency of coughing. This system uses wearable wireless multimodal patch sensors, designed using off the shelf components. These wearable sensors use a low-power 9-axis inertial measurement unit to measure the respiratory frequency, and a MEMs microphone to perform cough detection. The architecture of each wireless patch-sensor is presented. In fact, the results show that the small 26.67 x 65.53 mm² patch-sensor consumes around 12 to 16.2 mA, and can last at least 6 hours with a miniature 100 mA lithium ion battery. The acquisition unit, the wireless communication unit and the data processing algorithms are described. The proposed network performance is presented for experimental tests with a freely behaving user in parallel with the gold standard respiratory inductance plethysmography
19

Mise en place d'un réseau sans fil de capteurs déployés à Salluit

Bouchara, Syryn 21 December 2018 (has links)
Pour suivre les effets du changement climatique et aider à la compréhension et la capacité de prédiction, des capteurs ont été installés dans le nord du Québec. Salluit à Nunavik est parmi les villages où un ensemble de capteurs a été installé. Cependant, la collecte de ces données est manuellement effectuée une fois par an par des scientifiques. Étant donné l’importance de ces informations, le chantier 1.5 du projet Sentinelle Nord vise à mesurer, enregistrer, et envoyer les données en temps réel. Notre projet a d’abord pour but l’installation d’un réseau sans fil permettant aux capteurs de transmettre les données tout au long de l’année, pour anticiper les risques et dommages. La conception du projet a été lancée en 2016 et les premiers travaux ont eu lieu en été 2017. Après une collecte de données réussie pendant les premiers mois suivants l’installation, des problèmes de réseau LTE sont survenus. La connexion LTE n’étant point fiable, les capteurs n’ont été visibles de l’université qu’entre 5 et 9% du temps, avant une perte totale du signal LTE à partir du mois de janvier 2017. Les conditions environnementales et météorologiques de la région ont confirmé les défis rencontrés de tels systèmes de collecte de données sans fil. Dans ce mémoire, nous détaillons les étapes prises pour déployer un tel réseau de capteurs dans des conditions extrêmes et inconnues. Nous expliquons aussi les défis, les problèmes et les limitations rencontrés lors du projet et donnons des recommandations et améliorations pour le futur. / To monitor the effects of climate change and to help the understanding and predictability, sensors have been installed in northern Québec. Salluit in Nunavik is among the villages of which a set of sensors has been installed. However, the collection of this data is manually done once a year by scientists. Given the importance of this information, Sentinel North project site 1.5 aims to measure, record, and send data in real time. Our project is primarily aimed at installing a wireless network that allows sensors to transmit data throughout the year, to anticipate risks and damages. The project design was launched in 2016, and the first work took place in summer 2017. After a successful data collection during the first months after installation, LTE network problems have occurred. Since the LTE connection is not reliable, the sensors were only visible from the university between 5% and 9% of the time, before a total loss of the LTE signal starting in January 2017. Environmental and meteorological conditions of the region have confirmed the challenges faced by such a system of wireless data collection. In this thesis, we detail the steps taken to deploy such a sensor network under extreme and unknown conditions. We also explain the challenges, problems and limitations encountered during the project and give recommendations and improvement for the future.
20

Human shape modelling for carried object detection and segmentation

Ghadiri, Farnoosh 31 August 2018 (has links)
La détection des objets transportés est un des prérequis pour développer des systèmes qui cherchent à comprendre les activités impliquant des personnes et des objets. Cette thèse présente de nouvelles méthodes pour détecter et segmenter les objets transportés dans des vidéos de surveillance. Les contributions sont divisées en trois principaux chapitres. Dans le premier chapitre, nous introduisons notre détecteur d’objets transportés, qui nous permet de détecter un type générique d’objets. Nous formulons la détection d’objets transportés comme un problème de classification de contours. Nous classifions le contour des objets mobiles en deux classes : objets transportés et personnes. Un masque de probabilités est généré pour le contour d’une personne basé sur un ensemble d’exemplaires (ECE) de personnes qui marchent ou se tiennent debout de différents points de vue. Les contours qui ne correspondent pas au masque de probabilités généré sont considérés comme des candidats pour être des objets transportés. Ensuite, une région est assignée à chaque objet transporté en utilisant la Coupe Biaisée Normalisée (BNC) avec une probabilité obtenue par une fonction pondérée de son chevauchement avec l’hypothèse du masque de contours de la personne et du premier plan segmenté. Finalement, les objets transportés sont détectés en appliquant une Suppression des Non-Maxima (NMS) qui élimine les scores trop bas pour les objets candidats. Le deuxième chapitre de contribution présente une approche pour détecter des objets transportés avec une méthode innovatrice pour extraire des caractéristiques des régions d’avant-plan basée sur leurs contours locaux et l’information des super-pixels. Initiallement, un objet bougeant dans une séquence vidéo est segmente en super-pixels sous plusieurs échelles. Ensuite, les régions ressemblant à des personnes dans l’avant-plan sont identifiées en utilisant un ensemble de caractéristiques extraites de super-pixels dans un codebook de formes locales. Ici, les régions ressemblant à des humains sont équivalentes au masque de probabilités de la première méthode (ECE). Notre deuxième détecteur d’objets transportés bénéficie du nouveau descripteur de caractéristiques pour produire une carte de probabilité plus précise. Les compléments des super-pixels correspondants aux régions ressemblant à des personnes dans l’avant-plan sont considérés comme une carte de probabilité des objets transportés. Finalement, chaque groupe de super-pixels voisins avec une haute probabilité d’objets transportés et qui ont un fort support de bordure sont fusionnés pour former un objet transporté. Finalement, dans le troisième chapitre, nous présentons une méthode pour détecter et segmenter les objets transportés. La méthode proposée adopte le nouveau descripteur basé sur les super-pixels pour iii identifier les régions ressemblant à des objets transportés en utilisant la modélisation de la forme humaine. En utilisant l’information spatio-temporelle des régions candidates, la consistance des objets transportés récurrents, vus dans le temps, est obtenue et sert à détecter les objets transportés. Enfin, les régions d’objets transportés sont raffinées en intégrant de l’information sur leur apparence et leur position à travers le temps avec une extension spatio-temporelle de GrabCut. Cette étape finale sert à segmenter avec précision les objets transportés dans les séquences vidéo. Nos méthodes sont complètement automatiques, et font des suppositions minimales sur les personnes, les objets transportés, et les les séquences vidéo. Nous évaluons les méthodes décrites en utilisant deux ensembles de données, PETS 2006 et i-Lids AVSS. Nous évaluons notre détecteur et nos méthodes de segmentation en les comparant avec l’état de l’art. L’évaluation expérimentale sur les deux ensembles de données démontre que notre détecteur d’objets transportés et nos méthodes de segmentation surpassent de façon significative les algorithmes compétiteurs. / Detecting carried objects is one of the requirements for developing systems that reason about activities involving people and objects. This thesis presents novel methods to detect and segment carried objects in surveillance videos. The contributions are divided into three main chapters. In the first, we introduce our carried object detector which allows to detect a generic class of objects. We formulate carried object detection in terms of a contour classification problem. We classify moving object contours into two classes: carried object and person. A probability mask for person’s contours is generated based on an ensemble of contour exemplars (ECE) of walking/standing humans in different viewing directions. Contours that are not falling in the generated hypothesis mask are considered as candidates for carried object contours. Then, a region is assigned to each carried object candidate contour using Biased Normalized Cut (BNC) with a probability obtained by a weighted function of its overlap with the person’s contour hypothesis mask and segmented foreground. Finally, carried objects are detected by applying a Non-Maximum Suppression (NMS) method which eliminates the low score carried object candidates. The second contribution presents an approach to detect carried objects with an innovative method for extracting features from foreground regions based on their local contours and superpixel information. Initially, a moving object in a video frame is segmented into multi-scale superpixels. Then human-like regions in the foreground area are identified by matching a set of extracted features from superpixels against a codebook of local shapes. Here the definition of human like regions is equivalent to a person’s probability map in our first proposed method (ECE). Our second carried object detector benefits from the novel feature descriptor to produce a more accurate probability map. Complement of the matching probabilities of superpixels to human-like regions in the foreground are considered as a carried object probability map. At the end, each group of neighboring superpixels with a high carried object probability which has strong edge support is merged to form a carried object. Finally, in the third contribution we present a method to detect and segment carried objects. The proposed method adopts the new superpixel-based descriptor to identify carried object-like candidate regions using human shape modeling. Using spatio-temporal information of the candidate regions, consistency of recurring carried object candidates viewed over time is obtained and serves to detect carried objects. Last, the detected carried object regions are refined by integrating information of their appearances and their locations over time with a spatio-temporal extension of GrabCut. This final stage is used to accurately segment carried objects in frames. Our methods are fully automatic, and make minimal assumptions about a person, carried objects and videos. We evaluate the aforementioned methods using two available datasets PETS 2006 and i-Lids AVSS. We compare our detector and segmentation methods against a state-of-the-art detector. Experimental evaluation on the two datasets demonstrates that both our carried object detection and segmentation methods significantly outperform competing algorithms.

Page generated in 0.0379 seconds