• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 105
  • Tagged with
  • 340
  • 340
  • 334
  • 87
  • 50
  • 43
  • 42
  • 41
  • 37
  • 37
  • 35
  • 35
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Modélisation, conception et application d'un laser accordable par sauts de fréquence et stabilisé par réseau de Bragg échantillonné

Leclerc, Jean-François 11 April 2018 (has links)
L'étude couvre un nouveau type de laser dont la longueur d'onde d'émission est synthonisable, discrète et stabilisée. Le principe de fonctionnement de ce nouveau type de laser repose sur la combinaison de la rétroaction optique provenant d'un réseau de Bragg échantillonné et des réflexions parasites de la section semi-conducteur amplificatrice. Dans un premier temps, la démonstration du laser ainsi qu'une comparaison par rapport aux autres lasers accordables est présentée. Ensuite, une théorie de la rétroaction optique basée sur la fonction d'Airy appliquée aux lasers est développée. Des expériences visant à optimiser le laser sont menées et une analyse des principaux paramètres de conception est par la suite effectuée. Enfin, le laser proposé est utilisé dans le cadre des télécommunications et du routage optique.
162

UAV Optimal Cooperative Obstacle Avoidance and Target Tracking in Dynamic Stochastic Environments

Prévost, Carole Gabrielle 17 April 2018 (has links)
Cette thèse propose une stratégie de contrôle avancée pour guider une flotte d'aéronefs sans pilote (UAV) dans un environnement à la fois stochastique et dynamique. Pour ce faire, un simulateur de vol 3D a été développé avec MATLAB® pour tester les algorithmes de la stratégie de guidage en fonctions de différents scénarios. L'objectif des missions simulées est de s'assurer que chaque UAV intercepte une cible ellipsoïdale mobile tout en évitant une panoplie d'obstacles ellipsoïdaux mobiles détectés en route. Les UAVs situés à l'intérieur des limites de communication peuvent coopérer afin d'améliorer leurs performances au cours de la mission. Le simulateur a été conçu de façon à ce que les UAV soient dotés de capteurs et d'appareils de communication de portée limitée. De plus, chaque UAV possède un pilote automatique qui stabilise l'aéronef en vol et un planificateur de trajectoires qui génère les commandes à envoyer au pilote automatique. Au coeur du planificateur de trajectoires se trouve un contrôleur prédictif à horizon fuyant qui détermine les commandes à envoyer à l'UAV. Ces commandes optimisent un critère de performance assujetti à des contraintes. Le critère de performance est conçu de sorte que les UAV atteignent les objectifs de la mission, alors que les contraintes assurent que les commandes générées adhèrent aux limites de manoeuvrabilité de l'aéronef. La planification de trajectoires pour UAV opérant dans un environnement dynamique et stochastique dépend fortement des déplacements anticipés des objets (obstacle, cible). Un filtre de Kalman étendu est donc utilisé pour prédire les trajectoires les plus probables des objets à partir de leurs états estimés. Des stratégies de poursuite et d'évitement ont aussi été développées en fonction des trajectoires prédites des objets détectés. Pour des raisons de sécurité, la conception de stratégies d'évitement de collision à la fois efficaces et robustes est primordiale au guidage d'UAV. Une nouvelle stratégie d'évitement d'obstacles par approche probabiliste a donc été développée. La méthode cherche à minimiser la probabilité de collision entre l'UAV et tous ses obstacles détectés sur l'horizon de prédiction, tout en s'assurant que, à chaque pas de prédiction, la probabilité de collision entre l'UAV et chacun de ses obstacles détectés ne surpasse pas un seuil prescrit. Des simulations sont présentées au cours de cette thèse pour démontrer l'efficacité des algorithmes proposés.
163

Étude des matériaux magnétiques composites à particules lamellaires : application à la conception des machines à flux transverse Clawpole à Stator Hybride

Delma, Ouendpouire Jude 16 April 2018 (has links)
Les matériaux magnétiques sont utilisés pour la fabrication des circuits magnétiques des dispositifs électromagnétiques. Ces matériaux ont une grande influence sur les performances et les topologies possibles de ces dispositifs. La topologie de la MFT (Machine à Flux Transverse) clawpole à stator hybride requiert l'usage combiné de matériaux magnétiques laminés et de SMC (Soft Magnetic Composites) pour limiter les pertes Fer. Néanmoins, à cause de son nombre de pôles élevé et de l'utilisation des SMC, les pertes Fer dans la MFT sont généralement plus importantes que dans les autres types de machines électriques. Le travail présenté dans ce mémoire porte sur l'étude de matériaux magnétiques composites à particules lamellaires (SL-SMC) qui peuvent améliorer les performances magnétiques des dispositifs électromagnétiques utilisant des pièces magnétiques moulées. La forme des particules ferromagnétiques employées et la résistance thermique du diélectrique utilisé pour leur isolation permettent à ces matériaux anisotropes de combiner l'avantage de moulabilité des SMC et les très bonnes propriétés magnétiques des tôles laminées. Les simulations d'une MFT clawpole à stator hybride qui intègre des concentrateurs en SL-SMC montrent que l'usage de ce matériau permet d'améliorer le rendement de la machine. Ce gain de rendement est la conséquence d'une augmentation de la puissance de la machine et d'une réduction des pertes Fer dans le rotor de la machine. La valeur du gain observé dépend fortement de la géométrie de la MFT.
164

Extraction robuste de primitives géométriques 3D dans un nuage de points et alignement basé sur les primitives

Tran, Trung Thien 24 April 2018 (has links)
Dans ce projet, nous étudions les problèmes de rétro-ingénierie et de contrôle de la qualité qui jouent un rôle important dans la fabrication industrielle. La rétro-ingénierie tente de reconstruire un modèle 3D à partir de nuages de points, qui s’apparente au problème de la reconstruction de la surface 3D. Le contrôle de la qualité est un processus dans lequel la qualité de tous les facteurs impliqués dans la production est abordée. En fait, les systèmes ci-dessus nécessitent beaucoup d’intervention de la part d’un utilisateur expérimenté, résultat souhaité est encore loin soit une automatisation complète du processus. Par conséquent, de nombreux défis doivent encore être abordés pour atteindre ce résultat hautement souhaitable en production automatisée. La première question abordée dans la thèse consiste à extraire les primitives géométriques 3D à partir de nuages de points. Un cadre complet pour extraire plusieurs types de primitives à partir de données 3D est proposé. En particulier, une nouvelle méthode de validation est proposée pour évaluer la qualité des primitives extraites. À la fin, toutes les primitives présentes dans le nuage de points sont extraites avec les points de données associés et leurs paramètres descriptifs. Ces résultats pourraient être utilisés dans diverses applications telles que la reconstruction de scènes on d’édifices, la géométrie constructive et etc. La seconde question traiée dans ce travail porte sur l’alignement de deux ensembles de données 3D à l’aide de primitives géométriques, qui sont considérées comme un nouveau descripteur robuste. L’idée d’utiliser les primitives pour l’alignement arrive à surmonter plusieurs défis rencontrés par les méthodes d’alignement existantes. Ce problème d’alignement est une étape essentielle dans la modélisation 3D, la mise en registre, la récupération de modèles. Enfin, nous proposons également une méthode automatique pour extraire les discontinutés à partir de données 3D d’objets manufacturés. En intégrant ces discontinutés au problème d’alignement, il est possible d’établir automatiquement les correspondances entre primitives en utilisant l’appariement de graphes relationnels avec attributs. Nous avons expérimenté tous les algorithmes proposés sur différents jeux de données synthétiques et réelles. Ces algorithmes ont non seulement réussi à accomplir leur tâches avec succès mais se sont aussi avérés supérieus aux méthodes proposées dans la literature. Les résultats présentés dans le thèse pourraient s’avérér utilises à plusieurs applications. / In this research project, we address reverse engineering and quality control problems that play significant roles in industrial manufacturing. Reverse engineering attempts to rebuild a 3D model from the scanned data captured from a object, which is the problem similar to 3D surface reconstruction. Quality control is a process in which the quality of all factors involved in production is monitored and revised. In fact, the above systems currently require significant intervention from experienced users, and are thus still far from being fully automated. Therefore, many challenges still need to be addressed to achieve the desired performance for automated production. The first proposition of this thesis is to extract 3D geometric primitives from point clouds for reverse engineering and surface reconstruction. A complete framework to extract multiple types of primitives from 3D data is proposed. In particular, a novel validation method is also proposed to assess the quality of the extracted primitives. At the end, all primitives present in the point cloud are extracted with their associated data points and descriptive parameters. These results could be used in various applications such as scene and building reconstruction, constructive solid geometry, etc. The second proposition of the thesis is to align two 3D datasets using the extracted geometric primitives, which is introduced as a novel and robust descriptor. The idea of using primitives for alignment is addressed several challenges faced by existing registration methods. This alignment problem is an essential step in 3D modeling, registration and model retrieval. Finally, an automatic method to extract sharp features from 3D data of man-made objects is also proposed. By integrating the extracted sharp features into the alignment framework, it is possible implement automatic assignment of primitive correspondences using attribute relational graph matching. Each primitive is considered as a node of the graph and an attribute relational graph is created to provide a structural and relational description between primitives. We have experimented all the proposed algorithms on different synthetic and real scanned datasets. Our algorithms not only are successful in completing their tasks with good results but also outperform other methods. We believe that the contribution of them could be useful in many applications.
165

Commande prédictive non linéaire d'un séchoir à lit fluidisé pour granules pharmaceutiques

Gagnon, Francis 24 April 2018 (has links)
Avec la disponibilité de capteurs fiables de teneur en eau exploitant la spectroscopie proche infrarouge (NIR pour near-infrared) et les outils chimiométriques, il est maintenant possible d’appliquer des stratégies de commande en ligne sur plusieurs procédés de séchage dans l’industrie pharmaceutique. Dans cet ouvrage, le séchage de granules pharmaceutiques avec un séchoir à lit fluidisé discontinu (FBD pour fluidized bed dryer) de taille pilote est étudié à l’aide d’un capteur d’humidité spectroscopique. Des modifications électriques sont d’abord effectuées sur le séchoir instrumenté afin d’acheminer les signaux mesurés et manipulés à un périphérique d’acquisition. La conception d’une interface homme-machine permet ensuite de contrôler directement le séchoir à l’aide d’un ordinateur portable. Par la suite, un algorithme de commande prédictive (NMPC pour nonlinear model predictive control), basée sur un modèle phénoménologique consolidé du FBD, est exécuté en boucle sur ce même ordinateur. L’objectif est d’atteindre une consigne précise de teneur en eau en fin de séchage tout en contraignant la température des particules ainsi qu’en diminuant le temps de lot. De plus, la consommation énergétique du FBD est explicitement incluse dans la fonction objectif du NMPC. En comparant à une technique d’opération typique en industrie (principalement en boucle ouverte), il est démontré que le temps de séchage et la consommation énergétique peuvent être efficacement gérés sur le procédé pilote tout en limitant plusieurs problèmes d’opération comme le sous-séchage, le surséchage ou le surchauffage des granules. / The availability of reliable online moisture content measurements exploiting near-infrared (NIR) spectroscopy and chemometric tools allows the application of online control strategies to a wide range of drying processes in the pharmaceutical industry. In this paper, drying of particles with a pilot-scale batch fluidized bed dryer (FBD) is studied using an in-line spectroscopic moisture sensor. Electrical modifications are firstly performed on the instrumented FBD to route measured and manipulated signals to an acquisition peripheral. Then, the design of a human-machine interface allows directly controlling the FBD with a laptop computer. Afterwards, a predictive control algorithm (NMPC), based on an FBD consolidated phenomenological model, is executed in a loop on this same computer. The objective is to reach a specific particle moisture content setpoint at the end of the drying batch while decreasing batch time and limiting particle temperature. Furthermore, the FBD energy consumption is explicitly included in the NMPC objective function. Compared to a typical FBD operation in industry (mostly open-loop), it is shown that the drying time and the energy consumption can be efficiently managed on the pilot-scale process while limiting various operation problems like under drying, over drying, or particle overheating.
166

Déclinaisons de bandits et leurs applications

Durand, Audrey 24 April 2018 (has links)
Cette thèse s’intéresse à différentes variantes du problème des bandits, une instance simplifiée d’un problème de reinforcement learning (RL) dont l’accent est mis sur le compromis entre l’exploration et l’exploitation. Plus spécifiquement, l’accent est mis sur trois variantes, soient les bandits contextuels, structurés et multi-objectifs. Dans la première, un agent recherche l’action optimale dépendant d’un contexte donné. Dans la seconde, un agent recherche l’action optimale dans un espace potentiellement grand et caractérisé par une métrique de similarité. Dans la dernière, un agent recherche le compromis optimal sur un front de Pareto selon une fonction d’articulation des préférences non observable directement. La thèse propose des algorithmes adaptés à chacune de ces variantes, dont les performances sont appuyées par des garanties théoriques ou des expériences empiriques. Ces variantes de bandits servent de cadre à deux applications réelles et à haut potentiel d’impact, soient l’allocation de traitements adaptative pour la découverte de stratégies de traitement du cancer personnalisées, et l’optimisation en-ligne de paramètres d’imagerie microscopique à grande résolution pour l’acquisition efficace d’images utilisables en neuroscience. La thèse apporte donc des contributions à la fois algorithmiques, théoriques et applicatives. Une adaptation de l’algorithme best empirical sampled average (BESA), GP BESA, est proposée pour le problème des bandits contextuels. Son potentiel est mis en lumière par des expériences en simulation, lesquelles ont motivé le déploiement de la stratégie dans une étude sur des animaux en laboratoire. Les résultats, prometteurs, montrent que GP BESA est en mesure d’étendre la longévité de souris atteintes du cancer et ainsi augmenter significativement la quantité de données recueillies sur les sujets. Une adaptation de l’algorithme Thompson sampling (TS), Kernel TS, est proposée pour le problème des bandits structurés en reproducing kernel Hilbert space (RKHS). Une analyse théorique permet d’obtenir des garanties de convergence sur le pseudo-regret cumulatif. Des résultats de concentration pour la régression à noyau avec régularisation variable ainsi qu’une procédure d’ajustement adaptative de la régularisation basée sur l’estimation empirique de la variance du bruit sont également introduits. Ces contributions permettent de lever l’hypothèse classique sur la connaissance a priori de la variance du bruit en régression à noyau en-ligne. Des résultats numériques illustrent le potentiel de ces outils. Des expériences empiriques illustrent également la performance de Kernel TS et permettent de soulever des questionnements intéressants relativement à l’optimalité des intuitions théoriques. Une nouvelle variante de bandits multi-objectifs généralisant la littérature est proposée. Plus spécifiquement, le nouveau cadre considère que l’articulation des préférences entre les objectifs provient d’une fonction non observable, typiquement d’un utilisateur (expert), et suggère d’intégrer cet expert à la boucle d’apprentissage. Le concept des rayons de préférence est ensuite introduit pour évaluer la robustesse de la fonction de préférences de l’expert à des erreurs dans l’estimation de l’environnement. Une variante de l’algorithme TS, TS-MVN, est proposée et analysée. Des expériences empiriques appuient ces résultats et constituent une investigation préliminaire des questionnements relatifs à la présence d’un expert dans la boucle d’apprentissage. La mise en commun des approches de bandits structurés et multi-objectifs permet de s’attaquer au problème d’optimisation des paramètres d’imagerie STED de manière en-ligne. Les résultats expérimentaux sur un vrai montage microscopique et avec de vrais échantillons neuronaux montrent que la technique proposée permet d’accélérer considérablement le processus de caractérisation des paramètres et facilitent l’obtention rapide d’images pertinentes pour des experts en neuroscience. / This thesis deals with various variants of the bandits problem, wihch corresponds to a simplified instance of a RL problem with emphasis on the exploration-exploitation trade-off. More specifically, the focus is on three variants: contextual, structured, and multi-objective bandits. In the first, an agent searches for the optimal action depending on a given context. In the second, an agent searches for the optimal action in a potentially large space characterized by a similarity metric. In the latter, an agent searches for the optimal trade-off on a Pareto front according to a non-observable preference function. The thesis introduces algorithms adapted to each of these variants, whose performances are supported by theoretical guarantees and/or empirical experiments. These bandit variants provide a framework for two real-world applications with high potential impact: 1) adaptive treatment allocation for the discovery of personalized cancer treatment strategies; and 2) online optimization of microscopic imaging parameters for the efficient acquisition of useful images. The thesis therefore offers both algorithmic, theoretical, and applicative contributions. An adaptation of the BESA algorithm, GP BESA, is proposed for the problem of contextual bandits. Its potential is highlighted by simulation experiments, which motivated the deployment of the strategy in a wet lab experiment on real animals. Promising results show that GP BESA is able to extend the longevity of mice with cancer and thus significantly increase the amount of data collected on subjects. An adaptation of the TS algorithm, Kernel TS, is proposed for the problem of structured bandits in RKHS. A theoretical analysis allows to obtain convergence guarantees on the cumulative pseudo-regret. Concentration results for the regression with variable regularization as well as a procedure for adaptive tuning of the regularization based on the empirical estimation of the noise variance are also introduced. These contributions make it possible to lift the typical assumption on the a priori knowledge of the noise variance in streaming kernel regression. Numerical results illustrate the potential of these tools. Empirical experiments also illustrate the performance of Kernel TS and raise interesting questions about the optimality of theoretical intuitions. A new variant of multi-objective bandits, generalizing the literature, is also proposed. More specifically, the new framework considers that the preference articulation between the objectives comes from a nonobservable function, typically a user (expert), and suggests integrating this expert into the learning loop. The concept of preference radius is then introduced to evaluate the robustness of the expert’s preference function to errors in the estimation of the environment. A variant of the TS algorithm, TS-MVN, is introduced and analyzed. Empirical experiments support the theoreitcal results and provide a preliminary investigation of questions about the presence of an expert in the learning loop. Put together, structured and multi-objective bandits approaches are then used to tackle the online STED imaging parameters optimization problem. Experimental results on a real microscopy setting and with real neural samples show that the proposed technique makes it possible to significantly accelerate the process of parameters characterization and facilitate the acquisition of images relevant to experts in neuroscience.
167

Interférométrie à peignes de fréquence référencés : échantillonnage optique par variation de la longueur de cavité et doublage en fréquence

Potvin, Simon 20 April 2018 (has links)
Dans le but d'étendre la plage d'utilisation des instruments à peignes de fréquence en les rendant plus polyvalents, les travaux de cette thèse présentent des solutions à deux limitations fondamentales liées à leur utilisation : le rapport cyclique de mesure utile et la bande optique limitée, et parfois non disponible, des sources lasers utilisées. La première limitation provient du fait que dans un interféromètre à peignes, la plage de l'interférogramme mesurée est fixée par le taux de répétition des peignes. Ainsi, lorsqu'une plage plus petite est nécessaire, du temps de mesure est perdu et l'utilisation de l'instrument n'est plus optimale. La solution qui est proposée est d'utiliser seulement un peigne, mais dans une configuration où l'échantillonnage optique est réalisé en variant la longueur de la cavité laser. Ensuite, pour démontrer comment la deuxième limitation peut être contournée, des peignes générés de manière non linéaire par doublage de fréquence sont utilisés pour développer un interféromètre référencé à peignes doublés. Afin d'extraire des mesures précises avec les interféromètres à peignes, le battement entre les peignes doit être référencé. Dans les travaux de cette thèse, un système de référencement optique développé pour les interféromètres à peignes est adapté aux deux instruments proposés. Dans le cas de l'interféromètre à peignes doublés, un système de référencement fonctionnant à la fréquence fondamentale des peignes est démontré. Pour évaluer les performances des instruments développés dans ces travaux, des mesures précises de l'absorption du cyanure d'hydrogène, du rubidium, de l'oxygène et de l'acétylène sont présentées, incluant des mesures moyennées sur quelques heures par un système de correction et de moyennage en temps réel.
168

Commande prédictive basée sur la simulation. Application à la flottation en colonne

Bouchard, Jocelyn 13 April 2018 (has links)
Les structures de commande prédictive (MPC) utilisant des simulateurs dynamiques comme modèles de procédé ne font pas légion. Cette rareté s'explique en grande partie par la difficulté de résolution des problèmes d'optimisation résultants. En effet, les algorithmes de programmation non linéaire ne sont pas toujours adaptés pour atteindre efficacement l'optimum des fonctions basées sur des modèles physiques, à plus forte raison encore si les équations utilisées sont inconnues (modèles de type boîte noire). C'est en s'appuyant sur ce constat qu'une nouvelle approche pour la MPC est proposée. Le principe consiste à substituer la minimisation explicite de la fonction objectif par une simulation du système en boucle fermée pour solutionner de façon généralement sous-optimale le problème de contrôle en boucle ouverte. Cette nouvelle méthode permet d'exploiter plusieurs des avantages de la commande prédictive sans être limitée par la complexité des modèles. Deux algorithmes sont présentés: décentralisé et découplé. Bien qu'avantageuse sur le plan du réglage, la structure découplée ne permet pas la même liberté que la structure décentralisée pour le choix de l'horizon de prédiction qui doit généralement être du même ordre de grandeur que le temps de réponse en boucle ouverte. Le développement d'une structure de simulation du comportement dynamique de la flottation en colonne, un procédé de séparation des minéraux, représente la seconde contribution de cette thèse. Une grande lacune des simulateurs proposés à ce jour demeure que même lorsque les équations différentielles de conservation sont utilisées, les variations dynamiques du niveau de pulpe ne sont jamais considérées. La structure présentée ici s'intéresse à la simulation des mouvements des phases présentes et de leurs effets sur le niveau de pulpe et sur les débits de sortie. Par ailleurs, comme bien d'autres procédés minéralurgiques, la flottation en colonne a peu bénéficié des avancées en contrôle de procédés. C'est donc sur ce terrain que les deux thèmes étudiés se rencontrent lors d'une mise à l'épreuve conjointe. L'étude de cas proposée s'intéresse à l'asservissement de trois variables d'opération critiques pour le bon fonctionnement du procédé à savoir, la concentration d'air dans la zone de pulpe, le flux net d'eau à l'interface et le niveau de pulpe à l'aide d'un contrôleur prédictif basé sur la simulation. / Applications of dynamic simulators for model predictive controllers design are rather scarce in the litterature. The complexity of solving the resulting optimization problems may explain this lack of popularity. In fact, nonlinear programming algorithms are not always well suited to efficiently reach the optimum of a fundamentaly-based cost function. The situation is even worse when the equations used in the model are unknown by the control designers (black box models). The simulation-based model predictive controller is an alternative formulation to perform model predictive control (MPC) without making use of any explicit optimization solver, but rather based on an easy-to-compute closed-loop simulation. The resulting scheme generally provides a sub-optimal solution and benefits from many interesting features of conventional MPC without being restricted by the model complexity. Two algorithms are proposed: decentralized and decoupled. The decentralized simulation structure allows a flexible setting of the prediction horizon (Hp) that is not possible in the decoupled case, easier to tune, but where Hp must generally be in the same order of magnitude that the system settling time. A second contribution of this thesis is the development of a framework for the dynamic simulation of a mineral separation process: column flotation. Until now, most of the proposed models or simulators were restricted to the steady-state behavior. When dynamic mass-balance equations were considered, a constant pulp level during the simulation was always assumed. The presented framework aims to simulate water, solids and gas motion and their effect on the pulp level and output flow rates. As it often happens in mineral processing, the column flotation process has not benefited from advanced control techniques. This is where the two previous subjects merge. The proposed simulation framework is used to design a simulation-based model predictive controller for process variables having a strong influence on metallurgical results (grade and recovery). A case study is presented where the pulp level, bias and air hold-up in the pulp zone are kept within an acceptable operating region.
169

Analyse, commande et intégration d'un mécanisme parallèle entraîné par des câbles pour la réalisation d'une interface haptique comme métaphore de navigation dans un environnement virtuel

Otis, Martin J.-D. 17 April 2018 (has links)
Un domaine de la recherche en ingénierie des systèmes est de développer des systèmes supervisés semi-autonomes qui interagissent à un très haut niveau avec l'humain. Ces systèmes intelligents ont les capacités d'analyser et de traiter certaines informations pour produire un comportement général observable par les capacités sensorielles et temporelles de l'humain. Il est donc nécessaire de définir un environnement créatif qui interface efficacement l'humain aux informations pour rendre de nouvelles expériences multi-sensorielles optimisant et facilitant la prise de décision. En d'autres mots, il est possible de définir un système multi-sensoriel par sa capacité à augmenter l'optimisation de la prise de décision à l'aide d'une interface qui définit un environnement adapté à l'humain. Un système haptique dans un environnement virtuel incluant une collaboration et une interaction entre l'humain, les mécanismes robotisés et la physique de la réalité virtuelle est un exemple. Un système haptique doit gérer un système dynamique non-linéaire sous-contraint et assurer sa stabilité tout en étant transparent à l'humain. La supervision de l'humain permet d'accomplir des tâches précises sans se soucier de la complexité de la dynamique d'interactions alors que le système gère les différents problèmes antagonistes dont de stabilité (délai de la communication en réseau, stabilité des rendus, etc.), de transparence et de performance. Les travaux de recherche proposés présentent un système multi-sensoriel visuo-haptique qui asservisse l'interaction entre l'humain, un mécanisme et la physique de l'environnement virtuel avec une commande bilatérale. Ce système permet à l'humain de réaliser des fonctions ou des missions de haut niveau sans que la complexité de la dynamique d'interaction limite la prise de décision. Plus particulièrement, il sera proposé de réaliser une interface de locomotion pour des missions de réadaptation et d'entraînement. Ce projet, qui est nommé NELI (Network Enabled Locomotion Interface), est divisé en plusieurs sous-systèmes dont le mécanisme entraîné par des câbles nommé CDLI ( Cable Driven Locomotion Interface ), le système asservi avec une commande bilatérale qui assure le rendu de la locomotion, la réalité virtuelle qui inclut la physique de l'environnement, le rendu haptique et le rendu visuel. Dans un premier temps, cette thèse propose une méthode qui assure la qualité de la réponse de la transmission en augmentant la transparence dynamique de l'asservissement articulaire d'une manière automatique. Une approche d'optimisation, basée sur une amélioration des Extremum Seeking Tuning, permet d'ajuster adéquatement les paramètres des régulateurs et définit le critère de l'assurance qualité dans le cas d'une production massive. Cet algorithme est ensuite utilisé, pour étudier le rendu d'impédance avec l'aide de la modélisation d'un câble et de l'enrouleur. Cette modélisation permet de définir un asservissement articulaire hybride qui est utilisé dans la commande hybride cartésienne afin d'assurer le rendu haptique. Dans un troisième temps, dans un contexte de sécurité, la gestion des interférences entre les pièces mécaniques de l'interface de locomotion est décrite avec une méthode d'estimation des collisions des câbles. Une démonstration des interférences entre les câbles de deux plates-formes est simulée démontrant la faisabilité de l'approche. Finalement, la définition d'un moteur physique par un rendu haptique hybride au niveau de la commande cartésienne est présentée en considérant la géométrie des points de contact entre le modèle du pied virtuel et un objet virtuel. Cette approche procure la stabilité d'interaction recherchée lors de la simulation d'un contact infiniment rigide. Un robot marcheur de marque Kondo est embarqué sur l'interface de locomotion pour interagir avec les objets virtuels. Les résultats de la marche du robot dans l'environnement virtuel concrétisent le projet et servent de démonstrateur technologique.
170

Ré-observabilité des points caractéristiques pour le calibrage et le positionnement d'un capteur multi-caméra

Ouellet, Jean-Nicolas 17 April 2018 (has links)
Le calibrage et le positionnement de caméras reposent sur l'extraction de caractéristiques dans l'image et leur reconnaissance dans les images subséquentes. Une caractéristique est une région de l'image localement saillante à laquelle sont associées une position et une description de l'apparence de cette région. Les algorithmes de calibrage et de positionnement reposent sur l'hypothèse qu'un ensemble de caractéristiques correspondantes est l'observation du même point physique de la scène. Toutefois, cette hypothèse n'est pas nécessairement respectée par toutes les caractéristiques correspondantes. Les causes de la présence de ces caractéristiques nuisibles sont multiples, allant de biais induits par la méthode de localisation dans l'image, jusqu'à la déformation de l'image lorsque la caméra change de point de vue. Le principal défi du calibrage et du positionnement est donc l'identification de caractéristiques fiables. Pour pallier ce problème, nous introduisons le concept de ré-observabilité d'une caractéristique. Ce concept regroupe l'unicité du point physique et la reconnaissance. Un point de la scène est défini par ses observations dans les images et par les poses associées à ces images. Ainsi, une caractéristique doit être localisée le plus précisément possible dans l'image. Pour ce faire, nous avons identifié les biais affectant la localisation des caractéristiques dans l'image en calibrage pour une scène contrôlée et en positionnement où le capteur évolue dans une scène inconnue. Pour chaque biais, nous proposons une solution simple permettant de réduire, voire éliminer le biais. Ceci a mené au développement de nouveaux détecteurs de caractéristiques. Ensuite, à partir de plusieurs images, nous évaluons la cohérence entre les observations et les poses de la caméra à l'aide de critères multi-vue. Les caractéristiques nuisibles peuvent alors être identifiées. L'aspect reconnaissance est traité en évaluant la distinction des caractéristiques qui peuvent être distinctes localement ou globalement dans la scène. Une application directe de ce concept concerne la visibilité des caractéristiques où l'observation d'une caractéristique distincte globalement renforce la probabilité d'observer une caractéristique distincte localement si elles ont été observées conjointement. Chacun des concepts de la ré-observabilité est appuyé par une application réelle de calibrage et de positionnement d'un capteur multi-caméra.

Page generated in 0.0203 seconds