Spelling suggestions: "subject:"interfaces haptique"" "subject:"interfaces synaptiques""
11 |
Contributions aux architectures de contrôle partagé pour la télémanipulation avancée / Contributions to shared control architectures for advanced telemanipulationAbi-Farraj, Firas 18 December 2018 (has links)
Bien que la pleine autonomie dans des environnements inconnus soit encore loin, les architectures de contrôle partagé où l'humain et un contrôleur autonome travaillent ensemble pour atteindre un objectif commun peuvent constituer un « terrain intermédiaire » pragmatique. Dans cette thèse, nous avons abordé les différents problèmes des algorithmes de contrôle partagé pour les applications de saisie et de manipulation. En particulier, le travail s'inscrit dans le projet H2020 Romans dont l'objectif est d'automatiser le tri et la ségrégation des déchets nucléaires en développant des architectures de contrôle partagées permettant à un opérateur humain de manipuler facilement les objets d'intérêt. La thèse propose des architectures de contrôle partagé différentes pour manipulation à double bras avec un équilibre opérateur / autonomie différent en fonction de la tâche à accomplir. Au lieu de travailler uniquement sur le contrôle instantané du manipulateur, nous proposons des architectures qui prennent en compte automatiquement les tâches de pré-saisie et de post-saisie permettant à l'opérateur de se concentrer uniquement sur la tâche à accomplir. La thèse propose également une architecture de contrôle partagée pour contrôler un humanoïde à deux bras où l'utilisateur est informé de la stabilité de l'humanoïde grâce à un retour haptique. En plus, un nouvel algorithme d'équilibrage permettant un contrôle optimal de l'humanoïde lors de l'interaction avec l'environnement est également proposé. / While full autonomy in unknown environments is still in far reach, shared-control architectures where the human and an autonomous controller work together to achieve a common objective may be a pragmatic "middle-ground". In this thesis, we have tackled the different issues of shared-control architectures for grasping and sorting applications. In particular, the work is framed in the H2020 RoMaNS project whose goal is to automatize the sort and segregation of nuclear waste by developing shared control architectures allowing a human operator to easily manipulate the objects of interest. The thesis proposes several shared-control architectures for dual-arm manipulation with different operator/autonomy balance depending on the task at hand. While most of the approaches provide an instantaneous interface, we also propose architectures which automatically account for the pre-grasp and post-grasp trajectories allowing the operator to focus only on the task at hand (ex., grasping). The thesis also proposes a shared control architecture for controlling a force-controlled humanoid robot in which the user is informed about the stability of the humanoid through haptic feedback. A new balancing algorithm allowing for the optimal control of the humanoid under high interaction forces is also proposed.
|
12 |
Interactions tridimensionnelles avec gants de donnéesLévesque, Julien-Charles 18 April 2018 (has links)
Ce mémoire couvre le développement d'une interface bimanuelle pour IMAGE v2, une application de simulation visuelle interactive aidant à la compréhension de situations complexes. Cette interface est centrée sur l'utilisateur et est développée principalement pour les environnements immersifs, environnements dans lesquels IMAGE v2 doit être déployé. Il s'agit d'une interface gestuelle, car l'utilisateur devra interagir avec les objets de l'application à l'aide de ses mains. Deux variantes de l'interface ont été implémentées, l'une requérant l'utilisation d'une seule main et l'autre permettant d'utiliser les deux mains. Ces deux variantes ont été comparées dans une étude sur un groupe d'utilisateurs qui devaient exécuter une série de tâches avec chaque variante de l'interface, le temps étant mesuré. L'étude a montré que l'interface bimanuelle augmente significativement la performance et la précision des utilisateurs. / This thesis covers the conception of a bimanual interface for IMAGE v2, an application of visual interactive simulation aiming to help in understanding complex situations. This interface is user-centric and is developed principally for virtual immersive environments, environments in which IMAGE v2 is to be used. It is a gestural interface because users will interact with the application by using their hands. Two variants of the interface have been implemented, the first requiring the user to use only one hand and the other allowing the use of both hands. Those two variants were compared in a study on a group of users who executed a series of tasks with each variant of the interface, time being measured. This study showed that the bimanual interface increased significantly the performance and precision of the users.
|
13 |
Analyse, commande et intégration d'un mécanisme parallèle entraîné par des câbles pour la réalisation d'une interface haptique comme métaphore de navigation dans un environnement virtuelOtis, Martin J.-D. 17 April 2018 (has links)
Un domaine de la recherche en ingénierie des systèmes est de développer des systèmes supervisés semi-autonomes qui interagissent à un très haut niveau avec l'humain. Ces systèmes intelligents ont les capacités d'analyser et de traiter certaines informations pour produire un comportement général observable par les capacités sensorielles et temporelles de l'humain. Il est donc nécessaire de définir un environnement créatif qui interface efficacement l'humain aux informations pour rendre de nouvelles expériences multi-sensorielles optimisant et facilitant la prise de décision. En d'autres mots, il est possible de définir un système multi-sensoriel par sa capacité à augmenter l'optimisation de la prise de décision à l'aide d'une interface qui définit un environnement adapté à l'humain. Un système haptique dans un environnement virtuel incluant une collaboration et une interaction entre l'humain, les mécanismes robotisés et la physique de la réalité virtuelle est un exemple. Un système haptique doit gérer un système dynamique non-linéaire sous-contraint et assurer sa stabilité tout en étant transparent à l'humain. La supervision de l'humain permet d'accomplir des tâches précises sans se soucier de la complexité de la dynamique d'interactions alors que le système gère les différents problèmes antagonistes dont de stabilité (délai de la communication en réseau, stabilité des rendus, etc.), de transparence et de performance. Les travaux de recherche proposés présentent un système multi-sensoriel visuo-haptique qui asservisse l'interaction entre l'humain, un mécanisme et la physique de l'environnement virtuel avec une commande bilatérale. Ce système permet à l'humain de réaliser des fonctions ou des missions de haut niveau sans que la complexité de la dynamique d'interaction limite la prise de décision. Plus particulièrement, il sera proposé de réaliser une interface de locomotion pour des missions de réadaptation et d'entraînement. Ce projet, qui est nommé NELI (Network Enabled Locomotion Interface), est divisé en plusieurs sous-systèmes dont le mécanisme entraîné par des câbles nommé CDLI ( Cable Driven Locomotion Interface ), le système asservi avec une commande bilatérale qui assure le rendu de la locomotion, la réalité virtuelle qui inclut la physique de l'environnement, le rendu haptique et le rendu visuel. Dans un premier temps, cette thèse propose une méthode qui assure la qualité de la réponse de la transmission en augmentant la transparence dynamique de l'asservissement articulaire d'une manière automatique. Une approche d'optimisation, basée sur une amélioration des Extremum Seeking Tuning, permet d'ajuster adéquatement les paramètres des régulateurs et définit le critère de l'assurance qualité dans le cas d'une production massive. Cet algorithme est ensuite utilisé, pour étudier le rendu d'impédance avec l'aide de la modélisation d'un câble et de l'enrouleur. Cette modélisation permet de définir un asservissement articulaire hybride qui est utilisé dans la commande hybride cartésienne afin d'assurer le rendu haptique. Dans un troisième temps, dans un contexte de sécurité, la gestion des interférences entre les pièces mécaniques de l'interface de locomotion est décrite avec une méthode d'estimation des collisions des câbles. Une démonstration des interférences entre les câbles de deux plates-formes est simulée démontrant la faisabilité de l'approche. Finalement, la définition d'un moteur physique par un rendu haptique hybride au niveau de la commande cartésienne est présentée en considérant la géométrie des points de contact entre le modèle du pied virtuel et un objet virtuel. Cette approche procure la stabilité d'interaction recherchée lors de la simulation d'un contact infiniment rigide. Un robot marcheur de marque Kondo est embarqué sur l'interface de locomotion pour interagir avec les objets virtuels. Les résultats de la marche du robot dans l'environnement virtuel concrétisent le projet et servent de démonstrateur technologique.
|
14 |
Modélisation Causale en vue de la Commande d'un translateur piézoélectrique plan pour une application haptiquePigache, Francois 25 March 2005 (has links) (PDF)
Pour rendre compte physiquement de la manipulation d'un objet virtuel dans l'espace ou sur un plan, la plupart des dispositifs haptiques actuels font appel à des actionneurs à un seul degré de liberté, dont les actions sont couplées par diverses liaisons mécaniques (type pantographe). La technologie piézoélectrique est une solution avantageuse dans ce domaine d'utilisation, pour son important effort massique, le travail à faible vitesse, et surtout la capacité à motoriser plusieurs degrés de liberté à partir d'un seul actionneur. Pour cette raison, un translateur piézoélectrique plan à onde stationnaire est étudié. Un modèle simplifié est élaboré pour offrir une interprétation globale des phénomènes de contact. Il est établi selon le formalisme du graphe informationnel causal qui met en évidence deux asservissements applicables au domaine haptique : un retour d'effort actif par le contrôle en force, et une solution alternative comparable à un embrayage, qualifié de retour d'effort dissipatif.
|
15 |
Robot parallèle à câbles simulant des contacts rigidesBillette, Grégoire 17 April 2018 (has links)
Le projet de recherche qui est présenté dans ce mémoire a été réalisé dans le cadre d'une maîtrise en génie mécanique. Le but de ces recherches était de réaliser un mécanisme haptique avec un robot à câbles ayant la capacité de reproduire des contacts brusques et rigides durant une simulation en réalité virtuelle. Un simulateur de combat d'épée élémentaire a donc été construit pour servir de banc d'essai puisque ce genre de simulation nécessite ces genres de contacts. La majeure partie du projet était consacrée à l'élaboration des prototypes d'enrouleurs du mécanisme à câbles. Ces enrouleurs ont été conçus pour créer des impacts en induisant la collision de deux petites pièces métalliques. Les vibrations créées ainsi voyagent des enrouleurs vers l'utilisateur par l'entremise des câbles et l'effecteur et donnent ainsi la sensation de frapper un objet rigide. Les mécanismes ainsi créés sont très innovateurs et démontrent beaucoup de potentiel. Le fonctionnement de ces enrouleurs, ainsi que le processus de conception qui a mené à l'élaboration de ceux-ci est détaillé tout au long de ce mémoire. De plus, la performance de ces mécanismes est évaluée et il y a une liste de recommandations pour créer un prototype plus avancé.
|
16 |
Bras exosquelette haptique: conception et contrôle / Haptic arm exoskeleton: conception and controlLetier, Pierre 07 July 2010 (has links)
Ce projet s’inscrit dans l’effort développé par l’Agence Spatiale Européenne (ESA)pour robotiser les activités extravéhiculaires à bord de la Station Spatiale Internationale et lors des futures missions d’exploration planétaire. Un aspect important de ces projets concerne le retour de force et la capacité, pour la personne qui commande les mouvements du robot, à ressentir les efforts qui lui sont appliqués. Le but est d’améliorer la qualité et l’immersion de la téléopération.<p><p>L’objectif de cette thèse est la conception d’une interface haptique de type exosquelette pour le bras, pour ces missions de téléopération à retour de force. Ce système doit permettre une commande intuitive du robot téléopéré tout en reproduisant<p>le plus fidèlement possible les efforts. <p><p>Les chapitres 2 et 3 présentent les études réalisées sur un banc de test à 1 degré de liberté, destinées à comprendre le contrôle haptique ainsi qu’à évaluer différentes technologies d’actionnements et de capteurs. Les principales méthodes de contrôle sont décrites théoriquement et comparées en pratique sur le banc de test. Les<p>chapitres 4 et 5 décrivent le développement de l’exosquelette SAM destiné aux futures applications de téléopération spatiale. La conception cinématique, le choix des actionneurs et des capteurs sont décrits. Différentes méthodes de contrôle sont également comparées avec des expériences de réalité virtuelle (sans robot esclave) et de téléopération. Pour finir, le chapitre 6 présente le projet EXOSTATION, un démonstrateur de téléopération haptique spatiale, dans lequel SAM est utilisé comme interface maître. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
17 |
Design and control of a teleoperated palpation device for minimally invasive thoracic surgeryButtafuoco, Angelo 25 February 2013 (has links)
Minimally invasive surgery (MIS) consists in operating through small incisions in which a camera and adapted instruments are inserted. It allows to perform many interventions with reduced trauma for the patient. One of these is the ablation of peripheral pulmonary nodules.<p><p>Nevertheless, the means for detecting nodules during MIS are limited. In fact, because of the lack of direct contact, the surgeon cannot palpate the lung to find invisible lesions, as he would do in classical open surgery. As a result, only clearly visible nodules can be treated by MIS presently.<p><p>This work aims at designing, building and controlling a teleoperated palpation instrument, in order to extend the possibilities of MIS in the thoracic field. Such an instrument is made of a master device, manipulated by an operator, and a slave device which is in contact with the patient and reproduces the task imposed by the master. Adequate control laws between these two parts allow to restore the operator's haptic sensation. The goal is not to build a marketable prototype, but to establish a proof of concept.<p><p>The palpation device has been designed in collaboration with thoracic surgeons on the basis of the study of the medical gesture. The specifications have been deduced through experiments with experiencied surgeons from the Erasmus Hospital and the Charleroi Civil Hospital.<p><p>A pantograph has been built to be used as the master of the palpation tool. The slave is made of a 2 degrees of freedom (dof) clamp, which can be actuated in compression and shear. The compression corresponds to vertical moves of the pantograph, and the shear to horizontal ones. Force sensors have been designed within this project to measure the efforts along these directions, both at the master and the slave side, in order to implement advanced force-feedback control laws and for validation purposes.<p><p>Teleoperation control laws providing a suitable kinesthetic force feedback for lung palpation have been designed and validated through simulations. These simulations have been realized using a realistic model of lung, validated by experienced surgeons. Among the implemented control schemes, the 3-Channel scheme, including a local force control loop at the master side, is the most efficient for lung palpation. Moreover, the increased efficiency of a 2 dof device with respect to a 1 dof tool has been confirmed. Indeed, a characteristic force profile due to the motion in 2 directions appeared in the compression force tracking, making the lesion easier to locate. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
18 |
Système de réalité virtuelle pour l'insertion d'aiguilles flexibles dans des tissus déformables : application à la curiethérapie de la prostateCarette, Alexandre 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Le cancer de la prostate est le type de cancer le plus fréquent chez l’homme. On estime qu’un homme sur six vivant jusqu’à quatre-vingts ans en recevra le diagnostic. En 1994, le Centre hospitalier universitaire de Québec (CHUQ) est devenu le premier établissement de santé au Canada à utiliser la curiethérapie par implants permanents pour soigner le cancer de la prostate. Depuis, des milliers de personnes ont bénéficié de ce traitement peu invasif et très efficace. Au cours de la curiethérapie, qui est une intervention d’une à deux heures effectuée sous anesthésie générale, le radio-oncologue utilise des aiguilles pour placer une matière radioactive sous la forme de petits grains directement dans le tissu cancéreux. Les grains, de la grosseur d’un grain de riz, émettent des radiations qui détruisent les cellules à l’endroit visé pendant environ six mois après l’opération. Ils restent ensuite en place de façon permanente, mais sont inoffensifs. Or, ce type d’opération n’est pas une tâche facile pour le radio-oncologue. De surcroît, les spécialistes qui aspirent à pouvoir donner ce genre de traitement, bien que très formés et encadrés, ne peuvent finalement que s’entrainer sur des sujets humains pour acquérir de l’expérience, une pratique potentiellement discutable sur le plan éthique. C’est pourquoi nous proposons la mise sur pied d’un environnement de réalité virtuelle pour l’entraînement à la curiethérapie de la prostate qui aurait, pour les nouveaux médecins, un rôle similaire à celui des simulateurs de vol pour les pilotes d’avion. Dans ce mémoire, nous présentons différents algorithmes qui permettent de générer un modèle réaliste de prostate et de son environnement avoisinant, de simuler la physique de ces tissus mous biologiques et des aiguilles flexibles utilisées, ainsi que l’interaction entre ces derniers. Ces algorithmes permettent une vue tridimensionnelle de l’opération, à laquelle nous ajoutons une extension qui permet de visualiser l’opération sous la forme d’images par échographie ultrasonique. L’intégration de tous ces modules avec un module haptique pouvant simuler les retours d’efforts lors de l’insertion d’aiguilles (développé par des collègues en génie mécanique), forme l’environnement virtuel proposé. / Prostate cancer is the most common type of cancer in men. It is estimated that one in six men living up to eighty years will receive the diagnosis. In 1994, the Centre hospitalier universitaire de Québec (CHUQ) became the first healthcare facility in Canada to use permanent implants brachytherapy to treat prostate cancer. Since then, thousands of people benefited from this minimally invasive and very effective treatment. During brachytherapy, a procedure of one to two hours performed under general anesthesia, the radiation oncologist uses needles to place radioactive matter in the form of small seeds directly into the cancerous tissue. The seeds, about the size of a grain of rice, emit radiation that destroy cells in the target area for about six months after the operation. They then remain in place permanently, but are harmless for the person. However, the procedure is not an easy task for the radiation oncologist. In particular, specialists who aspire to give this kind of treatment, although very well trained and supervised, can only be trained using human subjects to gain experience, a practice that may raise ethical issues. We therefore propose the establishment of a virtual reality environment for training in prostate brachytherapy which would have, for new doctors, a role similar to flight simulators for aircraft pilots. In this thesis, we present different algorithms to generate a realistic model of the prostate and its surrounding environment, the simulation of the physics of organic soft tissue and of flexible needles, as well as the interaction between them. These algorithms allow a three-dimensional view of the operation, to which we add an extension that allows the user to view the operation as images by ultrasonography. The integration of all these modules with a module that can simulate haptic feedback when inserting needles (developed by our collegues in mecanical engineering) forms the proposed virtual environment.
|
Page generated in 0.0818 seconds