Return to search

A wireless, wearable and multimodal body-machine interface design framework for individuals with severe disabilities

Les technologies d’assistance jouent un rôle important dans le quotidien des personnes en situation de handicap, notamment dans l’amélioration de leur autonomie de vie. Certaines d’entre elles à l’exemple des fauteuils roulants motorisés et autres bras robotiques articulés, requièrent une interaction au moyen d’interfaces dédiées capables de traduire l’intention de l’utilisateur. Les individus dont le niveau de paralysie confère de bonnes capacités résiduelles arrivent à interagir avec les interfaces de contrôle nécessitant une intervention mécanique et un certain niveau de dextérité (joysitck, boutons de contrôle, clavier, switch, souris etc). Cependant, certains types de handicap (lésion ou malformation médullaire, paralysie cérébrale, traumatismes à la suite d’un accident, absence congénital de membres du haut du corps, etc) peuvent entraîner une perte d’autonomie des doigts, des avant-bras ou des bras, rendant impossibles le recours à ces outils de contrôle. Dès lors, il est essentiel de concevoir des solutions alternatives capables de pallier ce manque. Partout à travers le monde, des chercheurs réalisent des prouesses technologiques et conçoivent des interfaces corps-machine adaptés à des handicaps spécifiques. Certaines d’entre elles utilisent les signaux bio-physiologiques (électromyoraphie (EMG), électroencéphalographie (EEG), électrocorticographie (ECoG), électrocculographie (EOG)), image de l’activité musculaire, cérébrale et occulographique du corps humain, qu’elles traduisent en moyens de contrôle relatifs à un mouvement, une intention formulée par le cerveau, etc. D’autres se servent de capteurs d’image capable d’être robuste dans un environnement donné, pour traduire la direction du regard, la position de la tête ou l’expression faciale en vecteurs de contrôle. Bien qu’ayant fait montre de leur efficacité, ces techniques sont parfois trop coûteuses, sensibles à l’environnement dans lequel elles sont utilisés, peuvent être encombrantes et contre-intuitives, ce qui explique le gap existant entre les besoins réels, la recherche et le marché des solutions de contrôle alternatives disponibles. Ce projet propose un “framework” embarqué, permettant d’interfacer différents types de modalités de mesure des capacités résiduelles des patients, au sein d’un réseau de capteurs corporels sans-fils multimodales. Son architecture est conçue de façon à pouvoir prendre en compte différents types de handicap et octroyer une large gamme de scénarios de contrôle pouvant s’adapter facilement aux aptitudes physiques de son utilisateur. In fine, l’interface corps-machine que ce projet propose, explore des approches nouvelles, se voulant pallier aux limitations des solutions existantes et favoriser l’autonomie de vie des individus en situation de handicap. / Assistive technologies play an important role in the day-to-day lives of people with disabilities, in particular in improving their autonomy. Tools such as motorized wheelchairs, assistive robotic arms, etc, require interaction through dedicated interfaces capable of translating the user’s intention. Individuals whose level of paralysis allows good residual abilities can interact with control interfaces requiring mechanical intervention and a good level of dexterity (joysitck, control buttons, keyboard, switch, mouse etc). However, certain types of disability (spinal cord injury or malformation, cerebral palsy, trauma following an accident, congenital absence of upper body limbs, etc.) may result in loss of autonomy of the fingers, forearms or arms, making it impossible to use these control tools. Therefore, it is essential to design alternative solutions to overcome this lack. Researchers around the world are realizing technological prowess by designing body-machine interfaces adapted to specific handicaps. Some of them use bio-physiological signals (electromyography (EMG), electroencephalography (EEG), electrocorticography (ECoG), electrocculography (EOG)), images of the muscular, cerebral and occulographic activity of the human body, for translation into means of control with respect to a movement, an intention formulated by the brain, etc. Others use image sensors that can be robust in a given environment, to translate the direction of gaze, the position of the head, or facials expressions, into control vectors. Although they were proved to be efficient, these techniques are sometimes too expensive, sensitive to the environment in which they are used, can be cumbersome and counter-intuitive, which explains the gap between existing needs, research and development, and the market of commercially available alternative control solutions. This project provides a "framework" that enables the design of flexible, modular, adaptive and wearable body-machine interfaces for the severely disabled. The proposed system, which implements a wireless and multimodal body sensor network, allows for different types of modalities the measure the residual capacities of individuals with severe disabilities for translation into intuitive control commands. The architecture is designed to accommodate different types of disabilities and provide a wide range of control scenarios. Ultimately, the body-machine interface that this project proposes, explores new approaches, aiming to overcome the limitations of existing solutions and to promote the autonomy of life of individuals with disabilities.

Identiferoai:union.ndltd.org:LAVAL/oai:corpus.ulaval.ca:20.500.11794/35440
Date11 July 2019
CreatorsFall, Cheikh Latyr
ContributorsGosselin, Benoit, Gosselin, Clément
Source SetsUniversité Laval
LanguageEnglish
Detected LanguageFrench
Typethèse de doctorat, COAR1_1::Texte::Thèse::Thèse de doctorat
Format1 ressource en ligne (xvi, 109 pages), application/pdf
Rightshttp://purl.org/coar/access_right/c_abf2

Page generated in 0.0031 seconds