• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • Tagged with
  • 6
  • 6
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approche dirigée par les modèles pour la conception et la validation des applications interactives : une démarche basée sur la modélisation des tâches

Caffiau, Sybille 07 December 2009 (has links) (PDF)
Actuellement, les applications interactives sont utilisées dans de nombreux domaines (guichets automatiques, tours de contrôle...), par des publics très différents (enfants, experts, handicapés...) et par un nombre important d'utilisateurs (interfaces de téléphones portables...) ou au contraire très spécifiques (logiciels conçus spécifiquement pour une entreprise). Elles sont de ce fait très diverses. De par la multiplicité des paramètres à prendre en compte, la conception et le développement des applications interactives sont devenus très coûteux. Afin de réduire ces coûts, des recherches sont actuellement menées sur le processus de conception. Cette thèse s'inscrit dans ces travaux. L'un des axes étudiés pour réduire le coût de production des applications interactives est la détection des erreurs le plus en amont possible pendant le processus de conception. Nous proposons de faciliter la vérification et la validation de la dynamique des applications (plus spécifiquement dénommée dialogue) tout au long de la conception, en fonction des spécifications recueillies auprès des futurs utilisateurs, exprimés sous forme de modèles de tâches. Les modèles de dialogue et les modèles de tâches représentent deux points de vue différents et complémentaires pour une même application. Nous proposons une approche de vérification de cohérence entre ces deux modèles tout au long du cycle de vie de l'application. Pour cela, nous avons défini des règles de cohérence entre les modèles que nous vérifions formellement en utilisant une méta-modélisation des formalismes que nous avons choisis après évaluation de leur utilisation pour une conception centrée-utilisateur.
2

Interface gestuelle pour la commande d'un capteur 3D tenu en main

Ôtomo-Lauzon, Kento 19 July 2022 (has links)
Ce mémoire porte sur la conception d'une interface utilisateur basée sur la reconnaissance de gestes pour la commande d'un capteur 3D tenu en main. L'interface proposée permet à l'opérateur d'un tel équipement de commander le logiciel à distance alors qu'il se déplace autour d'un objet à numériser sans devoir revenir auprès du poste de travail. À cet effet, un prototype fonctionnel est conçu au moyen d'une caméra Azure Kinect pointée vers l'utilisateur. Un corpus de gestes de la main est défini et reconnu au moyen d'algorithmes d'apprentissage automatique, et des métaphores d'interactions sont proposées pour la transformation rigide 3D d'un objet virtuel à l'écran. Ces composantes sont implantées dans un prototype fonctionnel compatible avec le logiciel VXelements de Creaform. / This thesis presents the development of a gesture-based user interface for the operation of handheld 3D scanning devices. This user interface allows the user to remotely engage with the software while walking around the target object. To this end, we develop a prototype using an Azure Kinect sensor pointed at the user. We propose a set of hand gestures and a machine learning-based approach to classification for triggering momentary actions in the software. Additionally, we define interaction metaphors for applying 3D rigid transformations to a virtual object on screen. We implement these components into a proof-of-concept application compatible with Creaform VXelements.
3

Interface électronique et logicielle pour la surveillance de la respiration en temps réel en utilisant des vêtements intelligents sans fils

Abed, Hajer 27 January 2024 (has links)
Dans ce mémoire, on présente une nouvelle architecture d’un chandail intelligent pour surveiller la respiration en temps réel. Ce vêtement intelligent comporte une architecture qui offre une méthode de détection innovante assurant une suivie de l’activité respiratoire en continue. Tout d’abord le chandail détecte la déformation du haut du thorax pendant la respiration à l’aide d’une antenne intégrée dans le chandail. L’antenne a été conçue dans les laboratoires du centre d’optique, photonique et laser de l’université Laval. Un capteur Bluetooth intégré dans le même chandail détecte par la suite la variation du signal RSSI (indicateur d’intensité du signal reçu) et l’envoie à une unité de traitement et d’analyse de données sans fils (un ordinateur ou une tablette). Une interface d’analyse des données a été crée pour permettre la détermination du rythme respiratoire et le caractériser selon le signal de respiration reçu. En plus, le chandail intelligent est alimenté par une source d’énergie sans fils et hybride fonctionnant avec une batterie rechargeable ou par un lien inductif. Deux versions de chandail ont été testées. La première contient un seul capteur alors que la deuxième possède six capteurs positionnés sur la partie frontal du vêtement. En plus, différents paramètres ont été pris en considération durant les tests citant entre autres la morphologie, l’âge et le sexe des utilisateurs. Des tests ont démontré une détection réussie de plusieurs informations pertinentes comme les cycles de respiration (inspiration, expiration), la fréquence respiratoire et d’autres mesures statistiques pour les diagnostics. / In this thesis, we present a new architecture of a smart T-shirt to monitor breathing in real time. This smart garment has an architecture that offers an innovative detection method ensuring continuous monitoring of respiratory activity. First the T-shirt detects deformation of the upper chest during breathing using an antenna built into the T-shirt. The antenna was designed in the laboratories of the optics, photonics and laser center of Laval University. A Bluetooth sensor integrated in the same T-shirt subsequently detects the variation of the RSSI signal (indicator of received signal strength) and sends it to a wireless data processing and analysis unit (a computer or tablet). A data analysis interface has been created to allow determination of the respiratory rate and characterization according to the received breathing signal. In addition, the smart T-shirt is powered by a wireless, hybrid power source powered by a rechargeable battery or by an inductive link. Two versions of the T-shirt were tested. The first contains a single sensor while the second has six sensors positioned on the front of the garment. In addition, different parameters were taken into account during the tests, citing among others the morphology, age and sex of the users. Tests have demonstrated successful detection of several relevant information such as breathing cycles (inspiration, expiration),respiratory rate and other statistical measures for diagnosis.
4

Interface gestuelle pour la commande d'un capteur 3D tenu en main

Ôtomo-Lauzon, Kento 10 May 2024 (has links)
Ce mémoire porte sur la conception d'une interface utilisateur basée sur la reconnaissance de gestes pour la commande d'un capteur 3D tenu en main. L'interface proposée permet à l'opérateur d'un tel équipement de commander le logiciel à distance alors qu'il se déplace autour d'un objet à numériser sans devoir revenir auprès du poste de travail. À cet effet, un prototype fonctionnel est conçu au moyen d'une caméra Azure Kinect pointée vers l'utilisateur. Un corpus de gestes de la main est défini et reconnu au moyen d'algorithmes d'apprentissage automatique, et des métaphores d'interactions sont proposées pour la transformation rigide 3D d'un objet virtuel à l'écran. Ces composantes sont implantées dans un prototype fonctionnel compatible avec le logiciel VXelements de Creaform. / This thesis presents the development of a gesture-based user interface for the operation of handheld 3D scanning devices. This user interface allows the user to remotely engage with the software while walking around the target object. To this end, we develop a prototype using an Azure Kinect sensor pointed at the user. We propose a set of hand gestures and a machine learning-based approach to classification for triggering momentary actions in the software. Additionally, we define interaction metaphors for applying 3D rigid transformations to a virtual object on screen. We implement these components into a proof-of-concept application compatible with Creaform VXelements.
5

Modélisation des interfaces utilisateur intelligentes pour les environnements informatisés dédiés à l'apprentissage humain

Leclair, Olivier 16 April 2018 (has links)
Les interfaces utilisateur intelligentes (IUI) est un domaine de recherche relativement jeune et pluridisciplinaire, car il fait appel à l'ingénierie des connaissances et au domaine des interfaces personne-machine. Nous avons choisi un cadre spécifique, les environnements informatisés dédiés à l'apprentissage humain (EIAH), pour ainsi bien cibler nos recherches. En étudiant la documentation scientifique sur les IUI dans des EIAH, nos recherches ont montré qu'il y a absence de modèle pour construire des IUI efficaces. Pour remédier ce problème, nous proposons un modèle générique d'IUI qui intègre cinq composantes d'interface pour améliorer les EIAH. Ce modèle a été construit à partir de l'étude des critères d'évaluation d'interfaces et de l'étude d'IUI dans des EIAH existantes. Ce modèle a pour but de créer des IUI qui répondent mieux aux besoins des utilisateurs, qui améliorent l'interaction entre l'humain et la machine, et donc aident les personnes dans leur apprentissage. De plus, il se veut un guide afin de faciliter la conception de ces IUI. Ce modèle a été mis à l'épreuve par une évaluation heuristique par des experts afin de démontrer que notre modèle atteint bien ses objectifs. L'intégration des cinq composantes rend les IUI plus efficaces et de meilleure qualité et leur description peut facilement être réutilisable pour toute autre conception d'IUI de EIAH. Cependant, la mise à jour régulière du modèle s'avère nécessaire et une description plus formelle des composantes pourraient être proposées.
6

Migration d'interfaces utilisateurs textuelles de systèmes patrimoniaux vers le Web

Loghmani, Shadi 20 April 2018 (has links)
Les interfaces utilisateurs détiennent une importance non négligeable dans tout logiciel applicatif, car elles constituent le premier contact entre les utilisateurs et le logiciel. La migration d'interfaces utilisateurs textuelles de systèmes patrimoniaux vers le Web vise à remédier les problèmes liés à l'accès limité de tels systèmes tout en améliorant l'aspect et la convivialité de ces interfaces. Fréquemment, cela implique à la fois le changement de la plate-forme d'exécution - d'une plate-forme textuelle vers une architecture Web - et la refonte complète des interfaces vers une technologie de présentation Web. Ce mémoire est une synthèse des méthodes et des techniques de migration d'interfaces utilisateurs textuelles vers le Web. Nous y abordons, dans un premier temps, les notions reliées aux systèmes patrimoniaux et au Web. Cela permet d'établir le contexte de notre étude à savoir l'environnement de départ et l'environnement cible dans une migration d'interfaces utilisateurs vers le Web. Dans un deuxième temps, nous exposons différentes techniques et approches de migration d'interfaces utilisateurs. Finalement, nous terminons notre présentation avec trois exemples de plates-formes de migration d'interfaces utilisateurs.

Page generated in 0.1267 seconds