Spelling suggestions: "subject:"environnements automobiles"" "subject:"denvironnements automobiles""
1 |
Découverte et fourniture de services adaptatifs dans les environnements mobilesFouial, Ouahiba 05 1900 (has links) (PDF)
Avec l'avènement de la troisième génération, les réseaux de télécommunications mobiles entrent dans une nouvelle phase de leur évolution, d'un réseau omniprésent axé sur la téléphonie mobile, vers des systèmes de fourniture de services à grande échelle. Ces systèmes doivent permettre à des usagers (éventuellement mobiles) d'accéder à leurs services et leur environnement personnalisés quels que soient le réseau et le terminal qu'ils utilisent. Le constat actuel est que la mise en place de la fourniture de services pour ces systèmes nécessite la conception d'une plate-forme distribuée complexe faisant intervenir des éléments hétérogènes (grand choix de réseaux, plusieurs types de terminaux de capacités différentes, multiples opérateurs réseau et fournisseurs de services, contenus de services hétérogènes, etc.). Par ailleurs, l'évolution des terminaux mobiles (ordinateurs portables, assistants personnels, téléphones portables, etc.) et des réseaux mobiles (émergence des réseaux sans fil) permet le développement d'applications fondées sur la mobilité. L'environnement d'exécution de ces applications doit prendre en compte la variété des équipements et des ressources (ex: bande passante) ainsi que la mobilité de l'utilisateur. De plus, les usagers mobiles veulent pouvoir personnaliser les services et les utiliser de la même manière qu'en environnement fixe et ce, quel que soit le service à traiter et quelles que soient les capacités du terminal utilisé. L'objectif de cette thèse est de donner des éléments de solution à ces problèmes. Elle traite de la découverte et la fourniture de services adaptables dans les environnements mobiles. Elle a pour but de proposer une architecture permettant aux usagers mobiles de découvrir et d'exécuter des services sensibles au contexte de leur exécution. Les services proposés sont adaptés aux préférences de l'usager, aux capacités de son terminal, à sa localisation, et enfin, aux ressources réseau disponibles. Dans un premier temps, nous nous intéressons à l'utilisation des agents mobiles pour la fourniture de services dans les environnements mobiles. Ce modèle, bien adapté aux contraintes des environnements mobiles, s'avère intéressant, principalement, dans les applications qui entraînent la consultation de plusieurs services successifs sur le réseau (ex: visite de plusieurs prestataires de services dans le cadre d'une découverte de services). Par la suite, nous proposons une plate-forme de fourniture de services sensibles au contexte appelée CASP (Context Aware Service Provision). Dans cette plate-forme, la sensibilité au contexte est prise en compte dans les deux phases de fourniture de services suivantes: la découverte de services et l'exécution du service sur le terminal mobile. CASP utilise un mécanisme de découverte de services qui permet à l'usager mobile de personnaliser la fourniture de services et de l'adapter à ses exigences. Ce mécanisme, mis en oeuvre par un élément médiateur entre l'usager mobile et les fournisseurs de services, permet de ne proposer à l'usager que les services qui sont adaptés à ses préférences, aux capacités de son terminal et à sa localisation. L'implémentation de ce mécanisme de découverte de services est basée sur des concepts tels que VHE (Virtual Home Environment) et les profils, et utilise des outils standard tels que XML et CC/PP (Composite Capabilities/ Preference Profiles). La sensibilité au contexte dans la plate-forme CASP est également utilisée pour adapter les services, une fois découverts par l'usager, à leur environnement d'exécution. Cette adaptation est réalisée au moment de l'exécution du service sur le terminal mobile. La solution proposée est basée sur l'utilisation de serveurs intermédiaires (Serveur Proxy) entre le terminal mobile et le fournisseur du service. Un service multimédia a été développé pour valider les concepts proposés dans cette thèse. Enfin, nous terminons par une ouverture sur l'utilisation d'une approche de conception de services à base de composants.
|
2 |
A LiDAR and Camera Based Convolutional Neural Network for the Real-Time Identification of Walking TerrainWhipps, David 07 1900 (has links)
La combinaison de données multi-capteurs joue un rôle croissant dans les systèmes de percep- tion artificielle. Les données de profondeur et les capteurs LiDAR en particulier sont devenus la norme pour les systèmes de vision dans les applications de robotique et de conduite auto- nome. La fusion de capteurs peut améliorer la précision des tâches et a été largement étudiée dans des environnements à ressources élevées, mais elle est moins bien comprise dans les ap- plications où les systèmes peuvent être limités en termes de puissance de calcul et de stockage d’énérgie. Dans l’analyse de la démarche chez l’homme, la compréhension du contexte local de la marche joue un rôle important, et l’analyse en laboratoire à elle même peut limiter la capacité des chercheurs à évaluer correctement la marche réelle des patients. La capacité de classifier automatiquement les terrains de marche dans divers environnements pourrait donc constituer un élément important des systèmes d’analyse de l’activité de marche. Le ter- rain de marche peut être mieux identifié à partir de données visuelles. Plusieurs contraintes (notamment les problèmes de confidentialité liés à l’envoi de données visuelles en temps réel hors appareil) limitent cette tâche de classification au dispositif Edge Computing lui- même, un environnement aux ressources limitées. Ainsi, dans ce travail, nous présentons une architecture de réseau neuronal convolutif parallèle, à fusion tardive et optimisée par calcul de bord pour l’identification des terrains de marche. L’analyse est effectuée sur un nouvel ensemble de données intitulé L-AVATeD: l’ensemble de données Lidar et visibles de terrain de marche, composé d’environ 8000 paires de données de scène visuelles (RVB) et de profondeur (LiDAR). Alors que les modèles formés sur des données visuelles uniquement produisent un modèle de calcul de bord capable d’une précision de 82%, une architecture composée d’instances parallèles de MobileNetV2 utilisant à la fois RVB et LiDAR améliore de manière mesurable la précision de la classification (92%) / Terrain classification is a critical sub-task of many autonomous robotic control processes and important to the study of human gait in ecological contexts. Real-time terrain iden- tification is traditionally performed using computer vision systems with input from visual (camera) data. With the increasing availability of affordable multi-sensor arrays, multi- modal data inputs are becoming ubiquitous in mobile, edge and Internet of Things (IoT) devices. Combinations of multi-sensor data therefore play an increasingly important role in artificial perception systems.
Depth data in general and LiDAR sensors in particular are becoming standard for vision systems in applications in robotics and autonomous driving. Sensor fusion using depth data can enhance perception task accuracy and has been widely studied in high resource environments (e.g. autonomous automobiles), but is less well understood in applications where resources may be limited in compute, memory and battery power.
An understanding of local walking context also plays an important role in the analysis of gait in humans, and laboratory analysis of on its own can constrain the ability of researchers to properly assess real-world gait in patients. The ability to automatically classify walking terrain in diverse environments is therefore an important part of gait analysis systems for use outside the laboratory. Several important constraints (notably privacy concerns associated with sending real-time image data off-device) restrict this classification task to the edge- computing device, itself a resource-constrained environment.
In this study, we therefore present an edge-computation optimized, late-fusion, parallel Convolutional Neural Network (CNN) architecture for the real-time identification of walking terrain. Our analysis is performed on a novel dataset entitled L-AVATeD: the Lidar And Visible wAlking Terrain Dataset, consisting of approximately 8,000 pairs of visual (RGB) and depth (LiDAR) scene data. While simple models trained on visual only data produce an edge-computation model capable of 82% accuracy, an architecture composed of parallel instances of MobileNetV2 using both RGB and LiDAR data, measurably improved classifi- cation accuracy (92%).
|
Page generated in 0.0551 seconds