• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 6
  • 6
  • 6
  • 6
  • 6
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Multimedia data dissemination in opportunistic systems / Diffusion multimédia de données dans des systèmes opportunistes

Klaghstan, Merza 01 December 2016 (has links)
Les réseaux opportunistes sont des réseaux mobiles qui se forment spontanément et de manière dynamique grâce à un ensemble d'utilisateurs itinérants dont le nombre et le déplacement ne sont pas prévisibles. En conséquence, la topologie et la densité de tels réseaux évoluent sans cesse. La diffusion de bout-en-bout d'informations, dans ce contexte, est incertaine du fait de la forte instabilité des liens réseaux point à point entre les utilisateurs. Les travaux qui en ont envisagé l'usage visent pour la plupart des applications impliquant l'envoi de message de petite taille. Cependant, la transmission de données volumineuses telles que les vidéos représente une alternative très pertinente aux réseaux d'infrastructure, en cas d'absence de réseau, de coût important ou pour éviter la censure d'un contenu. La diffusion des informations de grande taille en général et de vidéos en particulier dans des réseaux oppnets constitue un challenge important. En effet, permettre, dans un contexte réseau très incertain et instable, au destinataire d’une vidéo de prendre connaissance au plus vite du contenu de celle-ci, avec la meilleure qualité de lecture possible et en encombrant le moins possible le réseau reste un problème encore très largement ouvert. Dans cette thèse, nous proposons un nouveau mécanisme de diffusion de vidéos dans un réseau opportuniste de faible densité, visant à améliorer le temps d'acheminement de la vidéo tout en réduisant le délai de lecture à destination. La solution proposée se base sur le choix d'encoder la vidéo en utilisant l'encodage SVC, grâce auquel la vidéo se décline en un ensemble de couches interdépendantes (layers), chacune améliorant la précédente soit en terme de résolution, soit en terme de densité, soit en terme de perception visuelle. Notre solution se décline en trois contributions. La première consiste à proposer une adaptation du mécanisme de diffusion Spray-and-Wait, avec comme unités de diffusion, les couches produites par SVC. Les couches sont ainsi diffusées avec un niveau de redondance propre à chacune, adapté à leur degré d'importance dans la diffusion de la vidéo. Notre seconde contribution consiste à améliorer le mécanisme précédent en prenant en compte une granularité plus fine et adaptative en fonction de l'évolution de la topologie du réseau. Cette amélioration a la particularité de ne pas engendrer de coût de partitionnement, les couches vidéos dans l'encodage SVC étant naturellement déclinées en petites unités (NALU) à base desquelles l'unité de transfert sera calculée. Enfin, la troisième contribution de cette thèse consiste à proposer un mécanisme hybride de complétion des couches vidéos arrivées incomplètes à destination. Cette méthode se caractérise par le fait d'être initiée par le destinataire. Elle combine un protocole de demande des parties manquantes aux usagers proches dans le réseau et des techniques de complétion de vidéo à base d’opérations sur les frames constituant la vidéo. / Opportunistic networks are human-centric mobile ad-hoc networks, in which neither the topology nor the participating nodes are known in advance. Routing is dynamically planned following the store-carry-and-forward paradigm, which takes advantage of people mobility. This widens the range of communication and supports indirect end-to-end data delivery. But due to individuals’ mobility, OppNets are characterized by frequent communication disruptions and uncertain data delivery. Hence, these networks are mostly used for exchanging small messages like disaster alarms or traffic notifications. Other scenarios that require the exchange of larger data are still challenging due to the characteristics of this kind of networks. However, there are still multimedia sharing scenarios where a user might need switching to an ad-hoc alternative. Examples are the cases of 1) absence of infrastructural networks in far rural areas, 2) high costs due limited data volumes or 3) undesirable censorship by third parties while exchanging sensitive content. Consequently, we target in this thesis a video dissemination scheme in OppNets. For the video delivery problem in the sparse opportunistic networks, we propose a solution that encloses three contributions. The first one is given by granulating the videos at the source node into smaller parts, and associating them with unequal redundancy degrees. This is technically based on using the Scalable Video Coding (SVC), which encodes a video into several layers of unequal importance for viewing the content at different quality levels. Layers are routed using the Spray-and-Wait routing protocol, with different redundancy factors for the different layers depending on their importance degree. In this context as well, a video viewing QoE metric is proposed, which takes the values of the perceived video quality, delivery delay and network overhead into consideration, and on a scalable basis. Second, we take advantage of the small units of the Network Abstraction Layer (NAL), which compose SVC layers. NAL units are packetized together under specific size constraints to optimize granularity. Packets sizes are tuned in an adaptive way, with regard to the dynamic network conditions. Each node is enabled to record a history of environmental information regarding the contacts and forwarding opportunities, and use this history to predict future opportunities and optimize the sizes accordingly. Lastly, the receiver node is pushed into action by reacting to missing data parts in a composite backward loss concealment mechanism. So, the receiver asks first for the missing data from other nodes in the network in the form of request-response. Then, since the transmission is concerned with video content, video frame loss error concealment techniques are also exploited at the receiver side. Consequently, we propose to combine the two techniques in the loss concealment mechanism, which is enabled then to react to missing data parts.
2

Context-aware worker selection for efficient quality control in crowdsourcing / Sélection des travailleurs attentifs au contexte pour un contrôle efficace de la qualité en externalisation à grande échelle

Awwad, Tarek 13 December 2018 (has links)
Le crowdsourcing est une technique qui permet de recueillir une large quantité de données d'une manière rapide et peu onéreuse. Néanmoins, La disparité comportementale et de performances des "workers" d’une part et la variété en termes de contenu et de présentation des tâches par ailleurs influent considérablement sur la qualité des contributions recueillies. Par conséquent, garder leur légitimité impose aux plateformes de crowdsourcing de se doter de mécanismes permettant l’obtention de réponses fiables et de qualité dans un délai et avec un budget optimisé. Dans cette thèse, nous proposons CAWS (Context AwareWorker Selection), une méthode de contrôle de la qualité des contributions dans le crowdsourcing visant à optimiser le délai de réponse et le coût des campagnes. CAWS se compose de deux phases, une phase d’apprentissage opérant hors-ligne et pendant laquelle les tâches de l’historique sont regroupées de manière homogène sous forme de clusters. Pour chaque cluster, un profil type optimisant la qualité des réponses aux tâches le composant, est inféré ; la seconde phase permet à l’arrivée d’une nouvelle tâche de sélectionner les meilleurs workers connectés pour y répondre. Il s’agit des workers dont le profil présente une forte similarité avec le profil type du cluster de tâches, duquel la tâche nouvellement créée est la plus proche. La seconde contribution de la thèse est de proposer un jeu de données, appelé CrowdED (Crowdsourcing Evaluation Dataset), ayant les propriétés requises pour, d’une part, tester les performances de CAWS et les comparer aux méthodes concurrentes et d’autre part, pour tester et comparer l’impact des différentes méthodes de catégorisation des tâches de l’historique (c-à-d, la méthode de vectorisation et l’algorithme de clustering utilisé) sur la qualité du résultat, tout en utilisant un jeu de tâches unique (obtenu par échantillonnage), respectant les contraintes budgétaires et gardant les propriétés de validité en terme de dimension. En outre, CrowdED rend possible la comparaison de méthodes de contrôle de qualité quelle que soient leurs catégories, du fait du respect d’un cahier des charges lors de sa constitution. Les résultats de l’évaluation de CAWS en utilisant CrowdED comparés aux méthodes concurrentes basées sur la sélection de workers, donnent des résultats meilleurs, surtout en cas de contraintes temporelles et budgétaires fortes. Les expérimentations réalisées avec un historique structuré en catégories donnent des résultats comparables à des jeux de données où les taches sont volontairement regroupées de manière homogène. La dernière contribution de la thèse est un outil appelé CREX (CReate Enrich eXtend) dont le rôle est de permettre la création, l’extension ou l’enrichissement de jeux de données destinés à tester des méthodes de crowdsourcing. Il propose des modules extensibles de vectorisation, de clusterisation et d’échantillonnages et permet une génération automatique d’une campagne de crowdsourcing. / Crowdsourcing has proved its ability to address large scale data collection tasks at a low cost and in a short time. However, due to the dependence on unknown workers, the quality of the crowdsourcing process is questionable and must be controlled. Indeed, maintaining the efficiency of crowdsourcing requires the time and cost overhead related to this quality control to stay low. Current quality control techniques suffer from high time and budget overheads and from their dependency on prior knowledge about individual workers. In this thesis, we address these limitation by proposing the CAWS (Context-Aware Worker Selection) method which operates in two phases: in an offline phase, the correlations between the worker declarative profiles and the task types are learned. Then, in an online phase, the learned profile models are used to select the most reliable online workers for the incoming tasks depending on their types. Using declarative profiles helps eliminate any probing process, which reduces the time and the budget while maintaining the crowdsourcing quality. In order to evaluate CAWS, we introduce an information-rich dataset called CrowdED (Crowdsourcing Evaluation Dataset). The generation of CrowdED relies on a constrained sampling approach that allows to produce a dataset which respects the requester budget and type constraints. Through its generality and richness, CrowdED helps also in plugging the benchmarking gap present in the crowdsourcing community. Using CrowdED, we evaluate the performance of CAWS in terms of the quality, the time and the budget gain. Results shows that automatic grouping is able to achieve a learning quality similar to job-based grouping, and that CAWS is able to outperform the state-of-the-art profile-based worker selection when it comes to quality, especially when strong budget ant time constraints exist. Finally, we propose CREX (CReate Enrich eXtend) which provides the tools to select and sample input tasks and to automatically generate custom crowdsourcing campaign sites in order to extend and enrich CrowdED.
3

Achieving collaboration in distributed systems deployed over selfish peers / Obtenir la collaboration dans les systèmes repartis déployés sur des nœuds égoïstes

Mayer, Tobias René 24 September 2013 (has links)
Les réseaux actuels sont souvent caractérisés par une intégration dynamique de nœuds étrangers. La possibilité qu’une entité dissidente égoïste exploite un nœud augmente alors, ce qui peut constituer une violation du protocole de collaboration en vue d’accroître un avantage personnel. Si de telles violations diffèrent des objectifs du système, elles peuvent même être considérées comme une attaque. Si des techniques de tolérance aux fautes existent pour affaiblir l’impact sur le système, celui-ci ne peut pas totalement se prémunir de ce type d’attaque. Cela justifie la nécessité d’une approche pour maintenir un degré de collaboration nœuds égoïstes dans les systèmes distribues. Dans cette thèse, nous considérons le problème d’atteindre un niveau ciblé de collaboration dans une architecture répartie intégrant des nœuds égoïstes, qui ont intérêt à violer le protocole de collaboration pour tirer parti du système. L’architecture et le protocole seront modifies le moins possible. Un mécanisme d’inspection de chaque nœud sera mis en place pour décider de la légitimité de ses interactions avec ses voisins. Le concepteur du système d’inspection est confronté avec une situation complexe. Il doit corréler plusieurs aspects tels que les circonstances particulières de l’environnement ou des préférences individuelles du nœud. En outre, il doit tenir compte du fait que les nœuds peuvent connaitre l’état de ses voisins et construire ses décisions en conséquence. La surveillance proposée dans cette thèse correspond à une classe de modèles de la théorie des jeux connus sous le nom « Inspection Game » (IG). Ils modélisent la situation générale où un « inspecteur » vérifie par des inspections du comportement correct d’une autre partie, appelée « inspectee ». Toutefois, les inspections sont coûteuses et les ressources de l’inspecteur sont limitées. Par conséquent, une surveillance complète n’est pas envisageable et un inspecteur tentera de minimiser les inspections. Dans cette thèse, le modèle initial IG est enrichi par la possibilité d’apparition de faux négatifs, c’est à dire la probabilité qu’une violation ne soit pas détectée lors d’une inspection. Appliqué sur des systèmes distribués, cette approche permet de modéliser les choix collaboratifs de chacun des acteurs (violer le protocole ou pas, inspecter ou pas). Comme résultat, le modèle IG retourne les paramètres du système pour atteindre le niveau de collaboration souhaité. L’approche est conçue comme un « framework ». Elle peut donc s’adapter à toutes les architectures et toutes les techniques de fiabilité. Cette approche IG sera présentée à l’aide d’un exemple concret d’architecture Publish/Subscribe. L’approche du jeu d’inspection de cette thèse pour objectif de sécuriser l’ensemble du protocole de collaboration. Ceci constitue un nouveau concept de mécanisme de fiabilité. [...] / Today’s networks are often characterized by a free aggregation of independent nodes. Thus, the possibility increases that a selfish party operates a node, which may violate the collaborative protocol in order to increase a personal benefit. If such violations differ from the system goals they can even be considered as attack. Current fault-tolerance techniques may weaken the harmful impact to some degree but they cannot always prevent them. Furthermore, the several architectures differ in their fault-tolerance capabilities. This emphasizes the need for approaches able to achieve collaboration from selfish nodes in distributed systems. In this PhD thesis, we consider the problem of attaining a targeted level of collaboration in a distributed architecture deployed over rational selfish nodes. They have interest in deviating from the collaborative protocol to increase a personal benefit. In order to cover a broad spectrum of systems, we do not modify the collaborative protocol itself. Instead, we propose to add a monitoring logic to inspect the correctness of a node’s behaviour. The designer of the monitoring system is faced with a complex and dynamic situation. He needs to consider aspects such as the specific circumstances (e.g. message traffic), the inspection effort or the node’s individual preferences. Furthermore, he should consider that each agent could be aware of the other agents’ preferences as well as selfishness and perform strategic choices consequently. This complex and interdependent setup corresponds to a class of Game Theory (GT) known as Inspection Games (IG). They model the general situation where an inspector verifies through inspections the correct behaviour of another party, called inspectee. However, inspections are costly and the inspector’s resources are limited. Hence, a complete surveillance is not possible and an inspector will try to minimize the inspections. In this thesis, the initial IG model is enriched by the possibility that a violation is not detected during an inspection (false negatives). Applied to distributed systems, the IG is used to model the network participants’ strategy choice. As outcome, it enables to calculate system parameters to attain the desired collaboration value. The approach is designed as generic framework. It can be therefore applied to any architecture considering any selfish goal and any reliability technique. For the sake of concreteness, we will discuss the IG approach by means of the illustrative case of a Publish/Subscribe architecture. The IG framework of this thesis secures the whole collaborative protocol by a monitoring approach. This represents a new way in terms of reliability mechanisms. The applicability is furthermore supported by the software library RCourse. Simplifying robustness evaluations of distributed systems, it is suitable for model verification and parameter calibration.
4

Personalizable architecture model for optimizing the access to pervasive ressources and services : Application in telemedicine / Modèle d’architecture personnalisable pour l’optimisation de l’accès à des ressources et services pervasifs : Application à la télémédecine

Nageba, Ebrahim 07 December 2011 (has links)
Le développement et l’usage croissants de systèmes pervasifs, dotés de fonctionnalités et de moyens de communication de plus en plus sophistiqués, offrent de fantastiques potentialités de services, en particulier pour l’e-Santé et la télémédecine, au bénéfice de tout citoyen, patient ou professionnel de santé. L’un des challenges sociétaux actuels est de permettre une meilleure exploitation des services disponibles pour l’ensemble des acteurs impliqués dans un domaine donné. Mais la multiplicité des services offerts, la diversité fonctionnelle des systèmes, et l’hétérogénéité des besoins nécessitent l’élaboration de modèles de connaissances de ces services, des fonctions de ces systèmes et des besoins. En outre, l’hétérogénéité des environnements informatiques distribués, la disponibilité et les capacités potentielles des diverses ressources humaines et matérielles (instrumentation, services, sources de données, etc.) requises par les différentes tâches et processus, la variété des services qui fournissent des données aux utilisateurs, et les conflits d’interopérabilité entre schémas et sources de données sont autant de problématiques que nous avons à considérer au cours de nos travaux de recherche. Notre contribution vise à optimiser la qualité de services en environnement ambiant et à réaliser une exploitation intelligente de ressources ubiquitaires. Pour cela, nous proposons un méta-modèle de connaissances des principaux concepts à prendre en compte en environnement pervasif. Ce méta-modèle est basé sur des ontologies décrivant les différentes entités précitées dans un domaine donné ainsi que leurs relations. Puis, nous l’avons formalisé en utilisant un langage standard de description des connaissances. A partir de ce modèle, nous proposons alors une nouvelle méthodologie de construction d’un framework architectural, que nous avons appelé ONOF-PAS. ONOF-PAS est basé sur des modèles ontologiques, une base de règles, un moteur d’inférence, et des composants orientés objet permettant la gestion des différentes tâches et le traitement des ressources. Il s’agit d’une architecture générique, applicable à différents domaines. ONOF-PAS a la capacité d’effectuer un raisonnement à base de règles pour gérer les différents contextes d’utilisation et aider à la prise de décision dans des environnements hétérogènes dynamiques, tout en tenant compte de la disponibilité et de la capacité des ressources humaines et matérielles requises par les diverses tâches et processus exécutés par des systèmes d’information pervasifs. Enfin, nous avons instancié ONOF-PAS dans le domaine de la télémédecine pour traiter le scénario de l’orientation des patients ou de personnes victimes de problèmes de santé en environnement hostile telles que la haute montagne ou des zones géographiquement isolées. Un prototype d’implémentation de ces scénarios, appelé T-TROIE a été développé afin de valider le framework ONOF-PAS. / The growing development and use of pervasive systems, equipped with increasingly sophisticated functionalities and communication means, offer fantastic potentialities of services, particularly in the eHealth and Telemedicine domains, for the benifit of each citizen, patient or healthcare professional. One of the current societal challenges is to enable a better exploitation of the available services for all actors involved in a given domain. Nevertheless, the multiplicity of the offered services, the systems functional variety, and the heterogeneity of the needs require the development of knowledge models of these services, systems functions, and needs. In addition, the distributed computing environments heterogeneity, the availability and potential capabilities of various human and material resources (devices, services, data sources, etc.) required by the different tasks and processes, the variety of services providing users with data, the interoperability conflicts between schemas and data sources are all issues that we have to consider in our research works. Our contribution aims to empower the intelligent exploitation of ubiquitous resources and to optimize the quality of service in ambient environment. For this, we propose a knowledge meta-model of the main concepts of a pervasive environment, such as Actor, Task, Resource, Object, Service, Location, Organization, etc. This knowledge meta-model is based on ontologies describing the different aforementioned entities from a given domain and their interrelationships. We have then formalized it by using a standard language for knowledge description. After that, we have designed an architectural framework called ONOF-PAS (ONtology Oriented Framework for Pervasive Applications and Services) mainly based on ontological models, a set of rules, an inference engine, and object oriented components for tasks management and resources processing. Being generic, extensible, and applicable in different domains, ONOF-PAS has the ability to perform rule-based reasoning to handle various contexts of use and enable decision making in dynamic and heterogeneous environments while taking into account the availability and capabilities of the human and material resources required by the multiples tasks and processes executed by pervasive systems. Finally, we have instantiated ONOF-PAS in the telemedicine domain to handle the scenario of the transfer of persons victim of health problems during their presence in hostile environments such as high mountains resorts or geographically isolated areas. A prototype implementing this scenario, called T-TROIE (Telemedicine Tasks and Resources Ontologies for Inimical Environments), has been developed to validate our approach and the proposed ONOF-PAS framework.
5

Opérer les réseaux de l'Internet des Objets à l'aide de contrats de qualité de service (Service Level Agreements) / How to operate IoT networks with contracts of quality of service (Service Level Agreements)

Gaillard, Guillaume 19 December 2016 (has links)
Avec l'utilisation grandissante des technologies distribuées sans fil pour la modernisation des services, les déploiements d'infrastructures radio dédiées ne permettent plus de garantir des communications fiables, à grande échelle et pour un bas coût. Cette thèse vise à permettre à un opérateur de déployer une infrastructure de réseau radio pour plusieurs applications clientes de l'Internet des Objets (IoT). Nous étudions la mutualisation d'une architecture pour différents flux de trafic afin de rentabiliser le déploiement du réseau en partageant la capacité des nœuds et une large couverture. Nous devons alors garantir une Qualité de Service (QoS) différenciée pour les flux de chaque application. Nous proposons de spécifier des contrats de QoS nommés Service Level Agreements (SLA) dans le domaine de l'IoT. Ceux-ci définissent les indicateurs clés de performance (KPI) de délai de transit et de taux de livraison pour le trafic provenant d'objets connectés distribués géographiquement. Dans un second temps, nous détaillons les fonctionnalités nécessaires à la mise en œuvre des SLA sur le réseau opéré, sous la forme d'une architecture de gestion de SLA. Nous envisageons l'admission de nouveaux flux, l'analyse des performances courantes et la configuration des relais de l'opérateur. Sur la base d'une technologie robuste, multi-saut, IEEE Std 802.15.4-2015 mode TSCH, nous proposons un mécanisme d'observation de réseau permettant de vérifier les différents KPI. Nous utilisons les trames de données existantes comme support de collecte afin de réduire le surcoût en termes de ressources de communication. Nous comparons différentes stratégies de piggybacking afin de trouver un compromis entre la performance et l'efficacité de l'observation. Puis nous détaillons KAUSA, un algorithme d'allocation de ressources sous contraintes de QoS multi-flux. Nous dédions des ressources temps-fréquences ajustées saut-par-saut pour chaque message. KAUSA prend en compte les interférences, la fiabilité des liens radio et la charge attendue afin d'améliorer la répartition des ressources allouées et ainsi prolonger la durée de vie du réseau. Nous montrons les gains et la validité de nos contributions par simulation, sur la base de scénarios réalistes de trafic et d'exigences. / With the growing use of distributed wireless technologies for modern services, the deployments of dedicated radio infrastructures do not enable to ensure large-scale, low-cost and reliable communications. This PhD research work aims at enabling an operator to deploy a radio network infrastructure for several client applications, hence forming the Internet of Things (IoT). We evaluate the benefits earned by sharing an architecture among different traffic flows, in order to reduce the costs of deployment, obtaining a wide coverage through efficient use of the capacity on the network nodes. We thus need to ensure a differentiated Quality of Service (QoS) for the flows of each application. We propose to specify QoS contracts, namely Service Level Agreements (SLAs), in the context of the IoT. SLAs include specific Key Performance Indicators (KPIs), such as the transit time and the delivery ratio, concerning connected devices that are geographically distributed in the environment. The operator agrees with each client on the sources and amount of traffic for which the performance is guaranteed. Secondly, we describe the features needed to implement SLAs on the operated network, and we organize them into an SLA management architecture. We consider the admission of new flows, the analysis of current performance and the configuration of the operator's relays. Based on a robust, multi-hop technology, IEEE Std 802.15.4-2015 on TSCH mode, we provide two essential elements to implement the SLAs: a mechanism for the monitoring of the KPIs, and KAUSA, a resource allocation algorithm with multi-flow QoS constraints. The former uses existing data frames as a transport medium to reduce the overhead in terms of communication resources. We compare different piggybacking strategies to find a tradeoff between the performance and the efficiency of the monitoring. With the latter, KAUSA, we dedicate adjusted time-frequency resources for each message, hop by hop. KAUSA takes into account the interference, the reliability of radio links and the expected load to improve the distribution of allocated resources and prolong the network lifetime. We show the gains and the validity of our contributions with a simulation based on realistic traffic scenarios and requirements.
6

Personalised wearable cardiac sensor services for pervasive self-care / Conception de services personnalisés pour la capture ubiquitaire de signes vitaux en Santé

Krupaviciute, Asta 20 December 2011 (has links)
L'objectif de cette thèse est de concevoir une architecture de services Web pour la dé-termination automatique d’un système de capteurs personnalisé, embarqué sous forme de vêtement intelligent dédié au self-care, afin de permettre à tout utilisateur profane d'enregistrer lui-même son propre électrocardiogramme (ECG), à tout moment et n’importe où. Le défi principal réside dans l'orchestration intelligente et dynamique de services métiers en fonction du contexte, pour qu’ils fournissent à l'utilisateur une solution personnalisée optimale tout en maîtrisant la complexité inhérente à la dépendance au contexte des interactions homme-machine, à l'extraction des connaissances des signes vitaux spécifiques à un sujet, et à l'automatisation de la reconfiguration des services. Une solution à ce défi est de créer une intelligence ambiante qui étend la notion d'informatique ubiquitaire et est capable d’offrir à l’instar d’un expert du domaine, une assistance intelligente personnalisée à tout citoyen. Nous proposons une méthodologie de construction d'une architecture DM-SOA orientée-services, dirigée à la fois par les données et par des modèles, pour la production de services métiers intelligents et tenant compte du contexte. Cette architecture permet l’automatisation d’activités sophistiquées et personnalisées qu’un expert mettrait en œuvre pour le traitement d’un cas individuel, à partir de ses connaissances professionnelles. La solution proposée est basée sur une nouvelle approche de modélisation dynamique de processus métiers, et l’implémentation de services reconfigurables automatiquement. Elle consiste à mettre en œuvre un environnement intelligent fondé sur une ontologie de processus métiers des concepts du domaine et de son contexte, et sur une base de règles pour l'orchestration contextuelle des services. Pour valider le bien-fondé de notre approche, nous avons proposé une ontologie pour l’automatisation de processus d’aide à la décision et nous l’avons évaluée dans le domaine de la cardiologie, en l’appliquant au problème de la sélection la plus adéquate possible d’un système de positionnement d’électrodes, spécifique à chaque individu, et capable de fournir un signal ECG de contenu diagnostique similaire à celui d'un ECG standard à 12 dérivations. Pour répondre aux besoins en situation de self-care tout en préservant la qualité diagnostique des signaux enregistrés à la demande, nous proposons la réalisation d’un nouveau système prototype de capture ECG-3D à trois modalités. Ce prototype a été testé sur huit jeunes adultes volontaires sains (4 hommes et 4 femmes) présentant diverses caractéristiques morphologiques. L'intelligence ambiante est fournie par un ensemble de services de qualité professionnelle, prêts à l’emploi par des utilisateurs profanes. Ces services peuvent être accessibles au travail, n’importe où, via des moyens classiquement utilisés chaque jour, et fournissent une aide appropriée aux utilisateurs non-compétents. / The aim of the thesis is to design a web services architecture that shall support the automatic determination of a personalised sensor-system, which is embedded in smart garments, and which shall be used in self-care in order to allow a profane user to record himself a personal electrocardiogram (ECG), at anytime and anywhere. The main challenge consists in the intelligent and dynamic orchestration of context-aware business services that supply the user with an optimal personalised solution, while mastering the system’s complexity: context dependent user and system interactions, knowledge extraction from subject-specific vital signs, services reconfiguration automation. The solution to this challenge is to create an Ambient Intelligence which goes beyond Ubiquitous Computing and is capable to replace an expert by proposing an Intelligent Assistance to any citizen. We propose a methodology expressed in terms of Data and Model driven Service Oriented Architecture (DM-SOA), which provides a framework for the production of context-aware intelligent business services. This architecture supports the automation of sophisticated and personalised expert activities, which apply professional knowledge to process an individual case. The proposed solution is based on a new dynamic business process modelling approach and in its implementation via automatically reconfigurable services. It consists in setting-up an intelligent environment based on a business process ontology of context-aware concepts and on related context handling rules for services orchestration. A core-ontology has been designed to support the automation of expert activities related to decision-making. The soundness of the method and of the underlying decision-making techniques has been demonstrated in the cardiology domain for selecting the most adequate subject-specific sensor-system, characterised by its ability to yield for an ECG signal of similar diagnostic content than a standard 12-lead ECG. We propose the design of a new three modalities sensor-system prototype as a response to the need of sensor-systems used on demand in self-care situations and ensuring diagnostic quality signals recordings. This prototype has been tested on a set of healthy volunteers presenting various characteristics in age, sex and morphology. In this context, Ambient Intelligence is demonstrated as an ensemble of professional quality services ready to use by profane users. These services are accessible pervasively, trough the objects people work with / wear on / use each day, and provide an appropriate guidance to the non-competent users. Such an Ambient Intelligence approach strongly supports the vision of an Information Society which corresponds to the long-term goal of the EU Information Society Technologies Research Programme that aims to ease knowledge access. The future healthcare will benefit from this approach and will significantly improve patient care.

Page generated in 0.3894 seconds