• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Le droit à l'interopérabilité : études de droit de la consommation / The right to interoperability : study of consume law

Duponchelle, Marie 09 April 2015 (has links)
L'interopérabilité devrait être officiellement reconnue, aujourd'hui, comme un droit du consommateur : elle répond à ses besoins de maîtriser ses données, ainsi que d'interconnecter ses outils numériques. Ce droit devrait être opposable aux sujets passifs que sont les éditeurs de logiciels et de contenus numériques. Cependant, le corpus juridique actuel, comprenant essentiellement une obligation d'information précontractuelle et une obligation de ne pas faire obstacle à l'interopérabilité, ne permet pas la mise en œuvre effective de ce droit. Il semble donc nécessaire de formuler des propositions de révision des textes existants, dans la préservation d'un équilibre avec la protection du droit d'auteur et des droits voisins. En premier lieu, s'agissant de l'obligation d'information, les modifications doivent viser à la systématisation de l'information précontractuelle relativement à l'interopérabilité logicielle, à la charge des sujets passifs du droit. En second lieu, s'agissant de l'obligation de ne pas faire obstacle à l'interopérabilité, les propositions doivent avoir pour objet l'instauration d'une réelle obligation de faire, relativement à la mise en œuvre de l'interopérabilité, ce selon deux axes : une obligation de recourir à un format ouvert et non protégé de données ; l'établissement d'une responsabilité de plein droit concernant cette obligation de mise en œuvre effective de l'interopérabilité. / Today, interoperability should be formally recognized as a consumers' right: it meets their needs to control their data, and to interconnect their digital tools. This right should be enforceable against publishers of software and digital contents, considered as passive subjects. However, the current legal corpus, which actually only comprises a pre-contractual information requirement and an obligation not to obstruct interoperability, does not allow for an effective implementation of this right. It therefore seems necessary to make proposals for the revision of existing texts, which would preserve a balance with the protection of copyright and related rights. First, with regard to the information requirement, the changes should be aimed at a systematization of pre-contractual information regarding software interoperability, implemented by the passive subjects of law. Second, with regard to the obligation not to obstruct interoperability, proposals must aim at the establishment of a real obligation to act, with respect to the implementation of interoperability, in two ways : a requirement to use open and unprotected data formats ; the establishment of a strict liability to ensure an effective implementation of interoperability.
2

INDUSTRIALISATION DES CONNAISSANCES : APPROCHES D'INTEGRATION POUR UNE UTILISATION OPTIMALE EN INGENIERIE (CAS DE L'EVALUATION ECONOMIQUE)

Perry, Nicolas 08 November 2007 (has links) (PDF)
L'objectif du Génie Industriel est d'améliorer les performances industrielles. Ce champ très large est abordé dans notre équipe par le développement d'outils et de méthodes basés sur l'utilisation d'environnements d'ingénierie virtuelle. Ces derniers sont conçus pour assister, accélérer et donc améliorer les démarches d'ingénierie liées à la conception et la réalisation de produits, mais aussi la gestion des projets associés.<br />Nous développons ainsi des environnements que nous voulons interactifs, pour l'aide à la prise de décision (SIAD).<br />Dès lors, et indépendamment du domaine abordé, la connaissance des experts d'un métier devient une ressource que l'on voudrait partager au maximum, voir faire fonctionner de manières semi-automatiques. Or ces connaissances sont immatérielles, souvent non formalisées et échangées au travers de flux d'informations dont la quantité, la qualité et la véracité ne sont pas toujours assurées ou certifiées. <br />Il importe donc de s'intéresser aux approches de gestion des connaissances ou Knowledge Management, pour spécifier des environnements virtuels les plus riches possibles (sémantiquement parlant) dans lesquels on peut espérer intégrer une partie des connaissances d'experts. Certaines actions d'ingénierie, dont les processus et les règles ont été formalisés puis modélisés, sont alors partiellement automatisables, laissant la place à l'utilisateur pour décider dans des situations non gérées par l'expertise automatique, de critiquer, révoquer ou faire évoluer les choix et alternatives proposées.<br />Un pan important des études et recherches faites dans les domaines des sciences de l'information et de la communication font la part belle à l'intelligence artificielle. Mais les domaines d'application restent souvent très loin des cas d'utilisation ou d'application d'ingénierie (ingénierie mécanique en particulier).<br />Il nous importe donc de nous imprégner des approches, méthodes et outils existants pour nous les approprier tout en les faisant évoluer pour les adapter à nos besoins. Il faut donc pouvoir maîtriser ces méthodes et leurs solutions techniques pour pouvoir être porteur d'évolutions et requêtes et attirer ces thématiques de recherches vers nos problématiques.<br />En conséquences, mes travaux se sont inscrits dans cette démarche d'appropriation des approches de gestion et d'automatisation des connaissances qui relève d'une thématique d'ingénierie des connaissances. Nous avons donc cherché à développer des environnements à base de connaissances supportant les démarches d'ingénierie.<br />Cette position (ingénieur des connaissances) se place en interface entre l'expert (réceptacle et source des connaissances à partager), l'informaticien (qui va développer l'environnement virtuel à base de connaissances) et l'utilisateur (qui va utiliser et faire vivre l'outil).<br />Dès lors différents points de vue se confrontent, et il devient tout aussi important de maîtriser les aspects techniques (méthodes et solutions existantes pour formaliser et modéliser des connaissances, développer les applications, valider l'intégrité et la cohérence des éléments intégrés et à intégrer, faire vivre les bases de connaissances, etc...) que les aspects de gestion de projet, puisqu'il reste très difficile d'évaluer le retour sur investissement direct de tels projets. Un échec conduisant généralement à l'abandon de ce type d'approches, longues, lourdes et souvent opaques pour l'expert ou l'utilisateur.<br />Cette première partie de mes activités de recherches a donc participé à l'enrichissement d'aspects de modélisation (d'objets d'entreprise : information, connaissances ...), de structuration de ces modèles (méthode de modélisation) et d'intégration dans le cycle de développement d'applications informatiques.<br />En analysant les démarches d'ingénierie en mécanique (au sens large), il est ressorti que nous continuons à approfondir et affiner des modèles et calculs sur les solutions techniques qui répondent à des fonctions et des besoins clients. Cependant, le critère de coût ou de valeur reste très peu évalué ou abordé. Or, dans le contexte mondial et concurrentiel actuel il importe d'assurer l'équilibre entre les fonctions techniques et économiques des produits qui sont devenus de plus en plus complexes.<br />Ainsi nous essayons d'aborder la performance au travers des aspects économiques le long du cycle de vie du produit. Ceci nous donne un domaine d'application de nos travaux sur l'intégration et la mise à disposition d'expertise(s) issue(s) des sciences économiques et de gestion dans les démarches d'ingénierie.<br />Ces travaux ont initialement abordé l'adéquation entre les outils et méthodes d'évaluation économique au regard du cycle de vie produit. Les problèmes d'information partielle ou de passage de modèles se posent alors à chaque étape charnière.<br />De plus, nos réflexions et échanges avec les chercheurs en sciences de gestion nous ont porté vers la prise en compte du concept de valeur englobant le coût. Il est ainsi possible d'évaluer les alternatives de chaînes de valeurs et d'envisager d'aborder la conception conjointe de produits et de processus à valeur ajoutée maîtrisée. Ainsi l'environnement d'aide à la décision complète les contextes de décisions en intégrant les différents points de vus d'acteurs et leurs visions sur la valeur à prendre en compte.<br />L'ensemble de ces travaux et réflexions m'ont conduit au néologisme d'Industrialisation des Connaissances, au sens de la mise à disposition fiable, évolutive et objectivée, des connaissances d'experts d'entreprise. Ces travaux ont été alimentés par 4 thèses soutenues (une en cours), 7 DEA et Masters, des implications dans un Réseau Thématique du FP5 et deux Réseaux d'Excellence du FP6, ainsi qu'une collaboration soutenue depuis 2003 avec une équipe de recherche Sud Africaine.
3

Interopérabilité de protocole de communication adaptatifs basse-consommation pour des réseaux de capteurs / Interoperability of adaptive low power consumption communication protocol for sensor networks

Morin, Elodie 24 April 2018 (has links)
L'essor rencontré par les différentes technologies dédiées aux réseaux de capteurs (WSN), a conduit au développement de plateformes capables d'opérer dans deux technologies différentes, adaptatives aux contextes de transmission. De telles plateformes ouvrent la porte à la conception de réseaux multitechnologies, que nous proposons d'exploiter dans le but de réduire la consommation d'énergie globale. Dans le but d'exploiter ces réseaux multitechnologies, nous décrivons les principales technologies de l'Internet des Objets (IoT), en les comparant sur un pied d'égalité grâce à l'analyseur que nous avons développé, puis les classifions en fonction des mécanismes MAC qu'elles exploitent. Nous analysons ensuite le lien entre le contexte applicatif (latence et fréquence de la génération de données) et le mécanisme MAC consommant le moins d'énergie pour ce contexte applicatif.Nous remarquons alors que les technologies exploitants un mécanisme MAC synchrone sont les plus adaptées aux trafics applicatifs périodiques dont les intervalles entre les générations de données sont courts. En effet, pour ces trafics, la dérive d'horloge entraine un coût de maintien de la synchronisation active trop élevé dans le cas de trafics périodiques rares. De plus, nous remarquons que la gestion des trafics applicatifs rares contraints en latence repose, dans les solutions existantes, sur l'utilisation d'une plateforme constamment active en mode de réception. Nous proposons alors d'exploiter les plateformes multitechnologies pour constituer un réseau synchrone dans lequel chaque nœud répartit son activité dans le temps pour globalement économiser de l'énergie pour remplacer le rôle du dispositif constamment disponible utilisé pour acheminer des trafics asynchrones contraints en latence. Nous remarquons que lors de la procédure d'attache au réseau synchrone, la situation du nœud qui tente de rejoindre un réseau synchrone dans le but d'y acheminer des données est similaire à la situation d'un nœud asynchrone qui souhaite acheminer des données au sein d'un réseau synchrone.Ainsi, nous proposons d'exploiter la phase d'attache au réseau pour acheminer des trafics émanants de noeuds asynchrones, contraints en latence, au sein d'un réseau synchrone.Cependant, les procédures actuellement standardisées d'attache au réseau sont naïves et très coûteuse en énergie, ce qui décourage l'utilisation d'un mode de communication asynchrone, reposant sur une succession d'associations/désassociations du réseau : nous proposons deux approches pour réduire le coût de cette procédure d'attache à un réseau TSCH. La première repose sur l'exploitation de séquences mathématiques dont la propriété est d'étaler les périodes d'activités dans le temps, tout en minimisant l'impact sur la latence de la procédure, pour diminuer le coût énergétique global de la procédure d'attache. La deuxième méthode proposée exploite les trames d'acquittement (ACK) des communications TSCH pour y ajouter des éléments d'informations : la date d'envoi de la prochaine trame de synchronisation sur le même canal physique que celui utilisé pour l'envoi de la trame d'ACK. Grâce au développement d'un simulateur des performances de la phase d'attache à un réseau TSCH, nous montrons que les protocole d'attaches proposés obtiennent de meilleures performances, soit en termes de latence, soit en termes de consommation d'énergie globale, que les protocoles d'attache classiquement utilisés dans les réseaux de capteurs.Enfin, nous proposons d'exploiter les mécanismes de la deuxième proposition d'attache au réseau pour l'envoi de trames de sollicitation à destination d'un nœud fonctionnant avec une technologie asynchrone, permettant ainsi d'acheminer un trafic asynchrone au sein d'un réseau synchrone en une latence bornée. Nous montrons la faisabilité et prouvons l'intérêt d'une telle proposition. / The growth of various technologies dedicated to sensor networks (WSN) has led to the development of platforms capable of operating in two different technologies, adaptive to transmission contexts. Such platforms open the door to the design of multi-technology networks, which we propose to exploit to reduce overall energy consumption. In order to exploit these multi-technology networks, we describe the main Internet of Things (IoT) technologies, comparing them on an equal footing thanks to the analyzer we developed, and classify them according to the MAC mechanisms they use. We then analyze the link between the application context (latency and frequency of data generation) and the MAC mechanism that consumes the least energy for this application context.We note that the technologies operating with a synchronous MAC mechanism are the most suitable for periodic application traffic with short intervals between data generation. For these traffic patterns, clock drift leads to extensive traffic overhead because of the need to actively maintain synchronization for sparse periodic traffic.Moreover, we notice that, in the existing solutions, the management of sparce application traffic management is based on the use of an always-on platform (in reception mode). We thus propose to exploit the multi-technology platforms to build a synchronous network in which each node distributes its activity over time to globally save energy by replacing the role of the always-on platform, while guaranteeing the delivery of the latency-constrained asynchronous traffic.We notice that during the synchronous network joining phase, the situation of the node attempting to join a synchronous network is similar to the situation of an asynchronous node wanting to deliver data through a synchronous network.Thus, we propose to exploit the synchronous network joining phase to route latency-constrained traffic originating from asynchronous nodes through the synchronous network.However, the currently standardised network attachment procedures are naïve and energy-greedy, which discourages the use of an asynchronous communication mode, based on a succession of network associations/dissociations: we thus propose two approaches to reduce the cost of the TSCH network attachment procedure.The first is based on the use of mathematical sequences wich distribute the periods of activity over time, while minimizing the impact on the latency of the procedure, in order to reduce the overall energy cost of the attachment procedure. The second proposed method exploits the acknowledgement frames (ACK) of TSCH data communications to embed the date of the next synchronization frame transmission on the same physical channel as the ACK frame. Thanks to the development of a simulator of the TSCH joining phase, we show that the proposed protocols achieve better performance, either in terms of joining latency, or in terms of overall energy consumption, than the standard joining protocols used in WSN.Finally, we propose to exploit the mechanisms of the second proposal for sending request frames to a node operating with an asynchronous technology, thus enabling asynchronous traffic to be routed through a synchronous network in bounded latency. We demonstrate the value and feasibility of such a proposal.
4

Production et transmission des données de suivi des patients atteints de maladies chroniques dans un contexte de télémédecine et intégration dans un système d'information pour l'aide à la décision / Production and transmission of chronic disease patients monitoring data in a context of telemedicine and integration into an information system for decision support

Finet, Philippe 15 December 2017 (has links)
Le vieillissement de la population s'accompagne de l'augmentation du nombre de patients souffrant de maladies chroniques. Ceci entraîne une augmentation du nombre de visites et d'examens à l'hôpital. La télémédecine peut apporter un bénéfice tant en matière de qualité et de sécurité des soins qu'en matière de réduction des dépenses de santé. Elle apparaît comme une piste prometteuse, mais encore insuffisamment déployée. Nous avons déterminé les pathologies chroniques les plus fréquentes compatibles avec la télémédecine, à savoir l'insuffisance cardiaque, le diabète, l'insuffisance respiratoire et l'insuffisance rénale. Cette étude a mis en exergue la présence d'un ensemble de comorbidités associées à ces quatre pathologies et montré la nécessité d'une prise en charge globale du patient. Un état de l'art des différentes expériences de télémédecine dans le monde pour ces maladies a mis en évidence que les différentes applications proposées sont partiellement redondantes et ne sont pas interopérables entre elles. Ainsi, les patients peuvent réaliser deux fois la même mesure pour le même examen médical, mais pour deux pathologies différentes. Ces deux problèmes peuvent induire des développements redondants pour chaque application de télémédecine, des risques de diminution de l'efficience des applications de télémédecine lors de leur déploiement, ainsi que des risques d'aggravation de la santé du patient dès lors que l'action d'un professionnel de santé sur une pathologie peut avoir des répercussions sur une autre pathologie. Par ailleurs, cette étude a fait apparaître les besoins communs à ces pathologies. Nos travaux ont donc consisté à développer une architecture générique permettant à différentes applications de télémédecine spécifiques à une pathologie chronique de partager un plateau technique commun. L'originalité de ce travail porte d'une part sur l'étude des normes et des standards de communication nécessaires à l'interopérabilité de l'infrastructure envisagée, et d'autre part sur une modélisation des données relatives aux signes vitaux analysés et à leur contexte. En effet, ces dernières contiennent toutes les informations pouvant influer sur l'interprétation des résultats, telles que la date et l'horaire de la mesure réalisée, la nature de la donnée acquise et les caractéristiques des capteurs utilisés. Pour valider notre modèle d'application de télésurveillance des maladies chroniques, nous avons réalisé deux expérimentations. La première, menée en collaboration avec la société AZNetwork, a consisté à mettre en œuvre une plate-forme digitale de recueil et d'archivage des données médicales pour les seniors dans le cadre du projet Silver@Home. La seconde expérimentation réalisée en partenariat avec le réseau de soins TELAP sur le projet Domoplaies a permis d'étendre notre modèle à un système d'échanges d'information médicale entre les professionnels de santé. Ces travaux constituent une proposition de modèle d'application de télémédecine qui est non seulement conforme au Cadre d'Interopérabilité des Systèmes d'Information de Santé (CI-SIS) de l'Agence des Systèmes d'Information Partagés de Santé (ASIP Santé), mais qui constitue une proposition d'extension de ce dernier à l'acquisition des données au domicile du patient. / The current trend in aging population leads to an increasing number of chronic diseases cases and consequently, to an increase of the number of medical examinations and hospital stays. Telemedicine system can contribute to both increase or maintain care quality and safety, as well as to reduce costs. In spite of this potential, telemedicine deployment is currently limited. We identified the most frequent chronic diseases consistent with telemedicine, namely heart failure, diabetes, respiratory failure and kidney failure. This study highlighted a number of comorbidities associated to these four diseases, reflecting the need for overall patient care. A state of the art report on worldwide Telemedicine experiments for the four chronic diseases showed that the current applications are partially redundant and hardly interoperable. Thus, the same measure can be performed twice for the same medical examination, but for two different diseases. These two problems can induce redundant developments, a risk of a decreased efficiency of a telemedicine application during its deployment, as well as risks of making the patient health worse when the intervention of a healthcare professional can have an impact on another chronic disease. Furthermore, this study revealed common requirements for these chronic diseases and their specific features. We developed a generic architecture that allows different telemedicine applications associated with specific diseases to share a common technical platform. The original aspects of this work are first, a study of communication standards to achieve an interoperable system, and, on the other hand second, a health data model for the patient's vital signs. This model contains all the necessary information to interpret the results, such as the date and time of the measurement, the acquired data format and the sensor characteristics. To validate our telemedicine application model, we conducted two experiments. The first one was a collaboration with AZNetwork company. It consisted in the development of a digital platform to collect and archive seniors' data in the context of the Silver@Home project. The second experiment was a partnership with the TELAP network on the Domoplaies project. It allowed us to extend our telemedicine model to a medical data exchange system among healthcare providers. This led us to propose a telemedicine application model, which is not only in conformity with the Health Information Systems Interoperability Framework (HIS-IF) of the "Agence des Systèmes d'Information Partagés de Santé" (ASIP Santé), but also constitutes a proposed extension of this framework to the patient's home.
5

Compression, analyse et visualisation des signaux physiologiques (EEG) appliqués à la télémedecine / Compression, analysis and visualization of EEG signals applied to telemedicine

Dhif, Imen 13 December 2017 (has links)
En raison de la grande quantité d’EEG acquise sur plusieurs journées, une technique de compression efficace est nécessaire. Le manque des experts et la courte durée des crises encouragent la détection automatique des convulsions. Un affichage uniforme est obligatoire pour assurer l’interopérabilité et la lecture des examens EEG transmis. Le codeur certifié médical WAAVES fournit des CR élevés et assure une qualité de diagnostic d’image. Durant nos travaux, trois défis sont révélés : adapter WAAVES à la compression des signaux, détecter automatiquement les crises épileptiques et assurer l’interopérabilité des afficheurs EEG. L’étude du codeur montre qu’il est incapable de supprimer la corrélation spatiale et de compresser des signaux monodimensionnels. Par conséquent, nous avons appliqué l’ICA pour décorréler les signaux, la mise en échelle pour redimensionner les valeurs décimales et la construction d’image. Pour garder une qualité de diagnostic avec un PDR inférieur à 7%, nous avons codé le résidu. L’algorithme de compression EEGWaaves proposé a atteint des CR de l’ordre de 56. Ensuite, nous avons proposé une méthode d’extraction des caractéristiques des signaux EEG basée sur un nouveau modèle de calcul de la prédiction énergétique (EAM) des signaux. Ensuite, des paramètres statistiques ont été calculés et les Réseaux de Neurones ont été appliqués pour détecter les crises épileptiques. Cette méthode nous a permis d’atteindre de meilleure sensibilité allant jusqu’à 100% et une précision de 99.44%. Le dernier chapitre détaille le déploiement de notre afficheur multi-plateforme des signaux physiologiques. Il assure l’interopérabilité des examens EEG entre les hôpitaux. / Due to the large amount of EEG acquired over several days, an efficient compression technique is necessary. The lack of experts and the short duration of epileptic seizures require the automatic detection of these seizures. Furthermore, a uniform viewer is mandatory to ensure interoperability and a correct reading of transmitted EEG exams. The certified medical image WAAVES coder provides high compression ratios CR while ensuring image quality. During our thesis, three challenges are revealed : adapting WAAVES coder to the compression of the EEG signals, detecting automatically epileptic seizures in an EEG signal and ensure the interoperability of the displays of EEG exams. The study of WAAVES shows that this coder is unable to remove spatial correlation and to compress directly monodimensional signals. Therefore, we applied ICA to decorrelate signals, a scaling to resize decimal values, and image construction. To keep a diagnostic quality with a PDR less than 7%, we coded the residue. The proposed compression algorithm EEGWaaves has achieved CR equal to 56. Subsequently, we proposed a new method of EEG feature extraction based on a new calculation model of the energy expected measurement (EAM) of EEG signals. Then, statistical parameters were calculated and Neural Networks were applied to classify and detect epileptic seizures. Our method allowed to achieve a better sensitivity up to 100% and an accuracy of 99.44%. The last chapter details the deployment of our multiplatform display of physiological signals by meeting the specifications established by doctors. The main role of this software is to ensure the interoperability of EEG exams between healthcare centers.
6

Towards interoperable IOT systems with a constraint-aware semantic web of things / Vers une gestion intelligente des données de l'Internet des Objets

Seydoux, Nicolas 16 November 2018 (has links)
Cette thèse porte sur le Web Sémantique des Objets (WSdO), un domaine de recherche à l'interface de l'Internet des Objets (IdO) et du Web Sémantique (WS). L’intégration des approche du WS à l'IdO permettent de traiter l'importante hétérogénéité des ressources, des technologies et des applications de l'IdO, laquelle est une source de problèmes d'interopérabilité freinant le déploiement de systèmes IdO. Un premier verrou scientifique est lié à la consommation en ressource des technologies du WS, là où l'IdO s’appuie sur des objets aux capacités de calcul et de communication limitées. De plus, les réseaux IdO sont déployés à grande échelle, quand la montée en charge est difficile pour les technologies du WS. Cette thèse a pour objectif de traiter ce double défi, et comporte deux contributions. La première porte sur l'identification de critères de qualité pour les ontologies de l'IdO, et l’élaboration de IoT-O, une ontologie modulaire pour l'IdO. IoT-O a été implantée pour enrichir les données d'un bâtiment instrumenté, et pour être moteur de semIoTics, notre application de gestion autonomique. La seconde contribution est EDR (Emergent Distributed Reasoning), une approche générique pour distribuer dynamiquement le raisonnement à base de règles. Les règles sont propagées de proche en proche en s'appuyant sur les descriptions échangées entre noeuds. EDR est évaluée dans deux scénario concrets, s'appuyant sur un serveur et des noeuds contraints pour simuler le déploiement. / This thesis is situated in the Semantic Web of things (SWoT) domain, at the interface between the Internet of Things (IoT) and the Semantic Web (SW). The integration of SW approaches into the IoT aim at tackling the important heterogeneity of resources, technologies and applications in the IoT, which creates interoperability issues impeding the deployment of IoT systems. A first scientific challenge is risen by the resource consumption of the SW technologies, inadequated to the limites computation and communication capabilities of IoT devices. Moreover, IoT networks are deployed at a large scale, when SW technologies have scalability issues. This thesis addresses this double challenge by two contributions. The first one is the identification of quality criteria for IoT ontologies, leading to the proposition of IoT-O, a modular IoT ontology. IoT-O is deployed to enrich data from a smart building, and drive semIoTics, our autonomic computing application. The second contribution is EDR (Emergent Distributed Reasoning), a generic approach to dynamically distributed rule-based reasoning. Rules are propagated peer-to-peer, guided by descriptions exchanged among nodes. EDR is evaluated in two use-cases, using both a server and some constrained nodes to simulate the deployment.
7

Méthodologie d'analyse du centre de gravité de normes internationales publiées : une démarche innovante de recommandation. / Methodology for center of gravity analysis of published international standards : an innovative approach

Peoples, Bruce E. 08 April 2016 (has links)
.../... / “Standards make a positive contribution to the world we live in. They facilitate trade, spreadknowledge, disseminate innovative advances in technology, and share good management andconformity assessment practices”7. There are a multitude of standard and standard consortiaorganizations producing market relevant standards, specifications, and technical reports in thedomain of Information Communication Technology (ICT). With the number of ICT relatedstandards and specifications numbering in the thousands, it is not readily apparent to users howthese standards inter-relate to form the basis of technical interoperability. There is a need todevelop and document a process to identify how standards inter-relate to form a basis ofinteroperability in multiple contexts; at a general horizontal technology level that covers alldomains, and within specific vertical technology domains and sub-domains. By analyzing whichstandards inter-relate through normative referencing, key standards can be identified as technicalcenters of gravity, allowing identification of specific standards that are required for thesuccessful implementation of standards that normatively reference them, and form a basis forinteroperability across horizontal and vertical technology domains. This Thesis focuses on defining a methodology to analyze ICT standards to identifynormatively referenced standards that form technical centers of gravity utilizing Data Mining(DM) and Social Network Analysis (SNA) graph technologies as a basis of analysis. As a proofof concept, the methodology focuses on the published International Standards (IS) published bythe International Organization of Standards/International Electrotechnical Committee; JointTechnical Committee 1, Sub-committee 36 Learning Education, and Training (ISO/IEC JTC1 SC36). The process is designed to be scalable for larger document sets within ISO/IEC JTC1 that covers all JTC1 Sub-Committees, and possibly other Standard Development Organizations(SDOs).Chapter 1 provides a review of literature of previous standard analysis projects and analysisof components used in this Thesis, such as data mining and graph theory. Identification of adataset for testing the developed methodology containing published International Standardsneeded for analysis and form specific technology domains and sub-domains is the focus ofChapter 2. Chapter 3 describes the specific methodology developed to analyze publishedInternational Standards documents, and to create and analyze the graphs to identify technicalcenters of gravity. Chapter 4 presents analysis of data which identifies technical center of gravitystandards for ICT learning, education, and training standards produced in ISO/IEC JTC1 SC 36.Conclusions of the analysis are contained in Chapter 5. Recommendations for further researchusing the output of the developed methodology are contained in Chapter 6.

Page generated in 0.0615 seconds