• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 13
  • 9
  • Tagged with
  • 53
  • 30
  • 11
  • 11
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Etude des mécanismes de vieillissement des batteries Li-ion en cyclage à basse température et en stockage à haute température : compréhension des origines et modélisation du vieillissement / Study of the aging mechanisms of Li-ion batteries in low-temperature cycling and high-temperature storage : understanding of the origins and aging modeling

Pilipili Matadi, Bramy 21 December 2017 (has links)
Afin d'approfondir la compréhension des mécanismes de vieillissement des batteries Li-ion, des analyses post-mortem ont été effectuées sur des cellules commerciales Li-ion C/NMC. Ces autopsies ont révélé des dégradations inattendues qui remettent en question les connaissances actuelles sur les mécanismes de vieillissement de ces cellules. Ainsi, il semble que la réaction parasite des dépôts de Li métallique sur l'électrode en graphite, actuellement associée dans la littérature à des charges à basses températures et / ou à courants élevés, aurait diverses origines selon la chimie et les conditions d'utilisation de la batterie. Dans ce travail de thèse, des dépôts locaux de Li métallique ont été observés sur des cellules vieillies en calendaire à haute température. Paradoxalement, dans des conditions de cyclage à basse température, ce dépôt de Li métallique a résulté de la perte de porosité au niveau de l’électrode négative. Par ailleurs, un modèle de vieillissement semi-empirique, prenant compte les pertes en cyclage ainsi que celles causées par la croissance de la SEI et la polymérisation du biphényl, est proposé. Pour finir, une méthode d'identification des modes de dégradation grâce à des mesures de capacité incrémentale a été entreprise, sur la base du décalage des potentiels de chacune des électrodes. / In order to deepen the understanding of the aging mechanisms of Li-ion batteries, post-mortem investigations were performed on C/NMC Li-ion commercial cells. These autopsies revealed unexpected degradations that question current knowledge about the aging mechanisms of these cells. Thus, it appears that the parasitic reaction of Li metal depositions on the graphite electrode, nowadays associated in the literature with charging at low temperature and / or high C-rates, would have various origins depending on the chemistry and conditions of use of the battery. In this thesis work, local Li deposits were observed on cells aged in calendar at high temperatures, due to the apparition of dry areas. Paradoxically, under low temperature cycling conditions, this Li resulted from anode porosity hindrance. Besides, a semi-empirical aging model, taking into account cycling losses as well as those caused by the SEI growth and the biphenyl polymerization, is proposed. Finally, a method of identifying degradation modes using incremental capacity measurements has been undertaken, based on the potential shifts of each of the electrodes.
42

Une modélisation de la variabilité multidimensionnelle pour une évolution incrémentale des lignes de produits / A multidimensionnal variability modeling for an incremental product line evolution

Creff, Stephen 09 December 2013 (has links)
Le doctorat s'inscrit dans le cadre d'une bourse CIFRE et d'un partenariat entre l'ENSTA Bretagne, l'IRISA et Thales Air Systems. Les préoccupations de ce dernier, et plus particulièrement de l'équipe de rattachement, sont de réaliser des systèmes à logiciels prépondérants embarqués. La complexité de ces systèmes et les besoins de compétitivité associés font émerger la notion de "Model-Based Product Lines(MBPLs)". Celles-ci tendent à réaliser une synergie de l'abstraction de l'Ingénierie Dirigée par les Modèles (IDM) et de la capacité de gestion de la capitalisation et réutilisation des Lignes de Produits (LdPs). La nature irrévocablement dynamique des systèmes réels induit une évolution permanente des LdPs afin de répondre aux nouvelles exigences des clients et pour refléter les changements des artefacts internes de la LdP. L'objectif de cette thèse est unique, maîtriser des incréments d'évolution d'une ligne de produits de systèmes complexes, les contributions pour y parvenir sont duales. La thèse est que 1) une variabilité multidimensionnelle ainsi qu'une modélisation relationnelle est requise dans le cadre de lignes de produits de systèmes complexes pour en améliorer la compréhension et en faciliter l'évolution (proposition d'un cadre générique de décomposition de la modélisation et d'un langage (DSML) nommé PLiMoS, dédié à l'expression relationnelle et intentionnelle dans les MBPLs), et que 2) les efforts de spécialisation lors de la dérivation d'un produit ainsi que l'évolution de la LdP doivent être guidé par une architecture conceptuelle (introduction de motifs architecturaux autour de PLiMoS et du patron ABCDE) et capitalisés dans un processus outillé semi-automatisé d'évolution incrémentale des lignes de produits par extension. / The PhD (CIFRE fundings) was supported by a partnership between three actors: ENSTA Bretagne, IRISA and Thales Air Systems. The latter's concerns, and more precisely the ones from the affiliation team, are to build embedded software-intensive systems. The complexity of these systems, combined to the need of competitivity, reveal the notion of Model-Based Product Lines (MBPLs). They make a synergy of the capabilities of modeling and product line approaches, and enable more efficient solutions for modularization with the distinction of abstraction levels and separation of concerns. Besides, the dynamic nature of real-world systems induces that product line models need to evolve continually to meet new customer requirements and to reflect changes in product line artifacts. The aim of the thesis is to handle the increments of evolution of complex systems product lines, the contributions to achieve it are twofolds. The thesis claims that i) a multidimensional variability and a relational modeling are required within a complex system product line in order to enhance comprehension and ease the PL evolution (Conceptual model modularization framework and PliMoS Domain Specific Modeling Language proposition; the language is dedicated to relational and intentional expressions in MBPLs), and that ii) specialization efforts during product derivation have to be guided by a conceptual architecture (architectural patterns on top of PLiMoS, e.g.~ABCDE) and capitalized within a semi-automatic tooled process allowing the incremental PL evolution by extension.
43

Une approche efficace pour l’étude de la diagnosticabilité et le diagnostic des SED modélisés par Réseaux de Petri labellisés : contextes atemporel et temporel / An Efficient Approach for Diagnosability and Diagnosis of DES Based on Labeled Petri Nets : Untimed and Timed Contexts

Liu, Baisi 17 April 2014 (has links)
Cette thèse s'intéresse à l'étude des problèmes de diagnostic des fautes sur les systèmes à événements discrets en utilisant les modèles réseau de Petri. Des techniques d'exploration incrémentale et à-la-volée sont développées pour combattre le problème de l'explosion de l'état lors de l'analyse de la diagnosticabilité. Dans le contexte atemporel, la diagnosticabilité de modèles RdP-L est abordée par l'analyse d'une série de problèmes K-diagnosticabilité. L'analyse de la diagnosticabilité est effectuée sur la base de deux modèles nommés respectivement FM-graph et FM-set tree qui sont développés à-la-volée. Un diagnostiqueur peut être dérivé à partir du FM-set tree pour le diagnostic en ligne. Dans le contexte temporel, les techniques de fractionnement des intervalles de temps sont élaborées pour développer représentation de l'espace d'état des RdP-LT pour laquelle des techniques d'analyse de la diagnosticabilité peuvent être utilisées. Sur cette base, les conditions nécessaires et suffisantes pour la diagnosticabilité de RdP-LT ont été déterminées. En pratique, l'analyse de la diagnosticabilité est effectuée sur la base de la construction à-la-volée d'une structure nommée ASG et qui contient des informations relatives à l'occurrence de fautes. D'une manière générale, l'analyse effectuée sur la base des techniques à-la-volée et incrémentale permet de construire et explorer seulement une partie de l'espace d'état, même lorsque le système est diagnosticable. Les résultats des simulations effectuées sur certains benchmarks montrent l'efficacité de ces techniques en termes de temps et de mémoire par rapport aux approches traditionnelles basées sur l'énumération des états / This PhD thesis deals with fault diagnosis of discrete event systems using Petri net models. Some on-the-fly and incremental techniques are developed to reduce the state explosion problem while analyzing diagnosability. In the untimed context, an algebraic representation for labeled Petri nets (LPNs) is developed for featuring system behavior. The diagnosability of LPN models is tackled by analyzing a series of K-diagnosability problems. Two models called respectively FM-graph and FM-set tree are developed and built on the fly to record the necessary information for diagnosability analysis. Finally, a diagnoser is derived from the FM-set tree for online diagnosis. In the timed context, time interval splitting techniques are developed in order to make it possible to generate a state representation of labeled time Petri net (LTPN) models, for which techniques from the untimed context can be used to analyze diagnosability. Based on this, necessary and sufficient conditions for the diagnosability of LTPN models are determined. Moreover, we provide the solution for the minimum delay ∆ that ensures diagnosability. From a practical point of view, diagnosability analysis is performed on the basis of on-the-fly building of a structure that we call ASG and which holds fault information about the LTPN states. Generally, using on-the-fly analysis and incremental technique makes it possible to build and investigate only a part of the state space, even in the case when the system is diagnosable. Simulation results obtained on some chosen benchmarks show the efficiency in terms of time and memory compared with the traditional approaches using state enumeration
44

3D urban cartography incorporating recognition and temporal integration / Cartographie urbaine 3D avec reconnaissance et intégration temporelle

Aijazi, Ahmad Kamal 15 December 2014 (has links)
Au cours des dernières années, la cartographie urbaine 3D a suscité un intérêt croissant pour répondre à la demande d’applications d’analyse des scènes urbaines tournées vers un large public. Conjointement les techniques d’acquisition de données 3D progressaient. Les travaux concernant la modélisation et la visualisation 3D des villes se sont donc intensifiés. Des applications fournissent au plus grand nombre des visualisations efficaces de modèles urbains à grande échelle sur la base des imageries aérienne et satellitaire. Naturellement, la demande s’est portée vers des représentations avec un point de vue terrestre pour offrir une visualisation 3D plus détaillée et plus réaliste. Intégrées dans plusieurs navigateurs géographiques comme Google Street View, Microsoft Visual Earth ou Géoportail, ces modélisations sont désormais accessibles et offrent une représentation réaliste du terrain, créée à partir des numérisateurs mobiles terrestres. Dans des environnements urbains, la qualité des données obtenues à partir de ces véhicules terrestres hybrides est largement entravée par la présence d’objets temporairement statiques ou dynamiques (piétons, voitures, etc.) dans la scène. La mise à jour de la cartographie urbaine via la détection des modifications et le traitement des données bruitées dans les environnements urbains complexes, l’appariement des nuages de points au cours de passages successifs, voire la gestion des grandes variations d’aspect de la scène dues aux conditions environnementales constituent d’autres problèmes délicats associés à cette thématique. Plus récemment, les tâches de perception s’efforcent également de mener une analyse sémantique de l’environnement urbain pour renforcer les applications intégrant des cartes urbaines 3D. Dans cette thèse, nous présentons un travail supportant le passage à l’échelle pour la cartographie 3D urbaine automatique incorporant la reconnaissance et l’intégration temporelle. Nous présentons en détail les pratiques actuelles du domaine ainsi que les différentes méthodes, les applications, les technologies récentes d’acquisition des données et de cartographie, ainsi que les différents problèmes et les défis qui leur sont associés. Le travail présenté se confronte à ces nombreux défis mais principalement à la classification des zones urbaines l’environnement, à la détection automatique des changements, à la mise à jour efficace de la carte et l’analyse sémantique de l’environnement urbain. Dans la méthode proposée, nous effectuons d’abord la classification de l’environnement urbain en éléments permanents et temporaires. Les objets classés comme temporaire sont ensuite retirés du nuage de points 3D laissant une zone perforée dans le nuage de points 3D. Ces zones perforées ainsi que d’autres imperfections sont ensuite analysées et progressivement éliminées par une mise à jour incrémentale exploitant le concept de multiples passages. Nous montrons que la méthode d’intégration temporelle proposée permet également d’améliorer l’analyse sémantique de l’environnement urbain, notamment les façades des bâtiments. Les résultats, évalués sur des données réelles en utilisant différentes métriques, démontrent non seulement que la cartographie 3D résultante est précise et bien mise à jour, qu’elle ne contient que les caractéristiques permanentes exactes et sans imperfections, mais aussi que la méthode est également adaptée pour opérer sur des scènes urbaines de grande taille. La méthode est adaptée pour des applications liées à la modélisation et la cartographie du paysage urbain nécessitant une mise à jour fréquente de la base de données. / Over the years, 3D urban cartography has gained widespread interest and importance in the scientific community due to an ever increasing demand for urban landscape analysis for different popular applications, coupled with advances in 3D data acquisition technology. As a result, in the last few years, work on the 3D modeling and visualization of cities has intensified. Lately, applications have been very successful in delivering effective visualizations of large scale models based on aerial and satellite imagery to a broad audience. This has created a demand for ground based models as the next logical step to offer 3D visualizations of cities. Integrated in several geographical navigators, like Google Street View, Microsoft Visual Earth or Geoportail, several such models are accessible to large public who enthusiastically view the real-like representation of the terrain, created by mobile terrestrial image acquisition techniques. However, in urban environments, the quality of data acquired by these hybrid terrestrial vehicles is widely hampered by the presence of temporary stationary and dynamic objects (pedestrians, cars, etc.) in the scene. Other associated problems include efficient update of the urban cartography, effective change detection in the urban environment and issues like processing noisy data in the cluttered urban environment, matching / registration of point clouds in successive passages, and wide variations in environmental conditions, etc. Another aspect that has attracted a lot of attention recently is the semantic analysis of the urban environment to enrich semantically 3D mapping of urban cities, necessary for various perception tasks and modern applications. In this thesis, we present a scalable framework for automatic 3D urban cartography which incorporates recognition and temporal integration. We present in details the current practices in the domain along with the different methods, applications, recent data acquisition and mapping technologies as well as the different problems and challenges associated with them. The work presented addresses many of these challenges mainly pertaining to classification of urban environment, automatic change detection, efficient updating of 3D urban cartography and semantic analysis of the urban environment. In the proposed method, we first classify the urban environment into permanent and temporary classes. The objects classified as temporary are then removed from the 3D point cloud leaving behind a perforated 3D point cloud of the urban environment. These perforations along with other imperfections are then analyzed and progressively removed by incremental updating exploiting the concept of multiple passages. We also show that the proposed method of temporal integration also helps in improved semantic analysis of the urban environment, specially building façades. The proposed methods ensure that the resulting 3D cartography contains only the exact, accurate and well updated permanent features of the urban environment. These methods are validated on real data obtained from different sources in different environments. The results not only demonstrate the efficiency, scalability and technical strength of the method but also that it is ideally suited for applications pertaining to urban landscape modeling and cartography requiring frequent database updating.
45

Raisonnement incertain pour les règles métier / Uncertain reasoning for business rules

Agli, Hamza 20 July 2017 (has links)
Nous étudions dans cette thèse la gestion des incertitudes au sein des systèmes à base de règles métier orientés objet (Object-Oriented Business Rules Management Systems ou OO-BRMS) et nous nous intersessions à des approches probabilistes. Afin de faciliter la modélisation des distributions de probabilités dans ces systèmes, nous proposons d'utiliser les modèles probabilistes relationnels (Probabilistic Relational Models ou PRM), qui sont une extension orientée objet des réseaux bayésiens. Lors de l'exploitation des OO-BRMS, les requêtes adressées aux PRM sont nombreuses et les réponses doivent être calculées rapidement. Pour cela, nous proposons, dans la première partie de cette thèse, un nouvel algorithme tirant parti de deux spécificités des OO-BRMS. Premièrement, les requêtes de ces derniers s'adressent seulement à une sous partie de leur base. Par conséquent, les probabilités à calculer ne concernent que des sous-ensembles de toutes les variables aléatoires des PRM. Deuxièmement, les requêtes successives diffèrent peu les unes des autres. Notre algorithme exploite ces deux spécificités afin d'optimiser les calculs. Nous prouvons mathématiquement que notre approche fournit des résultats exacts et montrons son efficacité par des résultats expérimentaux. Lors de la deuxième partie, nous établissons des principes généraux permettant d'étendre les OO-BRMS pour garantir une meilleure inter-operabilité avec les PRM. Nous appliquons ensuite notre approche au cas d'IBM Operational Decisions Manager (ODM) dans le cadre d'un prototype développé, que nous décrivons de manière générale. Enfin, nous présentons des techniques avancées permettant de compiler des expressions du langage technique d'ODM pour faciliter leur exploitation par le moteur probabiliste des PRM. / In this thesis, we address the issue of uncertainty in Object-Oriented Business Rules Management Systems (OO-BRMSs). To achieve this aim, we rely on Probabilistic Relational Models (PRMs). These are an object-oriented extension of Bayesian Networks that can be exploited to efficiently model probability distributions in OO-BRMSs. It turns out that queries in OO-BRMS are numerous and we need to request the PRM very frequently. The PRM should then provide a rapid answer. For this reason, we propose, in the first part of this thesis, a new algorithm that respects two specifities of OO-BRMSs and optimizes the probabilistic inference accordingly. First, OO-BRMSs queries affect only a subset of their base, hence, the probabilities of interest concern only a subset of the PRMs random variables. Second, successive requests differ only slightly from each other. We prove theoretically the correctness of the proposed algorithm and we highlight its efficiency through experimental tests. During the second part, we establish some principles for probabilistic OO-BRMSs and we describe an approach to couple them with PRMs. Then, we apply the approach to IBM Operational Decision Manager (ODM), one of the state-of-the-art OO-BRMSs, and we provide a general overview of the resulted prototype. Finally, we discuss advanced techniques to compile elements of ODM technical language into instructions that are exploitable by the PRM probabilistic engine.
46

Performance and ageing quantification of electrochemical energy storage elements for aeronautical usage / Evaluation des performances et du vieillissement des éléments de stockage d’énergie électrochimiques pour l’usage aéronautique

Zhang, Yuanci 15 March 2019 (has links)
Dans un contexte de progression du stockage d’énergie sous forme électrochimique dans les transports, notamment dans l’aéronautique, les problématiques de performance, de fiabilité, de sureté de fonctionnement et de durée de vie du stockeur sont essentielles pour utilisateurs. Cette thèse se focalise ces voltes pour l’avion plus électrique. Les technologies étudiées correspondent à des éléments commerciaux de dernière génération de type Lithium-ion (NMC/graphite+SiO, NCA/graphite, LFP/graphite, NMC/LTO), Lithium-Soufre (Li-S), supercondensateur et hybride (LiC). Une première partie de ce manuscrit s’attache à la quantification des performances des différents éléments dans l’environnement aéronautique [-20°C, 55°C] et pour l’usage aéronautique. Un modèle comportemental de type électro-thermique est développé et validé. La seconde partie est consacrée à la quantification du vieillissement des différents éléments. Les résultats de vieillissement calendaire et en cyclage actif sont présentés ainsi que ceux des tests abusifs. Une méthode d’estimation de l’état de santé (SOH) des éléments basés sur l’analyse de la capacité incrémentale (ICA) est proposée. Enfin, l’évaluation de la robustesse des éléments de stockage lors de tests de vieillissement accéléré avec un profil spécifique à l’usage aéronautique est proposé. Les modèles de vieillissement et la méthode d'estimation de SOH proposés précédemment sont utilisés ici pour évaluer l'impact de la température sur la vitesse de dégradation et pour estimer le SOH des cellules vieillies à l’aide de ce profil aéronautique. / In the context of progress in the electrochemical energy storage systems in the transport field, especially in the aeronautics, the issues of performance, reliability, safety and robustness of these elements are essential for users. This thesis is focused on these issues for the more electric aircraft. The technologies studied correspond to the latest generation commercial elements of Lithium-ion batteries (NMC/ graphite + SiO, NCA/graphite, LFP/graphite, NMC/LTO), Lithium-Sulfur (Li-S), Supercapacitor and Lithium-ion capacitors. The first part of this manuscript is dedicated to the performance quantification of the different electrochemical energy storage elements in aeronautical environment [-20°C, 55°C] and usage. An efficient and accurate electro-thermal model is developed and validated. The second part is devoted to the calendar and power cycling ageings as well as to the presentation of abuse testing results. A State Of Health (SOH) estimation based on incremental capacity analysis method is proposed. Finally, the robustness of the storage elements during accelerated ageing tests with a specific profile for the aeronautical usage is evaluated. The ageing models and SOH estimation methods proposed in the previous sections are used here to evaluate the impact of temperature on the degradation rate and to estimate the SOH of the cells with this aeronautical profile.
47

Schémas pratiques pour la diffusion (sécurisée) sur les canaux sans fils / (Secure) Broadcasting over wireless channels practical schemes

Mheich, Zeina 19 June 2014 (has links)
Dans cette thèse, on s'est intéressé à l'étude des canaux de diffusion avec des contraintes de transmission pratiques. Tout d'abord, on a étudié l'impact de la contrainte pratique de l'utilisation d'un alphabet fini à l'entrée du canal de diffusion Gaussien avec deux utilisateurs. Deux modèles de canaux de diffusion sont considérés lorsqu'il y a, en plus d'un message commun pour les deux utilisateurs, (i) un message privé pour l'un des deux utilisateurs sans contrainte de sécurité (ii) un message confidentiel pour l'un des deux utilisateurs qui doit être totalement caché de l'autre utilisateur. On a présenté plusieurs stratégies de diffusion distinguées par leur complexité d'implémentation. Plus précisément, on a étudié les régions des débits atteignables en utilisant le partage de temps, la superposition de modulation et le codage par superposition. Pour la superposition de modulation et le cas général du codage par superposition, les régions des débits atteignables maximales sont obtenues en maximisant par rapport aux positions des symboles dans la constellation et la distribution de probabilité jointe. On a étudié le compromis entre la complexité d'implémentation des stratégies de transmission et leurs efficacités en termes de gains en débits atteignables. On a étudié aussi l'impact de la contrainte de sécurité sur la communication en comparant les débits atteignables avec et sans cette contrainte. Enfin, on a étudié les performances du système avec des schémas d'accusés de réception hybrides (HARQ) pour un canal à écoute à évanouissement par blocs lorsque l'émetteur n'a pas une information parfaite sur l'état instantané du canal mais connait seulement les statistiques. On a considéré un schéma adaptatif pour la communication sécurisée en utilisant des canaux de retour à niveaux multiples vers l'émetteur pour changer la longueur des sous mots de code à chaque retransmission afin que le débit utile secret soit maximisé sous des contraintes d'"outages". / In this thesis, we aim to study broadcast channels with practical transmission constraints. First, we study the impact of finite input alphabet constraint on the achievable rates for the Gaussian broadcast channel with two users. We consider two models of broadcast channels, when there is in addition of a common message for two users, (i) a private message for one of them without secrecy constraint (ii) a confidential message for one of them which should be totally hidden from the other user. We present several broadcast strategies distinguished by their complexity of implementation. More precisely, we study achievable rate regions using time sharing, superposition modulation and superposition coding. For superposition modulation and superposition coding strategies, maximal achievable rate regions are obtained by maximizing over both symbol positions in the constellation and the joint probability distribution. We study the tradeoff between the complexity of implementation of the transmission strategies and their efficiency in terms of gains in achievable rates. We study also the impact of the secrecy constraint on communication by comparing the achievable rates with and without this constraint. Finally, we study the system performance using HARQ schemes for the block-fading wiretap channel when the transmitter has no instantaneous channel state information but knows channel statistics. We consider an adaptive-rate scheme for the secure communication by using multilevel feedback channels to change sub-codeword lengths at each retransmission, in order to maximize the secrecy throughput under outage probabilities constraints.
48

Vers plus d'automatisation dans la construction de systèmes mediateurs pour le web semantique : une application des logiques de description / Towards more automation in building mediator systems in the semantic web context : a description logic application

Niang, Cheikh Ahmed Tidiane 05 July 2013 (has links)
Les travaux que nous présentons dans cette thèse concernent l’automatisation de la construction de systèmes médiateurs pour le web sémantique. L’intégration de données de manière générale et la médiation en particulier sont des processus qui visent à exploiter conjointement des sources d’information indépendantes, hétérogènes et distribuées. L’objectif final est de permettre à un utilisateur d’interroger ces données comme si elles provenaient d’un système unique et centralisé grâce à une interface d’interrogation uniforme basée sur un modèle du domaine d’application, appelé schéma global. Durant ces dernières années, beaucoup de projets de recherche se sont intéressés à cette problématique et de nombreux systèmes d’intégration ont été proposés. Cependant, la quantité d’intervention humaine nécessaire pour construire ces systèmes est beaucoup trop importante pour qu’il soit envisageable de les mettre en place dans bien des situations. De plus, face à la diversité et à l’évolution croissante des sources d’information apparaissent de nouveaux chalenges relatifs notamment à la flexibilité et à la rapidité d’accès à l’information. Nos propositions s’appuient sur les modèles et technologies du web sémantique. Cette généralisation du web qui est un vaste espace d’échange de ressources, non seulement entre êtres humains, mais également entre machines, offre par essence les moyens d’une automatisation des processus d’intégration. Ils reposent d’une part sur des langages et une infrastructure dont l’objectif est d’enrichir le web d’informations "sémantiques", et d’autre part sur des usages collaboratifs qui produisent des ressources ontologiques pertinentes et réutilisables. / This thesis is set in a research effort that aims to bring more automation in building mediator-based data integration systems in the semantic Web context. The mediator approach is a conceptual architecture of data integration that involves combining data residing in different sources and providing users with a unified view of these data. The problem of designing effective data integration solutions has been addressed by several researches, and well-known data integration projects have been developed during the 90’s. However, the building process of these systems rely heavily on human intervention so that it is difficult to implement them in many situations. Moreover, faced with the diversity and the increase of available information sources, the easiness and fastness of information access are new challenges. Our proposals are based on models and technologies of semantic web. The semantic web is recognized as a generalization of the current web which enables to find, combine and share resources, not only between humans but also between machines. It provides a good track for automating the integration process. Possibilities offered by the semantic web are based, on the one hand, on languages and an infrastructure aiming to enrich the web with "semantic" information and, on the other hand, on collaborative practices that allow the production of relevant and reusable ontological resources.
49

Une contribution a l'etude du parallelisme ou en prolog sur des machines sans memoire commune

Geyer, Claudio Fernando Resin January 1991 (has links)
Cette thèse est consacrée à l'etude de l'implantation du parallélisme OU en Prolog sur des machines sans mémoire commune. Nous présentons le modèle multi-séquentiel OU Opera, implanté par compilation (machine abstraite de Warren - WAM), en préservant la sémantique de Prolog. Les deux problèmes principaux d'un tel système, la gestion de contextes multiples et l'ordonnancement, sont détaillés. La gestion des contextes multiples s'effectue par copie incrémentale, en parallèle au calcul. Pour que ceci reste efficace et cohérent, le traitement des variables conditionnelles a été inclus dans la WAM. Notre méthode introduit une nouvelle pile pour ces variables dont l'initialisation, la déliaison été modifiées. Le coût des opérations séquentielles de la WAM est constant et indépendent du nombre de processus. Nous proposons encore une méthode simple et efficace pour la réalisation de la coupure. Un prototype Opera a été implanté sur un réseau de Transputers. Dans ce prototype, l'ordonnancement a été résolu par une méthode basée sur des heuristiques d'évaluation de charge. Cet ordonnancement est mis en ocuvre par une architecture centralisée où un processus ordonnanceur unique régule la charge des autres processus. L'ordonnanceur utilise une répresentation approximative de l'état du système. La partie séquentielle du prototype Opera constitue l'un des systèmes Prolog les plus efficaces existant actuellement sur le Transputer. Ses gains de performance en parallèle sont aussi effectifs. / This thesis is dedicated to the study of the implementation of Or-parallel Prolog over distributed memory machines. The Opera Or multi-sequential model is presented. It uses compiling techniques (Warren Abstract Machine) and preserves the Prolog semantics. Multienvironment management and scheduling, the two major problems of Opera, are described. Multi-environment management is realized by incremental copying, in parallel to the computation. The treatment of conditional variables is included in the WAM, in order to allow an efficient and coherent cooperation. Our method introduces a new pile for these variables, initialization, binding and unbinding of which are adapted. The cost of WAM sequential operations is constant and independent of the number of processes. We also propose a simple and efficient method for implementing cut in parallel. An Opera prototype has been implemented over a Transputer array. In the current prototype, scheduling is resolved by heuristics of load evaluation. This scheduling is centralized, a unique process balancing the load of the other Prolog workers, and using an approximate representation of the state of the system. The Opera prototype is one of the most efficient Prolog implementations on the Transputer, and reaches effective speed-ups in parallel.
50

Une contribution a l'etude du parallelisme ou en prolog sur des machines sans memoire commune

Geyer, Claudio Fernando Resin January 1991 (has links)
Cette thèse est consacrée à l'etude de l'implantation du parallélisme OU en Prolog sur des machines sans mémoire commune. Nous présentons le modèle multi-séquentiel OU Opera, implanté par compilation (machine abstraite de Warren - WAM), en préservant la sémantique de Prolog. Les deux problèmes principaux d'un tel système, la gestion de contextes multiples et l'ordonnancement, sont détaillés. La gestion des contextes multiples s'effectue par copie incrémentale, en parallèle au calcul. Pour que ceci reste efficace et cohérent, le traitement des variables conditionnelles a été inclus dans la WAM. Notre méthode introduit une nouvelle pile pour ces variables dont l'initialisation, la déliaison été modifiées. Le coût des opérations séquentielles de la WAM est constant et indépendent du nombre de processus. Nous proposons encore une méthode simple et efficace pour la réalisation de la coupure. Un prototype Opera a été implanté sur un réseau de Transputers. Dans ce prototype, l'ordonnancement a été résolu par une méthode basée sur des heuristiques d'évaluation de charge. Cet ordonnancement est mis en ocuvre par une architecture centralisée où un processus ordonnanceur unique régule la charge des autres processus. L'ordonnanceur utilise une répresentation approximative de l'état du système. La partie séquentielle du prototype Opera constitue l'un des systèmes Prolog les plus efficaces existant actuellement sur le Transputer. Ses gains de performance en parallèle sont aussi effectifs. / This thesis is dedicated to the study of the implementation of Or-parallel Prolog over distributed memory machines. The Opera Or multi-sequential model is presented. It uses compiling techniques (Warren Abstract Machine) and preserves the Prolog semantics. Multienvironment management and scheduling, the two major problems of Opera, are described. Multi-environment management is realized by incremental copying, in parallel to the computation. The treatment of conditional variables is included in the WAM, in order to allow an efficient and coherent cooperation. Our method introduces a new pile for these variables, initialization, binding and unbinding of which are adapted. The cost of WAM sequential operations is constant and independent of the number of processes. We also propose a simple and efficient method for implementing cut in parallel. An Opera prototype has been implemented over a Transputer array. In the current prototype, scheduling is resolved by heuristics of load evaluation. This scheduling is centralized, a unique process balancing the load of the other Prolog workers, and using an approximate representation of the state of the system. The Opera prototype is one of the most efficient Prolog implementations on the Transputer, and reaches effective speed-ups in parallel.

Page generated in 0.1145 seconds