• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 98
  • 47
  • 28
  • 1
  • Tagged with
  • 175
  • 175
  • 175
  • 70
  • 69
  • 62
  • 60
  • 47
  • 47
  • 46
  • 41
  • 37
  • 34
  • 32
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

An Evolution-based Approach for Assessing Ontology Mappings - A Case Study in the Life Sciences

Thor, Andreas, Hartung, Michael, Groß, Anika, Kirsten, Toralf 01 February 2019 (has links)
Ontology matching has been widely studied. However, the resulting on-tology mappings can be rather unstable when the participating ontologies or util-ized secondary sources (e.g., instance sources, thesauri) evolve. We propose an evolution-based approach for assessing ontology mappings by annotating their cor-respondences by information about similarity values for past ontology versions. These annotations allow us to assess the stability of correspondences over time and they can thus be used to determine better and more robust ontology mappings. The approach is generic in that it can be applied independently from the utilized match technique. We define different stability measures and show results of a first evaluation for the life science domain.
72

Dynamic Multi-Resource Load Balancing in Parallel Database Systems

Rahm, Erhard, Marek, Robert 04 February 2019 (has links)
Parallel database systems have to support the effective parallelization of complex queries in multi-user mode, i.e. in combination with inter-query/inter-transaction parallelism. For this purpose, dynamic scheduling and load balancing strategies are necessary that consider the current system state for determining the degree of intra-query parallelism and for selecting the processors for executing subqueries. We study these issues for parallel hash join processing and show that the two subproblems should be addressed in an integrated way. Even more importantly, however, is the use of a multiresource load balancing approach that considers all potential bottleneck resources, in particular memory, disk and CPU. We discuss basic performance tradeoffs to consider and evaluate the performance of several load balancing strategies by means of a detailed simulation model. Simulation results will be analyzed for multi-user configurations with both homogeneous and heterogeneous (query/OLTP) workloads.
73

Skew-Insensitive Join Processing in Shared-Disk Database Systems

Märtens, Holger 05 February 2019 (has links)
Skew effects are still a significant problem for efficient query processing in parallel database systems. Especially in shared-nothing environments, this problem is aggravated by the substantial cost of data redistribution. Shared-disk systems, on the other hand, promise much higher flexibility in the distribution of workload among processing nodes because all input data can be accessed by any node at equal cost. In order to verify this potential for dynamic load balancing, we have devised a new technique for skew-tolerant join processing. In contrast to conventional solutions, our algorithm is not restricted to estimating processing costs in advance and assigning tasks to nodes accordingly. Instead, it monitors the actual progression of work and dynamically allocates tasks to processors, thus capitalizing on the uniform access pathlength in shared-disk architectures. This approach has the potential to alleviate not only any kind of data-inherent skew, but also execution skew caused by query- external workloads, by disk contention, or simply by inaccurate estimates used in predictive scheduling. We employ a detailed simulation system to evaluate the new algorithm under different types and degrees of skew.
74

Investigations in the Development of a Windows Based Expert System for Preoperative Assessments / Expert System for Preoperative Assessments

Archer, Delbert 08 1900 (has links)
The Preop medical expert system (Langton et. al, 1990) was originally developed using the expert system tool, Nexpert Object, on a VAX computer. Nexpert Object creates an expert system specification which is executed by an interpreter within Nexpert Object. The original implementation, however, has several limitations, including: 1. lack of physical portability 2. requires Nexpert Object to run 3. crude user interface. In order to overcome the first limitation, Preop is implemented on a PC DOS portable computer. This project is addresses the other two limitations. Creating a compiled version of Preop eliminates the need for the Nexpert Object interpreter, and implementing it as a Microsoft Windows application provides a better user interface. / Thesis / Master of Science (MSc)
75

Une approche pour la maintenance et la ré-ingénierie globale des logiciels

Favre, Jean-Marie 26 October 1995 (has links) (PDF)
Alors que l'informatique est résolument tournée vers l'avenir, cette thèse se concentre sur le passé ; non pas par nostalgie mais plutôt parce que le futur des logiciels âgés est une question d'actualité. Plus particulièrement trois thèmes sont abordés : la maintenance, la ré-ingénierie et la programmation globale. L'objectif de cette étude est d'explorer l'intersection entre la ré-ingénierie et la programmation globale, domaine que nous avons baptisé ré-ingénierie globale. L'idée principale est de réutiliser des concepts et des techniques de programmation détaillée. En fait nous proposons de définir la programmation globale en distinguant 4 aspects du logiciel : l'architecture, la manufacture, la variation et l'évolution. Un modèle abstrait basé sur des concepts ensemblistes est proposé pour modéliser les différentes entités de programmation globale. La technologie relative à ce domaine est ensuite décrite en considérant aussi bien l'état de l'art que l'état de la pratique. La différence entre ces deux aspects souligne l'intérêt de la ré-ingénierie globale. A titre d'illustration, nous étudions le cas des préprocesseurs en tant qu'outils de programmation globale. Ces outils de bas niveau provenant des années 70 sont traditionnellement utilisés pour décrire des familles de programmes. Pour faciliter la compréhension de tels artefacts nous proposons d'utiliser des techniques comme l'évaluation partielle, l'analyse inter-procédurale de flot de données ou encore le découpage. Ces techniques, définies de manière rigoureuse, s'appuient sur la sémantique dénotationnelle du préprocesseur utilisé. Un prototype montrant leur utilité a été réalisé. Il prouve qu'une approche basée sur des fondements théoriques issus de la programmation détaillée est applicable pour résoudre des problèmes pratiques de programmation globale.
76

Répartition modulaire de programmes synchrones

Delaval, Gwenaël 01 July 2008 (has links) (PDF)
Nous nous intéressons à la conception sûre de systèmes répartis. Nous montrons qu'avec la complexité et l'intégration croissante des systèmes embarqués, la structure fonctionnelle du système peut entrer en conflit avec la structure de son architecture. L'approche traditionnelle de conception par raffinement de cette architecture compromet alors la modularité fonctionnelle du système. Nous proposons donc une méthode permettant de concevoir un système réparti défini comme un programme unique, dont la structure fonctionnelle est indépendante de l'architecture du système. Cette méthode est basée sur l'ajout de primitives de répartition à un langage flots de données synchrone. Ces primitives permettent d'une part de déclarer l'architecture sous la forme d'un graphe définissant les ressources existantes et les liens de communication existant entre ces ressources, et d'autre part de spécifier par des annotations la localisation de certaines valeurs et calculs du programme. Nous définissons ensuite la sémantique formelle de ce langage étendu. Cette sémantique a pour but de rendre compte de manière formelle l'effet des annotations ajoutées par le programmeur. Un système de types à effets permet ensuite de vérifier la cohérence de ces annotations. Ce système de types est muni d'un mécanisme d'inférence, qui permet d'inférer, à partir des annotations du programmeur, la localisation des calculs non annotés. Nous définissons ensuite, à partir de ce système de types, une méthode de répartition automatique permettant d'obtenir, à partir d'un programme annoté, un fragment de programme par ressource de l'architecture. La correction du système de types avec la sémantique du langage est prouvée, ainsi que l'équivalence sémantique de l'exécution des fragments obtenus par la méthode de répartition automatique avec le programme initial. Cette méthode a été implémentée dans le compilateur du langage Lucid Synchrone, et testée sur un exemple de radio logicielle.
77

Hétérogénéités et Routages dans les Réseaux à Connectivité Intermittente

Leguay, Jérémie 23 July 2007 (has links) (PDF)
Dans cette thèse, nous présentons plusieurs contributions pour le routage dans les réseaux tolérants aux délais (DTN). D'abord, nous démontrons, à l'aide d'une analyse de traces réelles, la présence d'hétérogénéité dans les interactions entre les noeuds et que celle-ci peut être prise en compte pour proposer le routage. Deuxièmement, nous proposons l'utilisation d'un formalisme générique basé sur un espace virtuel euclidien, appelé MobySpace, construit à partir d'informations sur les habitudes de mobilité des noeuds. Nous démontrons, avec le rejeux de traces de mobilité réelles, que ce formalisme peut s'appliquer au routage DTN et qu'il permet de créer des stratégies performantes en terme de taux de livraison et de coût de communication. Enfin, nous étudions une architecture de distribution de contenu en environnement urbain à l'aide de bornes courte portée Bluetooth. Nous étudions plusieurs stratégies de distribution en rejouant des traces collectées lors d'une expérience inédite.
78

Analyse de diagnosticabilité d'architecture de fonctions embarquées - Application aux architectures automobiles

Khlif, Manel 06 December 2010 (has links) (PDF)
Un système embarqué peut être défini comme un système électronique et informatique autonome, dédié à une tâche bien définie et soumis à des contraintes. Les défaillances des systèmes embarqués sont de plus en plus difficiles à prévoir, comprendre et réparer. Des travaux sur la sûreté de fonctionnement ont mis au point les techniques de vérification et des recommandations de conception pour maîtriser les risques. En même temps d'autres travaux ont entrepris d'améliorer la fiabilité de ces systèmes en rénovant les méthodologies de conception. Les méthodes de diagnostic, à leur tour, ont évolué afin d'améliorer la tolérance des systèmes embarqués aux pannes et leur capacité à s'auto-diagnostiquer. Ainsi, le domaine de l'analyse de la " diagnosticabilité " a vu le jour. Aujourd'hui, le concepteur d'un système doit s'assurer que celui-ci est diagnosticable, c'est-àdire que les fautes qui peuvent y apparaitre sont identifiables, avant de construire ou fabriquer le système. Les méthodes d'analyse de la diagnosticabilité se focalisent sur ce que nous appelons " la diagnosticabilité fonctionnelle " où l'architecture matérielle du système n'était pas directement considérée. Cette thèse contribue à l'analyse de l'impact de l'interaction des fonctions-architecture sur la diagnosticabilité d'un système embarqué. L'approche que nous avons conçue est intégrable dans le cycle de conception des systèmes embarqués ; elle commence par l'analyse de la diagnosticabilité des systèmes à événements discrets (telle qu'elle est présentée dans la littérature). Notre méthode, exige ensuite la vérification d'un ensemble de propriétés que nous avons définies et appelées " propriétés de la diagnosticabilité fonctionnelle-architecturale ". La vérification des propriétés s'effectue en deux étapes : la première étape est la vérification de la description de l'architecture (réalisée en AADL) et la deuxième étape est la vérification de l'interaction fonctions-architecture (réalisée en SystemC-Simulink). Pour l'analyse de l'interaction des fonctions avec l'architecture, réalisée en SystemC-Simulink, nous avons développé un prototype d'outil COSITA basé sur l'analyse des traces de la co-simulation du co-modèle. Nous avons comparé les résultats de l'analyse des traces de co-simulation avec des résultats que nous avons obtenus suite à une émulation sur une plateforme physique automobile dans le laboratoire Heudiasyc. Finalement, nous avons mis au point à travers cette thèse une méthodologie originale d'analyse de la diagnosticabilité qui prend en considération les contraintes de l'architecture matérielle du système.
79

MaDcAr-Agent : un modèle d'agents auto-adaptables à base de composants

Grondin, Guillaume 24 November 2008 (has links) (PDF)
Dans le cadre de l'informatique ubiquiste, l'environnement d'exécution d'une application est constitué de machines hétérogènes en ressources matérielles et appartenant à des utilisateurs différents (PC, PDA, téléphone mobile, etc.). Ces caractéristiques imposent de structurer l'application en une organisation d'unités logicielles relativement indépendantes qui coopèrent et interagissent. Dans cette thèse, nous proposons MaDcAr- Agent, un modèle d'agents auto-adaptables à base de composants et muni d'une infrastructure dédiée à l'adaptation. Ce modèle se caractérise par la présence d'un niveau méta qui comporte notamment un moteur d'assemblage en charge des adaptations dynamiques et automatiques en fonction du contexte de l'agent. Le fonctionnement du niveau méta est guidé par la spécification de deux politiques : la politique d'assemblage qui permet à l'agent de s'adapter aux changements de contexte en fonction des composants disponibles et la politique de gestion de contenu qui permet à l'agent d'avoir les composants dont il a le plus besoin grâce aux interactions avec les autres agents. A travers ces spécifications explicites et découplées du comportement applicatif de l'agent, le concepteur d'agents peut prendre en charge la perturbation d'un système dû à des changements imprévus et répétés, sans pour autant nuire à l'autonomie des agents qui composent ce système. Pour valider notre approche, diverses expérimentations ont été menées avec ce modèle, notamment dans le cadre d'un scénario impliquant des robots mobiles qui doivent explorer une zone inconnue.
80

Architecture sécurisée pour les systèmes d'information des avions du futur

Lastera, Maxime 04 December 2012 (has links) (PDF)
Traditionnellement, dans le domaine avionique les logiciels utilisés à bord de l'avion sont totalement séparés des logiciels utilisés au dehors afin d'éviter toutes interaction qui pourrait corrompre les systèmes critiques à bord de l'avion. Cependant, les nouvelles générations d'avions exigent plus d'interactions avec le monde ouvert avec pour objectif de proposer des services étendu, générant ainsi un flux d'information potentiellement dan- gereux. Dans une précédente étude, nous avons proposé l'utilisation de la virtualisation pour assurer la sûreté de fonctionnement d'applications critiques assurant des communi- cations bidirectionnelles entre systèmes critiques et systèmes non sûr. Dans cette thèse nous proposons deux contributions. La première contribution propose une méthode de comparaison d'hyperviseur. Nous avons développé un banc de test permettant de mesurer les performances d'un système virtualisé. Dans cette étude, différentes configurations ont été expérimentées, d'un système sans OS à une architecture complète avec un hyperviseur et un OS s'exécutant dans une machine virtuelle. Plusieurs tests (processeur, mémoire et réseaux) ont été mesurés et collectés sur différents hyperviseurs. La seconde contribution met l'accent sur l'amélioration d'une architecture de sécurité existante. Un mécanisme de comparaison basé sur l'analyse des traces d'exécution est utilisé pour détecter les anomalies entre instances d'application exécutées sur diverse ma- chines virtuelles. Nous proposons de renforcer le mécanisme de comparaison à l'exécution par l'utilisation d'un modèle d'exécution issu d'une analyse statique du bytecode Java. Afin de valider notre approche, nous avons développé un prototype basé sur un cas d'étude identifié avec Airbus qui porte sur l'utilisation d'un ordinateur portable dédié à la maintenance.

Page generated in 0.0842 seconds