• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 277
  • 189
  • 50
  • 48
  • 29
  • 24
  • 19
  • 16
  • 13
  • 11
  • 10
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 779
  • 197
  • 131
  • 118
  • 107
  • 93
  • 91
  • 88
  • 82
  • 81
  • 79
  • 77
  • 76
  • 70
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

On the dynamics of active documents for distributed data management / Etude de la dynamique des documents actifs pour la gestion d'information distribuées

Bourhis, Pierre 11 February 2011 (has links)
L'un des principaux problèmes que les applications Webs doivent gérer aujourd'hui est l'évolutivité des données. Dans cette thèse, nous considérons ce problème et plus précisément l'évolution des documents actifs. Les documents actifs sont documents XML pouvant évolués grâce à l'activation d'appel de services Web. Ce formalisme a déjà été utilisé dans le cadre de la gestion d'information distribuée. Les principales contributions de cette thèse sont l'étude théorique de différentes notions pour l'implémentation de deux systèmes gérant des applications manipulant des flux de données et des applications de type workflow. Dans un premier temps, nous étudions des notions reliées à la maintenance de vues sur des documents actifs. Ces notions sont utilisées dans l'implémentation d'un processeur de flux de données appelé Axlog widget manipulant des flux à travers un document actif. La deuxième contribution porte sur l'expressivité de différents formalismes pour contraindre le séquencement des activations d'un document actif. Cette étude a été motivée par l'implémentation d'un système gérant des workflows focalisés sur les données utilisant les documents actifs, appelé Axart. / One of the major issues faced by Web applications is the management of evolving of data. In this thesis, we consider this problem and in particular the evolution of active documents. Active documents is a formalism describing the evolution of XML documents by activating Web services calls included in the document. It has already been used in the context of the management of distributed data \cite{axml}. The main contributions of this thesis are theoretical studies motivated by two systems for managing respectively stream applications and workflow applications. In a first contribution, we study the problem of view maintenance over active documents. The results served as the basis for an implementation of stream processors based on active documents called Axlog widgets. In a second one, we see active documents as the core of data centric workflows and consider various ways of expressing constraints on the evolution of documents. The implementation, called Axart, validated the approach of a data centric workflow system based on active documents. The hidden Web (also known as deep or invisible Web), that is, the partof the Web not directly accessible through hyperlinks, but through HTMLforms or Web services, is of great value, but difficult to exploit. Wediscuss a process for the fully automatic discovery, syntacticand semantic analysis, and querying of hidden-Web services. We proposefirst a general architecture that relies on a semi-structured warehouseof imprecise (probabilistic) content. We provide a detailed complexityanalysis of the underlying probabilistic tree model. We describe how wecan use a combination of heuristics and probing to understand thestructure of an HTML form. We present an original use of a supervisedmachine-learning method, namely conditional random fields,in an unsupervised manner, on an automatic, imperfect, andimprecise, annotation based on domain knowledge, in order to extractrelevant information from HTML result pages. So as to obtainsemantic relations between inputs and outputs of a hidden-Web service, weinvestigate the complexity of deriving a schema mapping between databaseinstances, solely relying on the presence of constants in the twoinstances. We finally describe a model for the semantic representationand intensional indexing of hidden-Web sources, and discuss how toprocess a user's high-level query using such descriptions.
182

IT-Unterstützung zur energiesensitiven Produktentwicklung

Reichel, Thomas, Rünger, Gudula, Steger, Daniel, Xu, Haibin 15 July 2010 (has links) (PDF)
Die Entwicklung kostengünstiger, energiesparender und resourcenschonender Produkte gewinnt zunehmend an Bedeutung. Dabei bildet die Bewertung von Kosten und Energie über den gesamten Lebenszyklus des Produkts, von der Entwicklung und Fertigung über den Betrieb bis hin zum Recycling, auf Basis virtueller Prototypen eine wesentliche Grundlage. Da Entwurfsentscheidungen in frühen Phasen der Entwicklung, in denen noch kein realer Prototyp existiert, einen hohen Einfluss auf spätere Kosten haben können, besteht die Notwendigkeit empirische, entscheidungsrelevante Daten aus IT-Systemen der Produktentwicklung (z.B. Produktdatenmanagementsysteme) und des Betriebs (z.B. Enterprise-Resource-Planning-Systeme) zu extrahieren und dem Konstrukteur geeignete Methoden zur Aggregation der Daten bereitzustellen. Insbesondere bei der Optimierung hinsichtlich der Energieeffzienz von Produkten muss auf Daten des gesamten Lebenszyklus zurückgegriffen werden, um schon in der Entwicklungsphase Abschätzungen über den Energieverbrauch im Produktleben treffen zu können. Eine Optimierung der Energieeffizienz kann dabei sowohl durch die Steigerung der Produktivität bei gleichbleibendem Energieverbrauch als auch durch die Verringerung des Energieverbrauchs bei gleichbleibender Produktivität erfolgen. In diesem Bericht soll der Produktentwicklungsprozess aus IT-Sicht betrachtet werden, indem zunächst aktuelle Methodiken der Produktentwicklung mit ihrer IT-Unterstützung und der beteiligten IT-Systeme untersucht werden. Es werden Anforderungen an ein IT-System formuliert, die Energieeffizienzbewertungen und -optimierungen in allen Phasen der Produktentwicklung unter Nutzung der beteiligten IT-Systeme ermöglichen. Ein solches IT-System zur energiesensitiven Produktentwicklung (energiesensitives Produktentwicklungssystem) soll den Konstrukteur bei der Entwicklung energieeffizenter Produkte unterstützen. Dafür müssen die Funktionalitäten bestehender PDM-Systeme um Methoden zur Analyse, Synthese und Bewertung der Energieeffizienz des Produkts erweitert werden. Es wird abschließend vorgeschlagen, wie die Methoden zur Bewertung energierelevanter Daten durch Workflows umgesetzt werden können.
183

Revisiter les grilles de PCs avec des technologies du Web et le Cloud computing / Re-examaning the Desktop Grids with Web Technologies and Cloud Computing

Abidi, Leila 03 March 2015 (has links)
Le contexte de cette thèse est à l’intersection des contextes des grilles de calculs, des nouvelles technologies du Web ainsi que des Clouds et des services à la demande. Depuis leur avènement au cours des années 90, les plates-formes distribuées, plus précisément les systèmes de grilles de calcul (Grid Computing), n’ont pas cessé d’évoluer permettant ainsi de susciter multiple efforts de recherche. Les grilles de PCs ont été proposées comme une alternative aux super-calculateurs par la fédération des milliers d’ordinateurs de bureau. Les détails de la mise en oeuvre d’une telle architecture de grille, en termes de mécanismes de mutualisation des ressources, restent très difficile à cerner. Parallèlement, le Web a complètement modifié notre façon d’accéder à l’information. Le Web est maintenant une composante essentielle de notre quotidien. Les équipements ont, à leur tour, évolué d’ordinateurs de bureau ou ordinateurs portables aux tablettes, lecteurs multimédias, consoles de jeux, smartphones, ou NetPCs. Cette évolution exige d’adapter et de repenser les applications/intergiciels de grille de PCs qui ont été développés ces dernières années. Notre contribution se résume dans la réalisation d’un intergiciel de grille de PCs que nous avons appelé RedisDG. Dans son fonctionnement, RedisDG reste similaire à la plupart des intergiciels de grilles de calcul, c’est-à-dire qu’il est capable d’exécuter des applications sous forme de «sacs de tâches» dans un environnement distribué, assurer le monitoring des noeuds, valider et certifier les résultats. L’innovation de RedisDG, réside dans l’intégration de la modélisation et la vérification formelles dans sa phase de conception, ce qui est non conventionnel mais très pertinent dans notre domaine. Notre approche consiste à repenser les grilles de PCs à partir d’une réflexion et d’un cadre formel permettant de les développer, de manière rigoureuse et de mieux maîtriser les évolutions technologiques à venir. / The context of this work is at the intersection of grid computing, the new Web technologies and the Clouds and services on demand contexts. Desktop Grid have been proposed as an alternative to supercomputers by the federation of thousands of desktops. The details of the implementation of such an architecture, in terms of resource sharing mechanisms, remain very hard. Meanwhile, the Web has completely changed the way we access information. The equipment, in turn, have evolved from desktops or laptops to tablets, smartphones or NetPCs. Our approach is to rethink Desktop Grids from a reflexion and a formal framework to develop them rigorously and better control future technological developments. We have reconsidered the interactions between the traditional components of a Desktop Grid based on the Web technology, and given birth to RedisDG, a new Desktop Grid middelware capable to operate on small devices, ie smartphones, tablets like the more traditional devicves (PCs). Our system is entirely based on the publish-subscribe paradigm. RedisDG is developped with Python and uses Redis as advanced key-value cache and store.
184

Operations Acceptance Management / Operations Acceptance Management

Suchá, Ivana January 2010 (has links)
This paper examines the process of Operations Acceptance Management, whose main task is to control Operations Acceptance Tests (OAT). In the first part the author focuses on the theoretical ground for the problem in the context of ITSM best practices framework ITIL. Benefits, process pitfalls and possibilities for automation are discussed in this part. The second part contains a case study of DHL IT Services (Prague), where a solution optimizing the overall workflow was implemented using simple web applications. The author of this paper was personally involved in the described project.
185

Data-intensive interactive workflows for visual analytics / Données en masse et workflows interactifs pour la visualisation analytique

Khemiri, Wael 12 December 2011 (has links)
L'expansion du World Wide Web et la multiplication des sources de données (capteurs, services Web, programmes scientifiques, outils d'analyse, etc.) ont conduit à la prolifération de données hétérogènes et complexes. La phase d'extraction de connaissance et de recherche de corrélation devient ainsi de plus en plus difficile.Typiquement, une telle analyse est effectuée en utilisant les outils logiciels qui combinent: des techniques de visualisation, permettant aux utilisateurs d'avoir une meilleure compréhension des données, et des programmes d'analyse qui effectuent des opérations d'analyses complexes et longues.La visualisation analytique (visual analytics) vise à combiner la visualisation des donnéesavec des tâches d'analyse et de fouille. Etant donnée la complexité et la volumétrie importante des données scientifiques (par exemple, les données associées à des processus biologiques ou physiques, données des réseaux sociaux, etc.), la visualisation analytique est appelée à jouer un rôle important dans la gestion des données scientifiques.La plupart des plateformes de visualisation analytique actuelles utilisent des mécanismes en mémoire centrale pour le stockage et le traitement des données, ce qui limite le volume de données traitées. En outre, l'intégration de nouveaux algorithmes dans le processus de traitement nécessite du code d'intégration ad-hoc. Enfin, les plate-formes de visualisation actuelles ne permettent pas de définir et de déployer des processus structurés, où les utilisateurs partagent les données et, éventuellement, les visualisations.Ce travail, à la confluence des domaines de la visualisation analytique interactive et des bases de données, apporte deux contributions. (i) Nous proposons une architecture générique pour déployer une plate-forme de visualisation analytique au-dessus d'un système de gestion de bases de données (SGBD). (ii) Nous montrons comment propager les changements des données dans le SGBD, au travers des processus et des visualisations qui en font partie. Notre approche permet à l'application de visualisation analytique de profiter du stockage robuste et du déploiement automatique de processus à partir d'une spécification déclarative, supportés par le SGBD.Notre approche a été implantée dans un prototype appelé EdiFlow, et validée à travers plusieurs applications. Elle pourrait aussi s'intégrer dans une plate-forme de workflow scientifique à usage intensif de données, afin d'en augmenter les fonctionnalités de visualisation. / The increasing amounts of electronic data of all forms, produced by humans (e.g. Web pages, structured content such as Wikipedia or the blogosphere etc.) and/or automatic tools (loggers, sensors, Web services, scientific programs or analysis tools etc.) leads to a situation of unprecedented potential for extracting new knowledge, finding new correlations, or simply making sense of the data.Visual analytics aims at combining interactive data visualization with data analysis tasks. Given the explosion in volume and complexity of scientific data, e.g., associated to biological or physical processes or social networks, visual analytics is called to play an important role in scientific data management.Most visual analytics platforms, however, are memory-based, and are therefore limited in the volume of data handled. Moreover, the integration of each new algorithm (e.g. for clustering) requires integrating it by hand into the platform. Finally, they lack the capability to define and deploy well-structured processes where users with different roles interact in a coordinated way sharing the same data and possibly the same visualizations.This work is at the convergence of three research areas: information visualization, database query processing and optimization, and workflow modeling. It provides two main contributions: (i) We propose a generic architecture for deploying a visual analytics platform on top of a database management system (DBMS) (ii) We show how to propagate data changes to the DBMS and visualizations, through the workflow process. Our approach has been implemented in a prototype called EdiFlow, and validated through several applications. It clearly demonstrates that visual analytics applications can benefit from robust storage and automatic process deployment provided by the DBMS while obtaining good performance and thus it provides scalability.Conversely, it could also be integrated into a data-intensive scientific workflow platform in order to increase its visualization features.
186

Uma arquitetura de baixo acoplamento para execução de padrões de controle de fluxo em grades / A loosely coupled architecture to run workflow control-flow patterns in grid

Alexandre Ricardo Nardi 27 April 2009 (has links)
O uso de padrões de workflow para controle de fluxo em aplicações de e-Science resulta em maior produtividade por parte do cientista, permitindo que se concentre em sua área de especialização. Todavia, o uso de padrões de workflow para paralelização em grades permanece uma questão em aberto. Este texto apresenta uma arquitetura de baixo acoplamento e extensível, para permitir a execução de padrões com ou sem a presença de grade, de modo transparente ao cientista. Descreve também o Padrão Junção Combinada, que atende a diversos cenários de paralelização comumente encontrados em aplicações de e-Science. Com isso, espera-se auxiliar o trabalho do cientista, oferecendo maior flexibilidade na utilização de grades e na representação de cenários de paralelização. / The use of workflow control-flow patterns in e-Science applications results in productivity improvement, allowing the scientist to concentrate in his/her own research area. However, the use of workflow control-flow patterns for execution in grids remains an opened question. This work presents a loosely coupled and extensible architecture, allowing use of patterns with or without grids, transparently to the scientist. It also describes the Combined Join Pattern, compliant to parallelization scenarios, commonly found in e-Science applications. As a result, it is expected to help the scientist tasks, giving him or her greater flexibility in the grid usage and in representing parallelization scenarios.
187

Konzeption und Entwicklung einer Schnittstelle zur hierarchischen Abarbeitung räumlich verteilter Workflows

Kunis, Raphael 19 April 2005 (has links)
In dieser Diplomarbeit wird eine Möglichkeit für die Abarbeitung von verteilten Workflows konzeptuell erarbeitet und prototypisch implementiert. Dabei werden als Grundlage des Konzepts die Standards der Workflow Management Coalition zur Beschreibung von Workflows und Workflow Management Systemen verwendet. Für die verteilte Abarbeitung von Prozessen wurde eine RMI-basierte Abwandlung des ASAP-Protokolls implementiert. Die Implementierung nutzt Enhydra Shark als Laufzeitumgebung und die Schnittstellen für die verteilte Abarbeitung sind für dieses System angepasst. Anhand von Beispielen und Testfällen wird die Funktionsweise des erstellten Konzepts und seiner Realisierung verdeutlicht.
188

Building Prototypes Aggregating Musicological Datasets on the Semantic Web

Nurmikko-Fuller, Terhi, Bangert, Daniel, Dix, Alan, Weigl, David, Page, Kevin 03 December 2019 (has links)
Semantic Web technologies such as RDF, OWL, and SPARQL can be successfully used to bridge complementary musicological information. In this paper, we describe, compare, and evaluate the datasets and workflows used to create two such aggregator projects: In Collaboration with In Concert, and JazzCats, both of which bring together a cluster of smaller projects containing concert and performance metadata. / Semantische Web-Technologien wie RDF, OWL und SPARQL ermöglichen die Verknüpfung von komplementären musikwissenschaftlichen Daten. In diesem Artikel beschreiben, vergleichen und bewerten wir die Datensätze und Workflows, die zur Erstellung zweier solcher Aggregationsprojekte verwendet wurden: In Collaboration with In Concert und JazzCats, die jeweils Sammlungen kleinerer Projekte mit Konzert- und Performance-Metadaten zusammenführen.
189

Applying Deep Learning Techniques to Assist Bioinformatics Researchers in Analysis Pipeline Composition

Green, Ryan 02 June 2023 (has links)
No description available.
190

The Application of Sequential Pattern Mining in Healthcare Workflow System and an Improved Mining Algorithm Based on Pattern-Growth Approach

Zhang, Qi 24 October 2013 (has links)
No description available.

Page generated in 0.3767 seconds