• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 67
  • 31
  • 2
  • 1
  • 1
  • Tagged with
  • 267
  • 267
  • 103
  • 102
  • 88
  • 60
  • 53
  • 42
  • 40
  • 30
  • 30
  • 30
  • 28
  • 25
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Coordination fiable de services de données à base de politiques active

Alfonso Espinosa-Oviedo, Javier 28 October 2013 (has links) (PDF)
Nous proposons une approche pour ajouter des propriétés non-fonctionnelles (traitement d'exceptions, atomicité, sécurité, persistance) à des coordinations de services. L'approche est basée sur un Modèle de Politiques Actives (AP Model) pour représenter les coordinations de services avec des propriétés non-fonctionnelles comme une collection de types. Dans notre modèle, une coordination de services est représentée comme un workflow compose d'un ensemble ordonné d'activité. Chaque activité est en charge d'implante un appel à l'opération d'un service. Nous utilisons le type Activité pour représenter le workflow et ses composants (c-à-d, les activités du workflow et l'ordre entre eux). Une propriété non-fonctionnelle est représentée comme un ou plusieurs types de politiques actives, chaque politique est compose d'un ensemble de règles événement-condition-action qui implantent un aspect d'un propriété. Les instances des entités du modèle, politique active et activité peuvent être exécutées. Nous utilisons le type unité d'exécution pour les représenter comme des entités dont l'exécution passe par des différents états d'exécution en exécution. Lorsqu'une politique active est associée à une ou plusieurs unités d'exécution, les règles vérifient si l'unité d'exécution respecte la propriété non-fonctionnelle implantée en évaluant leurs conditions sur leurs états d'exécution. Lorsqu'une propriété n'est pas vérifiée, les règles exécutant leurs actions pour renforcer les propriétés en cours d'exécution. Nous avons aussi proposé un Moteur d'exécution de politiques actives pour exécuter un workflow orientés politiques actives modélisé en utilisant notre AP Model. Le moteur implante un modèle d'exécution qui détermine comment les instances d'une AP, une règle et une activité interagissent entre elles pour ajouter des propriétés non-fonctionnelles (NFP) à un workflow en cours d'exécution. Nous avons validé le modèle AP et le moteur d'exécution de politiques actives en définissant des types de politiques actives pour adresser le traitement d'exceptions, l'atomicité, le traitement d'état, la persistance et l'authentification. Ces types de politiques actives ont été utilisés pour implanter des applications à base de services fiables, et pour intégrer les données fournies par des services à travers des mashups.
62

Traitement de requêtes de jointures continues dans les systèmes pair-à-pair (P2P) structurés

Palma, Wenceslao 18 June 2010 (has links) (PDF)
De nombreuses applications distribuées partagent la même nécessité de traiter des flux de données de façon continue, par ex. la surveillance de réseau ou la gestion de réseaux de capteurs. Dans ce contexte, un problème important et difficile concerne le traitement de requêtes continues de jointure qui nécessite de maintenir une fenêtre glissante sur les données la plus grande possible, afin de produire le plus possible de résultats probants. Dans cette thèse, nous proposons une nouvelle méthode pair-à-pair, DHTJoin, qui tire parti d'une Table de Hachage Distribuée (DHT) pour augmenter la taille de la fenêtre glissante en partitionnant les flux sur un grand nombre de nœuds. Contrairement aux solutions concurrentes qui indexent tout les tuples des flux, DHTJoin n'indexe que les tuples requis pour les requêtes et exploite, de façon complémentaire, la dissémination de requêtes. DHTJoin traite aussi le problème de la dynamicité des nœuds, qui peuvent quitter le système ou tomber en panne pendant l'exécution. Notre évaluation de performances montre que DHTJoin apporte une réduction importante du trafic réseau, par rapport aux méthodes concurrentes.
63

Partitionnement dans les systèmes de gestion de données parallèles

Liroz, Miguel 17 December 2013 (has links) (PDF)
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
64

Système de Questions/Réponses dans un contexte de Business Ingelligence

Kuchmann-Beauger, Nicolas 15 February 2013 (has links) (PDF)
Le volume et la complexité des données générées par les systèmes d'information croissent de façon singulière dans les entrepôts de données. Le domaine de l'informatique décisionnelle (aussi appelé BI) a pour objectif d'apporter des méthodes et des outils pour assister les utilisateurs dans leur tâche de recherche d'information. En effet, les sources de données ne sont en général pas centralisées, et il est souvent nécessaire d'interagir avec diverses applications. Accéder à l'information est alors une tâche ardue, alors que les employés d'une entreprise cherchent généralement à réduire leur charge de travail. Pour faire face à ce constat, le domaine "Enterprise Search" s'est développé récemment, et prend en compte les différentes sources de données appartenant aussi bien au réseau privé d'entreprise qu'au domaine public (telles que les pages Internet). Pourtant, les utilisateurs de moteurs de recherche actuels souffrent toujours de du volume trop important d'information à disposition. Nous pensons que de tels systèmes pourraient tirer parti des méthodes du traitement naturel des langues associées à celles des systèmes de questions/réponses. En effet, les interfaces en langue naturelle permettent aux utilisateurs de rechercher de l'information en utilisant leurs propres termes, et d'obtenir des réponses concises et non une liste de documents dans laquelle l'éventuelle bonne réponse doit être identifiée. De cette façon, les utilisateurs n'ont pas besoin d'employer une terminologie figée, ni de formuler des requêtes selon une syntaxe très précise, et peuvent de plus accéder plus rapidement à l'information désirée. Un challenge lors de la construction d'un tel système consiste à interagir avec les différentes applications, et donc avec les langages utilisés par ces applications d'une part, et d'être en mesure de s'adapter facilement à de nouveaux domaines d'application d'autre part. Notre rapport détaille un système de questions/réponses configurable pour des cas d'utilisation d'entreprise, et le décrit dans son intégralité. Dans les systèmes traditionnels de l'informatique décisionnelle, les préférences utilisateurs ne sont généralement pas prises en compte, ni d'ailleurs leurs situations ou leur contexte. Les systèmes état-de-l'art du domaine tels que Soda ou Safe ne génèrent pas de résultats calculés à partir de l'analyse de la situation des utilisateurs. Ce rapport introduit une approche plus personnalisée, qui convient mieux aux utilisateurs finaux. Notre expérimentation principale se traduit par une interface de type search qui affiche les résultats dans un dashboard sous la forme de graphes, de tables de faits ou encore de miniatures de pages Internet. En fonction des requêtes initiales des utilisateurs, des recommandations de requêtes sont aussi affichées en sus, et ce dans le but de réduire le temps de réponse global du système. En ce sens, ces recommandations sont comparables à des prédictions. Notre travail se traduit par les contributions suivantes : tout d'abord, une architecture implémentée via des algorithmes parallélisés et qui prend en compte la diversité des sources de données, à savoir des données structurées ou non structurées dans le cadre d'un framework de questions-réponses qui peut être facilement configuré dans des environnements différents. De plus, une approche de traduction basée sur la résolution de contrainte, qui remplace le traditionnel langage-pivot par un modèle conceptuel et qui conduit à des requêtes multidimensionnelles mieux personnalisées. En outre, en ensemble de patrons linguistiques utilisés pour traduire des questions BI en des requêtes pour bases de données, qui peuvent être facilement adaptés dans le cas de configurations différentes. Enfin, nous avons implémenté une application pour iPhone/iPad et une interface de type "HTML" qui démontre la faisabilité des différentes approches développées grâce à un ensemble de mesures d'évaluations pour l'élément principal (le composant de traduction) et un scénario d'évaluation pour le framework dans sa globalité. Dans ce but, nous introduisons un ensemble de requêtes pouvant servir à évaluer d'autres système de recherche d'information dans le domaine, et nous montrons que notre système se comporte de façon similaire au système de référence WolframAlpha, en fonction des paramètres d'évaluation.
65

Toponymie des îles créoles de l’océan Indien / Toponymy of Creole islands in the Indian Ocean

Notter, Jean-Cyrille 29 September 2018 (has links)
Territoires français à la fin du XVIIIe siècle, les archipels des Mascareignes, Seychelles et Chagos ont connu un destin politique différent. L’ensemble de ce vaste espace insulaire, La Réunion exceptée, est devenu anglophone. On fait pourtant un constat essentiel, paradoxal en apparence : ces îles ont aujourd’hui encore une toponymie majoritairement francophone. Cette constatation est à l’origine de cette recherche, appuyée sur la constitution d’une base de données thématique et géo-référencée d’environ 6600 toponymes. À l’aide de cet outil, ce corpus toponymique est analysé suivant plusieurs critères, tels que les langues, les valeurs sémantiques, les natures et importances des éléments désignés et de la répartition spatiale. La question de l’appropriation et l’évolution des toponymes est également abordée et analysée. Ce travail constitue une base, évolutive et ouverte, pour des travaux complémentaires ultérieurs. / French territories in the late eighteenth century, the archipelagos of Mascarene, Seychelles and Chagos experienced a different political destiny. All of these islands except Reunion became English-speaking. Yet today, we make an essential observation, paradoxical in appearance: these islands still have a mostly French-speaking toponymy. This ascertainment is at the origin of this research supported by a thematic and georeferenced database of about 6600 place names. Thanks to this tool, an analyse has been carried according to several criteria such as the languages, the semantic values, the natures and importance of designated elements and the spatial distribution. The question about appropriation and evolution of place names is also examined and analysed. This work constitutes a base, open and evolutive, for further works.
66

Querying and extracting heterogeneous graphs from structured data and unstrutured content / Interroger et extraire des graphes hétérogènes à partir des données structurées et du contenu non structuré

Soussi, Rania 22 June 2012 (has links)
Ce travail introduit un ensemble de solutions pour extraire des graphes à partir des données de l'entreprise et pour aussi faciliter le processus de recherche d'information dans ces graphes. Premièrement, nous avons défini un nouveau modèle de données appelé SPIDER-Graph permettant de modéliser des objets complexes et de définir des graphes hétérogènes. Puis, nous avons développé un ensemble d'algorithmes pour extraire le contenu des bases de données de l'entreprise et les transformer suivant ce nouveau modèle de graphe. Cette représentation permet de mettre à jour des relations non explicites entre objets, relations existantes mais non visibles dans le modèle relationnel. Par ailleurs, pour unifier la représentation de toutes les données dans l'entreprise, nous avons développé, dans une deuxième approche, une méthode de constitution d’une ontologie d'entreprise contenant les concepts et les relations les plus importantes d'une entreprise, et ceci, à partir de l’extraction des données non structurés de cette même entreprise. Ensuite, après le processus d'extraction des différents graphes de données l'entreprise, nous avons proposé une approche qui permettent d'extraire des graphes d'interactions entre des objets hétérogènes modélisant l'entreprise. Cette approche permet d'extraire des graphes de réseaux sociaux ou des graphes d'interactions. Ensuite, nous avons proposé un nouveau langage d'interrogation visuel appelé GraphVQL ( Graph Visual Query Langauge) qui permet aux utilisateurs non experts de poser leurs requêtes visuellement sous forme de patron de graphe. Ce langage propose plusieurs types de requêtes de la simple sélection et agrégation jusqu'à l'analyse des réseaux sociaux. Il permet aussi d'interroger différent type de graphes SPIDER-Graph, RDF ou GraphML en se basant sur des algorithmes de pattern matching ou de translation des requêtes sous forme de SPARQL. / The present work introduces a set of solutions to extract graphs from enterprise data and facilitate the process of information search on these graphs. First of all we have defined a new graph model called the SPIDER-Graph, which models complex objects and permits to define heterogeneous graphs. Furthermore, we have developed a set of algorithms to extract the content of a database from an enterprise and to represent it in this new model. This latter representation allows us to discover relations that exist in the data but are hidden due to their poor compatibility with the classical relational model. Moreover, in order to unify the representation of all the data of the enterprise, we have developed a second approach which extracts from unstructured data an enterprise's ontology containing the most important concepts and relations that can be found in a given enterprise. Having extracted the graphs from the relational databases and documents using the enterprise ontology, we propose an approach which allows the users to extract an interaction graph between a set of chosen enterprise objects. This approach is based on a set of relations patterns extracted from the graph and the enterprise ontology concepts and relations. Finally, information retrieval is facilitated using a new visual graph query language called GraphVQL, which allows users to query graphs by drawing a pattern visually for the query. This language covers different query types from the simple selection and aggregation queries to social network analysis queries.
67

Persistence and adherence of combination therapy among adult asthmatic patients

Marceau, Claudine January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
68

Les auras numériques : pour une poétique de la base de données / Digital auras : towards a poetic of the database

Kratky, Andreas 21 March 2013 (has links)
La base de données est un outil omniprésent dans nos vies, qui est impliquée dans un grand nombre de nos activités quotidiennes. Conçue comme système technique destiné à rendre la gastion des informations plus efficace, et comme support de stockage privilégié, la base de données, avec son utilisation dans de multiples contextes, a acquis une importance dont les implications esthétiques et politiques vont au-delà des questions techniques.La recherche à la fois théorique et pratique étudie la base de données comme un moyen expressif et poétique de création, et met en évidence ses caractères spécifiques, notamment la discrédisation des données et leur mise en relation flexible. Le terme d'aura utilisé par Walter Benjamin pour analyser les transformations de l'expérience esthétique engendrées par la rationalité industrielle et la technique à la fin du dix-neuvième siècle, est reconsidérée afin de formuler une poétique de la base de données. La partie pratique de notre recherche comporte deux projets interactifs fondés sur les principes poétiques élaborés au cours de cette thèse. / Database are ubiquitous in our lives and play an important rôle in many aspects of our daily activities. Conceived as a technical support to facilitate the efficient management of information and as the preferred means of storage, the database has gained a level of importance with aesthetic and political implications that go far beyond purely technical questions.Both theorical and practical in its approach, our research investigates the database as a means of expressive and poetic creation and reveals its specific character, in particular the discretization of data and the establishment of flexible relationships between them. In order to develop a poetics of the database we will reconsider the term « aura », which was utilized by walter Benjamin to analyse the transformations of the nature of aesthetic experience brought about by industrial rationalisation and technology at the end of the nineteenth century. The practical part of our research consists of two interactive projects based on the poetic principles elaborated in context of this dissertation.
69

Sécurité de la base de données cadastrales / Security cadastral database

El Khalil, Firas 28 January 2015 (has links)
Le contrôle d'agrégation dit Quantity Based Aggregation (QBA) est lié au contrôle de l'inférence dans les bases de données et a rarement été traité par la communauté scientifique. Considérons un ensemble S formé de N éléments. L'agrégation d'éléments de l'ensemble S n'est considérée comme étant confidentielle qu'à partir d'un certain seuil k, avec k < N. Le but du contrôle QBA est donc de garantir que le nombre d'éléments de S délivrés à un utilisateur reste toujours inférieur à k. Dans cette thèse, nous traitons du problème du contrôle QBA dans les bases de données cadastrales. Ce travail répond à un besoin du service des affaires foncières de la Polynésie française. La politique de sécurité qu'il nous a été demandé d'implanter donne le droit à chaque utilisateur de connaître le propriétaire de n'importe quelle parcelle. Cette permission est toutefois limitée par les interdictions suivantes: l'utilisateur ne doit jamais arriver à connaître 1- tous les propriétaires dans une région donnée, et 2- toutes les parcelles appartenant au même propriétaire. Chacune de ces interdictions correspond, de manière évidente, à un problème de type QBA. Dans cette thèse, nous développons d'abord un modèle pour assurer la première interdiction, ensuite nous montrons comment adapter notre modèle à la seconde interdiction. Nous présentons, en outre, une implémentation de notre modèle pour les bases de données relationnelles. / Quantity Based Aggregation (QBA) controls closely related to inference control database and has been rarely addressed by the scientific community. Let us consider a set S of N elements. The aggregation of k elements, at most, out of N is not considered sensitive, while the aggregation of mor than k out of N elements is considered sensitive and should be prevented. The role of QBA control is to make sure the number of disclosed elements of S is less than or equal to k, where k<N. In this thesis we work on QBA problems in the context of cadastral databases. This work addresses an actual need of the real-estate service of French Polynesia. The security policy, that we were asked to implement, gives every user the right to know the owner of any parcel in the database. This permission is, however, constrained with the following prohibitions: the user cannot acquire the knowledge of the owners of all parcels in a given region, and all parcels belonging to the same owner. Each prohibition represents, obviously, a distinct QBA problem. In this manuscript, we develop a model to enforce the first prohibition, then we show how this work can be adapted to the enforcement of the second prohibition. Afterwards, we present an implementation for relational databases. Our model addresses several aspects: We take collusions into account (when multiple users collaborate to circumvent the security policy). We discuss the notion of a region and we propose two basic definitions: the “zone” and the “dominant zone.” • We discuss database updates specific to the cadastral application, and its implications on QBA control. We propose a scheme to handle buy, sell, merge and split operations. We propose a strategy to handle access history in order to guarantee that honest users do not get blocked indefinitely on a set of accessible parcels, thus increasing the availability and the utility of the database. At the end of this manuscript we present the prototype we developed to showcase QBA control, in addition to benchmarks showing the advantage of one definition of a region (the “dominant zone”) over another (the “zone”). We show that the adoption of the “dominant zone” increases data availability and improves the performance of the QBA control enforcement algorithm.
70

Méthodologie et outils bioinformatiques d'aide à la conception de systèmes biologiques synthétiques pour de nouveaux diagnostics en santé humaine / Methodology and bioinformatics tools to design synthetic biological systems for new human health diagnosis

Rialle, Stéphanie 01 October 2010 (has links)
La biologie synthétique est une discipline en pleine expansion visant à concevoir et construire des systèmes biologiques possédant des fonctions qui n'existent pas dans la nature. Elle se fonde sur des principes d'ingénierie pour rationnaliser la conception de tels systèmes. Le projet CompuBioTic a pour objectif le développement d'un nouveau type de diagnostic du cancer colorectal, se fondant sur une approche de biologie synthétique. Un choix stratégique a été fait et consiste à vouloir développer un système non vivant, ne nécessitant pas de cellule hôte et fondé sur l'utilisation de réseaux protéiques plutôt que génétiques. Très peu de méthodologies et d'outils ont été développés pour faciliter la conception de ce type de système. Cette thèse propose une méthodologie en trois points : conception, simulation et validation expérimentale ainsi que deux outils bioinformatiques, développés pour aider à la conception de réseaux biochimiques synthétiques. Tout d'abord, CompuBioTicDB est une base de données qui regroupe et annote des dispositifs fonctionnels et des molécules réalisant des processus (protéines et petites molécules) pouvant être exploités dans un contexte de biologie synthétique. Deuxièmement, BioNetCAD est un outil permettant de concevoir un réseau biochimique composé de molécules réelles à partir d'un réseau abstrait. BioNetCAD facilite également la simulation spatio-temporelle du système conçu grâce à un lien vers le logiciel HSim. Des portes logiques moléculaires et un dispositif de détection du glucose ont ainsi été conçus, modélisés et validés expérimentalement. Les principes d'un système pour le diagnostic du cancer colorectal sont également proposés. / Synthetic biology is a growing discipline which aims to design and construct biological systems with functions that do not exist in nature. It is based on engineering principles to rationalize the design such systems. The CompuBioTic project aims at the development of a new system for the diagnosis of the colorectal cancer, based on a synthetic biology approach. A strategic choice has been done and consists in wanting to develop a non-living system, which does not require a host cell and which is based on the use of protein rather than genetic networks. Very few methodologies and tools have been developed to facilitate the design of such systems. This thesis proposes a methodology in three steps: design, simulation and experimental validation, as well as two bioinformatics tools, developed to assist the design of synthetic biochemical networks. Firstly, CompuBioTicDB is a database that registers and annotates functional devices and molecules carrying processes (proteins and small molecules) that can be exploited in a context of synthetic biology. Secondly, BioNetCAD is a tool for designing a biochemical network composed of real molecules from an abstract network. BioNetCAD also facilitates spatiotemporal simulation of the designed system with a link to the HSim software. Molecular logic gates and a device for detecting glucose have been designed, modeled and then validated experimentally. The principles of a system for the diagnosis of colorectal cancer are also proposed.

Page generated in 0.0255 seconds