• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 67
  • 31
  • 2
  • 1
  • 1
  • Tagged with
  • 267
  • 267
  • 103
  • 102
  • 88
  • 60
  • 53
  • 42
  • 40
  • 30
  • 30
  • 30
  • 28
  • 25
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Infrastructure P2P pour la Réplication et la Réconciliation des Données

Tlili, Mounir 30 June 2011 (has links) (PDF)
Dans notre thèse, nous nous intéressons à la construction d'une infrastructure Pair-à-Pair (P2P) pour la réconciliation des données des applications d'édition de texte collaborative. Cependant, cette tâche est difficile à réaliser étant donné le comportement dynamique des pairs. Au regard de l'état de l'art, le modèle des transformées opérationnelles (OT) est une approche typiquement utilisée pour la gestion de la réplication optimiste dans le contexte d'édition de texte distribuée. Toutefois, la plupart des solutions d'OT ne passent pas à l'échelle et ne sont pas adaptées aux réseaux P2P. Pour répondre à ce problème, nous proposons une nouvelle approche appelée P2P-LTR (Estampillage et Journalisation P2P pour la Réconciliation) pour la réconciliation des données à base d'OT, qui assure la cohérence à terme malgré la dynamicité et les cas de pannes. P2P-LTR offre un service de journalisation P2P et un service d'estampillage fiable et réparti fonctionnant sur un modèle de réseau à base de DHT. Dans notre approche, les mises à jour sont estampillées et stockées en P2P dans des journaux à forte disponibilité. Lors de la réconciliation, ces mises à jour sont récupérées selon un ordre total continu afin d'assurer la cohérence à terme. En outre, P2P-LTR traite les cas où les pairs peuvent rejoindre ou quitter le système pendant les opérations de mise à jour. Nous avons évalué les performances de P2P-LTR par simulation. Les résultats montrent l'efficacité et le passage à l'échelle de notre solution.
82

Adjectifs dérivés de noms : analyse en corpus médical et élaboration d'un modèle d'encodage terminologique

Carrière, Isabelle January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
83

Etude et implantation de l'extraction de requetes frequentes dans les bases de donnees multidimensionnelles / Mining Pattern in Relational Databases

Dieng, Cheikh Tidiane 19 July 2011 (has links)
Au cours de ces dernières années, le problème de la recherche de requêtes fréquentes dans les bases de données est un problème qui a suscité de nombreuses recherches. En effet, beaucoup de motifs intéressants comme les règles d'association, des dépendances fonctionnelles exactes ou approximatives, des dépendances fonctionnelles conditionnelles exactes ou approximatives peuvent être découverts simplement, contrairement au méthodes classiques qui requièrent plusieurs transformations de la base pour extraire de tels motifs.Cependant, le problème de la recherche de requêtes fréquentes dans les bases de données relationnelles est un problème difficile car, d'une part l'espace de recherche est très grand (puisque égal à l'ensemble de toutes les requêtes pouvant être posées sur une base de données), et d'autre part, savoir si deux requêtes sont équivalentes (donc engendrant les calculs de support redondants) est un problème NP-Complet.Dans cette thèse, nous portons notre attention sur les requêtes de type projection-selection-jointure, et nous supposons que la base de données est définie selon un schéma étoile. Sous ces hypothèses, nous définissons une relation de pré-ordre (≼) entre les requêtes et nous montrons que :1. La mesure de support est anti-monotone par rapport à ≼, et2. En définissant, q ≡ q′ si et seulement si q ≼ q′ et q′ ≼ q, alors toutes les requêtes d'une même classe d'équivalence ont même support.Les principales contributions de cette thèse sont, d'une part d'étudier formellement les propriétés du pré-ordre et de la relation d'équivalence ci-dessus, et d'autre part, de proposer un algorithme par niveau de type Apriori pour rechercher l'ensemble des requêtes fréquentes d'une base de données définie sur un schéma étoile. De plus, cet algorithme a été implémenté et les expérimentations que nous avons réalisées montrent que, selon notre approche, le temps de calcul des requêtes fréquentes dans une base de données définie sur un schéma étoile reste acceptable, y compris dans le cas de grandes tables de faits. / The problem of mining frequent queries in a database has motivated many research efforts during the last two decades. This is so because many interesting patterns, such as association rules, exact or approximative functional dependencies and exact or approximative conditional functional dependencies can be easily retrieved, which is not possible using standard techniques.However, the problem mining frequent queries in a relational database is not easy because, on the one hand, the size of the search space is huge (because encompassing all possible queries that can be addressed to a given database), and on the other hand, testing whether two queries are equivalent (which entails redundant support computations) is NP-Complete.In this thesis, we focus on projection-selection-join queries, assuming that the database is defined over a star schema. In this setting, we define a pre-ordering (≼) between queries and we prove the following basic properties:1. The support measure is anti-monotonic with respect to ≼, and2. Defining q ≡ q′ if and only if q ≼ q′ and q′ ≼ q, all equivalent queries have the same support.The main contributions of the thesis are, on the one hand to formally sudy properties of the pre-ordering and the equivalence relation mentioned above, and on the other hand, to prose a levewise, Apriori like algorithm for the computation of all frequent queries in a relational database defined over a star schema. Moreover, this algorithm has been implemented and the reported experiments show that, in our approach, runtime is acceptable, even in the case of large fact tables.
84

Étude des méthodes de saisie informatique relatives au forage de données appliquées à la prise de décision en urbanisme

Boyer, Sébastien January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
85

Interactions des parasites Leishmania avec la matrice extracellulaire : rôle dans le tropisme tissulaire / Interaction networks of Leishmania parasites with the extracellular matrix : role in tissue tropism

Fatoux-Ardore, Marie 25 January 2013 (has links)
La leishmaniose est causée par un parasite protozoaire du genre Leishmania. Cette maladie infecte environ 12 millions de personnes dans le monde et en menace 350 millions dans 98 pays. Il existe trois formes majeures de leishmaniose : cutanée, mucocutanée et viscérale. L'infection se produit par le dépôt des parasites sous forme de promastigotes dans la peau de l'hôte mammifère via la piqûre d’un phlébotome. Les parasites peuvent migrer au sein de la matrice extracellulaire avant d’infecter les macrophages. Bien que la plupart des études réalisées jusqu’ici aient été consacrées aux interactions des parasites Leishmania avec leurs cellules cibles, quelques interactants extracellulaires ont déjà été identifiés. Dans cette étude, nous avons étudié pour la première fois le répertoire d’interactions de 24 souches de promastigotes intacts, vivants (6 espèces aux différents tropismes) avec environ ~70 biomolécules de la matrice extracellulaire de l’hôte à l’échelle moléculaire en utilisant des puces à protéines et à glycosaminoglycanes et la résonance plasmonique de surface en mode imagerie. Nous avons identifié 27 nouveaux partenaires (23 protéines et 4 glycosaminoglycanes) des promastigotes de Leishmania. Les souches partagent des partenaires communs tels que le plasminogène, TEM-8 et la tropoélastine, qui est dégradée in vitro par la majorité des souches. Les Leishmania se lient à plusieurs régulateurs de l’angiogenèse et à des glycosaminoglycanes. Dans une seconde partie, nous avons cloné deux protéines de L. major, l’énolase et la superoxyde dismutase, toutes deux identifiées dans le sécrétome de Leishmania, afin d’étudier leur répertoire d’interactions. L’énolase possède un répertoire d’interactions (13 partenaires) supérieur à celui de la superoxyde dismutase (6 partenaires) mais toutes deux interagissent également avec le plasminogène, l’ectodomaine de TEM-8, l’endostatine et l’héparine. Enfin, dans une troisième partie, nous avons créé une base de données, LeishMatrixDB, qui recense toutes les interactions des parasites Leishmania, ou leurs molécules, avec les composants de la matrice extracellulaire de l’hôte décrites dans la littérature / Leishmaniasis is a vector-borne disease caused by parasitic protozoa of the genus Leishmania. 12 million people are presently infected worldwide and the disease threatens 350 million people in 98 countries around the world. There are three main types of the disease: cutaneous, mucocutaneous and visceral. Infection occurs by the deposition of promastigote form into the mammalian skin via the bite of phlebotomine sandflies within the extracellular matrix proteins prior infecting macrophages. Most studies have focused on the interaction of Leishmania promastigotes with their cellular targets, some extracellular partners have been identified. In this study, we investigated for the first time the interplay between 24 strains of intact, live, parasites (6 species of different tropisms) and ~70 biomolecules of the host extracellular matrix at the molecular level using protein and glycosaminoglycan arrays probed by surface plasmon resonance imaging. We have identified 27 new partners (23 proteins and 4 glycosaminoglycans) of Leishmania promastigotes. All strains tested shared 3 common partners such as plasminogen, TEM-8 and tropoelastin, which is degraded in vitro by most Leishmania tested. Leishmania bound to several regulators of angiogenesis and to glycosaminoglycans. In a second part, we cloned two L. major proteins, enolase and superoxyde dismutase, both identified in Leishmania secretome in order to study their interaction repertoire. Enolase had a larger interaction repertoire (13 partners) than superoxide dismutase (6 partners) but both bound to plasminogen, ectodomain of TEM-8, endostatin and heparin. In a third part, we have created a database, LeishMatrixDB, which lists all the interactions of Leishmania, or their molecules, with host extracellular components from the literature
86

Optimisation des performance des logiciels de traitement de données sur les périphériques de stockage SSD / Performance optimization for data processing software on SSD storage devices

Laga, Arezki 20 December 2018 (has links)
Nous assistons aujourd’hui à une croissance vertigineuse des volumes de données. Cela exerce une pression sur les infrastructures de stockage et les logiciels de traitement de données comme les Systèmes de Gestion de Base de Données (SGBD). De nouvelles technologies ont vu le jour et permettent de réduire la pression exercée par les grandes masses de données. Nous nous intéressons particulièrement aux nouvelles technologies de mémoires secondaires comme les supports de stockage SSD (Solid State Drive) à base de mémoire Flash. Les supports de stockage SSD offrent des performances jusqu’à 10 fois plus élevées que les supports de stockage magnétiques. Cependant, ces nouveaux supports de stockage offrent un nouveau modèle de performance. Cela implique l’optimisation des coûts d’E/S pour les algorithmes de traitement et de gestion des données. Dans cette thèse, nous proposons un modèle des coûts d’E/S sur SSD pour les algorithmes de traitement de données. Ce modèle considère principalement le volume des données, l’espace mémoire alloué et la distribution des données. Nous proposons également un nouvel algorithme de tri en mémoire secondaire : MONTRES. Ce dernier est optimisé pour réduire le coût des E/S lorsque le volume de données à trier fait plusieurs fois la taille de la mémoire principale. Nous proposons enfin un mécanisme de pré-chargement de données : Lynx. Ce dernier utilise un mécanisme d’apprentissage pour prédire et anticiper les prochaines lectures en mémoire secondaire. / The growing volume of data poses a real challenge to data processing software like DBMS (DataBase Management Systems) and data storage infrastructure. New technologies have emerged in order to face the data volume challenges. We considered in this thesis the emerging new external memories like flash memory-based storage devices named SSD (Solid State Drive).SSD storage devices offer a performance gain compared to the traditional magnetic devices.However, SSD devices offer a new performance model that involves 10 cost optimization for data processing and management algorithms.We proposed in this thesis an 10 cost model to evaluate the data processing algorithms. This model considers mainly the SSD 10 performance and the data distribution.We also proposed a new external sorting algorithm: MONTRES. This algorithm includes optimizations to reduce the 10 cost when the volume of data is greater than the allocated memory space by an order of magnitude. We proposed finally a data prefetching mechanism: Lynx. This one makes use of a machine learning technique to predict and to anticipate future access to the external memory.
87

HyQoZ - Optimisation de requêtes hybrides basée sur des contrats SLA / HyQoZ – SLA-aware hybrid query optimization

Lopez-Enriquez, Carlos-Manuel 23 October 2014 (has links)
On constate aujourd’hui une explosion de la quantité de données largement distribuées et produites par différents dispositifs (e.g. capteurs, dispositifs informatiques, réseaux, processus d’analyse) à travers de services dits de données. Dans ce contexte, il s’agit d’évaluer des requêtes dites hybrides car ils intègrent des aspects de requêtes classiques, mobiles et continues fournies par des services de données, statiques ou mobiles, en mode push ou pull. L’objectif de ma thèse est de proposer une approche pour l’optimisation de ces requêtes hybrides basée sur des préférences multicritère (i.e. SLA – Service Level Agreement). Le principe consiste à combiner les services de données et calcule pour construire un évaluateur de requêtes adapté au SLA requis par l’utilisateur, tout en considérant les conditions de QoS des services et du réseau. / Today we are witnesses of the explosion of data producer massively by largely distributed of data produced by different devices (e.g. sensors, personal computers, laptops, networks) by means of data services. In this context, It is about evaluate queries named hybrid because they entails aspects related with classic queries, mobile and continuous provided by static or nomad data services in mode push or pull. The objective of my thesis is to propose an approach to optimize hybrid queries based in multi-criteria preferences (i.e. SLA – Service Level Agreement). The principle is to combine data services to construct a query evaluator adapted to the preferences expressed in the SLA whereas the state of services and network is considered as QoS measures.
88

Ethnographie de la patrimonialisation : numériser, inventorier et classer la collection du musée du quai Branly / Ethnography of cultural heritage preservation : digitizing, cataloguing and classifying the collection of museum quai Branly

Beltrame, Tiziana 11 December 2012 (has links)
Cette thèse étudie la patrimonialisation de la collection du musée du quai Branly à travers l’analyse de la numérisation des fiches d’objets et des données documentaires. Les collections extra-européennes du musée de l’Homme ont été reconfigurées au sein de la nouvelle institution : autrefois objet de science, l’artefact est devenu objet « d’art et de civilisation », un objet patrimonial, enregistré au Service des Musées de France. Les données documentaires, naguère fixées sur des supports papiers, ont été saisies dans un nouveau système de classification, la base de données « TMS objets », conçue ici comme lieu social et lieu de savoir partagé par les différentes communautés de pratiques. Le maniement du numérique permet de nouveaux modi operandi de fabrication de l’inventaire, source de discontinuité dans l’histoire des collections, notamment de nouvelles réassociations entre données, qui font émerger des possibilités de rapprochements inédits entre objets isolés et collections. Les logiques informatiques et de conservation, la logistique et la politique institutionnelle se conjuguent pour constituer une nouvelle organisation documentaire lisible non seulement dans la base de données mais aussi dans les espaces de stockage des collections. L’analyse de la création du thésaurus catégories d’objets selon l’usage montre comment un processus technique instaure de nouveaux liens entre personnes, objets et données. La parcellisation des tâches, en principe commune à tous, se heurte cependant aux bugs et aux affects. Elle reste donc inachevée. / This thesis explores the cultural heritage preservation of the collection of the Quai Branly Museum through the analysis of the digitisation of the object cards and background data. Non-European collections of the Museum of Man have been reconfigured in the new institution: while it used to be perceived as an object of science, the artefact became an object of "art and culture", an object of heritage registered with the Museum Service France. Documentary data, once set on paper media, entered into a new classification system, the database "TMS objects". This database is conceived as social space and a space of knowledge shared by different communities of practice. The digital technology allows new modi operandi for the creation of the catalogue. This is the source of discontinuities in the history of collections. It leads to new associations between data, from which spring up opportunities for unprecedented connections between individual items and collections. The IT logic, the logic of preservation, logistics and institutional policy combine to form a new documentary organization, readable not only in the database but also in the collections storage areas. The analysis of the creation of thesaurus categories of objects by use shows how a technical process establishes new connections between people, objects and data. The division of tasks, which should be in principle common to all, faces however bugs and affects. Therefore, it remains unfinished.
89

Declarative approach for long-term sensor data storage / Approche déclarative pour le stockage à long terme de données capteurs

Charfi, Manel 21 September 2017 (has links)
De nos jours, on a de plus en plus de capteurs qui ont tendance à apporter confort et facilité dans notre vie quotidienne. Ces capteurs sont faciles à déployer et à intégrer dans une variété d’applications (monitoring de bâtiments intelligents, aide à la personne,...). Ces milliers (voire millions)de capteurs sont de plus en plus envahissants et génèrent sans arrêt des masses énormes de données qu’on doit stocker et gérer pour le bon fonctionnement des applications qui en dépendent. A chaque fois qu'un capteur génère une donnée, deux dimensions sont d'un intérêt particulier : la dimension temporelle et la dimension spatiale. Ces deux dimensions permettent d'identifier l'instant de réception et la source émettrice de chaque donnée. Chaque dimension peut se voir associée à une hiérarchie de granularités qui peut varier selon le contexte d'application. Dans cette thèse, nous nous concentrons sur les applications nécessitant une conservation à long terme des données issues des flux de données capteurs. Notre approche vise à contrôler le stockage des données capteurs en ne gardant que les données jugées pertinentes selon la spécification des granularités spatio-temporelles représentatives des besoins applicatifs, afin d’améliorer l'efficacité de certaines requêtes. Notre idée clé consiste à emprunter l'approche déclarative développée pour la conception de bases de données à partir de contraintes et d'étendre les dépendances fonctionnelles avec des composantes spatiales et temporelles afin de revoir le processus classique de normalisation de schéma de base de données. Étant donné des flux de données capteurs, nous considérons à la fois les hiérarchies de granularités spatio-temporelles et les Dépendances Fonctionnelles SpatioTemporelles (DFSTs) comme objets de premier ordre pour concevoir des bases de données de capteurs compatibles avec n'importe quel SGBDR. Nous avons implémenté un prototype de cette architecture qui traite à la fois la conception de la base de données ainsi que le chargement des données. Nous avons mené des expériences avec des flux de donnés synthétiques et réels provenant de bâtiments intelligents. Nous avons comparé notre solution avec la solution de base et nous avons obtenu des résultats prometteurs en termes de performance de requêtes et d'utilisation de la mémoire. Nous avons également étudié le compromis entre la réduction des données et l'approximation des données. / Nowadays, sensors are cheap, easy to deploy and immediate to integrate into applications. These thousands of sensors are increasingly invasive and are constantly generating enormous amounts of data that must be stored and managed for the proper functioning of the applications depending on them. Sensor data, in addition of being of major interest in real-time applications, e.g. building control, health supervision..., are also important for long-term reporting applications, e.g. reporting, statistics, research data... Whenever a sensor produces data, two dimensions are of particular interest: the temporal dimension to stamp the produced value at a particular time and the spatial dimension to identify the location of the sensor. Both dimensions have different granularities that can be organized into hierarchies specific to the concerned context application. In this PhD thesis, we focus on applications that require long-term storage of sensor data issued from sensor data streams. Since huge amount of sensor data can be generated, our main goal is to select only relevant data to be saved for further usage, in particular long-term query facilities. More precisely, our aim is to develop an approach that controls the storage of sensor data by keeping only the data considered as relevant according to the spatial and temporal granularities representative of the application requirements. In such cases, approximating data in order to reduce the quantity of stored values enhances the efficiency of those queries. Our key idea is to borrow the declarative approach developed in the seventies for database design from constraints and to extend functional dependencies with spatial and temporal components in order to revisit the classical database schema normalization process. Given sensor data streams, we consider both spatio-temporal granularity hierarchies and Spatio-Temporal Functional Dependencies (STFDs) as first class-citizens for designing sensor databases on top of any RDBMS. We propose a specific axiomatisation of STFDs and the associated attribute closure algorithm, leading to a new normalization algorithm. We have implemented a prototype of this architecture to deal with both database design and data loading. We conducted experiments with synthetic and real-life data streams from intelligent buildings.
90

METHODES ET OUTILS LOGICIELS D'AIDE AU DIMENSIONNEMENT. APPLICATION AUX COMPOSANTS MAGNETIQUES ET AUX FILTRES PASSIFS

Magot, David 28 September 2004 (has links) (PDF)
Les logiciels d'optimisation constituent une aide au dimensionnement des dispositifs, susceptible d'améliorer la productivité des concepteurs dans l'industrie. Ces logiciels présentent néanmoins certaines limitations, découlant des méthodes d'optimisation utilisées ou liées à la modélisation du dispositif à dimensionner, desquelles il est possible de s'affranchir. Ainsi, l'adjonction à un tel logiciel de méthodes d'optimisation existantes, par ailleurs adaptées au contexte applicatif des composants magnétiques, permet au concepteur de considérer plusieurs objectifs simultanément ou d'intégrer les bases de données de fournisseurs. Une démarche de modélisation basée sur l'emploi de paramètres calculés à partir d'extrema de fonctions autorise quant à elle la prise en compte de manière unifiée des tolérances lors de l'optimisation ainsi que des gabarits, qui caractérisent les filtres électroniques par exemple. Un mode de calcul analytique des inductances de fuite des transformateurs est également proposé, afin d'améliorer la modélisation a priori de ce type de composant aux formats divers.

Page generated in 0.0593 seconds