• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 66
  • 29
  • 2
  • 1
  • 1
  • Tagged with
  • 264
  • 264
  • 103
  • 102
  • 88
  • 60
  • 53
  • 42
  • 40
  • 30
  • 30
  • 29
  • 28
  • 25
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Evaluation du risque potentiel sur l'environnement lors de la réhabilitation d'un site pollué

Duong, Viet-Long 14 January 1999 (has links) (PDF)
La pollution des sols correspond à une problématique récente. Au même titre que l'eau et l'air, la contamination des sols industriels constitue un risque pour la santé humaine et une menace pour la protection de l'environnement, et doit donc faire l'objet d'une réhabilitation. Toutefois la volonté politique française en la matière ne s'étant affirmée qu'à partir des années 1990, les outils de gestion des sols contaminés restent encore à développer. Pour cela une réflexion a été engagée afin de mettre au point, à partir de l'expérience acquise dans les autres pays industrialisés et à partir des connaissances actuelles, des outils méthodologiques d'aide à la gestion des sites contaminés, en particulier lors des étapes : - d'évaluation de l'état de pollution du site, notamment par la caractérisation du niveau de danger et de risque que présente un site contaminé. Pour cela nous avons développé un outil, appelé TRACES (Tool for Risk Assessment from Chemical Exposure to Soils) permettant un diagnostic progressif dans le but d'établir l'opportunité d'une réhabilitation et de déterminer les objectifs de cette réhabilitation éventuelle, - d'identification des filières de réhabilitation les plus adaptées pour le traitement des sols pollués basée sur une méthode d'analyse multicritère, ELECTRE III, permettant d'intégrer les intérêts de chaque acteur de la réhabilitation, ce qui a abouti à l'outil RACES (Remediai Alternative Classification and Evaluation System). A travers ce travail, nous avons pu mettre en évidence l'importance d'outils méthodologiques pour faciliter et accélérer la prise de décision grâce à une approche structurée, objective et transparente des sols contaminés.
52

Le partage de données scientifiques : analyse des régimes d'échange dans une communauté de recherche sur l'Arctique

Gratton-Gagné, Olivier 06 1900 (has links) (PDF)
Ce mémoire porte sur le partage de données dans la recherche sur l'Arctique. Le partage de données est ici problématisé dans le contexte du développement d'infrastructures scientifiques de collaboration à grande échelle. Notre recherche est structurée autour de la question centrale suivante : comment rendre compte de la pluralité et de la complexité des usages des bases de données scientifiques? Pour ce faire, nous mobilisons les traditions théoriques des études en science, technologie et société, en informatique sociale et en sociologie des usages. Plus précisément, nous recourons à la théorie des régimes d'échange. Cette théorie propose de considérer les pratiques de partage de données à travers trois régimes d'échanges distincts, soit le régime de coopération, le régime de don et le régime de sous-traitance. Notre méthodologie est basée sur une approche qualitative et ascendante et notre terrain de recherche est le réseau de recherche ArcticNet. Nos résultats illustrent la variété et la subtilité des modalités d'échange de données et mettent au jour des enjeux du travail scientifique actuel. Nous terminons ce mémoire en proposant le concept du chercheur-contributeur. Selon cette hypothèse, les scientifiques occupent de plus en plus les fonctions des professionnels des sciences de l'information à mesure que les échanges de données s'accélèrent. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : données, bases de données, recherche scientifique, Arctique, partage, infrastructures scientifiques, régime d'échange
53

Une approche matérialisée basée sur les vues pour l'intégration de documents XML

Ahmad, Houda 26 June 2009 (has links) (PDF)
Les données semi-structurées occupent une place croissante dans l'évolution du Web par le biais du langage XML. La gestion de telles données ne s'appuie pas sur un schéma pré-dé fini, comme dans le cas de données structurées, gérées par exemple par le modèle relationnel. Le schéma de chaque document est auto-contenu dans le document même, et des documents similaires peuvent être représentés par des schémas différents. C'est pourquoi les algorithmes et les techniques d'intégration et d'interrogation de telles sources de données sont souvent plus complexes que ceux défi nis pour l'intégration et l'interrogation de sources de données structurées. L'objectif de notre travail est l'intégration de données XML en utilisant les principes d'Osiris, un prototype de SGBD-BC, dont le concept central est celui de vue. Dans ce système, une famille d'objets est défi nie par une hiérarchie de vues, où chaque vue est défi nie par ses vues mères, ses attributs et contraintes propres. Osiris appartient à la famille des logiques de description, la vue minimale d'une famille d'objets étant assimilée à un concept primitif et ses autres vues à des concepts définis. Un objet d'une famille satisfait certaines de ses vues. Pour chaque famille d'objets, Osiris construit, par analyse des contraintes dé finies dans toutes ses vues, un espace de classement n-dimensionnel. Cet espace sert de support au classement d'objets et aussi à leur indexation. Dans cette thèse nous avons étudié l'apport des principales fonctionnalités d'Osiris - classement, indexation et optimisation sémantique des requêtes à l'intégration de documents XML. Pour cela nous produisons un schéma cible (XML schema abstrait), qui représente un schéma Osiris ; chaque document satisfaisant un schéma source (XML schema concret) est réécrit en termes du schéma cible avant de subir l'extraction des valeurs de ses entités. Les objets correspondant à ces entités sont alors classés et indexés. Le mécanisme d'optimisation sémantique des requêtes d'Osiris peut dès lors être utilisé pour extraire les objets d'intérêt pour une requête. Nous avons réalisé un prototype, nommé OSIX (Osiris-based System for the Integration of XML sources) et nous l'avons appliqué à l'intégration et l'interrogation de documents XML simulant les données d'un hôpital.
54

Sensibilité de la région périnéale et de la poitrine chez la femme saine : une base de données

Cordeau, Dany 01 1900 (has links) (PDF)
Un des aspects pertinents à considérer en clinique est l'altération possible des seuils de sensibilité de la peau. Ces pertes de sensations peuvent compromettre les sensations érotiques, plaisantes et importantes aux fonctions sexuelles. Dans le but de développer des normes pour quantifier les modifications de la sensibilité dues à des problèmes cliniques, l'objectif de cette recherche était d'établir une base de données pour les seuils de détection de la sensibilité par plusieurs modalités de la région périnéale et de la poitrine chez la femme saine. Ainsi, cette base de données contribuera à l'accumulation de connaissances sexologiques pour la santé sexuelle des femmes saines, diagnostiquées, médicamentées ou qui ont subi des chirurgies. Auprès d'un échantillon de 30 femmes saines évaluées en laboratoire, il s'agissait de tester les régions de la poitrine, du périnée et des zones non-sexuelles (cou, avant-bras, abdomen) par trois modalités sensorielles (toucher, pression et vibration). Les résultats de la présente étude ont permis d'établir des normes des seuils de détection de la sensibilité au toucher léger, à la pression et à la vibration pour les femmes âgées de 18 à 35 ans en bonne santé. Cette étude était unique pour le nombre de sites évalués sur les femmes avec trois modalités différentes. Un nouveau regard a été apporté aux résultats en regroupant les sites en zones neutre, sexuelle secondaire et génitale. Finalement, l'effet d'interactions possibles avec plusieurs variables a été évalué afin de faire ressortir les facteurs influençant la sensibilité des sites étudiés. Les données ont été présentées de façon à être utilisées dans un contexte clinique et devraient servir de comparaison pour différentes populations cliniques féminines présentant des problèmes métaboliques ou neurologiques, pour les blessés médullaires, et aussi dans des contextes cliniques comme les chirurgies esthétiques ou de reconstruction comme pour les transsexuelles. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : sensibilité, récepteurs cutanés, mécanorécepteurs, périnée, poitrine.
55

SGBD open-source pour historisation de données et impact des mémoires flash

Chardin, Brice 07 December 2011 (has links) (PDF)
L'archivage de données industrielles est un problème complexe : il s'agit de stocker un grand nombre de données sur plusieurs décennies, tout en supportant la charge des insertions temps réel et des requêtes d'extraction et d'analyse. Pour ce type d'application, des produits " de niche " se sont spécialisés pour ce segment du marché : les progiciels d'historisation. Il s'agit de solutions propriétaires avec des coûts de licence de l'ordre de plusieurs dizaines de milliers d'euros, et dont le fonctionnement interne n'est pas dévoilé. Nous avons donc dans un premier temps mis en évidence les spécificités de ces progiciels d'historisation, tant au niveau des fonctionnalités que des performances. Néanmoins, l'archivage de données industrielles peut s'appliquer à des contexte très différents. L'IGCBox par exemple est un mini PC industriel utilisant MySQL pour l'archivage à court terme des données de production des centrales hydrauliques d'EDF. Ce matériel présente quelques spécificités, la principale étant son système de mémoire non volatile basé uniquement sur la technologie flash, pour sa fiabilité importante en milieu industriel et sa faible consommation d'énergie. Les SGBD possèdent pour des raisons historiques de nombreuses optimisations spécifiques aux disques durs, et le manque d'optimisation adaptée aux mémoires flash peut dégrader significativement les performances. Le choix de ce type de mémoire a donc eu des répercussions notables sur les performances pour l'insertion, avec une dégradation importante par rapport aux disques durs. Nous avons donc proposé Chronos, un SGBD dédié à l'historisation de données sur mémoires flash. Pour cela, nous avons en particulier identifié un algorithme d'écriture " quasi-séquentiel " efficace pour accéder à la mémoire, ainsi que des mécanismes de bufferisation et de mise à jour d'index optimisés pour les charges typiques de l'historisation. Les résultats expérimentaux montrent un gain significatif pour les insertions par rapport à des solutions équivalentes, d'un facteur 20 à 54. Chronos est donc une solution compétitive lorsque les insertions correspondent à une proportion importante de la charge soumise au SGBD. En particulier pour les charges typiques des IGCBox, Chronos se distingue en proposant des performances globales améliorées d'un facteur 4 à 18 par rapport aux autres solutions.
56

Contributions à la cryptographie ADN : applications à la transmission sécurisée du texte et de l'image

Tornea, Olga 13 November 2013 (has links) (PDF)
La cryptographie ADN est un domaine nouveau et prometteur pour la sécurité de l'information. C'est une combinaison des solutions classiques de cryptographie avec les avantages du matériel génétique. En effet, il est possible de bénéficier des avantages des systèmes cryptographiques classiques et de les rendre plus efficaces sur certaines méthodes grâce à l'utilisation de l'ADN. Il y a différentes façons d'utiliser l'ADN pour sécuriser le contenu de l'information. Cette thèse propose deux solutions différentes pour utiliser l'ADN dans la cryptographie : sous sa forme biologique ou alors sous forme numérique. D 'une part, l'ADN biologique peut être utilisé pour le stockage et pour cacher des données à l'intérieur de celui-ci. L'information secrète est placée dans une molécule de l'ADN et caché parmi d'autres molécules d'ADN. D'autre part, les nombres aléatoires peuvent être générés à partir de séquences numériques d'ADN. Ils représentent une solution pour la génération et la transmission des clés OTP (One-Time-Pad) symétriques. La transmission d'une très longue clé de cryptage n'est pas nécessaire, car chaque séquence possède un numéro d'identification unique dans la base de données. Ce numéro, ou une combinaison de ces numéros, peut alors être transmis. Enfin, la sécurité et la compression sont très importantes lors de la transmission et du stockage des données informatiques. Cependant, la plupart des systèmes de cryptage peuvent augmenter la taille des données, ou encore augmenter la complexité calcul. Ces inconvénients peuvent être résolus en combinant la compression de données avec le cryptage dans un seul processus ou en effectuant le cryptage sélectif des données.
57

Indexation dans les espaces métriques Index arborescent et parallélisation

Kouahla, Zineddine 14 February 2013 (has links) (PDF)
L'indexation et la recherche efficiente de données complexes constitue un besoin croissant face à la taille et à la variété des bases de données actuelles. Nous proposons une structure d'index arborescent basée sur un partitionnement d'un espace métrique à base de boules et d'hyper-plans. Les performances de cet index sont évaluées expérimentalement sur des collections de complexités intrinsèques différentes. La parallélisation de l'algorithme de recherche des k plus proches voisins est également effectuée afin d'encore améliorer les performances.
58

Analyse statique pour l'optimisation des mises à jour de documents XML temporels

Mohamed-Amine, Baazizi 07 September 2012 (has links) (PDF)
Ces dernières années ont été marquées par l'adoption en masse de XML comme format d'échange et de représentation des données stockées sur le web. Cette évolution s'est accompagnée du développement de langages pour l'interrogation et la manipulation des données XML et de la mise en œuvre de plusieurs systèmes pour le stockage et le traitement des ces dernières. Parmi ces systèmes, les moteurs mémoire centrale ont été développés pour faire face à des besoins spécifiques d'applications qui ne nécessitant pas les fonctionnalités avancées des SGBD traditionnels. Ces moteurs offrent les mêmes fonctionnalités que les systèmes traditionnels sauf que contrairement à ces derniers, ils nécessitent de charger entièrement les documents en mémoire centrale pour pouvoir les traiter. Par conséquent, ces systèmes sont limités quant à la taille des documents pouvant être traités. Dans cette thèse nous nous intéressons aux aspects liés à l'évolution des données XML et à la gestion de la dimension temporelle de celles-ci. Cette thèse comprend deux parties ayant comme objectif commun le développement de méthodes efficaces pour le traitement des documents XML volumineux en utilisant les moteurs mémoire centrale.Dans la première partie nous nous focalisons sur la mise à jour des documents XML statiques. Nous proposons une technique d'optimisation basée sur la projection XML et sur l'utilisation des schémas. La projection est une méthode qui a été proposée dans le cadre des requêtes afin de résoudre les limitations des moteurs mémoire centrale. Son utilisation pour le cas des mises à jour soulève de nouveaux problèmes liés notamment à la propagation des effets des mises à jours. La deuxième partie est consacrée à la construction et à la maintenance des documents temporels, toujours sous la contrainte d'espace. A cette contrainte s'ajoute la nécessité de générer des documents efficaces du point de vue du stockage. Notre contribution consiste en deux méthodes. La première méthode s'applique dans le cas général pour lequel aucune information n'est utilisée pour la construction des documents temporels. Cette méthode est conçue pour être réalisée en streaming et permet ainsi le traitement de document quasiment sans limite de taille. La deuxième méthode s'applique dans le cas où les changements sont spécifiés par des mises à jour. Elle utilise le paradigme de projection ce qui lui permet en outre de manipuler des documents volumineux de générer des documents temporels satisfaisant du point de vue du stockage.
59

Coordination fiable de services de données à base de politiques active

Alfonso Espinosa-Oviedo, Javier 28 October 2013 (has links) (PDF)
Nous proposons une approche pour ajouter des propriétés non-fonctionnelles (traitement d'exceptions, atomicité, sécurité, persistance) à des coordinations de services. L'approche est basée sur un Modèle de Politiques Actives (AP Model) pour représenter les coordinations de services avec des propriétés non-fonctionnelles comme une collection de types. Dans notre modèle, une coordination de services est représentée comme un workflow compose d'un ensemble ordonné d'activité. Chaque activité est en charge d'implante un appel à l'opération d'un service. Nous utilisons le type Activité pour représenter le workflow et ses composants (c-à-d, les activités du workflow et l'ordre entre eux). Une propriété non-fonctionnelle est représentée comme un ou plusieurs types de politiques actives, chaque politique est compose d'un ensemble de règles événement-condition-action qui implantent un aspect d'un propriété. Les instances des entités du modèle, politique active et activité peuvent être exécutées. Nous utilisons le type unité d'exécution pour les représenter comme des entités dont l'exécution passe par des différents états d'exécution en exécution. Lorsqu'une politique active est associée à une ou plusieurs unités d'exécution, les règles vérifient si l'unité d'exécution respecte la propriété non-fonctionnelle implantée en évaluant leurs conditions sur leurs états d'exécution. Lorsqu'une propriété n'est pas vérifiée, les règles exécutant leurs actions pour renforcer les propriétés en cours d'exécution. Nous avons aussi proposé un Moteur d'exécution de politiques actives pour exécuter un workflow orientés politiques actives modélisé en utilisant notre AP Model. Le moteur implante un modèle d'exécution qui détermine comment les instances d'une AP, une règle et une activité interagissent entre elles pour ajouter des propriétés non-fonctionnelles (NFP) à un workflow en cours d'exécution. Nous avons validé le modèle AP et le moteur d'exécution de politiques actives en définissant des types de politiques actives pour adresser le traitement d'exceptions, l'atomicité, le traitement d'état, la persistance et l'authentification. Ces types de politiques actives ont été utilisés pour implanter des applications à base de services fiables, et pour intégrer les données fournies par des services à travers des mashups.
60

Traitement de requêtes de jointures continues dans les systèmes pair-à-pair (P2P) structurés

Palma, Wenceslao 18 June 2010 (has links) (PDF)
De nombreuses applications distribuées partagent la même nécessité de traiter des flux de données de façon continue, par ex. la surveillance de réseau ou la gestion de réseaux de capteurs. Dans ce contexte, un problème important et difficile concerne le traitement de requêtes continues de jointure qui nécessite de maintenir une fenêtre glissante sur les données la plus grande possible, afin de produire le plus possible de résultats probants. Dans cette thèse, nous proposons une nouvelle méthode pair-à-pair, DHTJoin, qui tire parti d'une Table de Hachage Distribuée (DHT) pour augmenter la taille de la fenêtre glissante en partitionnant les flux sur un grand nombre de nœuds. Contrairement aux solutions concurrentes qui indexent tout les tuples des flux, DHTJoin n'indexe que les tuples requis pour les requêtes et exploite, de façon complémentaire, la dissémination de requêtes. DHTJoin traite aussi le problème de la dynamicité des nœuds, qui peuvent quitter le système ou tomber en panne pendant l'exécution. Notre évaluation de performances montre que DHTJoin apporte une réduction importante du trafic réseau, par rapport aux méthodes concurrentes.

Page generated in 0.0947 seconds