51 |
Browsing a Classification of an Image CollectionLoisant, Erwan 10 December 2005 (has links) (PDF)
Les données dites multimédia (images, vidéos) se distinguent des données classique par une densité variable d'information et l'impossibilité de normaliser ces données. Du fait de ces particularités, de nouvelles techniques d'indexation et de recherche d'information ont du être etudiées. Il y a principalement deux problèmes a résoudre pour la recherche d'information dans les collections multimédia (ou les bases de données multimédia) : (1) la représentation des données et (2) le processus de recherche du point de vue de l'utilisateur. Dans le cas des bases de données, l'indexation est fortement liée a ces deux problèmes. Dans le cas particulier des images, on distingue trois grandes classes: – la recherche par requêtes formelles, héritée des bases de données classiques ; – la recherche avec boucle de retour, où l'utilisateur fait partie intégrante du processus de recherche ; – la navigation où les images sont organisées en une structure preparée à l'avance, utilisée comme index et comme structure de recherche. C'est sur cette troisième approche que nos travaux se sont portés ; nous nous sommes en effet interessés au treillis de Galois, une structure de graphe permettant d'organiser les éléments d'une relation binaire. Une telle structure de navigation a plusieurs avantages sur une approche classique basée sur des requêtes : en particulier, elle permet d'affranchir l'utilisateur d'une phase de rédaction de requête.
|
52 |
Database Engineering Process Modelling/Modélisation des processus d'ingénierie des bases de donnéesRoland, Didier 15 May 2003 (has links)
One of the main current research activities in Software engineering is concerned about modelling the development process of huge softwares in order to bring some help to the engineer to design and maintain an application. In general, every design process is seen as rational application of transformation operators to one or more products (mainly specifications) in order to produce new products that satisfy to some given criteria. This modelling mainly allows a methodological guidance. Indeed, at each step of the process, the set of pertinent activities and types of products are proposed to the designer, without any other. This guidance may possibly be reinforced with some help. Furthermore, this modelling allows to document the process with its history, ie with a representation of performed actvities. This history is itself the basis of maintenance activities. Two examples : a Replay function that allows, during a modification, to do (automatically or assisted) the same activities as during the design, and Reverse Engineering that allows to recover not only some technical and functional documentation of an application, but also a plausible history of its design. The thesis aims at elaborating a general model of design processes, applying it to database engineering and implementing it in the DB-MAIN CASE tool. It will be done in four phases : 1. elaboration of a model, a method specification language and a history representation 2. evaluation of this model with the specification of classical methods and case studies 3. methodological recommandation proposals for the elaboration of design methods 4. development and integration of some methodological control functions in the DB-MAIN CASE tool; this includes an extension of the repository, the definition of the interface of the methodological functions, the development of the methodological engine and the development of an history processor (analysis, replay,...)./Un des principaux sujets de recherche actuels dans le monde de l'ingénierie logicielle concerne la modélisation des processus de développement de grosses applications afin d'apporter de l'aide aux ingénieurs pour concevoir et maintenir leurs applications. En général, un processus de conception est vu comme l'application rationnelle d'opérateurs de transformation à un ou plusieurs produits (généralement des spécifications) pour obtenir de nouveaux produits qui satisfont une série de critères donnés. Cette modélisation permet principalement une aide méthodologique: à chaque étape du processus, seul l'ensemble des outils pertinents est mis à disposition du concepteur. Ce guidage peut être renforcé par des messages d'aide. Cette aide s'étend l'enregistrement de l'historique du processus, c'est-à-dire d'une représentation des actions entreprises. Cet historique peut lui-même être à la base d'activités de maintenance. Deux exemples: une fonction qui permet de rejouer, lors d'une modification, de manière automatique ou assistée, les mêmes actions que pendant la conception, et la rétro-ingénierie qui permet de recouvrer non seulement la documentation technique et fonctionnelle d'une application, mais aussi un historique plausible de la conception originelle. La thèse s'attache à élaborer un modèle général de processus de conception, à l'appliquer au monde des bases de données et à l'implémenter dans l'AGL DB-MAIN. Cela, en 4 phases: 1. Élaboration d'un modèle, d'un langage de spécification (MDL) et d'une représentation des historiques 2. Évaluation de ce modèle avec des méthodes de spécification classiques et études de cas 3. Propositions de recommandations méthodologiques pour l'élaboration de méthodes d'ingénierie 4. Développement et intégration de fonctions de contrôle méthodologique dans l'atelier DB-MAIN; ceci inclut l'extension du référentiel, la définition de l'interface homme-machine des fonctions méthodologiques et le développement du moteur méthodologique.
|
53 |
Evaluation du risque potentiel sur l'environnement lors de la réhabilitation d'un site polluéDuong, Viet-Long 14 January 1999 (has links) (PDF)
La pollution des sols correspond à une problématique récente. Au même titre que l'eau et l'air, la contamination des sols industriels constitue un risque pour la santé humaine et une menace pour la protection de l'environnement, et doit donc faire l'objet d'une réhabilitation. Toutefois la volonté politique française en la matière ne s'étant affirmée qu'à partir des années 1990, les outils de gestion des sols contaminés restent encore à développer. Pour cela une réflexion a été engagée afin de mettre au point, à partir de l'expérience acquise dans les autres pays industrialisés et à partir des connaissances actuelles, des outils méthodologiques d'aide à la gestion des sites contaminés, en particulier lors des étapes : - d'évaluation de l'état de pollution du site, notamment par la caractérisation du niveau de danger et de risque que présente un site contaminé. Pour cela nous avons développé un outil, appelé TRACES (Tool for Risk Assessment from Chemical Exposure to Soils) permettant un diagnostic progressif dans le but d'établir l'opportunité d'une réhabilitation et de déterminer les objectifs de cette réhabilitation éventuelle, - d'identification des filières de réhabilitation les plus adaptées pour le traitement des sols pollués basée sur une méthode d'analyse multicritère, ELECTRE III, permettant d'intégrer les intérêts de chaque acteur de la réhabilitation, ce qui a abouti à l'outil RACES (Remediai Alternative Classification and Evaluation System). A travers ce travail, nous avons pu mettre en évidence l'importance d'outils méthodologiques pour faciliter et accélérer la prise de décision grâce à une approche structurée, objective et transparente des sols contaminés.
|
54 |
Le partage de données scientifiques : analyse des régimes d'échange dans une communauté de recherche sur l'ArctiqueGratton-Gagné, Olivier 06 1900 (has links) (PDF)
Ce mémoire porte sur le partage de données dans la recherche sur l'Arctique. Le partage de données est ici problématisé dans le contexte du développement d'infrastructures scientifiques de collaboration à grande échelle. Notre recherche est structurée autour de la question centrale suivante : comment rendre compte de la pluralité et de la complexité des usages des bases de données scientifiques? Pour ce faire, nous mobilisons les traditions théoriques des études en science, technologie et société, en informatique sociale et en sociologie des usages. Plus précisément, nous recourons à la théorie des régimes d'échange. Cette théorie propose de considérer les pratiques de partage de données à travers trois régimes d'échanges distincts, soit le régime de coopération, le régime de don et le régime de sous-traitance. Notre méthodologie est basée sur une approche qualitative et ascendante et notre terrain de recherche est le réseau de recherche ArcticNet. Nos résultats illustrent la variété et la subtilité des modalités d'échange de données et mettent au jour des enjeux du travail scientifique actuel. Nous terminons ce mémoire en proposant le concept du chercheur-contributeur. Selon cette hypothèse, les scientifiques occupent de plus en plus les fonctions des professionnels des sciences de l'information à mesure que les échanges de données s'accélèrent.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : données, bases de données, recherche scientifique, Arctique, partage, infrastructures scientifiques, régime d'échange
|
55 |
Une approche matérialisée basée sur les vues pour l'intégration de documents XMLAhmad, Houda 26 June 2009 (has links) (PDF)
Les données semi-structurées occupent une place croissante dans l'évolution du Web par le biais du langage XML. La gestion de telles données ne s'appuie pas sur un schéma pré-dé fini, comme dans le cas de données structurées, gérées par exemple par le modèle relationnel. Le schéma de chaque document est auto-contenu dans le document même, et des documents similaires peuvent être représentés par des schémas différents. C'est pourquoi les algorithmes et les techniques d'intégration et d'interrogation de telles sources de données sont souvent plus complexes que ceux défi nis pour l'intégration et l'interrogation de sources de données structurées. L'objectif de notre travail est l'intégration de données XML en utilisant les principes d'Osiris, un prototype de SGBD-BC, dont le concept central est celui de vue. Dans ce système, une famille d'objets est défi nie par une hiérarchie de vues, où chaque vue est défi nie par ses vues mères, ses attributs et contraintes propres. Osiris appartient à la famille des logiques de description, la vue minimale d'une famille d'objets étant assimilée à un concept primitif et ses autres vues à des concepts définis. Un objet d'une famille satisfait certaines de ses vues. Pour chaque famille d'objets, Osiris construit, par analyse des contraintes dé finies dans toutes ses vues, un espace de classement n-dimensionnel. Cet espace sert de support au classement d'objets et aussi à leur indexation. Dans cette thèse nous avons étudié l'apport des principales fonctionnalités d'Osiris - classement, indexation et optimisation sémantique des requêtes à l'intégration de documents XML. Pour cela nous produisons un schéma cible (XML schema abstrait), qui représente un schéma Osiris ; chaque document satisfaisant un schéma source (XML schema concret) est réécrit en termes du schéma cible avant de subir l'extraction des valeurs de ses entités. Les objets correspondant à ces entités sont alors classés et indexés. Le mécanisme d'optimisation sémantique des requêtes d'Osiris peut dès lors être utilisé pour extraire les objets d'intérêt pour une requête. Nous avons réalisé un prototype, nommé OSIX (Osiris-based System for the Integration of XML sources) et nous l'avons appliqué à l'intégration et l'interrogation de documents XML simulant les données d'un hôpital.
|
56 |
Sensibilité de la région périnéale et de la poitrine chez la femme saine : une base de donnéesCordeau, Dany 01 1900 (has links) (PDF)
Un des aspects pertinents à considérer en clinique est l'altération possible des seuils de sensibilité de la peau. Ces pertes de sensations peuvent compromettre les sensations érotiques, plaisantes et importantes aux fonctions sexuelles. Dans le but de développer des normes pour quantifier les modifications de la sensibilité dues à des problèmes cliniques, l'objectif de cette recherche était d'établir une base de données pour les seuils de détection de la sensibilité par plusieurs modalités de la région périnéale et de la poitrine chez la femme saine. Ainsi, cette base de données contribuera à l'accumulation de connaissances sexologiques pour la santé sexuelle des femmes saines, diagnostiquées, médicamentées ou qui ont subi des chirurgies. Auprès d'un échantillon de 30 femmes saines évaluées en laboratoire, il s'agissait de tester les régions de la poitrine, du périnée et des zones non-sexuelles (cou, avant-bras, abdomen) par trois modalités sensorielles (toucher, pression et vibration). Les résultats de la présente étude ont permis d'établir des normes des seuils de détection de la sensibilité au toucher léger, à la pression et à la vibration pour les femmes âgées de 18 à 35 ans en bonne santé. Cette étude était unique pour le nombre de sites évalués sur les femmes avec trois modalités différentes. Un nouveau regard a été apporté aux résultats en regroupant les sites en zones neutre, sexuelle secondaire et génitale. Finalement, l'effet d'interactions possibles avec plusieurs variables a été évalué afin de faire ressortir les facteurs influençant la sensibilité des sites étudiés. Les données ont été présentées de façon à être utilisées dans un contexte clinique et devraient servir de comparaison pour différentes populations cliniques féminines présentant des problèmes métaboliques ou neurologiques, pour les blessés médullaires, et aussi dans des contextes cliniques comme les chirurgies esthétiques ou de reconstruction comme pour les transsexuelles.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : sensibilité, récepteurs cutanés, mécanorécepteurs, périnée, poitrine.
|
57 |
SGBD open-source pour historisation de données et impact des mémoires flashChardin, Brice 07 December 2011 (has links) (PDF)
L'archivage de données industrielles est un problème complexe : il s'agit de stocker un grand nombre de données sur plusieurs décennies, tout en supportant la charge des insertions temps réel et des requêtes d'extraction et d'analyse. Pour ce type d'application, des produits " de niche " se sont spécialisés pour ce segment du marché : les progiciels d'historisation. Il s'agit de solutions propriétaires avec des coûts de licence de l'ordre de plusieurs dizaines de milliers d'euros, et dont le fonctionnement interne n'est pas dévoilé. Nous avons donc dans un premier temps mis en évidence les spécificités de ces progiciels d'historisation, tant au niveau des fonctionnalités que des performances. Néanmoins, l'archivage de données industrielles peut s'appliquer à des contexte très différents. L'IGCBox par exemple est un mini PC industriel utilisant MySQL pour l'archivage à court terme des données de production des centrales hydrauliques d'EDF. Ce matériel présente quelques spécificités, la principale étant son système de mémoire non volatile basé uniquement sur la technologie flash, pour sa fiabilité importante en milieu industriel et sa faible consommation d'énergie. Les SGBD possèdent pour des raisons historiques de nombreuses optimisations spécifiques aux disques durs, et le manque d'optimisation adaptée aux mémoires flash peut dégrader significativement les performances. Le choix de ce type de mémoire a donc eu des répercussions notables sur les performances pour l'insertion, avec une dégradation importante par rapport aux disques durs. Nous avons donc proposé Chronos, un SGBD dédié à l'historisation de données sur mémoires flash. Pour cela, nous avons en particulier identifié un algorithme d'écriture " quasi-séquentiel " efficace pour accéder à la mémoire, ainsi que des mécanismes de bufferisation et de mise à jour d'index optimisés pour les charges typiques de l'historisation. Les résultats expérimentaux montrent un gain significatif pour les insertions par rapport à des solutions équivalentes, d'un facteur 20 à 54. Chronos est donc une solution compétitive lorsque les insertions correspondent à une proportion importante de la charge soumise au SGBD. En particulier pour les charges typiques des IGCBox, Chronos se distingue en proposant des performances globales améliorées d'un facteur 4 à 18 par rapport aux autres solutions.
|
58 |
Contributions à la cryptographie ADN : applications à la transmission sécurisée du texte et de l'imageTornea, Olga 13 November 2013 (has links) (PDF)
La cryptographie ADN est un domaine nouveau et prometteur pour la sécurité de l'information. C'est une combinaison des solutions classiques de cryptographie avec les avantages du matériel génétique. En effet, il est possible de bénéficier des avantages des systèmes cryptographiques classiques et de les rendre plus efficaces sur certaines méthodes grâce à l'utilisation de l'ADN. Il y a différentes façons d'utiliser l'ADN pour sécuriser le contenu de l'information. Cette thèse propose deux solutions différentes pour utiliser l'ADN dans la cryptographie : sous sa forme biologique ou alors sous forme numérique. D 'une part, l'ADN biologique peut être utilisé pour le stockage et pour cacher des données à l'intérieur de celui-ci. L'information secrète est placée dans une molécule de l'ADN et caché parmi d'autres molécules d'ADN. D'autre part, les nombres aléatoires peuvent être générés à partir de séquences numériques d'ADN. Ils représentent une solution pour la génération et la transmission des clés OTP (One-Time-Pad) symétriques. La transmission d'une très longue clé de cryptage n'est pas nécessaire, car chaque séquence possède un numéro d'identification unique dans la base de données. Ce numéro, ou une combinaison de ces numéros, peut alors être transmis. Enfin, la sécurité et la compression sont très importantes lors de la transmission et du stockage des données informatiques. Cependant, la plupart des systèmes de cryptage peuvent augmenter la taille des données, ou encore augmenter la complexité calcul. Ces inconvénients peuvent être résolus en combinant la compression de données avec le cryptage dans un seul processus ou en effectuant le cryptage sélectif des données.
|
59 |
Indexation dans les espaces métriques Index arborescent et parallélisationKouahla, Zineddine 14 February 2013 (has links) (PDF)
L'indexation et la recherche efficiente de données complexes constitue un besoin croissant face à la taille et à la variété des bases de données actuelles. Nous proposons une structure d'index arborescent basée sur un partitionnement d'un espace métrique à base de boules et d'hyper-plans. Les performances de cet index sont évaluées expérimentalement sur des collections de complexités intrinsèques différentes. La parallélisation de l'algorithme de recherche des k plus proches voisins est également effectuée afin d'encore améliorer les performances.
|
60 |
Analyse statique pour l'optimisation des mises à jour de documents XML temporelsMohamed-Amine, Baazizi 07 September 2012 (has links) (PDF)
Ces dernières années ont été marquées par l'adoption en masse de XML comme format d'échange et de représentation des données stockées sur le web. Cette évolution s'est accompagnée du développement de langages pour l'interrogation et la manipulation des données XML et de la mise en œuvre de plusieurs systèmes pour le stockage et le traitement des ces dernières. Parmi ces systèmes, les moteurs mémoire centrale ont été développés pour faire face à des besoins spécifiques d'applications qui ne nécessitant pas les fonctionnalités avancées des SGBD traditionnels. Ces moteurs offrent les mêmes fonctionnalités que les systèmes traditionnels sauf que contrairement à ces derniers, ils nécessitent de charger entièrement les documents en mémoire centrale pour pouvoir les traiter. Par conséquent, ces systèmes sont limités quant à la taille des documents pouvant être traités. Dans cette thèse nous nous intéressons aux aspects liés à l'évolution des données XML et à la gestion de la dimension temporelle de celles-ci. Cette thèse comprend deux parties ayant comme objectif commun le développement de méthodes efficaces pour le traitement des documents XML volumineux en utilisant les moteurs mémoire centrale.Dans la première partie nous nous focalisons sur la mise à jour des documents XML statiques. Nous proposons une technique d'optimisation basée sur la projection XML et sur l'utilisation des schémas. La projection est une méthode qui a été proposée dans le cadre des requêtes afin de résoudre les limitations des moteurs mémoire centrale. Son utilisation pour le cas des mises à jour soulève de nouveaux problèmes liés notamment à la propagation des effets des mises à jours. La deuxième partie est consacrée à la construction et à la maintenance des documents temporels, toujours sous la contrainte d'espace. A cette contrainte s'ajoute la nécessité de générer des documents efficaces du point de vue du stockage. Notre contribution consiste en deux méthodes. La première méthode s'applique dans le cas général pour lequel aucune information n'est utilisée pour la construction des documents temporels. Cette méthode est conçue pour être réalisée en streaming et permet ainsi le traitement de document quasiment sans limite de taille. La deuxième méthode s'applique dans le cas où les changements sont spécifiés par des mises à jour. Elle utilise le paradigme de projection ce qui lui permet en outre de manipuler des documents volumineux de générer des documents temporels satisfaisant du point de vue du stockage.
|
Page generated in 0.0332 seconds