• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 68
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 259
  • 259
  • 92
  • 92
  • 86
  • 43
  • 41
  • 36
  • 35
  • 33
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Harmonisation de l'information géo-scientifique de bases de données industrielles par mesures automatiques de ressemblance / Harmonization of geo-scientific information in industrial data bases, thanks to automatic similarity metrics

Fuga, Alba 05 January 2017 (has links)
Pour automatiser l’harmonisation des bases de données industrielles de navigation sismique, une méthodologie et un logiciel ont été mis en place. La méthodologie d’Automatisation des Mesures de Ressemblance (AMR), permet de modéliser et hiérarchiser les critères de comparaison servant de repères pour l’automatisation. Accompagné d’un ensemble de seuils de tolérance, le modèle hiérarchisé a été utilisé comme filtre à tamis dans le processus de classification automatique permettant de trouver rapidement les données fortement similaires. La similarité est mesurée par un ensemble de métriques élémentaires, aboutissant à des scores numériques, puis elle est mesurée de manière plus globale et contextuelle, notamment suivant plusieurs échelles : entre les attributs, entre les données, et entre les groupes. Ces évaluations de la similarité permettent à la fois au système expert de présenter des analyses précises automatisées et à l’expert géophysicien de réaliser des interprétations multicritères en faisant en environ deux jours le travail qu’il faisait en trois semaines. Les stratégies de classification automatique sont quant à elles adaptables à différentes problématiques, à l’harmonisation des données, mais aussi à la réconciliation des données ou au géo-référencement de documents techniques. Le Logiciel Automatique de Comparaisons (LAC) est une implantation de l’AMR réalisée pour les services de Data Management et de Documentation Technique de TOTAL. L’outil industrialisé est utilisé depuis trois ans, mais n’est plus en maintenance informatique aujourd’hui malgré son usage. Les nouvelles fonctionnalités d'imagerie de base de données qui ont été développées dans cette thèse n'y sont pas encore intégrées, mais devraient permettre une meilleure visualisation des phénomènes. Cette dernière manière de représenter les données, fondée sur la mesure de similarité, permet d’avoir une image assez claire de données lourdes car complexes tout en permettant de lire des informations nécessaires à l’harmonisation et à l’évaluation de la qualité des bases. Ne pourrait-on pas chercher à caractériser, comparer, analyser, gérer les flux entrants et sortants des bases de données, suivre leurs évolutions et tirer des modes d’apprentissage automatique à partir du développement de cette imagerie ? / In order to harmonize industrial seismic navigation data bases, a methodology and a software have been developed. The methodology of Similarity Measurement Automation provides protocols to build a model and a hierarchy for the comparison criteria that shall be used as points of reference for the automation. With its tolerance set of thresholds, the model has been used as a scaled filter within the automatic classification process which aim is to find as quickly as possible very similar data. Similarity is measured by combinations of elementary metrics giving scores, and also by a global and contextual procedure, giving access to three levels of results: similarity between attributes, between individuals, and between groups. Accurate automated analyses of the expert system as well as human interpretations on multiple criteria are now possible thanks to these similarity estimations, reducing to two days instead of three weeks the work of a geophysicist. Classification strategies have been designed to suit the different data management issues, as well as harmonization, reconciliation or geo-referencing. The methodology has been implemented in software for automatic comparisons named LAC, and developed for Data Management and Technical Documentation services in TOTAL. The software has been industrialized and has been used for three years, even if now there is no technical maintenance anymore. The last data base visualization functionalities that have been developed have not been integrated yet to the software, but shall provide a better visualization of the phenomena. This latest way to visualize data is based on similarity measurement and obtains an image of complex and voluminous data clear enough. It also puts into relief information useful for harmonization and data quality evaluation. Would it be possible to characterize, compare, analyze and manage data flows, to monitor their evolution and figure out new machine learning methods by developing further this kind of data base imaging?
152

Exploitation de marqueurs évolutifs pour l'étude des relations génotype-phénotype : application aux ciliopathies / Exploitation of evolutionary markers to explore genotype-phenotype relationships : applications to ciliopathies

Nevers, Yannis Alain 14 December 2018 (has links)
A l’ère des omiques, l’étude des relations génotype-phénotype repose sur l’intégration de données diverses décrivant des aspects complémentaires des systèmes biologiques. La génomique comparative offre un angle d’approche original, celui de l’évolution, qui permet d’exploiter la grande diversité phénotypique du Vivant. Dans ce contexte, mes travaux de thèse ont porté sur la conception de marqueurs évolutifs décrivant les gènes selon leur histoire évolutive. Dans un premier temps, j’ai construit une ressource d’orthologie complète, OrthoInspector 3.0 pour extraire une information évolutive synthétique des données génomiques. J’ai ensuite développé des outils d’exploration de ces marqueurs en relation avec les données fonctionnelles et/ou phénotypiques. Ces méthodes ont été intégrées à la ressource OrthoInspector ainsi qu’au réseau social MyGeneFriends et appliquées à l’étude des ciliopathies, conduisant à l’identification de 87 nouveaux gènes ciliaires. / In the omics era, the study of genotype-phenotype relations requires the integration of a wide variety of data to describe diverse aspects of biological systems. Comparative genomics provides an original perspective, that of evolution, allowing the exploitation of the wide phenotypic diversity of living species. My thesis focused on the design of evolutionary markers to describe genes according to their evolutionary history. First, I built an exhaustive orthology resource, called OrthoInspector 3.0, to extract synthetic evolutionary information from genomic data. I then developed methods to explore the markers in relation to functional or phenotypic data. These methods have been incorporated in the OrthoInspector resource, as well as in the MyGeneFriends social network and applied to the study of ciliopathies, leading to the identification of 87 new ciliary genes.
153

Les plantes indicatrices du climat en France et leur télédétection

Garbolino, Emmanuel 12 December 2001 (has links) (PDF)
Dès ses débuts, la géographie botanique a reconnu l'influence du climat sur la répartition des plantes grâce à la comparaison de territoires et à l'examen de limites climatiques et floristiques. Elle a exprimé cette influence par des cartes plus que par des mesures. Elle a progressivement donné naissance à une discipline biologique, l'écologie végétale, qui se fonde, en milieu naturel, sur des observations stationnelles et sur des traitements numériques. Mais cette discipline a surtout mesuré les variables stationnelles les plus accessibles, celles qui concernent le substrat de la végétation plutôt que son climat, tout au moins à grande échelle. Aujourd'hui, cette discipline dispose d'une<br />banque de données climatiques, celle de Météo-France, et d'une banque de données floristiques « Sophy ». Elle peut établir les relations entre plantes et climats sur une base stationnelle et<br />numérique, donc plus objective, plus précise et plus complète que la géographie botanique.<br />Le réseau météorologique national fournit des données standardisées dans 828 postes en France. Parmi les facteurs les plus actifs sur les plantes, il y a la température du jour et de la nuit, mois par mois, reflétées respectivement par la température mensuelle maximale et minimale ; il y a également les hauteurs et les fréquences mensuelles des précipitations. Ces facteurs sont ramenés à une même période de référence après estimation des données manquantes. De son côté, la banque « Sophy » fournit les présences et les abondances de 4.500 taxons botaniques dans 140.000 stations<br />en France. Elle permet de distinguer le comportement d'une plante soit par sa présence, soit par un seuil d'abondance. La conjonction de ces deux banques fournit un échantillonnage d'environ 12.000<br />stations floristiques réparties entre les climats de 574 postes.<br />La dépendance apparente d'une plante envers un facteur se manifeste par la concentration de ses présences dans la gamme du facteur. Cette concentration se calcule comme une probabilité et elle suit un gradient rigoureusement unimodal dans la gamme du facteur. La concentration maximale exprime le pouvoir indicateur de la plante, de telle façon que ce paramètre ne soit nul que pour une plante ubiquiste. Ce pouvoir indicateur est d'autant plus élevé que la plante est meilleure indicatrice. Le rang de la concentration maximale indique la position optimale de la plante. Les douze pouvoirs indicateurs et les douze positions optimales résument le comportement d'une plante dans la gamme d'un facteur. Ce travail présente le catalogue des comportements pour 2.800 plantes<br />indicatrices du climat et pour six grandeurs climatiques sous la forme de graphiques. Le catalogue présente aussi la répartition géographique de chaque plante entre les 140.000 stations de la banque « Sophy ». Ce catalogue n'est pas seulement un dictionnaire écologique des plantes indicatrices du climat. Il est aussi un outil informatique qui permet d'estimer avec précision le climat dans une communauté dépourvue de poste météorologique et d'introduire ainsi le climat de façon numérique dans toute étude phyto-écologique en France.<br />Mis à part l'application précédente, le catalogue ne montre pas de synthèse. Il est complété par une classification climatique des plantes qui montre la hiérarchie des phénomènes et leur importance statistique. Cette classification détermine des groupes de plantes ayant des comportements similaires d'après leurs fidélités cumulées aux rangs des variables climatiques. Elle caractérise un groupe par ses pouvoirs indicateurs et ses positions optimales. Elle aboutit à un catalogue des principaux groupes, depuis les plus nombreux et les plus différents, constituant les premiers niveaux de synthèse, jusqu'aux plus détaillés. Elle montre que le gradient phytoclimatique majeur sépare le littoral, la région méditerranéenne et les montagnes des plaines continentales. Le<br />groupe littoral, par exemple, se subdivise en groupes atlantiques et méditerranéens, puis en sousgroupes cantonnés dans une partie seulement de chaque climat.<br />Un travail analogue est entrepris sur les relations entre les plantes et les variables du satellite NOAA. Comme en géographie botanique, les relations entre plantes et mesures satellitaires se<br />fondent souvent sur la superposition de ces images, basées sur un indice de végétation (NDVI), avec des cartes de végétation. Ces images et leur interprétation montrent de grandes catégories de<br />végétation, telles que formations forestières et cultures. La banque « Sophy » permet une étude stationnelle et non plus cartographique du phénomène. Cette banque associe des données<br />floristiques à des données satellitaires issues du même emplacement, dans 11.000 pixels de 5,5 km de côté. Les synthèses mensuelles du NDVI montrent des différences de comportement entre les plantes de formations différentes, telles que prairies, forêts, ripisylves, formations méditerranéennes et les landes atlantiques, littorales et montagnardes. Les pouvoirs indicateurs sont parfois élevés et similaires pour les plantes de la même formation. Mais ils montrent encore quelques incohérences, soit d'un mois sur l'autre, soit d'une variable satellitaire à une autre, faute d'une standardisation insuffisante dans la caractérisation des pixels. Des variables satellitaires standardisées portant sur une plus longue période, dont les données manquantes seraient calculées, devraient être susceptibles de localiser des phytoclimats, grâce aux groupes de plantes qui les représentent, et de généraliser<br />sur le terrain les connaissances stationnelles de la phytoclimatologie.
154

Modèles fluides pour l'analyse des systèmes de distribution de contenu

Clévenot-Perronnin, Florence 03 October 2005 (has links) (PDF)
Les systèmes de distribution de contenu comme les caches web et les réseaux d'échanges de fichiers doivent pouvoir servir une population de clients à la fois très grande (centaines de milliers) et fortement dynamique (temps de connexion très courts). Ces caractéristiques rendent leur analyse très coûteuse par les approches traditionnelles comme les modèles markoviens ou la simulation. Dans cette thèse nous proposons des modèles fluides simples permettant de s'affranchir de l'une des dimensions du problème. <br />Dans la première partie, nous développons un modèle stochastique fluide pour les systèmes de caches distribués. Les documents stockés sont modélisés par un fluide augmentant avec les requêtes insatisfaites. Nous appliquons ce modèle aux "clusters" de caches et à Squirrel, un système de cache pair-à-pair. Dans les deux cas notre modèle permet de calculer efficacement et avec précision la probabilité de hit, et de mettre en évidence les paramètres clés de ces systèmes. Nous proposons également une approximation multi classes pour modéliser la popularité des documents.<br />Dans la seconde partie de cette thèse nous étudions BitTorrent, un système d'échange de fichiers Pair-à-pair. Nous proposons un modèle fluide multi classes qui remplace les usagers par un fluide. Nous considérons deux classes d'usagers pour modéliser les différences de débits d'accès ou de qualité de service. Nous obtenons une formule close pour le temps de téléchargement dans chaque classe. Nous montrons également comment allouer la bande passante a chaque classe pour offrir un service différencié.
155

Un modèle et un mécanisme d'exécution pour les bases de données actives

Ghira Zinho Antunes, Maria Francisca 07 November 1991 (has links) (PDF)
Cette thèse propose un modèle et un ensemble de mécanismes pour supporter le développement de bases de données actives. D'une part, le modèle permet la description intégrée des aspects statiques et dynamiques des applications. Pour décrire la structure des traitements sur les informations trois concepts sont proposés : entité focale, activité et procédure. D'autre part, ce modèle est supporté par un ensemble d'outils et de mécanismes permettant de lancer automatiquement, contrôler et suivre l'exécution des activités et procédures. Un des mécanismes qui a mérité une attention particulière est celui du déclenchement automatique d'une activité ou d'une procédure. Ceci implique l'évaluation de préconditions liées aux activités et aux procédures. Leur évaluation est réalisée lors des mises à jour et nécessite potentiellement des accès complexes à la base de données. Cette évaluation se fait en deux phases • la première détermine le sous-ensemble de préconditions à évaluer pour une certaine mise à jour. Ce travail a abouti à l'établissement d'un ensemble de règles de correspondance entre les préconditions et les mises à jour. • la deuxième réalise l'évaluation proprement dite des préconditions. Ce travail a abouti à la définition d'une méthode d'évaluation efficace qui utilise un ensemble de techniques d'optimisation. D'autres mécanismes à souligner sont • l'interaction entre les mécanismes de déclenchement et d'exécution des activités et procédures avec le système transactionnel. • le contrôle persistant de l'exécution des procédures. Ce travail est complété par l'implémentation des différents services proposés.
156

Gestion d'objets composés dans un SGBD : cas particulier des documents structurés

De Lima, José Valdeni 20 March 1990 (has links) (PDF)
Cette thèse traite du problème de la gestion des documents structures multimédia dans un SGBD. Par gestion, nous entendons la modélisation, la manipulation, le stockage et l'accès aux documents. Nous présentons un modèle de documents structures de bureau (dsb) et une algèbre associée pour réaliser la spécification précise des aspects fonctionnels: opérateurs de construction et restructuration des objets manipules et fonctions d'accès. Le stockage et l'accès sont implémentés au niveau fonctionnel sous forme d'opérations sur des documents en prenant en considération leurs structures logiques. Le couplage du modèle standard ODA au modèle DSB et l'intégration au niveau fonctionnel des opérations implémentées ont permis la mise en place d'un gestionnaire autonome de documents utilisable a partir d'un SGBD relationnel. Ce gestionnaire de documents permet la spécialisation des documents et l'utilisation de valeurs nulles. Une grande partie de ce travail a été réalisée dans le cadre du projet esprit Doeois et un prototype expérimental a été développé sur Oracle
157

Conception d'une structure de données dans les environnements de bases de données

Leonard, Michel 09 May 1988 (has links) (PDF)
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
158

Bases d'objets‎ : une infrastructure de représentation de connaissances pour la gestion de données en CAO

Ania Briseno, Ignacio De Jesus 27 June 1988 (has links) (PDF)
Présentation d'une infrastructure de représentation de connaissances centrée objet, développée pour la conception, la manipulation et le contrôle de l'intégrité des bases de données des environnements de conception assistée par ordinateur. Cette infrastructure intégré des concepts et des techniques développées dans les domaines des bases de données, de l'intelligence artificielle et des langages de programmation, tels que l'héritage de propriétés , l'attachement procédural et l'emploi de mécanismes d'abstraction
159

Traitement logique de l'intégrité et de l'organisation sémantique des connaissances dans les systèmes de gestion de bases de données

Olivares, Judith 19 June 1986 (has links) (PDF)
Ce travail présente une approche générale du traitement de l'intégrité sémantique des données gérées par les systèmes de gestion de bases de données. Une organisation des connaissances (lois générales, données, etc.) d'une réalité/environnement est également présentée, accompagnée d'une méthode permettant leur définition cohérente. Les idées proposées ont été formalisées au moyen du calcul des prédicats du 1(e)r ordre puis mises en œuvre par l'intermédiaire du langage Prolog.
160

Machines et langages pour traiter les ensembles de données (Textes, tableaux, fichiers)

Rohmer, Jean 18 December 1980 (has links) (PDF)
.

Page generated in 0.0428 seconds