• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 176
  • 68
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 261
  • 261
  • 92
  • 92
  • 86
  • 43
  • 41
  • 36
  • 35
  • 33
  • 28
  • 28
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Contribution à l'extraction et à la représentation des connaissances de l'environnement maritime : proposition d'une architecture dédiée aux applications de navigation / No

Tsatcha, Dieudonné 11 December 2014 (has links)
De nos jours, les applications informatiques autonomes sont au centre de grandes préoccupations de la recherche scientifique. Ces dernières sont destinées initialement à des systèmes d'aide à la décision dans des environnements contraints et dynamiques, communément appelés environnements complexes. Elles peuvent dès à présent, à l'aide des avancées de la recherche, permettre de construire et déduire leurs connaissances propres afin d'interagir en temps réel avec leur environnement. Cependant, elles sont confrontées à la difficulté d'avoir une modélisation fidèle du monde réel et des entités qui le composent. L'un des principaux objectifs de nos recherches est de capturer et modéliser la sémantique associée aux entités spatio-temporelles afin d'enrichir leur expressivité dans les SIG ou les systèmes d'aide à la décision. Un service de routage maritime dynamique a été déployé en exploitant cette modélisation. Cet algorithme a été démontré comme optimal en termes d'espace mémoire et de temps de calcul. La sémantique capturée se compose de l'affordance et de la saillance visuelle de l'entité spatiale. Les connaissances associées à cette sémantique sont par la suite représentées par une ontologie computationnelle qui intègre des approches spatio-temporelles. Ces connaissances sont soit déduites du savoir de l'expert du domaine, soit extraites de gros volumes de données textuelles en utilisant des techniques de traitement automatique du langage. L'ontologie computationnelle proposée nous a permis de définir un algorithme de routage maritime dynamique (fonction des évènements ou objets présents dans l'environnement) fondé sur une heuristique itérative monocritère de plus courte distance et bidirectionnelle. L'algorithme BIDA* proposé s'applique sur un graphe itératif qui est une conceptualisation d'une grille hexagonale itérative recouvrant la zone de navigation. Cet algorithme permet aussi la gestion de différents niveaux de résolution. Toujours dans l'initiative de produire un modèle aussi proche que possible du monde réel, l'algorithme BIDA* a été enrichi des stratégies multicritères afin de prendre en compte les différentes contraintes de la navigation maritime. Les contraintes globales et locales auxquelles nous nous sommes intéressés sont la profondeur des eaux, la distance de navigation et la direction de navigation. Le modèle proposé permet ainsi d'enrichir les capacités cognitives des utilisateurs évoluant dans les environnements maritimes et peut aussi être utilisé pour construire des systèmes complètement autonomes explorant ces environnements. Un prototype expérimental de navigation intelligente mettant en oeuvre cette modélisation et proposant un service de routage maritime a été développé dans le cadre de cette thèse. / No
152

La protection des bases de données par le droit d'auteur : approche comparative entre le droit français et le droit sénégalais / The legal protection of databases by intellectual property : comparative approach Senegalese law and French law

Ndiaye, Elhadji Oumar 20 December 2017 (has links)
Dans un contexte mondial marqué par l’essor d’une société de l’information, des savoirs partagés et de l’économie numérique, cette étude propose une évaluation de la protection des bases de données par le droit d’auteur, en privilégiant une approche comparative entre le droit français et le droit sénégalais. En mettant en exergue les éléments de convergence mais aussi de divergence qui ressortent de la confrontation des deux législations, cette analyse part de l’identification des forces et des faiblesses du droit d’auteur, en vue de proposer des orientations pour une amélioration du cadre juridique de la protection des bases de données. Le droit d’auteur étant le mécanisme de protection unanimement consacré pour les bases de données, il y a lieu, loin de s’en départir, d’identifier les meilleures options juridiques qui pourraient concourir à son renforcement. Dans cette optique, la prise en compte d’un équilibre parfait entre les divers intérêts en présence constitue un impératif pour le développement de la société de l’information. / In a global context marked by the rise of an information society, shared knowledge and digital economy, this study proposes an assessment of the protection of databases by Copyright (french meaning), privileging a comparative approach between French and Senegalese law. By highlighting the elements of convergence but also of divergence that emerge from the confrontation between the two legislations, this analysis starts from the identification of the strengths and weaknesses of copyright, to propose orientations aimed at improving the legal framework for the protection of databases. Copyright being the unanimously consecrated protection mechanism for databases, it is necessary, far from divesting it, to identify the best legal options that could contribute to its reinforcement. In this respect, it is imperative to take into account a perfect balance between the various interests for the development of the information society.
153

Harmonisation de l'information géo-scientifique de bases de données industrielles par mesures automatiques de ressemblance / Harmonization of geo-scientific information in industrial data bases, thanks to automatic similarity metrics

Fuga, Alba 05 January 2017 (has links)
Pour automatiser l’harmonisation des bases de données industrielles de navigation sismique, une méthodologie et un logiciel ont été mis en place. La méthodologie d’Automatisation des Mesures de Ressemblance (AMR), permet de modéliser et hiérarchiser les critères de comparaison servant de repères pour l’automatisation. Accompagné d’un ensemble de seuils de tolérance, le modèle hiérarchisé a été utilisé comme filtre à tamis dans le processus de classification automatique permettant de trouver rapidement les données fortement similaires. La similarité est mesurée par un ensemble de métriques élémentaires, aboutissant à des scores numériques, puis elle est mesurée de manière plus globale et contextuelle, notamment suivant plusieurs échelles : entre les attributs, entre les données, et entre les groupes. Ces évaluations de la similarité permettent à la fois au système expert de présenter des analyses précises automatisées et à l’expert géophysicien de réaliser des interprétations multicritères en faisant en environ deux jours le travail qu’il faisait en trois semaines. Les stratégies de classification automatique sont quant à elles adaptables à différentes problématiques, à l’harmonisation des données, mais aussi à la réconciliation des données ou au géo-référencement de documents techniques. Le Logiciel Automatique de Comparaisons (LAC) est une implantation de l’AMR réalisée pour les services de Data Management et de Documentation Technique de TOTAL. L’outil industrialisé est utilisé depuis trois ans, mais n’est plus en maintenance informatique aujourd’hui malgré son usage. Les nouvelles fonctionnalités d'imagerie de base de données qui ont été développées dans cette thèse n'y sont pas encore intégrées, mais devraient permettre une meilleure visualisation des phénomènes. Cette dernière manière de représenter les données, fondée sur la mesure de similarité, permet d’avoir une image assez claire de données lourdes car complexes tout en permettant de lire des informations nécessaires à l’harmonisation et à l’évaluation de la qualité des bases. Ne pourrait-on pas chercher à caractériser, comparer, analyser, gérer les flux entrants et sortants des bases de données, suivre leurs évolutions et tirer des modes d’apprentissage automatique à partir du développement de cette imagerie ? / In order to harmonize industrial seismic navigation data bases, a methodology and a software have been developed. The methodology of Similarity Measurement Automation provides protocols to build a model and a hierarchy for the comparison criteria that shall be used as points of reference for the automation. With its tolerance set of thresholds, the model has been used as a scaled filter within the automatic classification process which aim is to find as quickly as possible very similar data. Similarity is measured by combinations of elementary metrics giving scores, and also by a global and contextual procedure, giving access to three levels of results: similarity between attributes, between individuals, and between groups. Accurate automated analyses of the expert system as well as human interpretations on multiple criteria are now possible thanks to these similarity estimations, reducing to two days instead of three weeks the work of a geophysicist. Classification strategies have been designed to suit the different data management issues, as well as harmonization, reconciliation or geo-referencing. The methodology has been implemented in software for automatic comparisons named LAC, and developed for Data Management and Technical Documentation services in TOTAL. The software has been industrialized and has been used for three years, even if now there is no technical maintenance anymore. The last data base visualization functionalities that have been developed have not been integrated yet to the software, but shall provide a better visualization of the phenomena. This latest way to visualize data is based on similarity measurement and obtains an image of complex and voluminous data clear enough. It also puts into relief information useful for harmonization and data quality evaluation. Would it be possible to characterize, compare, analyze and manage data flows, to monitor their evolution and figure out new machine learning methods by developing further this kind of data base imaging?
154

Exploitation de marqueurs évolutifs pour l'étude des relations génotype-phénotype : application aux ciliopathies / Exploitation of evolutionary markers to explore genotype-phenotype relationships : applications to ciliopathies

Nevers, Yannis Alain 14 December 2018 (has links)
A l’ère des omiques, l’étude des relations génotype-phénotype repose sur l’intégration de données diverses décrivant des aspects complémentaires des systèmes biologiques. La génomique comparative offre un angle d’approche original, celui de l’évolution, qui permet d’exploiter la grande diversité phénotypique du Vivant. Dans ce contexte, mes travaux de thèse ont porté sur la conception de marqueurs évolutifs décrivant les gènes selon leur histoire évolutive. Dans un premier temps, j’ai construit une ressource d’orthologie complète, OrthoInspector 3.0 pour extraire une information évolutive synthétique des données génomiques. J’ai ensuite développé des outils d’exploration de ces marqueurs en relation avec les données fonctionnelles et/ou phénotypiques. Ces méthodes ont été intégrées à la ressource OrthoInspector ainsi qu’au réseau social MyGeneFriends et appliquées à l’étude des ciliopathies, conduisant à l’identification de 87 nouveaux gènes ciliaires. / In the omics era, the study of genotype-phenotype relations requires the integration of a wide variety of data to describe diverse aspects of biological systems. Comparative genomics provides an original perspective, that of evolution, allowing the exploitation of the wide phenotypic diversity of living species. My thesis focused on the design of evolutionary markers to describe genes according to their evolutionary history. First, I built an exhaustive orthology resource, called OrthoInspector 3.0, to extract synthetic evolutionary information from genomic data. I then developed methods to explore the markers in relation to functional or phenotypic data. These methods have been incorporated in the OrthoInspector resource, as well as in the MyGeneFriends social network and applied to the study of ciliopathies, leading to the identification of 87 new ciliary genes.
155

Les plantes indicatrices du climat en France et leur télédétection

Garbolino, Emmanuel 12 December 2001 (has links) (PDF)
Dès ses débuts, la géographie botanique a reconnu l'influence du climat sur la répartition des plantes grâce à la comparaison de territoires et à l'examen de limites climatiques et floristiques. Elle a exprimé cette influence par des cartes plus que par des mesures. Elle a progressivement donné naissance à une discipline biologique, l'écologie végétale, qui se fonde, en milieu naturel, sur des observations stationnelles et sur des traitements numériques. Mais cette discipline a surtout mesuré les variables stationnelles les plus accessibles, celles qui concernent le substrat de la végétation plutôt que son climat, tout au moins à grande échelle. Aujourd'hui, cette discipline dispose d'une<br />banque de données climatiques, celle de Météo-France, et d'une banque de données floristiques « Sophy ». Elle peut établir les relations entre plantes et climats sur une base stationnelle et<br />numérique, donc plus objective, plus précise et plus complète que la géographie botanique.<br />Le réseau météorologique national fournit des données standardisées dans 828 postes en France. Parmi les facteurs les plus actifs sur les plantes, il y a la température du jour et de la nuit, mois par mois, reflétées respectivement par la température mensuelle maximale et minimale ; il y a également les hauteurs et les fréquences mensuelles des précipitations. Ces facteurs sont ramenés à une même période de référence après estimation des données manquantes. De son côté, la banque « Sophy » fournit les présences et les abondances de 4.500 taxons botaniques dans 140.000 stations<br />en France. Elle permet de distinguer le comportement d'une plante soit par sa présence, soit par un seuil d'abondance. La conjonction de ces deux banques fournit un échantillonnage d'environ 12.000<br />stations floristiques réparties entre les climats de 574 postes.<br />La dépendance apparente d'une plante envers un facteur se manifeste par la concentration de ses présences dans la gamme du facteur. Cette concentration se calcule comme une probabilité et elle suit un gradient rigoureusement unimodal dans la gamme du facteur. La concentration maximale exprime le pouvoir indicateur de la plante, de telle façon que ce paramètre ne soit nul que pour une plante ubiquiste. Ce pouvoir indicateur est d'autant plus élevé que la plante est meilleure indicatrice. Le rang de la concentration maximale indique la position optimale de la plante. Les douze pouvoirs indicateurs et les douze positions optimales résument le comportement d'une plante dans la gamme d'un facteur. Ce travail présente le catalogue des comportements pour 2.800 plantes<br />indicatrices du climat et pour six grandeurs climatiques sous la forme de graphiques. Le catalogue présente aussi la répartition géographique de chaque plante entre les 140.000 stations de la banque « Sophy ». Ce catalogue n'est pas seulement un dictionnaire écologique des plantes indicatrices du climat. Il est aussi un outil informatique qui permet d'estimer avec précision le climat dans une communauté dépourvue de poste météorologique et d'introduire ainsi le climat de façon numérique dans toute étude phyto-écologique en France.<br />Mis à part l'application précédente, le catalogue ne montre pas de synthèse. Il est complété par une classification climatique des plantes qui montre la hiérarchie des phénomènes et leur importance statistique. Cette classification détermine des groupes de plantes ayant des comportements similaires d'après leurs fidélités cumulées aux rangs des variables climatiques. Elle caractérise un groupe par ses pouvoirs indicateurs et ses positions optimales. Elle aboutit à un catalogue des principaux groupes, depuis les plus nombreux et les plus différents, constituant les premiers niveaux de synthèse, jusqu'aux plus détaillés. Elle montre que le gradient phytoclimatique majeur sépare le littoral, la région méditerranéenne et les montagnes des plaines continentales. Le<br />groupe littoral, par exemple, se subdivise en groupes atlantiques et méditerranéens, puis en sousgroupes cantonnés dans une partie seulement de chaque climat.<br />Un travail analogue est entrepris sur les relations entre les plantes et les variables du satellite NOAA. Comme en géographie botanique, les relations entre plantes et mesures satellitaires se<br />fondent souvent sur la superposition de ces images, basées sur un indice de végétation (NDVI), avec des cartes de végétation. Ces images et leur interprétation montrent de grandes catégories de<br />végétation, telles que formations forestières et cultures. La banque « Sophy » permet une étude stationnelle et non plus cartographique du phénomène. Cette banque associe des données<br />floristiques à des données satellitaires issues du même emplacement, dans 11.000 pixels de 5,5 km de côté. Les synthèses mensuelles du NDVI montrent des différences de comportement entre les plantes de formations différentes, telles que prairies, forêts, ripisylves, formations méditerranéennes et les landes atlantiques, littorales et montagnardes. Les pouvoirs indicateurs sont parfois élevés et similaires pour les plantes de la même formation. Mais ils montrent encore quelques incohérences, soit d'un mois sur l'autre, soit d'une variable satellitaire à une autre, faute d'une standardisation insuffisante dans la caractérisation des pixels. Des variables satellitaires standardisées portant sur une plus longue période, dont les données manquantes seraient calculées, devraient être susceptibles de localiser des phytoclimats, grâce aux groupes de plantes qui les représentent, et de généraliser<br />sur le terrain les connaissances stationnelles de la phytoclimatologie.
156

Modèles fluides pour l'analyse des systèmes de distribution de contenu

Clévenot-Perronnin, Florence 03 October 2005 (has links) (PDF)
Les systèmes de distribution de contenu comme les caches web et les réseaux d'échanges de fichiers doivent pouvoir servir une population de clients à la fois très grande (centaines de milliers) et fortement dynamique (temps de connexion très courts). Ces caractéristiques rendent leur analyse très coûteuse par les approches traditionnelles comme les modèles markoviens ou la simulation. Dans cette thèse nous proposons des modèles fluides simples permettant de s'affranchir de l'une des dimensions du problème. <br />Dans la première partie, nous développons un modèle stochastique fluide pour les systèmes de caches distribués. Les documents stockés sont modélisés par un fluide augmentant avec les requêtes insatisfaites. Nous appliquons ce modèle aux "clusters" de caches et à Squirrel, un système de cache pair-à-pair. Dans les deux cas notre modèle permet de calculer efficacement et avec précision la probabilité de hit, et de mettre en évidence les paramètres clés de ces systèmes. Nous proposons également une approximation multi classes pour modéliser la popularité des documents.<br />Dans la seconde partie de cette thèse nous étudions BitTorrent, un système d'échange de fichiers Pair-à-pair. Nous proposons un modèle fluide multi classes qui remplace les usagers par un fluide. Nous considérons deux classes d'usagers pour modéliser les différences de débits d'accès ou de qualité de service. Nous obtenons une formule close pour le temps de téléchargement dans chaque classe. Nous montrons également comment allouer la bande passante a chaque classe pour offrir un service différencié.
157

Un modèle et un mécanisme d'exécution pour les bases de données actives

Ghira Zinho Antunes, Maria Francisca 07 November 1991 (has links) (PDF)
Cette thèse propose un modèle et un ensemble de mécanismes pour supporter le développement de bases de données actives. D'une part, le modèle permet la description intégrée des aspects statiques et dynamiques des applications. Pour décrire la structure des traitements sur les informations trois concepts sont proposés : entité focale, activité et procédure. D'autre part, ce modèle est supporté par un ensemble d'outils et de mécanismes permettant de lancer automatiquement, contrôler et suivre l'exécution des activités et procédures. Un des mécanismes qui a mérité une attention particulière est celui du déclenchement automatique d'une activité ou d'une procédure. Ceci implique l'évaluation de préconditions liées aux activités et aux procédures. Leur évaluation est réalisée lors des mises à jour et nécessite potentiellement des accès complexes à la base de données. Cette évaluation se fait en deux phases • la première détermine le sous-ensemble de préconditions à évaluer pour une certaine mise à jour. Ce travail a abouti à l'établissement d'un ensemble de règles de correspondance entre les préconditions et les mises à jour. • la deuxième réalise l'évaluation proprement dite des préconditions. Ce travail a abouti à la définition d'une méthode d'évaluation efficace qui utilise un ensemble de techniques d'optimisation. D'autres mécanismes à souligner sont • l'interaction entre les mécanismes de déclenchement et d'exécution des activités et procédures avec le système transactionnel. • le contrôle persistant de l'exécution des procédures. Ce travail est complété par l'implémentation des différents services proposés.
158

Gestion d'objets composés dans un SGBD : cas particulier des documents structurés

De Lima, José Valdeni 20 March 1990 (has links) (PDF)
Cette thèse traite du problème de la gestion des documents structures multimédia dans un SGBD. Par gestion, nous entendons la modélisation, la manipulation, le stockage et l'accès aux documents. Nous présentons un modèle de documents structures de bureau (dsb) et une algèbre associée pour réaliser la spécification précise des aspects fonctionnels: opérateurs de construction et restructuration des objets manipules et fonctions d'accès. Le stockage et l'accès sont implémentés au niveau fonctionnel sous forme d'opérations sur des documents en prenant en considération leurs structures logiques. Le couplage du modèle standard ODA au modèle DSB et l'intégration au niveau fonctionnel des opérations implémentées ont permis la mise en place d'un gestionnaire autonome de documents utilisable a partir d'un SGBD relationnel. Ce gestionnaire de documents permet la spécialisation des documents et l'utilisation de valeurs nulles. Une grande partie de ce travail a été réalisée dans le cadre du projet esprit Doeois et un prototype expérimental a été développé sur Oracle
159

Conception d'une structure de données dans les environnements de bases de données

Leonard, Michel 09 May 1988 (has links) (PDF)
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
160

Bases d'objets‎ : une infrastructure de représentation de connaissances pour la gestion de données en CAO

Ania Briseno, Ignacio De Jesus 27 June 1988 (has links) (PDF)
Présentation d'une infrastructure de représentation de connaissances centrée objet, développée pour la conception, la manipulation et le contrôle de l'intégrité des bases de données des environnements de conception assistée par ordinateur. Cette infrastructure intégré des concepts et des techniques développées dans les domaines des bases de données, de l'intelligence artificielle et des langages de programmation, tels que l'héritage de propriétés , l'attachement procédural et l'emploi de mécanismes d'abstraction

Page generated in 0.0555 seconds