• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 68
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 259
  • 259
  • 92
  • 92
  • 86
  • 43
  • 41
  • 36
  • 35
  • 33
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Evolution d'applications de bases de données relationnelles : Méthodes et Outils|Evolution of relational databases applications: Methods and Tools

Hick, Jean-Marc H. G. G. 26 September 2001 (has links)
Si les nouvelles technologies en matière de SGBD envisagent le problème de l'évolution du schéma d'une base de données, les systèmes d'information actuels posent des problèmes particulièrement ardus lors des phases d'évolution. Ce travail étudie ces problèmes dans un contexte pratique tel qu'il est vécu actuellement par les développeurs. Il propose une typologie complète des modifications possibles ainsi qu’une analyse du phénomène de l'évolution et de son impact sur les structures de données, les données et les programmes d'application au travers de stratégies typiques. Le document décrit ensuite l'environnement de génie logiciel DB-Main avec lequel a été construit un prototype d'outil d'aide à l'évolution. Cet outil permet notamment de générer automatiquement les programmes de conversion de la base de données à partir de la trace des opérations de modification des schémas conceptuel ou logique de la base de données. Il aide aussi le programmeur à modifier les programmes d'application en conséquence.| If the recent DBMS technologies consider the problem of databases schema evolution, standard Information Systems in use raise hard problems when evolution is concerned. This work studies these problems in the current developer context. It gives a complete typology of modifications and analyses the evolution of systems and its impact on the data structures, data and programs through typical strategies. The document introduces the DB-Main CASE environment, with which an evolution tool prototype has been developed. This tool can automatically generate the conversion programs for the database from the operational trace of the conceptual and logical schema modifications. It can also help the programmer to modify the application programs.
142

Un système de contraintes d'intégrité OCL pour les bases de données spatiales. Application à un système d'information pour l'épandage agricole

Duboisset, Magali 03 December 2007 (has links) (PDF)
Il est important d'assurer la qualité des données dans les applications géomatiques. Aussi, dès leur conception, un langage de contraintes peut être associé aux langages de modélisation classiques afin de spécifier formellement les contraintes alphanumériques et spatiales que le langage devra respecter. Le but de cette thèse était donc de proposer un langage de contraintes pour spécifier les conditions qu'un système agricole doit respecter pour être cohérent. Pour cela, nous avons étendu au niveau spatiale OCL, le langage de contrainte associé à UML. Par l'intégration de types spatiaux et de modèles de spécifications de relations topologiques, les extensions proposées permettent de décrire des contraintes spatiales à partir d'un modèle de classe UML étendu au spatial. L'expressivité de chaque proposition d'extension d'OCL a été étudiée. Ces langages ont été implémentés à travers l'extension d'un générateur de code, OCL2SQL et expérimenté au Cemagref dans le cadre SIGEMO
143

Impact de la non-adhésion aux statines sur la survenue d'événements coronariens en prévention primaire dans un contexte réel d'utilisation

Bouchard, Marie-Hélène January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
144

Construction et analyse de réseaux d’interactions extracellulaires / Construction and analysis of extracellular interactions networks

Chautard, Émilie 21 September 2010 (has links)
La matrice extracellulaire est constituée d'un réseau tridimensionnel de protéines et de polysaccharides complexes, les glycosaminoglycanes. Elle apporte un support structural aux tissus et aux cellules dont elle est capable de moduler la prolifération, la migration et la différenciation. Nous avons créé une base de données d'interactions extracellulaires protéine-protéine et protéine-glycosaminoglycane, MatrixDB, qui est disponible sur le Web (http://matrixdb.ibcp.fr). Nous avons intégré des données expérimentales, des données issues de l’analyse de la littérature et des données issues de bases de données d'interactions publiquement disponibles. Nous avons respecté les standards de curation et d’échange de données du consortium IMEx dont fait partie MatrixDB. MatrixDB permet la construction et la visualisation de l'interactome extracellulaire entier et de plusieurs types de réseaux d'interactions, spécifiques d'une molécule, d'un tissu, d'une pathologie ou d'un processus biologique. Nous avons ainsi caractérisé le réseau d’interactions extracellulaire associé au vieillissement et mis en évidence le rôle important des glycosaminoglycanes et du calcium dans ce réseau. Nous avons construit le réseau d'interactions d'une matricryptine anti-angiogénique et anti-tumorale, l'endostatine, qui est issue du collagène XVIII. Les analyses structurales et fonctionnelles de ce réseau ont montré que les partenaires de l’endostatine sont majoritairement impliqués dans l’adhésion cellulaire et que les domaines EGF (Epidermal Growth Factor) sont surreprésentés. Cette propriété nous a permis d'identifier expérimentalement d'autres partenaires de l'endostatine possédant un ou plusieurs domaines EGF et de nouvelles fonctions de l’endostatine. Nous avons modélisé les complexes formés par l'endostatine avec deux de ses partenaires pour identifier les sites d'interactions. Ces prédictions, associées aux données expérimentales, ont permis de déterminer des interactions susceptibles d'être établies simultanément par l'endostatine. L'intégration de ces données et des paramètres cinétiques et d'affinité dans le réseau d'interactions de l'endostatine sera utilisée pour proposer un modèle de son mécanisme d'action qui reste mal connu / The extracellular matrix is composed of a tridimensional network of proteins and complex polysaccharides called glycosaminoglycans. It provides a structural support to tissues and modulates cell proliferation, migration and differenciation. We have created a database of protein-protein and proteinglycosaminoglycan extracellular interactions, MatrixDB (http://matrixdb.ibcp.fr). We have integrated experimental data, data issued of the literature curation and data from interaction databases publicly available. We have respected the curation and exchange standards of the IMEx consortium that includes MatrixDB. MatrixDB allows the construction and the visualization of the entire extracellular network and other types of interaction networks specific of a molecule, a tissue, a disease or a biological process. We have characterized the aging-related extracellular interaction network and underlined the important role of glycosaminoglycans and calcium in this network. We have constructed the interaction network of an antitumoral and anti-angiogenic matricryptin, endostatin, issued from collagen XVIII. Functional and structural analysis of their network showed that partners of endostatin are mostly involved in cell adhesion and that EGF domains are overrepresented. This has allowed us to to identify experimentally other partners of endostatin possessing one or more EGF domains and to propose new functions of endostatin. We have modelled complexes formed by endostatin with two of its partners to identify the binding sites.These predictions, associated with experimental data, allowed us to determine interactions able to be established simultaneously by endostatin. Integration of these data and of kinetics and affinity parameters in the interaction network of endostatin will be used to build a model of its mechanism of action that is not fully elucidated
145

Spectroscopie de la vapeur d'eau par Transformation de Fourier. Application aux régions d'intérêt atmosphérique / Fourier Transform spectroscopy of water vapor. Application for spectral ranges of atmospheric interest

Oudot, Charlotte 09 December 2011 (has links)
Le travail présenté dans ce mémoire concerne le cadre global de la connaissance de notre atmosphère. L'exploitation des spectres atmosphériques requiert une bonne connaissance des paramètres de raies des molécules qui la composent. En particulier de la vapeur qui en est l'absorbant principal. Des spectres ont été enregistrés avec le spectromètre par transformation de Fourier construit au laboratoire et ceux ci ont été traités en ajustement multi-spectres avec le logiciel MultiFiT. Ce travail se focalise sur la mesure précise des intensités de raie dans deux régions spectrales. A 10 µm, région d'intérêt atmosphérique pour l'instrument IASI, deux études sur les intensités sont présentées. Pour l'isotopologue principal de 1200 à 1400 cm-1, 300 transitions ont pu être mesurées et comparées aux données de la littérature. Le but de ce travail était de déterminer la meilleure base de données pour l'exploitation des spectres IASI. De 1000 à 2300 cm-1, les isotopologues H218O et HD18O ont été étudié à partir de spectres enrichis en 18O. Ce travail a permis de mesurer et d'attribuer un ensemble de 2500 transitions. Enfin ce mémoire propose une révision complète des intensités de la région 1.25µm, qui présentent un important problème dans les bases de données. 39 spectres ont été enregistrés pour cette région avec des échantillons d'eau naturelle. Plus de 11000 transitions ont pu être mesurées et sont comparées aux données de la littérature. Une partie de ces intensités, publiées en 2010, a été exploité par L. Tallis de l'université de Reading. Enfin ce mémoire présente le début d'une exploitation des coefficients d'élargissement obtenus dans la région de 1.25µm. / The work presented in this manuscript concern the knowledge of our atmosphere. In fact, the analysis of atmospheric spectra needs a good understanding of atmospheric molecular species. In particular the water vapor plays a special role as the first absorbent of earth's atmosphere. Spectra were recorded by Fourier transform spectrometer designed in the laboratory and lines parameters fitted with multi-spectra procedure named MultiFiT. The spectroscopic studies focus on lines intensity measurements for two different spectral ranges. The first presented is 10 µm, were two studies have been done. For the H216O isotopologue in the 1200 – 1400 cm-1 range, 300 transitions were measured and compared with literature data. The aim of this work was to determine the best spectroscopic database for IASI recording analysis. In 1000 to 2300 cm-1, H218O and HD18O isotopologue were measured with enriched 18O spectra. Over 2500 transitions were measured and assigned. Also this manuscript presents a huge work done in the 1.25µm region. This range appears in database with an important discrepancy for line intensities. 39 spectra were recorded with water vapor sample in natural abundance. Over 11000 transitions were measured and assigned, comparison to literature data are also presented. A part of this work were published in 2010 and used by L.Tallis, form University of Reading, for atmospheric application. At the end of this manuscript is presented the first comparisons with calculated data done for self broadening coefficients in the 1.25µm region.
146

Source independence in the theory of belief functions / L'indépendance des sources dans la théorie des fonctions de croyance

Chebbah, Mouna 25 June 2014 (has links)
La fusion d'informations issues de plusieurs sources cherche à améliorer la prise de décision. Pour réaliser cette fusion, la théorie des fonctions de croyance utilise des règles de combinaison faisant bien souvent l'hypothèse de l'indépendance des sources. Cette forte hypothèse n'est, cependant, ni formalisée ni vérifiée. Elle est supposée pour justifier le choix du type de règles à utiliser sans avoir, pour autant, un moyen de la vérifier. Nous proposons dans ce rapport de thèse un apprentissage de l'indépendance cognitive de sources d'information. Nous détaillons également une approche d'apprentissage de la dépendance positive et négative des sources. Les degrés d'indépendance, de dépendance positive et négative des sources ont principalement trois utilités. Premièrement, ces degrés serviront à choisir le type de règles de combinaison à utiliser lors de la combinaison. Deuxièmement, ces degrés exprimés par une fonction de masse sont intégrés par une approche d'affaiblissement avant de réaliser la combinaison d'information. Une troisième utilisation de cette mesure d'indépendance consiste à l'intégrer dans une nouvelle règle de combinaison. La règle que nous proposons est une moyenne pondérée avec ce degré d'indépendance. / The theory of belief functions manages uncertainty and proposes a set of combination rules to aggregate beliefs of several sources. Some combination rules mix evidential information where sources are independent; other rules are suited to combine evidential information held by dependent sources. Information on sources ' independence is required to justify the choice of the adequate type of combination rules. In this thesis, we suggest a method to quantify sources' degrees of independence that may guide the choice of the appropriate type of combination rules. In fact, we propose a statistical approach to learn sources' degrees of independence from all provided evidential information. There are three main uses of estimating sources' degrees of independence: First, we use sources' degree of independence to guide the choice of combination rules to use when aggregating beliefs of several sources. Second, we propose to integrate sources' degrees of independence into sources' beliefs leading to an operator similar to the discounting. Finally, we define a new combination rule weighted with sources' degree of independence.
147

Contextualized access to distributed and heterogeneous multimedia data sources / Accès contextualisé aux sources de données multimédias distribuées et hétérogènes

Vilsmaier, Christian 26 September 2014 (has links)
Rendre les données multimédias disponibles en ligne devient moins cher et plus pratique sur une base quotidienne, par exemple par les utilisateurs eux-mêmes. Des phénomènes du Web comme Facebook, Twitter et Flickr bénéficient de cette évolution. Ces phénomènes et leur acceptation accrue conduisent à une multiplication du nombre d’images disponibles en ligne. La taille cumulée de ces images souvent publiques et donc consultables, est de l’ordre de plusieurs zettaoctets. L’exécution d’une requête de similarité sur de tels volumes est un défi que la communauté scientifique commence à cibler. Une approche envisagée pour faire face à ce problème propose d’utiliser un système distribué et hétérogène de recherche d’images basé sur leur contenu (CBIRs). De nombreux problèmes émergent d’un tel scénario. Un exemple est l’utilisation de formats de métadonnées distincts pour décrire le contenu des images; un autre exemple est l’information technique et structurelle inégale. Les métriques individuelles qui sont utilisées par les CBIRs pour calculer la similarité entre les images constituent un autre exemple. Le calcul de bons résultats dans ce contexte s’avère ainsi une tàche très laborieuse qui n’est pas encore scientifiquement résolue. Le problème principalement abordé dans cette thèse est la recherche de photos de CBIRs similaires à une image donnée comme réponse à une requête multimédia distribuée. La contribution principale de cette thèse est la construction d’un réseau de CBIRs sensible à la sémantique des contenus (CBIRn). Ce CBIRn sémantique est capable de collecter et fusionner les résultats issus de sources externes spécialisées. Afin d’être en mesure d’intégrer de telles sources extérieures, prêtes à rejoindre le réseau, mais pas à divulguer leur configuration, un algorithme a été développé capable d’estimer la configuration d’un CBIRS. En classant les CBIRs et en analysant les requêtes entrantes, les requêtes d’image sont exclusivement transmises aux CBIRs les plus appropriés. De cette fac ̧on, les images sans intérêt pour l’utilisateur peuvent être omises à l’avance. Les images retournées cells sont considérées comme similaires par rapport à l’image donnée pour la requête. La faisabilité de l’approche et l’amélioration obtenue par le processus de recherche sont démontrées par un développement prototypique et son évaluation utilisant des images d’ImageNet. Le nombre d’images pertinentes renvoyées par l’approche de cette thèse en réponse à une requête image est supérieur d’un facteur 4.75 par rapport au résultat obtenu par un réseau de CBIRs predéfini. / Making multimedia data available online becomes less expensive and more convenient on a daily basis. This development promotes web phenomenons such as Facebook, Twitter, and Flickr. These phenomena and their increased acceptance in society in turn leads to a multiplication of the amount of available images online. This vast amount of, frequently public and therefore searchable, images already exceeds the zettabyte bound. Executing a similarity search on the magnitude of images that are publicly available and receiving a top quality result is a challenge that the scientific community has recently attempted to rise to. One approach to cope with this problem assumes the use of distributed heterogeneous Content Based Image Retrieval system (CBIRs). Following from this anticipation, the problems that emerge from a distributed query scenario must be dealt with. For example the involved CBIRs’ usage of distinct metadata formats for describing their content, as well as their unequal technical and structural information. An addition issue is the individual metrics that are used by the CBIRs to calculate the similarity between pictures, as well as their specific way of being combined. Overall, receiving good results in this environment is a very labor intensive task which has been scientifically but not yet comprehensively explored. The problem primarily addressed in this work is the collection of pictures from CBIRs, that are similar to a given picture, as a response to a distributed multimedia query. The main contribution of this thesis is the construction of a network of Content Based Image Retrieval systems that are able to extract and exploit the information about an input image’s semantic concept. This so called semantic CBIRn is mainly composed of CBIRs that are configured by the semantic CBIRn itself. Complementarily, there is a possibility that allows the integration of specialized external sources. The semantic CBIRn is able to collect and merge results of all of these attached CBIRs. In order to be able to integrate external sources that are willing to join the network, but are not willing to disclose their configuration, an algorithm was developed that approximates these configurations. By categorizing existing as well as external CBIRs and analyzing incoming queries, image queries are exclusively forwarded to the most suitable CBIRs. In this way, images that are not of any use for the user can be omitted beforehand. The hereafter returned images are rendered comparable in order to be able to merge them to one single result list of images, that are similar to the input image. The feasibility of the approach and the hereby obtained improvement of the search process is demonstrated by a prototypical implementation. Using this prototypical implementation an augmentation of the number of returned images that are of the same semantic concept as the input images is achieved by a factor of 4.75 with respect to a predefined non-semantic CBIRn.
148

ADI : A NoSQL system for bi-temporal databases / ADI : Un système NoSQL pour les bases de données bi-temporelles

Ait Ouassarah, Azhar 23 May 2016 (has links)
La complexité et la dynamique de l'environnement dans lequel évolue chaque entreprise requiert de la part de ses managers la capacité de prendre des décisions pertinentes dans un laps de temps très court afin de s'accroître. Pour cela, l'analyse des données générées par l'activité de l'entreprise peut être une précieuse source d'information. L'Intelligence Opérationnelle (IO) est une classe de systèmes d'aide à la décision permettant aux managers d'avoir une très bonne compréhension de la situation de l'entreprise, à travers l'analyse de l'activité passée et présente. Dans ce contexte, les notions de temps et de traçabilité sont primordiales dans la compréhension de l'évolution de l'activité de l'entreprise à travers le temps. Dans cette thèse, nous présentons Axway Decision Insight (ADI), une solution d'IO développée par Axway. Son composant clé est un SGBD orienté-colonnes et bi-temporel développé en interne par l'entreprise pour répondre aux besoins spécifiques de l'IO. Ses capacités bi-temporelles lui permettent de gérer nativement aussi bien l'évolution des données dans la réalité modélisée (temps de validité) que l'évolution des données dans la base de données (temps de transaction). Nous commencerons par présenter la solution ADI en nous focalisant sur deux éléments importants: 1) l'interface graphique qui permet la conception et l'utilisation d'ADI sans écrire la moindre ligne de code. 2) L'approche adoptée pour modéliser les données bi-temporelles. Ensuite, nous présenterons un benchmark bi-temporel destiné ADI.Après cela, nous présenterons deux optimisations pour ADI. La première permet de pré-calculer et matérialiser les opérations d'agrégation, ce qui permet de réduire le temps nécessaire à la mise à jour de interface graphique d'ADI. La deuxième optimisation ordonne l'exécution des opérateurs de jointure des plans de requêtes en utilisant un modèle coût basé sur des statistiques sur des données bi-temporelles. Pour ces optimisations, nous avons effectué des expérimentations en utilisant notre benchmark, et qui ont démontré leurs intérêts. / Nowadays, every company is operating in very dynamic and complex environments which require from its managers to have a deep understanding of its business in order to take rapid and relevant decisions, and thus maintain or improve their company's activities. They can rely on analyzing the data deluge generated by the company's activities. A new class of systems has emerged in the decision support system galaxy called "Operational Intelligence" (OI) to meet this challenge. The objective is to enable operational managers to understand what happened in the past as well as what is currently happening in their business. In this context, the notions of time and traceability turns out to play a crucial role to understand what happened in the company and what is currently happening in the company. In this thesis, we present "Axway Decision Insight" (ADI), an "Operational Intelligence" solution developed by Axway. ADI's key component is a proprietary bi-temporal and column-oriented DBMS that has specially been designed to meet OI requirements. Its bi-temporal capabilities enable to catch both data evolution in the modeled reality (valid time) and in the database (transaction time).We first introduce ADI by focusing on two topics: 1) the GUI that makes the platform "code-free". 2) The adopted bi-temporal modeling approaches. Then we propose a performance benchmark that meets ADI's requirements. Next, we present two bi-temporal query optimizations for ADI. The first one consists in redefining a complex bi-temporal query into: 1) a set of continuous queries in charge of computing aggregation operations as data is collected. 2) A bi-temporal query that accesses the continuous queries' results and feeds the GUI. The second one is a cost-based optimization that uses statistics on bi-temporal data to determine an "optimal" query plan. For these two optimizations, we conducted some experiments, using our benchmark, which show their interests.
149

Contribution à l'extraction et à la représentation des connaissances de l'environnement maritime : proposition d'une architecture dédiée aux applications de navigation / No

Tsatcha, Dieudonné 11 December 2014 (has links)
De nos jours, les applications informatiques autonomes sont au centre de grandes préoccupations de la recherche scientifique. Ces dernières sont destinées initialement à des systèmes d'aide à la décision dans des environnements contraints et dynamiques, communément appelés environnements complexes. Elles peuvent dès à présent, à l'aide des avancées de la recherche, permettre de construire et déduire leurs connaissances propres afin d'interagir en temps réel avec leur environnement. Cependant, elles sont confrontées à la difficulté d'avoir une modélisation fidèle du monde réel et des entités qui le composent. L'un des principaux objectifs de nos recherches est de capturer et modéliser la sémantique associée aux entités spatio-temporelles afin d'enrichir leur expressivité dans les SIG ou les systèmes d'aide à la décision. Un service de routage maritime dynamique a été déployé en exploitant cette modélisation. Cet algorithme a été démontré comme optimal en termes d'espace mémoire et de temps de calcul. La sémantique capturée se compose de l'affordance et de la saillance visuelle de l'entité spatiale. Les connaissances associées à cette sémantique sont par la suite représentées par une ontologie computationnelle qui intègre des approches spatio-temporelles. Ces connaissances sont soit déduites du savoir de l'expert du domaine, soit extraites de gros volumes de données textuelles en utilisant des techniques de traitement automatique du langage. L'ontologie computationnelle proposée nous a permis de définir un algorithme de routage maritime dynamique (fonction des évènements ou objets présents dans l'environnement) fondé sur une heuristique itérative monocritère de plus courte distance et bidirectionnelle. L'algorithme BIDA* proposé s'applique sur un graphe itératif qui est une conceptualisation d'une grille hexagonale itérative recouvrant la zone de navigation. Cet algorithme permet aussi la gestion de différents niveaux de résolution. Toujours dans l'initiative de produire un modèle aussi proche que possible du monde réel, l'algorithme BIDA* a été enrichi des stratégies multicritères afin de prendre en compte les différentes contraintes de la navigation maritime. Les contraintes globales et locales auxquelles nous nous sommes intéressés sont la profondeur des eaux, la distance de navigation et la direction de navigation. Le modèle proposé permet ainsi d'enrichir les capacités cognitives des utilisateurs évoluant dans les environnements maritimes et peut aussi être utilisé pour construire des systèmes complètement autonomes explorant ces environnements. Un prototype expérimental de navigation intelligente mettant en oeuvre cette modélisation et proposant un service de routage maritime a été développé dans le cadre de cette thèse. / No
150

La protection des bases de données par le droit d'auteur : approche comparative entre le droit français et le droit sénégalais / The legal protection of databases by intellectual property : comparative approach Senegalese law and French law

Ndiaye, Elhadji Oumar 20 December 2017 (has links)
Dans un contexte mondial marqué par l’essor d’une société de l’information, des savoirs partagés et de l’économie numérique, cette étude propose une évaluation de la protection des bases de données par le droit d’auteur, en privilégiant une approche comparative entre le droit français et le droit sénégalais. En mettant en exergue les éléments de convergence mais aussi de divergence qui ressortent de la confrontation des deux législations, cette analyse part de l’identification des forces et des faiblesses du droit d’auteur, en vue de proposer des orientations pour une amélioration du cadre juridique de la protection des bases de données. Le droit d’auteur étant le mécanisme de protection unanimement consacré pour les bases de données, il y a lieu, loin de s’en départir, d’identifier les meilleures options juridiques qui pourraient concourir à son renforcement. Dans cette optique, la prise en compte d’un équilibre parfait entre les divers intérêts en présence constitue un impératif pour le développement de la société de l’information. / In a global context marked by the rise of an information society, shared knowledge and digital economy, this study proposes an assessment of the protection of databases by Copyright (french meaning), privileging a comparative approach between French and Senegalese law. By highlighting the elements of convergence but also of divergence that emerge from the confrontation between the two legislations, this analysis starts from the identification of the strengths and weaknesses of copyright, to propose orientations aimed at improving the legal framework for the protection of databases. Copyright being the unanimously consecrated protection mechanism for databases, it is necessary, far from divesting it, to identify the best legal options that could contribute to its reinforcement. In this respect, it is imperative to take into account a perfect balance between the various interests for the development of the information society.

Page generated in 0.0667 seconds