Spelling suggestions: "subject:"cases dde données."" "subject:"cases dee données.""
141 |
Different soil study tools to better understand the dynamics of carbon in soils at different spatial scales, from a single soil profile to the global scale / Different soil study tools to better understand the dynamics of carbon in soils at different spatial scales, from a single soil profile to the global scaleTifafi, Marwa 05 April 2018 (has links)
Les sols sont la principale composantede l’écosystème terrestre et le plus grand réservoir de carbone organique sur Terre, étant très réactifs aux perturbations humaines et aux changements climatiques. Malgré leur importance dans les réservoirs de carbone, la dynamique du carbone des sols est une source importante d'incertitudes pour les prévisions climatiques futures. Le but de la thèse était d'explorer différents aspects d’études du carbone des sols (mesures expérimentales, modélisation et évaluation de bases de données) à différentes échelles spatiales (de l'échelle d'un profil à l'échelle globale). Nous avons souligné que l'estimation des stocks globaux de carbone du sol est encore assez incertaine.Par conséquent le rôle du carbone des sols dans la dynamique du climat devient l'une des principales incertitudes dans les modèles du système terrestre utilisés pour prédire les changements climatiques futurs. La deuxième partie de la thèse porte sur la présentation d'une nouvelle version du modèle IPSL-Land Surface appelé ORCHIDEE-SOM, intégrant la dynamique du 14C dans le sol. Plusieurs tests effectués supposent que les améliorations du modèle devraient se focaliser davantage sur une paramétrisation dépendante de la profondeur,principalement pour la diffusion, afin d'améliorer la représentation du cycle global du carbone dans les modèles de surface terrestre, contribuant ainsi à contraindre les prédictions futures du réchauffement climatique. / Soils are the major components ofthe terrestrial ecosystems and the largest organiccarbon reservoir on Earth, being very reactive tohuman disturbance and climate change. Despiteits importance within the carbon reservoirs, soilcarbon dynamics is an important source ofuncertainties for future climate predictions. Theaim of the thesis was to explore different aspectsof soil carbon studies (Experimentalmeasurements, modeling, and databaseevaluation) at different spatial scales (from thescale of a profile to the global scale). Wehighlighted that the estimation of the global soilcarbon stocks is still quite uncertain.Consequently, the role of soil carbon in theclimate dynamics becomes one of the majoruncertainties in the Earth system models (ESMs)used to predict future climate change. Thesecond part of thesis deals with the presentationof a new version of the IPSL-Land SurfaceModel called ORCHIDEE-SOM, incorporatingthe 14C dynamics in the soil. Several tests doneassume that model improvements should focusmore on a depth dependent parameterization,mainly for the diffusion, in order to improve therepresentation of the global carbon cycle inLand Surface Models, thus helping to constrainthe predictions of the future soil organic carbonresponse to global warming.
|
142 |
Modélisation des aspects temporels dans les bases de données spatialesMinout, Mohammed 24 August 2007 (has links)
L'introduction du temps dans les bases de données classiques et spatiales apparaît de plus en plus, aujourd'hui, comme une nécessité pour une gestion optimale de l'historicité. En effet, les applications de bases de données spatio-temporelles sont présentes dans un grand nombre d'applications. Le besoin, par exemple, est de sauvegarder l'historique des géométries des parcelles dans le système d'information d'un plan cadastral, la prévention d'incendie dans le système de gestion forestière, le système de navigation des véhicules, etc. Cet historique des phénomènes permet de mieux comprendre ce qui s'est produit dans le passé, de manière à éventuellement anticiper certaines évolutions futures.<p><p>Etant donné ces nouveaux besoins, cette thèse se focalise sur la modélisation et l'implantation des aspects temporels dans bases de données. En effet, la conception d'une application de base de données se fait par un enchaînement de trois phases (conceptuelle, logique et physique). Au niveau conceptuel, plusieurs modèles conceptuels ont été proposés intégrant les caractéristiques temporelles et spatiales.<p><p>Malheureusement, au niveau logique, les modèles de données des SGBD actuels n'offrent pas les concepts nécessaires pour implanter le modèle conceptuel spatio-temporel. Nous proposons donc de nouvelles règles de traductions d'un schéma conceptuel, basé sur le modèle MADS (Modélisation des Applications à des données spatio-temporelles), en un schéma logique MADSLog pour les modèles cibles à savoir :relationnel et relationnel-objet. Chaque règle transforme un concept structurel, temporel et spatial du modèle MADS en un ou plusieurs concepts supportés par la cible. Par exemple, la propriété spatiale définissant la géométrie d'un type d'objet est traduite par la création d'un nouvel attribut de type spatial dans ce type d'objet. Un outil CASE(Computer-Aided Software Engineering) appelé Schema Translateur est développé dans cette thèse implémentant toutes les règles de traductions.<p><p>La traduction de schémas conceptuels en schémas logiques peut impliquer une perte sémantique en raison de la différence de la puissance d'expression entre le modèle conceptuel et le modèle de données des SGBD existants. D'où la nécessité de générer un ensemble de contraintes d'intégrité afin de préserver la sémantique définie dans le schéma conceptuel. Ces contraintes sont exprimées à ce niveau par des formules logiques.<p><p>Avec l'apparition de GML (Geographic Markup Language ) qui est conçu pour la modélisation, le transport et le stockage d'informations géographiques. Nous transformons également le schéma conceptuel MADS en GML. De nouveaux schémas GML temporel et spatial sont définis qui peuvent être employés par n'importe application de base de données spatio-temporelle.<p><p>Au niveau physique, nous proposons une méthode d'adaptation du schéma logique en schéma physique pour le modèle relationnel-objet.<p>Elle permet de définir les tables, les types abstraits, les types d'objets, les domaines, etc. Notre proposition permet aussi la génération des contraintes d'intégrité au niveau physique. En effet, chaque contrainte d'intégrité (structurelle, temporelle ou spatiale) qui est définie en calcul logique est exprimée soit directement par des contraintes déclaratives ou soit par des déclencheurs du SGBD choisi. Les déclencheurs spatiaux sont fondés sur les fonctionnalités prédéfinies dans Oracle, alors que les déclencheurs temporels sont basés sur les opérateurs et méthodes appliquées sur les types temporels.<p><p>Enfin, la traduction de requêtes est une deuxième clef de cette recherche. Le but de la traduction de requêtes, exprimées en algèbre, étant de reconstituer l'information au sens MADS à partir de la base de données stockées dans le SGDB cible. Elle permet de traduire les expressions algébriques MADS, qui sont définies sur le schéma conceptuel et non sur le schéma physique, en requêtes opérationnelles qui peuvent être exécutées sur une base de données spatiale et temporelle sous un SGBD ou un SIG.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
|
143 |
Evolution d'applications de bases de données relationnelles : Méthodes et Outils|Evolution of relational databases applications: Methods and ToolsHick, Jean-Marc H. G. G. 26 September 2001 (has links)
Si les nouvelles technologies en matière de SGBD envisagent le problème de l'évolution du schéma d'une base de données, les systèmes d'information actuels posent des problèmes particulièrement ardus lors des phases d'évolution.
Ce travail étudie ces problèmes dans un contexte pratique tel qu'il est vécu actuellement par les développeurs. Il propose une typologie complète des modifications possibles ainsi qu’une analyse du phénomène de l'évolution et de son impact sur les structures de données, les données et les programmes d'application au travers de stratégies typiques.
Le document décrit ensuite l'environnement de génie logiciel DB-Main avec lequel a été construit un prototype d'outil d'aide à l'évolution. Cet outil permet notamment de générer automatiquement les programmes de conversion de la base de données à partir de la trace des opérations de modification des schémas conceptuel ou logique de la base de données. Il aide aussi le programmeur à modifier les programmes d'application en conséquence.|
If the recent DBMS technologies consider the problem of databases schema evolution, standard Information Systems in use raise hard problems when evolution is concerned.
This work studies these problems in the current developer context. It gives a complete typology of modifications and analyses the evolution of systems and its impact on the data structures, data and programs through typical strategies.
The document introduces the DB-Main CASE environment, with which an evolution tool prototype has been developed. This tool can automatically generate the conversion programs for the database from the operational trace of the conceptual and logical schema modifications. It can also help the programmer to modify the application programs.
|
144 |
Un système de contraintes d'intégrité OCL pour les bases de données spatiales. Application à un système d'information pour l'épandage agricoleDuboisset, Magali 03 December 2007 (has links) (PDF)
Il est important d'assurer la qualité des données dans les applications géomatiques. Aussi, dès leur conception, un langage de contraintes peut être associé aux langages de modélisation classiques afin de spécifier formellement les contraintes alphanumériques et spatiales que le langage devra respecter. Le but de cette thèse était donc de proposer un langage de contraintes pour spécifier les conditions qu'un système agricole doit respecter pour être cohérent. Pour cela, nous avons étendu au niveau spatiale OCL, le langage de contrainte associé à UML. Par l'intégration de types spatiaux et de modèles de spécifications de relations topologiques, les extensions proposées permettent de décrire des contraintes spatiales à partir d'un modèle de classe UML étendu au spatial. L'expressivité de chaque proposition d'extension d'OCL a été étudiée. Ces langages ont été implémentés à travers l'extension d'un générateur de code, OCL2SQL et expérimenté au Cemagref dans le cadre SIGEMO
|
145 |
Impact de la non-adhésion aux statines sur la survenue d'événements coronariens en prévention primaire dans un contexte réel d'utilisationBouchard, Marie-Hélène January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
146 |
Construction et analyse de réseaux d’interactions extracellulaires / Construction and analysis of extracellular interactions networksChautard, Émilie 21 September 2010 (has links)
La matrice extracellulaire est constituée d'un réseau tridimensionnel de protéines et de polysaccharides complexes, les glycosaminoglycanes. Elle apporte un support structural aux tissus et aux cellules dont elle est capable de moduler la prolifération, la migration et la différenciation. Nous avons créé une base de données d'interactions extracellulaires protéine-protéine et protéine-glycosaminoglycane, MatrixDB, qui est disponible sur le Web (http://matrixdb.ibcp.fr). Nous avons intégré des données expérimentales, des données issues de l’analyse de la littérature et des données issues de bases de données d'interactions publiquement disponibles. Nous avons respecté les standards de curation et d’échange de données du consortium IMEx dont fait partie MatrixDB. MatrixDB permet la construction et la visualisation de l'interactome extracellulaire entier et de plusieurs types de réseaux d'interactions, spécifiques d'une molécule, d'un tissu, d'une pathologie ou d'un processus biologique. Nous avons ainsi caractérisé le réseau d’interactions extracellulaire associé au vieillissement et mis en évidence le rôle important des glycosaminoglycanes et du calcium dans ce réseau. Nous avons construit le réseau d'interactions d'une matricryptine anti-angiogénique et anti-tumorale, l'endostatine, qui est issue du collagène XVIII. Les analyses structurales et fonctionnelles de ce réseau ont montré que les partenaires de l’endostatine sont majoritairement impliqués dans l’adhésion cellulaire et que les domaines EGF (Epidermal Growth Factor) sont surreprésentés. Cette propriété nous a permis d'identifier expérimentalement d'autres partenaires de l'endostatine possédant un ou plusieurs domaines EGF et de nouvelles fonctions de l’endostatine. Nous avons modélisé les complexes formés par l'endostatine avec deux de ses partenaires pour identifier les sites d'interactions. Ces prédictions, associées aux données expérimentales, ont permis de déterminer des interactions susceptibles d'être établies simultanément par l'endostatine. L'intégration de ces données et des paramètres cinétiques et d'affinité dans le réseau d'interactions de l'endostatine sera utilisée pour proposer un modèle de son mécanisme d'action qui reste mal connu / The extracellular matrix is composed of a tridimensional network of proteins and complex polysaccharides called glycosaminoglycans. It provides a structural support to tissues and modulates cell proliferation, migration and differenciation. We have created a database of protein-protein and proteinglycosaminoglycan extracellular interactions, MatrixDB (http://matrixdb.ibcp.fr). We have integrated experimental data, data issued of the literature curation and data from interaction databases publicly available. We have respected the curation and exchange standards of the IMEx consortium that includes MatrixDB. MatrixDB allows the construction and the visualization of the entire extracellular network and other types of interaction networks specific of a molecule, a tissue, a disease or a biological process. We have characterized the aging-related extracellular interaction network and underlined the important role of glycosaminoglycans and calcium in this network. We have constructed the interaction network of an antitumoral and anti-angiogenic matricryptin, endostatin, issued from collagen XVIII. Functional and structural analysis of their network showed that partners of endostatin are mostly involved in cell adhesion and that EGF domains are overrepresented. This has allowed us to to identify experimentally other partners of endostatin possessing one or more EGF domains and to propose new functions of endostatin. We have modelled complexes formed by endostatin with two of its partners to identify the binding sites.These predictions, associated with experimental data, allowed us to determine interactions able to be established simultaneously by endostatin. Integration of these data and of kinetics and affinity parameters in the interaction network of endostatin will be used to build a model of its mechanism of action that is not fully elucidated
|
147 |
Spectroscopie de la vapeur d'eau par Transformation de Fourier. Application aux régions d'intérêt atmosphérique / Fourier Transform spectroscopy of water vapor. Application for spectral ranges of atmospheric interestOudot, Charlotte 09 December 2011 (has links)
Le travail présenté dans ce mémoire concerne le cadre global de la connaissance de notre atmosphère. L'exploitation des spectres atmosphériques requiert une bonne connaissance des paramètres de raies des molécules qui la composent. En particulier de la vapeur qui en est l'absorbant principal. Des spectres ont été enregistrés avec le spectromètre par transformation de Fourier construit au laboratoire et ceux ci ont été traités en ajustement multi-spectres avec le logiciel MultiFiT. Ce travail se focalise sur la mesure précise des intensités de raie dans deux régions spectrales. A 10 µm, région d'intérêt atmosphérique pour l'instrument IASI, deux études sur les intensités sont présentées. Pour l'isotopologue principal de 1200 à 1400 cm-1, 300 transitions ont pu être mesurées et comparées aux données de la littérature. Le but de ce travail était de déterminer la meilleure base de données pour l'exploitation des spectres IASI. De 1000 à 2300 cm-1, les isotopologues H218O et HD18O ont été étudié à partir de spectres enrichis en 18O. Ce travail a permis de mesurer et d'attribuer un ensemble de 2500 transitions. Enfin ce mémoire propose une révision complète des intensités de la région 1.25µm, qui présentent un important problème dans les bases de données. 39 spectres ont été enregistrés pour cette région avec des échantillons d'eau naturelle. Plus de 11000 transitions ont pu être mesurées et sont comparées aux données de la littérature. Une partie de ces intensités, publiées en 2010, a été exploité par L. Tallis de l'université de Reading. Enfin ce mémoire présente le début d'une exploitation des coefficients d'élargissement obtenus dans la région de 1.25µm. / The work presented in this manuscript concern the knowledge of our atmosphere. In fact, the analysis of atmospheric spectra needs a good understanding of atmospheric molecular species. In particular the water vapor plays a special role as the first absorbent of earth's atmosphere. Spectra were recorded by Fourier transform spectrometer designed in the laboratory and lines parameters fitted with multi-spectra procedure named MultiFiT. The spectroscopic studies focus on lines intensity measurements for two different spectral ranges. The first presented is 10 µm, were two studies have been done. For the H216O isotopologue in the 1200 – 1400 cm-1 range, 300 transitions were measured and compared with literature data. The aim of this work was to determine the best spectroscopic database for IASI recording analysis. In 1000 to 2300 cm-1, H218O and HD18O isotopologue were measured with enriched 18O spectra. Over 2500 transitions were measured and assigned. Also this manuscript presents a huge work done in the 1.25µm region. This range appears in database with an important discrepancy for line intensities. 39 spectra were recorded with water vapor sample in natural abundance. Over 11000 transitions were measured and assigned, comparison to literature data are also presented. A part of this work were published in 2010 and used by L.Tallis, form University of Reading, for atmospheric application. At the end of this manuscript is presented the first comparisons with calculated data done for self broadening coefficients in the 1.25µm region.
|
148 |
Source independence in the theory of belief functions / L'indépendance des sources dans la théorie des fonctions de croyanceChebbah, Mouna 25 June 2014 (has links)
La fusion d'informations issues de plusieurs sources cherche à améliorer la prise de décision. Pour réaliser cette fusion, la théorie des fonctions de croyance utilise des règles de combinaison faisant bien souvent l'hypothèse de l'indépendance des sources. Cette forte hypothèse n'est, cependant, ni formalisée ni vérifiée. Elle est supposée pour justifier le choix du type de règles à utiliser sans avoir, pour autant, un moyen de la vérifier. Nous proposons dans ce rapport de thèse un apprentissage de l'indépendance cognitive de sources d'information. Nous détaillons également une approche d'apprentissage de la dépendance positive et négative des sources. Les degrés d'indépendance, de dépendance positive et négative des sources ont principalement trois utilités. Premièrement, ces degrés serviront à choisir le type de règles de combinaison à utiliser lors de la combinaison. Deuxièmement, ces degrés exprimés par une fonction de masse sont intégrés par une approche d'affaiblissement avant de réaliser la combinaison d'information. Une troisième utilisation de cette mesure d'indépendance consiste à l'intégrer dans une nouvelle règle de combinaison. La règle que nous proposons est une moyenne pondérée avec ce degré d'indépendance. / The theory of belief functions manages uncertainty and proposes a set of combination rules to aggregate beliefs of several sources. Some combination rules mix evidential information where sources are independent; other rules are suited to combine evidential information held by dependent sources. Information on sources ' independence is required to justify the choice of the adequate type of combination rules. In this thesis, we suggest a method to quantify sources' degrees of independence that may guide the choice of the appropriate type of combination rules. In fact, we propose a statistical approach to learn sources' degrees of independence from all provided evidential information. There are three main uses of estimating sources' degrees of independence: First, we use sources' degree of independence to guide the choice of combination rules to use when aggregating beliefs of several sources. Second, we propose to integrate sources' degrees of independence into sources' beliefs leading to an operator similar to the discounting. Finally, we define a new combination rule weighted with sources' degree of independence.
|
149 |
Contextualized access to distributed and heterogeneous multimedia data sources / Accès contextualisé aux sources de données multimédias distribuées et hétérogènesVilsmaier, Christian 26 September 2014 (has links)
Rendre les données multimédias disponibles en ligne devient moins cher et plus pratique sur une base quotidienne, par exemple par les utilisateurs eux-mêmes. Des phénomènes du Web comme Facebook, Twitter et Flickr bénéficient de cette évolution. Ces phénomènes et leur acceptation accrue conduisent à une multiplication du nombre d’images disponibles en ligne. La taille cumulée de ces images souvent publiques et donc consultables, est de l’ordre de plusieurs zettaoctets. L’exécution d’une requête de similarité sur de tels volumes est un défi que la communauté scientifique commence à cibler. Une approche envisagée pour faire face à ce problème propose d’utiliser un système distribué et hétérogène de recherche d’images basé sur leur contenu (CBIRs). De nombreux problèmes émergent d’un tel scénario. Un exemple est l’utilisation de formats de métadonnées distincts pour décrire le contenu des images; un autre exemple est l’information technique et structurelle inégale. Les métriques individuelles qui sont utilisées par les CBIRs pour calculer la similarité entre les images constituent un autre exemple. Le calcul de bons résultats dans ce contexte s’avère ainsi une tàche très laborieuse qui n’est pas encore scientifiquement résolue. Le problème principalement abordé dans cette thèse est la recherche de photos de CBIRs similaires à une image donnée comme réponse à une requête multimédia distribuée. La contribution principale de cette thèse est la construction d’un réseau de CBIRs sensible à la sémantique des contenus (CBIRn). Ce CBIRn sémantique est capable de collecter et fusionner les résultats issus de sources externes spécialisées. Afin d’être en mesure d’intégrer de telles sources extérieures, prêtes à rejoindre le réseau, mais pas à divulguer leur configuration, un algorithme a été développé capable d’estimer la configuration d’un CBIRS. En classant les CBIRs et en analysant les requêtes entrantes, les requêtes d’image sont exclusivement transmises aux CBIRs les plus appropriés. De cette fac ̧on, les images sans intérêt pour l’utilisateur peuvent être omises à l’avance. Les images retournées cells sont considérées comme similaires par rapport à l’image donnée pour la requête. La faisabilité de l’approche et l’amélioration obtenue par le processus de recherche sont démontrées par un développement prototypique et son évaluation utilisant des images d’ImageNet. Le nombre d’images pertinentes renvoyées par l’approche de cette thèse en réponse à une requête image est supérieur d’un facteur 4.75 par rapport au résultat obtenu par un réseau de CBIRs predéfini. / Making multimedia data available online becomes less expensive and more convenient on a daily basis. This development promotes web phenomenons such as Facebook, Twitter, and Flickr. These phenomena and their increased acceptance in society in turn leads to a multiplication of the amount of available images online. This vast amount of, frequently public and therefore searchable, images already exceeds the zettabyte bound. Executing a similarity search on the magnitude of images that are publicly available and receiving a top quality result is a challenge that the scientific community has recently attempted to rise to. One approach to cope with this problem assumes the use of distributed heterogeneous Content Based Image Retrieval system (CBIRs). Following from this anticipation, the problems that emerge from a distributed query scenario must be dealt with. For example the involved CBIRs’ usage of distinct metadata formats for describing their content, as well as their unequal technical and structural information. An addition issue is the individual metrics that are used by the CBIRs to calculate the similarity between pictures, as well as their specific way of being combined. Overall, receiving good results in this environment is a very labor intensive task which has been scientifically but not yet comprehensively explored. The problem primarily addressed in this work is the collection of pictures from CBIRs, that are similar to a given picture, as a response to a distributed multimedia query. The main contribution of this thesis is the construction of a network of Content Based Image Retrieval systems that are able to extract and exploit the information about an input image’s semantic concept. This so called semantic CBIRn is mainly composed of CBIRs that are configured by the semantic CBIRn itself. Complementarily, there is a possibility that allows the integration of specialized external sources. The semantic CBIRn is able to collect and merge results of all of these attached CBIRs. In order to be able to integrate external sources that are willing to join the network, but are not willing to disclose their configuration, an algorithm was developed that approximates these configurations. By categorizing existing as well as external CBIRs and analyzing incoming queries, image queries are exclusively forwarded to the most suitable CBIRs. In this way, images that are not of any use for the user can be omitted beforehand. The hereafter returned images are rendered comparable in order to be able to merge them to one single result list of images, that are similar to the input image. The feasibility of the approach and the hereby obtained improvement of the search process is demonstrated by a prototypical implementation. Using this prototypical implementation an augmentation of the number of returned images that are of the same semantic concept as the input images is achieved by a factor of 4.75 with respect to a predefined non-semantic CBIRn.
|
150 |
ADI : A NoSQL system for bi-temporal databases / ADI : Un système NoSQL pour les bases de données bi-temporellesAit Ouassarah, Azhar 23 May 2016 (has links)
La complexité et la dynamique de l'environnement dans lequel évolue chaque entreprise requiert de la part de ses managers la capacité de prendre des décisions pertinentes dans un laps de temps très court afin de s'accroître. Pour cela, l'analyse des données générées par l'activité de l'entreprise peut être une précieuse source d'information. L'Intelligence Opérationnelle (IO) est une classe de systèmes d'aide à la décision permettant aux managers d'avoir une très bonne compréhension de la situation de l'entreprise, à travers l'analyse de l'activité passée et présente. Dans ce contexte, les notions de temps et de traçabilité sont primordiales dans la compréhension de l'évolution de l'activité de l'entreprise à travers le temps. Dans cette thèse, nous présentons Axway Decision Insight (ADI), une solution d'IO développée par Axway. Son composant clé est un SGBD orienté-colonnes et bi-temporel développé en interne par l'entreprise pour répondre aux besoins spécifiques de l'IO. Ses capacités bi-temporelles lui permettent de gérer nativement aussi bien l'évolution des données dans la réalité modélisée (temps de validité) que l'évolution des données dans la base de données (temps de transaction). Nous commencerons par présenter la solution ADI en nous focalisant sur deux éléments importants: 1) l'interface graphique qui permet la conception et l'utilisation d'ADI sans écrire la moindre ligne de code. 2) L'approche adoptée pour modéliser les données bi-temporelles. Ensuite, nous présenterons un benchmark bi-temporel destiné ADI.Après cela, nous présenterons deux optimisations pour ADI. La première permet de pré-calculer et matérialiser les opérations d'agrégation, ce qui permet de réduire le temps nécessaire à la mise à jour de interface graphique d'ADI. La deuxième optimisation ordonne l'exécution des opérateurs de jointure des plans de requêtes en utilisant un modèle coût basé sur des statistiques sur des données bi-temporelles. Pour ces optimisations, nous avons effectué des expérimentations en utilisant notre benchmark, et qui ont démontré leurs intérêts. / Nowadays, every company is operating in very dynamic and complex environments which require from its managers to have a deep understanding of its business in order to take rapid and relevant decisions, and thus maintain or improve their company's activities. They can rely on analyzing the data deluge generated by the company's activities. A new class of systems has emerged in the decision support system galaxy called "Operational Intelligence" (OI) to meet this challenge. The objective is to enable operational managers to understand what happened in the past as well as what is currently happening in their business. In this context, the notions of time and traceability turns out to play a crucial role to understand what happened in the company and what is currently happening in the company. In this thesis, we present "Axway Decision Insight" (ADI), an "Operational Intelligence" solution developed by Axway. ADI's key component is a proprietary bi-temporal and column-oriented DBMS that has specially been designed to meet OI requirements. Its bi-temporal capabilities enable to catch both data evolution in the modeled reality (valid time) and in the database (transaction time).We first introduce ADI by focusing on two topics: 1) the GUI that makes the platform "code-free". 2) The adopted bi-temporal modeling approaches. Then we propose a performance benchmark that meets ADI's requirements. Next, we present two bi-temporal query optimizations for ADI. The first one consists in redefining a complex bi-temporal query into: 1) a set of continuous queries in charge of computing aggregation operations as data is collected. 2) A bi-temporal query that accesses the continuous queries' results and feeds the GUI. The second one is a cost-based optimization that uses statistics on bi-temporal data to determine an "optimal" query plan. For these two optimizations, we conducted some experiments, using our benchmark, which show their interests.
|
Page generated in 0.0525 seconds