• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 10
  • 2
  • Tagged with
  • 43
  • 36
  • 16
  • 15
  • 15
  • 14
  • 14
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Réplication asynchrone des données dans trois contextes: entrepôts, grappes et systèmes pair-à-pair

Pacitti, Esther 08 July 2008 (has links) (PDF)
Dans une base de données répartie, la réplication de données peut servir à augmenter la fiabilité et la disponibilité de données ainsi que les performances d'accès. En général, l'unité de réplication (copie ou replique) est un table relationnelle (ou un fragment), un document ou un fichier. La réplication consiste alors en placer plusieurs copies sur différents noeuds distincts. Cela fournit une grande disponibilité de données. Si un noeud devient non opérationnel à la suite d'une panne par exemple, une autre copie est toujours accessible sur un autre noeud. La réplication permet aussi aussi de améliorer les performances d'accès en augmentant la localité des références. Lorsque le coût de communication est un facteur dominant, le placement d'une copie sur le noeud où il est le plus souvent accédé favorise les accès locaux et évite l'accès au réseau. Les avantages apportés par la réplication sont à comparer avec la complexité et les coûts supplémentaires de maintenance des copies qui doivent, en théorie rester identiques à tout moment. La mise à jour d'une copie doit être répercutée automatiquement sur toutes ses repliques. Le problème est compliqué par la présence de pannes de noeud ou réseau. Le compromis recherché entre performance d'accès en consultation et en mise à jour des données rend difficile le choix du niveau de réplication. Celui-ci est très dépendant de la charge de travail demandée par les applications. Face à ces défis dans mes travaux de recherche nous avons focalisé sur la gestion de la cohérence pour réplication asynchrone pour plusieurs contextes : entrepôts de données, grappes et applications collaboratives et en pair à pair (P2P). 1. Entrepôts de Données Dans les architectures proposes pour la gestion de entrepôts de données les configurations mono- maître sont souvent utilisés. Dans la réplication mono-maître, plusieurs types configurations acycliques dirigés sont possibles: diffusion, mono-consolidation multi-consolidation, triangulaire. La gestion de la cohérence se pose surtout pour certaines configurations comme dans la multi-consolidation et triangulaire et ses généralisations en combinant les configurations de base. 2. Grappes Les applications dans lesquelles sont utilisées les grappes sont typiquement des applications de lectures intensives, ce qui rend plus facile l'exploitation du parallélisme. Cependant, les grappes peuvent également être utilisées dans un nouveau modèle économique, les Fournisseurs de Services d'Applicatons ASP - Application Service Providers. Dans un contexte ASP, les applications et les bases de données des clients sont stockées chez le fournisseur et sont disponibles, typiquement depuis Internet, aussi efficacement que si elles étaient locales pour les clients. Pour améliorer les performances, les applications et les données peuvent être répliquées sur plusieurs noeuds. Ainsi, les clients peuvent être servis par n'importe quel noeud en fonction de la charge. Cet arrangement fournit également une haute disponibilité: dans le cas de la panne d'un noeud, d'autres noeuds peuvent effectuer le même travail. Le défie est de gérer la réplication multimaître totale et partiel en assurant la cohérence forte et toute en passant à l'échelle. 3 Applications Collaboratives en P2P Les systèmes P2P adoptent une approche complètement décentralisée au partage des ressources. En distribuant données et traitements sur tous les pairs du réseau, ils peuvent passer à très grande échelle sans recourir à des serveurs très puissants. La réplication de données dans les systèmes P2P devient un enjeu majeur pour les applications collaboratives, comme les forums de discussion, les calendriers partagés, ou les catalogues e-commerce, etc. En effet, les données partagées doivent pouvoir être mises à jour en parallèle par différents pairs. Les premiers systèmes P2P existants supposent que les données sont statiques et n'intègrent aucun mécanisme de gestion des mises à jour et de réplication. Une mise à jour d'une donnée par le pair qui la possède implique une nouvelle version non propagée à ceux répliquant cette donnée. Cela résulte en diverses versions sous le même identifiant et l'utilisateur accède à celle stockée par le pair qu'il contacte. Aucune forme de cohérence entre les répliques n'est alors garantie. Le défi est gérer la cohérence éventuelle face au dynamisme des pairs tout en passant à l'échelle.
Read more
12

Une approche matérialisée basée sur les vues pour l'intégration de documents XML

Ahmad, Houda 26 June 2009 (has links) (PDF)
Les données semi-structurées occupent une place croissante dans l'évolution du Web par le biais du langage XML. La gestion de telles données ne s'appuie pas sur un schéma pré-dé fini, comme dans le cas de données structurées, gérées par exemple par le modèle relationnel. Le schéma de chaque document est auto-contenu dans le document même, et des documents similaires peuvent être représentés par des schémas différents. C'est pourquoi les algorithmes et les techniques d'intégration et d'interrogation de telles sources de données sont souvent plus complexes que ceux défi nis pour l'intégration et l'interrogation de sources de données structurées. L'objectif de notre travail est l'intégration de données XML en utilisant les principes d'Osiris, un prototype de SGBD-BC, dont le concept central est celui de vue. Dans ce système, une famille d'objets est défi nie par une hiérarchie de vues, où chaque vue est défi nie par ses vues mères, ses attributs et contraintes propres. Osiris appartient à la famille des logiques de description, la vue minimale d'une famille d'objets étant assimilée à un concept primitif et ses autres vues à des concepts définis. Un objet d'une famille satisfait certaines de ses vues. Pour chaque famille d'objets, Osiris construit, par analyse des contraintes dé finies dans toutes ses vues, un espace de classement n-dimensionnel. Cet espace sert de support au classement d'objets et aussi à leur indexation. Dans cette thèse nous avons étudié l'apport des principales fonctionnalités d'Osiris - classement, indexation et optimisation sémantique des requêtes à l'intégration de documents XML. Pour cela nous produisons un schéma cible (XML schema abstrait), qui représente un schéma Osiris ; chaque document satisfaisant un schéma source (XML schema concret) est réécrit en termes du schéma cible avant de subir l'extraction des valeurs de ses entités. Les objets correspondant à ces entités sont alors classés et indexés. Le mécanisme d'optimisation sémantique des requêtes d'Osiris peut dès lors être utilisé pour extraire les objets d'intérêt pour une requête. Nous avons réalisé un prototype, nommé OSIX (Osiris-based System for the Integration of XML sources) et nous l'avons appliqué à l'intégration et l'interrogation de documents XML simulant les données d'un hôpital.
Read more
13

La logistique et aménagement du territoire : comparaisons entre les expériences françaises et chinoises / Logistics and regional planning

Liu, Xiaoming 18 December 2012 (has links)
La logistique est une fonction majeure du système économique pour la production et pour la distribution des marchandises, elle donne naissance à une nouvelle branche industrielle. Elle est aussi un facteur clef de l'organisation spatiale, requérant une intention adéquate dans les démarches de planification. Une comparaison entre les expériences chinoises et françaises traitant des "parcs logistiques" éclaire les enjeux et les problèmes de l'insertion de la logistique dans l'aménagement urbain et régional. Cette thèse vise à faire un bilan des expériences de la manière dont sont prises en compte, par les pouvoirs publics, la logistique et ses spécificités dans la planification urbaine et régionale / Logistics is a key function in economic development, for production and for distribution, it gives birth to an emerging new industry. Logistics is also a key factor of spatial functioning and organization, requiring an adequate attention and priority in planning. A comparison of Chinese and French experiences dealing with "freight villages" throws light on the major stakes and questions of introducing logistics into urban and regional planning agenda. This thesis tries to take stock of experiences of ways to take into account logistics and his characteristics in urban and regional planning
Read more
14

La gestion des entrepôts mutualisés et leurs impacts dans les chaînes logistiques / Pooled warehouses management and their impact in supply chain

Makaci, Mourad 02 July 2018 (has links)
La mutualisation des entrepôts est l’une des approches de la logistique collaborative récemment initiée par différents acteurs afin d’améliorer la performance des chaînes logistiques. Les exigences de la grande distribution et l’augmentation des coûts logistiques relatifs aux activités d’entreposage et de transport obligent les entreprises à revoir leurs stratégies de distribution. S’inscrivant dans un paradigme post-positiviste, cette thèse permet de répondre à deux principales questions de recherche issues d’une revue de littérature sur la logistique collaborative : quelles sont les caractéristiques des entrepôts mutualisés ? Quel est l’impact de la présence de l’entrepôt mutualisé dans la chaîne logistique ? Nous avons développé une approche mixant une méthode qualitative de type exploratoire sur sept cas situés en France, complétée par une méthode quantitative de type simulation des flux. L’étude qualitative a permis d’identifier les principales spécificités des entrepôts mutualisés et de proposer une typologie d’entrepôts mutualisés basée sur deux dimensions : le degré de collaboration et le degré de dynamique. Elle a permis également d’identifier les nouveaux indicateurs de performance, les facteurs clés de succès, les principales sources d’incertitude et les risques associés à la mise en place d’entrepôts mutualisés. L’impact de l’entrepôt mutualisé sur la performance de la chaîne logistique a été étudié plus précisément sur un des sept cas précédents, en comparant quatre configurations de flux avec deux politiques de réapprovisionnement, pour lesquelles nous avons proposé une hybridation, et deux profils de demande. Les résultats des simulations montrent que la mutualisation des entrepôts prend tout son intérêt si elle est associée à la mutualisation du transport. Il apparaît également que la politique d’approvisionnement hybride est plus avantageuse que les politiques classiques de point de commande et de recomplètement calendaire. Finalement, cette thèse montre que le contexte de l’entrepôt mutualisé offre d’intéressantes perspectives de recherche autour du lien entre pratique et recherche, de la création de connaissance en gestion des opérations, et de l’impact de la mutualisation sur la performance des chaînes logistiques. / The warehouse pooling is one of the collaborative logistics’ research field, recently introduced by various actors to improve the performance of supply chains. The mass-market retailing requirements as well as the increase logistic costs, relative to the activities of storing and transport, oblige companies to review more in detail their distribution strategies. Consisting of a post-positivist paradigm, this thesis answers two main research questions: What are the characteristics of pooled warehouses? What is the impact of the presence of a pooled warehouse in the supply chain? We have developed an approach combining a qualitative exploratory method on seven cases located in France, supplemented by a quantitative method based on flow simulation. The qualitative study allowed to identify the main specificities of pooled warehouses and proposed a typology of pooled warehouses based on two dimensions: collaboration degree and dynamics degree. Our study also allowed identifying new performance indicators, the key success factors, the main sources of uncertainty and the risks related to pooled warehouse implementation. The impact of a pooled warehouse on the supply chain performance was analyzed more specifically in one of the seven previous cases, comparing four flow configurations with two replenishment policies, for which we proposed hybridization, and two demand profiles. The simulation results show that the pooled warehouse takes all its interest if it is associated with transport pooling. Furthermore, the hybrid procurement policy seems to be more advantageous than the classical policies of traditional reorder point and calendar replenishment. Finally, this thesis shows that the context of the shared warehouse offers interesting research perspectives on the link between practice and research, the creation of knowledge in operations management, and the impact of pooling on the performance of logistics chains.
Read more
15

Donner une autre vie à vos besoins fonctionnels : une approche dirigée par l'entreposage et l'analyse en ligne / Give Another Life to Your Functional Requirements : An Approach Drvicen by Warehousing and Online Anaysis

Djilani, Zouhir 12 July 2017 (has links)
Les besoins fonctionnels et non fonctionnels représentent la première brique pour la conception de toute application, logiciel, système, etc. L'ensemble des traitements associés aux besoins est établi dans le cadre de l'ingénierie des Besoins (IB). Le processus de l'IB comporte plusieurs étapes consistant à découvrir, analyser, valider et faire évoluer l'ensemble des besoins relatifs aux fonctionnalités du système. La maturité de la communauté de l'IB lui a permis d'établir un cycle de vie bien déterminé pour le processus de besoins qui comprend les phases suivantes :l'élicitation, la modélisation, la spécification, la validation et la gestion des besoins. Une fois ces besoins validés, ils sont archivés ou stockés dans des référentiels ou des dépôts au sein des entreprises. Avec l'archivage continu des besoins, ces entreprises disposent d'une mine d'informations qu'il faudra analyser afin de reproduire les expériences cumulées et le savoir-faire acquis en réutilisant et en exploitant ces besoins pour des nouveaux projets. Proposer à ces entreprises un entrepôt dans lequel l'ensemble de besoins est stocké représente une excellente opportunité pour les analyser à des fins décisionnelles et les fouiller pour reproduire des anciennes expériences. Récemment, la communauté des processus (BPM) a émis le même besoin pour les processus. Dans cette thèse, nous souhaitons exploiter le succès des entrepôts de données pour le reproduire sur les besoins fonctionnels. Les problèmes rencontrés lors de la conception des entrepôts de données se retrouvent presque à l'identique dans le cas des besoins fonctionnels.Ces derniers sont souvent hétérogènes, surtout dans le cas d'entreprises de grande taille comme Airbus, où chaque partenaire a la liberté d'utiliser ses propres vocabulaire et formalisme pour décrire ses besoins. Pour réduire cette hétérogénéité, l'appel aux ontologies est nécessaire. Afin d'assurer l'autonomie de chaque source, nous supposons que chaque source a sa propre ontologie.Cela nécessite des efforts de matching entre les ontologies afin d'assurer l' intégration des besoins fonctionnels. Une particularité importante liée à l'entreposage de besoins réside dans le fait que ces derniers sont souvent exprimés à l'aide des formalismes semi-formels comme les use cases d'UML avec une partie textuelle importante. Afin de nous rapprocher le plus possible de ce que nous avons fait dans le cadre de l'entreposage de données, nous proposons un modèle pivot permettant de factoriser trois semi-formalismes répandus utilisés par les sources de besoins avec une description précise de ces derniers. Ce modèle pivot permettra de définir le modèle multidimensionnel del' entrepôt de besoins, qui sera ensuite alimenté par les besoins des sources en utilisant un algorithme ETL (Extract, Transform, Load). À l'aide des mécanismes de raisonnement offerts par les ontologies et des métriques de matching, nous avons nettoyé notre entrepôt de besoins. Une fois l'entrepôt déployé, il est exploité par des outils d'analyse OLAP.Notre méthodologie est supportée par un outil couvrant l'ensemble des phases de conception et d'exploitation d'un entrepôt de besoins. / Functiona] and non-functional requirements represent the first step for the design of any application, software, system, etc. Ail the issues associated to requirements are analyzed in the Requirements Engineering (RE) field. The RE process consists of several steps consisting of discovering, analyzing, validating and evolving the requirements related to the functionalities of the system. The RE community proposed a well-defined life-cycle for the requirements process that includes the following phases: elicitation, modeling, specification, validation and management. Once the requirements are validated, they are archived or stored in repositories in companies. With the continuous storage of requirements, companies accumulate an important amount of requirements information that needs to be analyzed in order to reproduce the previous experiences and the know-how acquired by reusing and exploiting these requirements for new projects. Proposing to these companies a warehouse in which all requirements are stored represents an excellent opportunity to analyze them for decision-making purposes. Recently, the Business Process Management Community (BPM) emitted the same needs for processes. In this thesis, we want to exploit the success of data warehouses and to replicate it for functional requirements. The issues encountered in the design of data warehouses are almost identical in the case of functional requirements. Requirements are often heterogeneous, especially in the case of large companies such Airbus, where each panner bas the freedom to use its own vocabulary and formalism to describe the requirements. To reduce this heterogeneity, using ontologies is necessary. In order to ensure the autonomy of each partner, we assume that each source bas its own ontology. This requires matching efforts between ontologies to ensure the integration of functional requirements. An important feature related to the storage of requirements is that they are often expressed using semi-forma! formalisms such as use cases of UML with an important textual part. In order to get as close as possible to our contributions in data warehousing,we proposed a pivot model factorizing three well-known semi-formalisms. This pivot model is used to define the multidimensional model of the requirements warehouse, which is then alimented by the sources requirements using an ETL algorithm (Extract,Transform, Load).Using reasoning mechanisms otfered by ontologies and matching metrics, we cleaned up our requirements warehouse. Once the warehouse is deployed, it is exploited using OLAP analysis tools. Our methodology is supported by a tool covering all design phases of the requirements warehouse
Read more
16

Les activités maritimes de la Province d'Afrique romaine (de 46 av. J.-C. – jusqu'en 439 apr. J.-C.) / The maritime activities of the province of Roman Africa (46 av J. -C - up to 439 after J. C.)

Saidi, Ali 29 January 2016 (has links)
Il s'agit de faire la reconstitution de l'ensemble du paysage portuaire. On va aussi étudier des différents mécanismes des activités maritimes faisant des cités portuaires de la province d'Afrique romaine, des véritables centres économiques. Autrement dit, on essayera d’étudier les infrastructures portuaires et les aspects, du rôle assumé par ces villes, en tant que points de contact, entre le monde de l’arrière-pays et de l’outre-mer. Dans ce contexte, on tâchera de réexaminer plusieurs thèses, concernant l’évaluation du rôle des ports, dans le processus du commerce maritime extérieur. Cette réflexion nous amènera à examiner les aspects de l’aménagement du réseau routier terrestre ainsi que l’organisation des itinéraires maritimes, qui contribuèrent à l’écoulement de divers produits africains. On examinera également, la nature des marchandises qui constituaient les cargaisons, les divers navires partant des ports. L’organisation administrative et législative du transport, surtout de l'annone, aussi le commerce maritime, son importance, tant qu’elle nous renseigne sur les procédures employées par le pouvoir central romain, pour organiser ce commerce, enfin sur l’importance des villes portuaires, de la province d'Afrique pour Rome. / This is to reconstitute the entire port landscape. We will also study the different mechanisms of maritime activities which make the port cities of the province of Roman Africa, the real economic centers. In other words, we will try to study the port infrastructure and the aspects of the role played by these cities as points of contact between the world of inland and oversea. In this context, we will try to review several theses on the assessment of the ports role in the process of foreign maritime trade. This reflection leads us to examine aspects of the organization of land road network and the organization of maritime routes, which contributed to the flow of various African products. We also consider the nature of the goods which were the cargo, various ships from the ports. The administrative and legislative organization of transport, especially the annona, as maritime trade, its importance, as it provides information on the procedures used by the Roman central authority to organize this trade, finally the importance of port cities of the province of Africa to Rome.
Read more
17

IXIA (IndeX-based Integration Approach) A Hybrid Approach to Data Integration

Kermanshahani, Shokoh 10 July 2009 (has links) (PDF)
Aujourd'hui, il existe un nombre important et croissant de sources de données, qui peuvent être des documents et des données structurées ou semi-structurées. En général, aussi bien les documents que les bases de données sont autonomes et gérés par des systèmes différents. D'autre part, beaucoup de ces sources sont reliées tout en étant sémantiquement hétérogènes : elles modélisent la même réalité externe tout en utilisant des concepts et des structures distincts. <br />Or, les organisations et les entreprises qui sont confrontées à de telles sources de données ont besoin d'en avoir une vision homogène et cohérente. La conséquence est qu'il est nécessaire de les intégrer et de disposer d'un système qui gère ces données.<br /><br />L'objectif d'un système d'intégration des données est de proposer une interface homogène pour interroger plusieurs sources, qui peuvent être hétérogènes et autonomes. Derrière une telle interface il y a plusieurs défis, parmi lesquels nous soulignons l'hétérogénéité structurelle et sémantique des sources de données, la fragmentation des données, le traitement et l'optimisation des requêtes. <br /><br />Il existe de nombreux travaux qui présentent des approches distinctes pour l'intégration des données, et chaque approche propose des solutions spécifiques à chacun des problèmes évoqués. On considère en général que ces approches appartiennent à deux grandes catégories : l'approche matérialisée et l'approche virtuelle. Cependant, on peut aussi considérer une troisième approche, dite hybride, qui propose qu'une partie des données du système intégré soit matérialisée et qu'une autre partie des données soit virtuelle.<br /><br />Dans cette thèse, nous proposons une architecture hybride pour un système d'intégration de sources de données hétérogènes, qui vise à étendre l'optimisation des requêtes à toutes les requêtes du système d'intégration. Elle permet aussi de fournir un mécanisme flexible pour traiter la mise à jour des données afin de tolérer les différentes caractéristiques des sources et de leurs données.<br /><br />Cette approche est basée sur un système d'indexation d'objets multicritères au niveau de la médiation. Dans notre approche, nous utilisons le système Osiris et son mécanisme d'indexation. Osiris est un système de gestion de bases de données et de bases de connaissance orienté objet, où une famille d'objets est définie par une hiérarchie de vues " object-preserving ". Le système d'indexation d'Osiris est un système multi-attributs, et notre approche propose la matérialisation du sous-ensemble des données directement reliées aux attributs d'indexation. <br /><br />Le système d'intégration des données proposé, IXIA, matérialise la structure d'indexation des objets sous-jacents au niveau du médiateur. Les Oids des objets, leur correspondance avec les objets des sources et les données nécessaires pour la mise à jour de l'indexation des données sont aussi matérialisées. <br /><br />Cette approche offre une plus grande flexibilité de rafraîchissement des données qu'une approche entièrement matérialisée, et une meilleure optimisation des requêtes que les méthodes entièrement virtuelles.
Read more
18

Intégration holistique et entreposage automatique des données ouvertes / Holistic integration and automatic warehousing of open data

Megdiche Bousarsar, Imen 10 December 2015 (has links)
Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un système décisionnel. Leur intégration et leur entreposage au sein du système décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problèmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problème d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modèle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations. / Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations.
Read more
19

Infrastructure adaptable pour les entrepots de données

Benitez Guerrero, Edgard-Iván 26 September 2002 (has links) (PDF)
Un entrepôt de données est une collection de données historiqucs exploitées par les applications d'aide à la décision. Il centralise des données d'intérêts pour un groupe d'utilisateurs afin de rendre leur accès rapide, peu coûteux et efficace. Dans cette thèse, noue nous intéressons à l'évolution des entrepôts dédiée aux applications d'analyse inultidiinerisioriilelle. Voue proposons une infrastructure pour la construction de gestionnaires d'entrepôt autorisant la création et l'évolution d'entretrepôts de données. Un gestionnaire d'entrepôt autorise la création du shéma d'un entrepôt et fournit les moyens pour le faire évoluer. Il offre également des outils pour construire l'entrepôt à partir des données provenant de multiples sources hétérogènes et autonomes. Il se base sur un modèle de données multidimensionnelles, pivot permettant d'un côté la manipulation du schéma à un niveau abstrait, et d'un autre côté, la fusion de données hétérogènes. Nous avons spécifié un modèle de données utilisé pour la définition de schemas multidimensionnels. Nous proposons un ensemble de primitives d'évolution de schéma qui assurent la cohérence d'un tel schéma entre deux évolutions successives. Nous avons proposé MDL, un langage associé à notre modèle, qui offre des expressions pour créer et faire évoluer des schémas multidimensionnels. Pour valider notre approche, nous avons implanté un prototype de gestionnaire d'entrepôt. Il assure la création et l'évolution d'un entrepôt de données relationnelles. Ce gestionnaire, développé en Java, intègre des données au format XML provenant de sources hétérogènes.
Read more
20

Vers l'OLAP sémantique pour l'analyse en ligne des données complexes

Loudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?
Read more

Page generated in 0.0311 seconds