• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2046
  • 972
  • 287
  • 8
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3277
  • 1467
  • 668
  • 664
  • 573
  • 551
  • 371
  • 317
  • 293
  • 275
  • 275
  • 248
  • 222
  • 214
  • 212
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et analyse du comportement des utilisateurs exploitant des données vidéo / Model definition and analysis of users'behavior using video data

Mongy, Sylvain 25 November 2008 (has links)
Nous proposons dans ce travail d'analyser le comportement des utilisateurs exploitant des données vidéo. Notre objectif est de contribuer à comprendre pourquoi et comment chacune des séquences vidéo est visionnée par les utilisateurs. Pour cela, nous présentons une approche qui combine usage intra-vidéo et usage inter-vidéo. Au niveau intra-vidéo, nous définissons le visionnage d'une vidéo comme unité de comportement. Au niveau inter-vidéo, nous introduisons la session (enchaînement des vidéos visionnées) comme unité de comportement. Un comportement intra-vidéo est modélisé par un modèle de Markov construit en utilisant les différentes actions réalisées lors des vision nages que nous regroupons à l'aide d'une nouvelle méthode de regroupement (K-models). Cette méthode est dérivée de la technique des K-moyennes adaptée à l'utilisation de modèles. Nous caractérisons ainsi plusieurs comportements type qui permettent d'estimer quelle fut l'utilité ou d'une séquence vidéo lors d'une session. Un comportement inter-vidéo est modélisé par une session. Cette session est une séquence ordonnée des vision nages des séquences vidéo. Pour regrouper ces sessions, nous proposons une technique de regroupement hiérarchique qui présente la particularité de traiter des classes représentées par plusieurs sous-séquences enrichies par les comportements intra-vidéo. Les résultats obtenus sur des ensembles de test permettent d'identifier les comportements observés et d'en tirer des suppositions sur la pertinence des vidéos. Nous proposons également un modèle d'intégration dans un moteur de recherche permettant de détecter les erreurs d'indexation et de proposer des recherches alternatives. / Our work proposes to analyze users' behavior using video data. Our objective is to contribute understanding how and why users view each video sequence. We present an approach combining intra-video and inter-video behavior analysis. The intra-video level represents the viewing of a video sequence. The inter-video level represents the sessions (linkage between videos viewed by users). An intra-video behavior is defined by a Markov model built using the actions performed during viewings. We cluster these behavior with a new method derived from K-Means adapted to the use of Models (K-Models). We then characteriz several typical behaviors that allows to estimate the level of interest of each video. An inter-video behavior is defined by a session. This session is an ordered sequence of viewings performed by the users. ln order to cluster these sessions, we propose a hierarchical technique, representing clusters by a set of common subsequences enriched by intra-video behaviors. Results from test sets allow to identify observed behaviors and to conclude on the interest of the videos. We also propose a framework on how to integrate our approach in a search engine in order to detect indexing errors and to propose altemate searches to the users.
2

Improving the quality of aggregation using data analysis in WSNs / Amélioration de la qualité d'agrégation par l'analyse de données dans les réseaux de capteurs

Ghaddar, Alia 02 December 2011 (has links)
L'adoption des réseaux de capteurs sans fil (WSNs) dans divers secteurs continuent à croître, comme la médecine, la domotique, le contrôle de processus industriels, la localisation des objets, etc. Cela revient à l'émergence de capteurs de plus en plus petits et de plus en plus intelligents dans notre vie quotidienne. Ces dispositifs interagissent avec l'environnement ou d'autres périphériques, pour analyser les données et produire de l'information. En plus de créer de l'information, ils permettent, une intégration transparente de la technologie virtuelle autour de nous. En effet, ces objets sont de faible puissance et fonctionnent sur batterie. Ils sont souvent utilisé dans des zones géographiques dangereuse et peu accessible, tels que les volcans actifs, les champs de bataille, ou après une catastrophe naturelle etc. Ces zones critiques rendent le remplacement ou la recharge des batteries de chaque capteur difficile voire impossible. Ainsi, leur consommation énergétique devient le principale verrou technologique empêchant leur déploiement à grande échelle. Nous sommes intéressés à partie la plus consommatrice d'énergie dans les réseaux de capteurs: la communication ou l'envoi/la réception de données. Nous proposons des méthodes pour réduire les transmissions des nœuds en réduisant le volume de données à transmettre. Notre travail s'articule autour de trois axes fondamentaux: la prédiction des données, la détection de similarité des données et la détection des comportements anormaux. / The promise and application domain of Wireless Sensor Networks (WSNs) continue to grow such as health care, home automation, industry process control, object tracking, etc. This is due to the emergence of embedded, small and intelligent sensor devices in our everyday life. These devices are getting smarter with their capability to interact with the environment or other devices, to analyze data and to make decisions. They have made it possible not only gather data from the environment, but also to bridge the physical and virtual worlds, assist people in their activities, while achieving transparent integration of the wireless technology around us. Along with this promising glory for WSNs, there are however, several challenges facing their deployments and functionality, especially for battery-operated sensor networks. For these networks, the power consumption is the most important challenge. In fact, most of WSNs are composed of low-power, battery-operated sensor nodes that are expected to replace human activities in many critical places, such as disaster relief terrains, active volcanoes, battlefields, difficult terrain border lands, etc. This makes their battery replacement or recharging a non-trivial task. We are concerned with the most energy consuming part of these networks, that is the communication. We propose methods to reduce the cost of transmission in energy-constrained sensor nodes. For this purpose, we observe the way data is collected and processed to save energy during transmission. Our work is build on three basic axis: data estimation, data similarity detection and abnormal behaviors detection.
3

Les enjeux juridiques des traitements de données : l'expérience vietnamienne / Legal issues on data processing : the Vietnamese experience

Nguyen, Nhu Ha 27 May 2016 (has links)
Après le développement formidable des réseaux, les technologies de l’information entrent dans l’ère des grands volumes de données. Le développement de la technologie a créé de plus en plus de bases de données (BDD) et permet aux individus d’y accéder facilement. Les BDD sont des outils indispensables dans une économie fondée sur le savoir. La protection de l’investissement dans les BDD n’est pas harmonisée à l’échelle internationale. Les réseaux électroniques, comme Internet, qui représentent un formidable instrument de communication et outil de partage à l’échelle mondiale, conduisent parfois à la violation des droits fondamentaux, comme le droit à la vie privée. Les lois protégeant les données personnelles et la vie privée sont néanmoins présentes presque partout dans le monde. En revanche, on ne trouve pas au Vietnam de loi spécifique sur la protection des renseignements personnels. Le même manque apparaît pour la protection des BDD. Par ailleurs, si le monde s’intéresse aux Cloud Computing et au Big Data depuis déjà quelques années, le Vietnam n'a commencé à connaître le sujet qu'à partir de 2008 pour le Cloud et de 2013 pour le Big Data. Du fait de son adhésion au TPP, la loi sur la protection des BDD, celle sur la protection des données personnelles, le régime juridique du Cloud et du Big Data, le Vietnam va sûrement avoir à changer de façon spectaculaire son système juridique. / Following the impressive development of networks, information technologies have entered the age of large volumes of data. The development of technology has created more and more databases and has allowed individuals to access it easily. Databases are essential tools in an economy founded on knowledge. The protection of investment in making databases is not harmonized internationally. Electronic networks such as the Internet, which represent a fantastic instrument of communication and sharing tool at the worldwide scale, sometimes lead to a violation of fundamental rights such as the right to privacy. Laws that protect personal data and privacy are still present almost everywhere in the world. However, in Vietnam, no specific law exists on the protection of personal information. The same lack appears for the protection of databases. Furthermore, although the world has been interested in Cloud Computing and Big Data for several years, Vietnam only began dealing with these subjects in 2008 for Cloud, and 2013 for Big Data. Due to its membership in the Trans-Pacific Partnership, laws to protect databases and personal data and the legal status of Cloud and Big Data, Vietnam will surely have to drastically change its legal system.
4

Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données / Model driven approach for data wanehouse development and reduction

Atigui, Faten 05 December 2013 (has links)
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED. / Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction.
5

Localisation 3D basée sur une approche de suppléance multi-capteurs pour la réalité augmentée mobile en milieu extérieur / 3D localization based on multi-sensors assistance scheme for outdoor augmented reality

Zendjebil, Iman mayssa 01 October 2010 (has links)
La démocratisation des terminaux mobiles telle que les téléphones cellulaires, les PDAs et les tablettes PC a rendu possible le déploiement de la réalité augmentée dans des environnements en extérieur à grande échelle. Cependant, afin de mettre en œuvre de tels systèmes, différentes problématiques doivent êtres traitées. Parmi elle, la localisation représente l’une des plus importantes. En effet, l’estimation de la position et de l’orientation (appelée pose) du point de vue (de la caméra ou de l’utilisateur) permet de recaler les objets virtuels sur les parties observées de la scène réelle. Dans nos travaux de thèse, nous présentons un système de localisation original destiné à des environnements à grande échelle qui utilise une approche basée vision sans marqueur pour l’estimation de la pose de la caméra. Cette approche se base sur des points caractéristiques naturels extraits des images. Etant donné que ce type d’approche est sensible aux variations de luminosité, aux occultations et aux mouvements brusques de la caméra, qui sont susceptibles de survenir dans l’environnement extérieur, nous utilisons deux autres types de capteurs afin d’assister le processus de vision. Dans nos travaux, nous voulons démontrer la faisabilité d’un schéma de suppléance dans des environnements extérieurs à large échelle. Le but est de fournir un système palliatif à la vision en cas de défaillance permettant également de réinitialiser le système de vision en cas de besoin. Le système de localisation vise à être autonome et adaptable aux différentes situations rencontrées. / The democratization of mobile devices such as smartphones, PDAs or tablet-PCs makes it possible to use Augmented Reality systems in large scale environments. However, in order to implement such systems, many issues must be adressed. Among them, 3D localization is one of the most important. Indeed, the estimation of the position and orientation (also called pose) of the viewpoint (of the camera or the user) allows to register the virtual objects over the visible part of the real world. In this paper, we present an original localization system for large scale environments which uses a markerless vision-based approach to estimate the camera pose. It relies on natural feature points extracted from images. Since this type of method is sensitive to brightness changes, occlusions and sudden motion which are likely to occur in outdoor environment, we use two more sensors to assist the vision process. In our work, we would like to demonstrate the feasibility of an assistance scheme in large scale outdoor environment. The intent is to provide a fallback system for the vision in case of failure as well as to reinitialize the vision system when needed. The complete localization system aims to be autonomous and adaptable to different situations. We present here an overview of our system, its performance and some results obtained from experiments performed in an outdoor environment under real conditions.
6

Un système d’intégration des métadonnées dédiées au multimédia / Multimedia metadata integration system

Amir, Samir 06 December 2011 (has links)
Ma thèse porte sur la réalisation de l’interopérabilité des métadonnées au niveau des schémas et de langages de description. Cela est fait d’une manière automatique via le développement d’un outil de matching des schémas. Pour cela, j’ai proposé dans ma thèse une nouvelle approche de matching, baptisée MuMIe (Multilevel Metadata Integration). Elle a pour but de réaliser l’interopérabilité sur les deux niveaux (schémas et langages de description). La technique proposée transforme les schémas provenant de différents langages en graphes, en capturant uniquement quelques concepts basiques. Une méthodologie de matching est ensuite effectuée sur ces graphes permettant de trouver les correspondances entre leurs noeuds. Cela est fait via l’utilisation de plusieurs informations sémantiques et structurelles. La deuxième partie de ma thèse était consacrée à la modélisation sémantique des informations dédiées au multimédia (profiles des utilisateurs, caractéristiques des réseaux de transmission, terminaux, etc).J’ai développé un métamodèle nommé CAM4Home (Collaborative Aggregated Multimedia for Digital Home) pour la fusion des métadonnées. La spécification de ce métamodèle a été faite avec le langage RDFS. / The recent growth of multimedia requires an extensive use of metadata for their management. However, a uniform access to metadata is necessary in order to take advantage of them. In this context, several techniques for achieving metadata interoperability have been developed. These intégration techniques are made by domain experts which is costly and time-consuming. The topic of my thesis is to develop an automatic integration techniques based on schema marching. We have proposed a new schema matching algorithm callad MuMIe (Multilevel Metadata Integration). MuMIe supports schemas from different description languages (XML Schema, RDS Schema, OWL) and makes use of several types of information (linguistic, semantic and structural) in a manner that increases the matching accuracy.
7

Exploration collaborative de cubes de données / Collaborative exploration of data cubes

Negre, Elsa 01 December 2009 (has links)
Data warehouses store large volumes of consolidated and historized multidimensional data to be explored and analysed by various users. The data exploration is a process of searching relevant information in a dataset. In this thesis, the dataset to explore is a data cube which is an extract of the data warehouse that users query by launching sequences of OLAP (On-Line Analytical Processing) queries. However, this volume of information can be very large and diversified, it is thus necessary to help the user to face this problem by guiding him/her in his/her data cube exploration in order to find relevant information. The present work aims to propose recommendations, as OLAP queries, to a user querying a data cube. This proposal benefits from what the other users did during their previous explorations of the same data cube. We start by presenting an overview of the used framework and techniques in Information Retrieval, Web Usage Mining or e-commerce. Then, inspired by this framework, we present a state of the art on collaborative assistance for data exploration in (relationnal and multidimensional) databases. It enables us to release work axes in the context of multidimensional databases. Thereafter, we propose thus a generic framework to generate recommendations, generic in the sense that the three steps of the process are customizable. Thus, given a set of sequences of queries, corresponding to the previous explorations of various users, and given the sequence of queries of the current user, our framework proposes a set of queries as recommendations following his/her sequence. Then, various instantiations of our framework are proposed. Then, we present a Java prototype allowing a user to specify his/her current sequence of queries and it returns a set of recommendations. This prototype validates our approach and its effectiveness thanks to an experimentations collection. Finally, in order to improve this data cube exploration collaborative assistance and, in particular, to share, navigate or annotate the launched queries, we propose a framework to manage queries. Thus, an instantiation to manage recommendations is presented. / Les entrepôts de données stockent de gros volumes de données multidimensionnelles, consolidées et historisées dans le but d'être explorées et analysées par différents utilisateurs. L'exploration de données est un processus de recherche d'informations pertinentes au sein d'un ensemble de données. Dans le cadre de nos travaux, l'ensemble de données à explorer est un cube de données qui est un extrait de l'entrepôt de données que les utilisateurs interrogent en lançant des séquences de requêtes OLAP (On-Line Analytical Processing). Cependant, cette masse d'informations à explorer peut être très importante et variée, il est donc nécessaire d'aider l'utilisateur à y faire face en le guidant dans son exploration du cube de données afin qu'il trouve des informations pertinentes. Le travail présenté dans cette thèse a pour objectif de proposer des recommandations, sous forme de requêtes OLAP, à un utilisateur interrogeant un cube de données. Cette proposition tire parti de ce qu'ont fait les autres utilisateurs lors de leurs précédentes explorations du même cube de données. Nous commençons par présenter un aperçu du cadre et des techniques utilisés en Recherche d'Informations, Exploration des Usages du Web ou e-commerce. Puis, en nous inspirant de ce cadre, nous présentons un état de l'art sur l'aide à l'exploration des bases de données (relationnelles et multidimensionnelles). Cela nous permet de dégager des axes de travail dans le contexte des bases de données multidimensionnelles. Par la suite, nous proposons donc un cadre générique de génération de recommandations, générique dans le sens où les trois étapes du processus sont paramétrables. Ainsi, à partir d'un ensemble de séquences de requêtes, correspondant aux explorations du cube de données faites précédemment par différents utilisateurs, et de la séquence de requêtes de l'utilisateur courant, notre cadre propose un ensemble de requêtes pouvant faire suite à la séquence de requêtes courante. Puis, diverses instanciations de ce cadre sont proposées. Nous présentons ensuite un prototype écrit en Java. Il permet à un utilisateur de spécifier sa séquence de requêtes courante et lui renvoie un ensemble de recommandations. Ce prototype nous permet de valider notre approche et d'en vérifier l'efficacité avec un série d'expérimentations. Finalement, afin d'améliorer cette aide collaborative à l'exploration de cubes de données et de permettre, notamment, le partage de requêtes, la navigation au sein des requêtes posées sur le cube de données, ou encore de les annoter, nous proposons un cadre d'organisation de requêtes. Ainsi, une instanciation adaptée à la gestion des recommandations est présentée.
8

Représentation et fouille de données volumineuses

Prudhomme, Elie 17 June 2009 (has links)
Le stockage n'étant plus soumis à des contraintes de coût importantes, les systèmes d'information collectent une quantité croissante de données, souvent via des processus d'acquisition automatique. En parallèle, les objets d'intérêt sont devenus plus complexes. C'est le cas, par exemple, des images, du texte ou encore des puces à ADN. Pour leur analyse, les méthodes d'apprentissage doivent alors prendre en compte l'augmentation massive et conjointe du nombre d'exemples et d'attributs qui en résultent. Or, les outils classiques de l'apprentissage automatique ne sont pas toujours adaptés à ce changement de volumétrie tant au niveau de leur complexité algorithmique que pour appréhender la structure des données. Dans ce contexte de données volumineuses en apprentissage supervisé, nous nous sommes intéressés à l'extraction de deux catégories de connaissances, conjointement à la prédiction, la première relative à l'organisation des exemples entre eux et la seconde relative aux interactions qui existent entre les attributs. Pour nous intéresser aux relations entre les exemples, nous définissons le concept de représentation en apprentissage supervisé comme une modélisation et une visualisation des données à la fois du point de vue de la proximité entre les exemples et du lien entre la position des exemples et leur étiquette. Parmi les différents algorithmes recensés qui conduisent à l'obtention d'une telle représentation, nous retenons les cartes auto-organisatrices qui présentent la plus faible complexité algorithmique, ce qui les rend adaptées aux données volumineuses. L'algorithme des cartes auto-organisatrices étant nonsupervis é, nous proposons une adaptation à l'apprentissage supervisé par le biais des cartes étiquetées (Prudhomme et Lallich, 2005b). Nous montrons également qu'il est possible de valider statistiquement la qualité de la représentation obtenue par une telle carte (Prudhomme et Lallich, 2005a). Les statistiques que nous proposons sont corrélées avec le taux d'erreur en généralisation, ce qui permet de juger a priori de la qualité de la prédiction qui résulte de la carte. Néanmoins, la prédiction des cartes auto-organisatrices n'est pas toujours satisfaisante face à des données en grandes dimensions. Dans ce cas, nous avons recours aux méthodes ensemblistes. Ces méthodes agrègent la prédiction de plusieurs classifieurs simples. En créant une certaine diversité entre les prédictions de ces classifieurs, les méthodes ensemblistes améliorent la prédiction qui aurait été obtenue par un seul classifieur. Pour créer cette diversité, nous apprenons chaque classifieur simple (dans notre cas, des cartes auto-organisatrices) sur un sous-espace de l'espace d'apprentissage. La diversité est ainsi l'occasion de diminuer la dimensionnalité du problème. Afin de choisir au mieux les sous-espaces, nous nous sommes inspirés des connaissances théoriques disponibles sur la répartition de l'erreur en généralisation d'un ensemble. Nous avons alors proposé deux heuristiques. La première heuristique est non-supervisée. Elle repose sur l'interprétation des corrélations entre attributs pour déterminer les sous-espaces à apprendre (Prudhomme et Lallich, 2007). La seconde heuristique, au contraire, est supervisée. Elle optimise par un algorithme génétique une mesure de l'erreur d'un ensemble en fonction de l'erreur des classifieurs qui le composent (Prudhomme et Lallich, 2008b). Ces deux heuristiques conduisent à des ensembles de cartes (ou des comités de cartes) dont l'erreur en généralisation est plus faible que celle d'une carte seule apprise sur la totalité des attributs. Néanmoins, ils conduisent également à une multitude de représentations. Pour proposer une seule représentation à l'issue de l'apprentissage, nous introduisons la notion de stacking géographique. (...) / /
9

Acquisition 3D, documentation et restitution en archéologie : proposition d'un modèle de Système d'Information dédié au patrimoine / 3D acquisition, documentation and restitution in archaeology : proposal of a model of Information System dedicated to Cultural Heritage

Meyer, Elise 31 October 2007 (has links)
L'activité de documentation du patrimoine archéologique évolue avec le développement des Nouvelles Technologies de l'Information et de la Communication (NTIC). Traditionnellement associée à de l'archivage, la documentation d'un site archéologique peut aujourd'hui également être synonyme de publication, puisqu'elle peut être diffusée en ligne aussi bien à d'autres professionnels qu'au grand public. Cette thèse propose un modèle de Système d'Information dédié à la documentation sur Internet de sites patrimoniaux. Il permet de conserver, gérer et représenter des documents traditionnels, des données issues de relevés bi- et tridimensionnels, mais aussi des résultats de travaux de restitution et d'imagerie. Dans un premier temps, l'étude établit un état de l'art qui permet d'appréhender les moyens actuels et les besoins des professionnels du patrimoine en termes de conservation, visualisation et publication de leurs données. Puis, notre approche considère ces préoccupations pour définir les fonctionnalités du Système d'Information que nous proposons. Sur la base d'exemples issus du patrimoine luxembourgeois (le Château de Vianden et la Villa d'Echternach), nous décrivons la manière dont nous conservons les données et les métadonnées associées, ainsi que les outils développés pour la représentation de ces informations. Nous présentons aussi nos principes de gestion des données, basés sur les liaisons spatio-temporelles qui peuvent exister entre les différents documents. Ces liaisons nous permettent de proposer l'utilisation de graphiques bidimensionnels ou de modèles tridimensionnels comme des supports privilégiés de navigation et d'interaction avec tous les autres documents conservés. Une modélisation globale du Système d'Information, pouvant servir de métamodèle de système de documentation en ligne, nous permet finalement d'ouvrir notre champ d'application à d'autres domaines comme l'architecture ou le génie civil. / The documentation of archaeological heritage is an activity that evolves with the development of the New Information and Communication Technologies (NICT). Traditionally associated with recording, the documentation of an archeological site is also today synonym of publication, because it can be disseminated on-line both to other professionals and to the general public. This PhD thesis proposes a model of Information System dedicated to the documentation on Internet of patrimonial sites. It allows to record, to manage and to represent traditional documents, data coming from bi-and three-dimensional surveys, but also results of restitution and imagery works. At first, the study establishes a state of the art that allows knowing the current means and the needs of the heritage professionals in terms of conservation, visualization and publication of their data. Then, our approach considers these preoccupations to define the features of the Information System that we propose. On the basis of examples stemming from the Luxemburg heritage (the Castle of Vianden and the Villa of Echternach), we describe the way we keep the data and the associated metadata, as well as the tools developed for the representation of this information. We also present our principles of data management, based on the spatiotemporal connections that may exist between the various documents. These connections allow us to propose the use of bi-dimensional graphics or three-dimensional models as privileged supports of navigation and interaction with all other preserved documents. A global modeling of the Information System, being able to serve as a metamodel of system of on-line documentation, allows us finally to open our scope to other domains like architecture or civil engineering.
10

Flux XML, requêtes XPath et automates / Streaming tree automata and XPath

Gauwin, Olivier 28 September 2009 (has links)
L'intérêt croissant pour les technologies Web génère de nouveaux défis. Le format XML s'est imposé comme une référence pour le stockage et l'échange de données. Certains documents XML ont acquis une taille telle, qu'il est inefficace voire impossible de les stocker en mémoire centrale. Cela amène à repenser les algorithmes prévus pour traiter ces documents. Une solution consiste à considérer un document XML comme un flux, qui correspond à une lecture unidirectionnelle de ce document. Ce flux est alors traité à la volée. Ainsi le document n'est jamais stocké en mémoire centrale, et uniquement les parties utiles y sont mémorisées. L'un des traitements effectués sur les fichiers XML est la sélection d'information par des requêtes. Ceci constitue une étape de base pour la transformation de documents XML, permettant ainsi à des applications utilisant différents schémas XML d'échanger des informations. Cette thèse étudie l'évaluation de requêtes sur des flux XML. Deux formalismes de requêtes sont considérés· le standard XPath, et les automates d'arbres Pour cela, une mesure de la faculté d'une requête à être évaluée sur des flux XML est introduite. A l'aune de cette mesure, les requêtes XPath et par automates ne sont pas adaptées à une évaluation de flux XML. Pour chacun des deux formalismes de requêtes, de larges fragments adaptés à ce type d'évaluation sont définis et étudiés. Pour les requêtes par automates d'arbres, deux autres critères liés à l'évaluation de flux XML sont montrés décidables en temps polynomial / The growing interest for Web technologies leads to new challenges. XML is now a reference for storing and exchanging data. Some XML documents are now so large, that il is inefficient or even impossible to store them in main memory. This calls for new paradigms to treat these data. One of them consists in considering an XML document as a stream, corresponding to a one-way reading of this document. This stream is then processed on-the-f1y. Hence the document is never stored in main memory, and only the useful parts are memorized. One task of XML processing is to retrieve information, using queries. This is the base step for XML document transformation, that allows applications using distinct XML schemas to exchange data. This thesis studies the query answering problem on XML streams. Two query classes are considered: the XPath standard, and tree automata. For this purpose, a measure of streamability of a query is introduced. This one shows that queries defined by XPath expressions or tree automata are not streamable. For both query formalisms, large streamable fragments are introduced and studied. For queries defined by tree automata, Iwo other streamability criteria are proved to be decidable in polynomial time.

Page generated in 0.0346 seconds