• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 19
  • Tagged with
  • 46
  • 46
  • 24
  • 21
  • 17
  • 17
  • 12
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Acquisition 3D, documentation et restitution en archéologie : proposition d'un modèle de Système d'Information dédié au patrimoine / 3D acquisition, documentation and restitution in archaeology : proposal of a model of Information System dedicated to Cultural Heritage

Meyer, Elise 31 October 2007 (has links)
L'activité de documentation du patrimoine archéologique évolue avec le développement des Nouvelles Technologies de l'Information et de la Communication (NTIC). Traditionnellement associée à de l'archivage, la documentation d'un site archéologique peut aujourd'hui également être synonyme de publication, puisqu'elle peut être diffusée en ligne aussi bien à d'autres professionnels qu'au grand public. Cette thèse propose un modèle de Système d'Information dédié à la documentation sur Internet de sites patrimoniaux. Il permet de conserver, gérer et représenter des documents traditionnels, des données issues de relevés bi- et tridimensionnels, mais aussi des résultats de travaux de restitution et d'imagerie. Dans un premier temps, l'étude établit un état de l'art qui permet d'appréhender les moyens actuels et les besoins des professionnels du patrimoine en termes de conservation, visualisation et publication de leurs données. Puis, notre approche considère ces préoccupations pour définir les fonctionnalités du Système d'Information que nous proposons. Sur la base d'exemples issus du patrimoine luxembourgeois (le Château de Vianden et la Villa d'Echternach), nous décrivons la manière dont nous conservons les données et les métadonnées associées, ainsi que les outils développés pour la représentation de ces informations. Nous présentons aussi nos principes de gestion des données, basés sur les liaisons spatio-temporelles qui peuvent exister entre les différents documents. Ces liaisons nous permettent de proposer l'utilisation de graphiques bidimensionnels ou de modèles tridimensionnels comme des supports privilégiés de navigation et d'interaction avec tous les autres documents conservés. Une modélisation globale du Système d'Information, pouvant servir de métamodèle de système de documentation en ligne, nous permet finalement d'ouvrir notre champ d'application à d'autres domaines comme l'architecture ou le génie civil. / The documentation of archaeological heritage is an activity that evolves with the development of the New Information and Communication Technologies (NICT). Traditionally associated with recording, the documentation of an archeological site is also today synonym of publication, because it can be disseminated on-line both to other professionals and to the general public. This PhD thesis proposes a model of Information System dedicated to the documentation on Internet of patrimonial sites. It allows to record, to manage and to represent traditional documents, data coming from bi-and three-dimensional surveys, but also results of restitution and imagery works. At first, the study establishes a state of the art that allows knowing the current means and the needs of the heritage professionals in terms of conservation, visualization and publication of their data. Then, our approach considers these preoccupations to define the features of the Information System that we propose. On the basis of examples stemming from the Luxemburg heritage (the Castle of Vianden and the Villa of Echternach), we describe the way we keep the data and the associated metadata, as well as the tools developed for the representation of this information. We also present our principles of data management, based on the spatiotemporal connections that may exist between the various documents. These connections allow us to propose the use of bi-dimensional graphics or three-dimensional models as privileged supports of navigation and interaction with all other preserved documents. A global modeling of the Information System, being able to serve as a metamodel of system of on-line documentation, allows us finally to open our scope to other domains like architecture or civil engineering.
2

Ontology-based approach for product-driven interoperability of enterprise production systems / Approche basée sur les ontologies pour l’interopérabilité centrée sur le produit des systèmes d'entreprise de production

Tursi, Angela 13 November 2009 (has links)
L'interopérabilité des applications est devenue le leitmotiv des développeurs et concepteurs en ingénierie système. La plupart des approches pour l'interopérabilité existant dans l'entreprise ont pour objectif principal l'ajustement et l'adaptation des types et structures de données nécessaire à la mise en œuvre de collaboration entre entreprises. Dans le domaine des entreprises manufacturières, le produit est une composante centrale. Des travaux scientifiques proposent des solutions pour la prise en compte des systèmes d'information issus des produits, tout au long de leur cycle de vie. Mais ces informations sont souvent non corrélées. La gestion des données de produit (PDM) est couramment mise en œuvre pour gérer toute l'information relative aux produits durant tout leur cycle de vie. Cependant, ces modèles sont généralement des "îlots" indépendants ne tenant pas compte de la problématique d'interopérabilité des applications supportant ces modèles. L'objectif de cette thèse est d'étudier cette problématique d'interopérabilité appliquée aux applications utilisées dans l'entreprise manufacturière et de définir un modèle ontologique de la connaissance des entreprises relatives aux produits qu'elles fabriquent, sur la base de leurs données techniques. Le résultat de ce travail de recherche concerne la formalisation d'une méthodologie d'identification des informations de gestion techniques des produits, sous la forme d'une ontologie, pour l'interopérabilité des applications d'entreprises manufacturières, sur la base des standards existants tels que l'ISO 10303 et l'IEC 62264. / In recent years, the enterprise applications interoperability has become the leitmotiv of developers and designers in systems engineering. Most approaches to interoperability in the company have the primary objective of adjustment and adaptation of types and data structures necessary for the implementation of collaboration between companies. In the field of manufacturing, the product is a central component. Scientific works propose solutions taking into account information systems derived from products technical data throughout their life cycle. But this information is often uncorrelated. The management of product data (PDM) is commonly implemented to manage all information concerning products throughout their life cycle. The modelling of management and manufacturing processes is widely applied to both physical products and services. However, these models are generally independent “islands” ignoring the problem of interoperability between applications that support these models. The objective of this thesis is to study the problem of interoperability applied to applications used in the manufacturing environment and to define a model of the ontological knowledge of enterprises related to the products they manufacture, based on technical data, ensuring the interoperability of enterprise systems. The outcome of this research concerns the formalization of a methodology for identifying a product-centric information system in the form of an ontology, for the interoperability of applications in manufacturing companies, based on existing standard such as ISO 10303 and IEC 62264.
3

Mécanismes de traitement des données dans les réseaux de capteurs sans fils dans les cas d'accès intermittent à la station de base

Dini, Cosmin 21 December 2010 (has links) (PDF)
Les réseaux des capteurs sans fil sont considérés comme une alternative aux réseaux câblés afin de permettre l'installation dans des zones peu accessibles. Par conséquent, de nouveaux protocoles ont été conçus pour supporter le manque des ressources qui est spécifique à ce type de réseau. La communication entre les nœuds est réalisée par des protocoles spécifiques pour la gestion efficace de l'énergie. La gestion des données collectées par ces nœuds doit être également prise en compte car la communication entre les nœuds engendre un coût non négligeable en termes d'énergie. De plus, l'installation de ce type de réseau dans des régions lointaines facilite les attaques sur la structure des réseaux ainsi que sur les données collectées. Les mesures de sécurité envisagées amènent des coûts d'énergie supplémentaires. Un aspect souvent négligé concerne le cas où un nœud ne peut pas communiquer avec la station de base (sink node) qui collectionne et traite les données. Cependant, les nœuds continuent à accumuler des informations en suivant les plans de collection. Si la situation continue, l'espace de mémoire (storage) diminue à un point où la collection de nouvelles données n'est plus possible.Nous proposons des mécanismes pour la réduction contrôlée de données en considérant leur priorité relative. Les données sont divisées dans des unités auxquelles un niveau d'importance est alloué, en fonction des considérations d'utilité et de missions qui les utilisent. Nous proposons un ensemble de primitives (opérations) qui permettent la réduction d'espace de stockage nécessaire, tout en préservant un niveau raisonnable de résolution des informations collectées. Pour les larges réseaux à multiple nœuds, nous proposons des mécanismes pour le partage de données (data load sharing) ainsi que la redondance. Des algorithmes ont été proposés pour évaluer l'efficacité de ces techniques de gestion de données vis-à-vis de l'énergie nécessaire pour transférer les données.A travers des simulations, nous avons validé le fait que les résultats sont très utiles dans les cas à mémoire limitée (wireless nades) et pour les communications intermittentes.
4

ACQUISITION 3D, DOCUMENTATION ET RESTITUTION EN ARCHEOLOGIE<br />Proposition d'un modèle de Système d'Information dédié au patrimoine

Meyer, Elise 31 October 2007 (has links) (PDF)
L'activité de documentation du patrimoine archéologique évolue avec le développement des Nouvelles Technologies de l'Information et de la Communication (NTIC). Traditionnellement associée à de l'archivage, la documentation d'un site archéologique peut aujourd'hui également être synonyme de publication, puisqu'elle peut être diffusée en ligne aussi bien à d'autres professionnels qu'au grand public. Cette thèse propose un modèle de Système d'Information dédié à la documentation sur Internet de sites patrimoniaux. Il permet de conserver, gérer et représenter des documents traditionnels, des données issues de relevés bi- et tridimensionnels, mais aussi des résultats de travaux de restitution et d'imagerie. Dans un premier temps, l'étude établit un état de l'art qui permet d'appréhender les moyens actuels et les besoins des professionnels du patrimoine en termes de conservation, visualisation et publication de leurs données. Puis, notre approche considère ces préoccupations pour définir les fonctionnalités du Système d'Information que nous proposons. Sur la base d'exemples issus du patrimoine luxembourgeois (le Château de Vianden et la Villa d'Echternach), nous décrivons la manière dont nous conservons les données et les métadonnées associées, ainsi que les outils développés pour la représentation de ces informations. Nous présentons aussi nos principes de gestion des données, basés sur les liaisons spatio-temporelles qui peuvent exister entre les différents documents. Ces liaisons nous permettent de proposer l'utilisation de graphiques bidimensionnels ou de modèles tridimensionnels comme des supports privilégiés de navigation et d'interaction avec tous les autres documents conservés. Une modélisation globale du Système d'Information, pouvant servir de métamodèle de système de documentation en ligne, nous permet finalement d'ouvrir notre champ d'application à d'autres domaines comme l'architecture ou le génie civil.
5

Scalable data-management systems for Big Data / Sur le passage à l'échelle des systèmes de gestion des grandes masses de données

Tran, Viet-Trung 21 January 2013 (has links)
La problématique "Big Data" peut être caractérisée par trois "V": - "Big Volume" se rapporte à l'augmentation sans précédent du volume des données. - "Big Velocity" se réfère à la croissance de la vitesse à laquelle ces données sont déplacées entre les systèmes qui les gèrent. - "Big Variety" correspond à la diversification des formats de ces données. Ces caractéristiques imposent des changements fondamentaux dans l'architecture des systèmes de gestion de données. Les systèmes de stockage doivent être adaptés à la croissance des données, et se doivent de passer à l'échelle tout en maintenant un accès à hautes performances. Cette thèse se concentre sur la construction des systèmes de gestion de grandes masses de données passant à l'échelle. Les deux premières contributions ont pour objectif de fournir un support efficace des "Big Volumes" pour les applications data-intensives dans les environnements de calcul à hautes performances (HPC). Nous abordons en particulier les limitations des approches existantes dans leur gestion des opérations d'entrées/sorties (E/S) non-contiguës atomiques à large échelle. Un mécanisme basé sur les versions est alors proposé, et qui peut être utilisé pour l'isolation des E/S non-contiguës sans le fardeau de synchronisations coûteuses. Dans le contexte du traitement parallèle de tableaux multi-dimensionels en HPC, nous présentons Pyramid, un système de stockage large-échelle optimisé pour ce type de données. Pyramid revoit l'organisation physique des données dans les systèmes de stockage distribués en vue d'un passage à l'échelle des performances. Pyramid favorise un partitionnement multi-dimensionel de données correspondant le plus possible aux accès générés par les applications. Il se base également sur une gestion distribuée des métadonnées et un mécanisme de versioning pour la résolution des accès concurrents, ce afin d'éliminer tout besoin de synchronisation. Notre troisième contribution aborde le problème "Big Volume" à l'échelle d'un environnement géographiquement distribué. Nous considérons BlobSeer, un service distribué de gestion de données orienté "versioning", et nous proposons BlobSeer-WAN, une extension de BlobSeer optimisée pour un tel environnement. BlobSeer-WAN prend en compte la hiérarchie de latence et favorise les accès aux méta-données locales. BlobSeer-WAN inclut la réplication asynchrone des méta-données et une résolution des collisions basée sur des "vector-clock". Afin de traîter le caractère "Big Velocity" de la problématique "Big Data", notre dernière contribution consiste en DStore, un système de stockage en mémoire orienté "documents" qui passe à l'échelle verticalement en exploitant les capacités mémoires des machines multi-coeurs. Nous montrons l'efficacité de DStore dans le cadre du traitement de requêtes d'écritures atomiques complexes tout en maintenant un haut débit d'accès en lecture. DStore suit un modèle d'exécution mono-thread qui met à jour les transactions séquentiellement, tout en se basant sur une gestion de la concurrence basée sur le versioning afin de permettre un grand nombre d'accès simultanés en lecture. / Big Data can be characterized by 3 V’s. • Big Volume refers to the unprecedented growth in the amount of data. • Big Velocity refers to the growth in the speed of moving data in and out management systems. • Big Variety refers to the growth in the number of different data formats. Managing Big Data requires fundamental changes in the architecture of data management systems. Data storage should continue being innovated in order to adapt to the growth of data. They need to be scalable while maintaining high performance regarding data accesses. This thesis focuses on building scalable data management systems for Big Data. Our first and second contributions address the challenge of providing efficient support for Big Volume of data in data-intensive high performance computing (HPC) environments. Particularly, we address the shortcoming of existing approaches to handle atomic, non-contiguous I/O operations in a scalable fashion. We propose and implement a versioning-based mechanism that can be leveraged to offer isolation for non-contiguous I/O without the need to perform expensive synchronizations. In the context of parallel array processing in HPC, we introduce Pyramid, a large-scale, array-oriented storage system. It revisits the physical organization of data in distributed storage systems for scalable performance. Pyramid favors multidimensional-aware data chunking, that closely matches the access patterns generated by applications. Pyramid also favors a distributed metadata management and a versioning concurrency control to eliminate synchronizations in concurrency. Our third contribution addresses Big Volume at the scale of the geographically distributed environments. We consider BlobSeer, a distributed versioning-oriented data management service, and we propose BlobSeer-WAN, an extension of BlobSeer optimized for such geographically distributed environments. BlobSeer-WAN takes into account the latency hierarchy by favoring locally metadata accesses. BlobSeer-WAN features asynchronous metadata replication and a vector-clock implementation for collision resolution. To cope with the Big Velocity characteristic of Big Data, our last contribution feautures DStore, an in-memory document-oriented store that scale vertically by leveraging large memory capability in multicore machines. DStore demonstrates fast and atomic complex transaction processing in data writing, while maintaining high throughput read access. DStore follows a single-threaded execution model to execute update transactions sequentially, while relying on a versioning concurrency control to enable a large number of simultaneous readers.
6

Aides informatisées à la traduction collaborative bénévole sur le Web

Bey, Youcef 02 June 2008 (has links) (PDF)
Les travaux de recherche présentés dans cette thèse s'inscrivent dans le domaine de la traduction automatique et automatisée. Nous nous intéressons en particulier aux outils d'aide à la traduction sur le Web favorisant la traduction bénévole, non-commerciale et incrémentale. La croissance remarquable de la quantité des documents multilingues disséminés en ligne gratuitement (W3C, Traduct, Mozilla, traducteurs bénévoles de documents en droits de l'homme, etc.) est le résultat d'un travail laborieux de communautés bénévoles qui sont malheureusement technologiquement marginalisées, et privées de toute aide « linguistique » à la traduction. Nous avons effectué une étude approfondie des communautés bénévoles et en avons dégagé les problèmes les plus intéressants et difficiles. Nous avons construit BEYTrans, un environnement collaboratif et non commercial offrant des services linguistiques et répondant aux besoins spécifiques de ces communautés. Les principales composantes logicielles développées sont : un éditeur multilingue Web intégrant des fonctionnalités linguistiques avancées et variées, un module de recyclage des traductions existantes, et la gestion et le traitement d'une masse de données multilingues. Chacun d'eux résout un problème intéressant, et ils sont entièrement intégrés (avec d'autres fonctionnalités) dans un environnement collaboratif complet, qui a été expérimenté avec succès dans des situations concrètes.
7

De la gestion des données techniques pour l'ingénierie de production - Référentiel du domaine et cadre méthodologique pour l'ingénierie des systèmes d'information techniques en entreprise

Bacha, Rebiha 08 January 2002 (has links) (PDF)
Ce travail traite des problèmes méthodologiques dans les projets de mise en œuvre des Systèmes d'Information Techniques (SIT) en entreprise. Il a pour champ d'application le domaine de l'ingénierie de production. L'objectif est l'amélioration de deux aspects de ces problèmes : le cahier des charges de la maîtrise d'ouvrage et de la maîtrise d'œuvre, et la démarche globale de conduite de ces projets. Pour ce faire, nous proposons un référentiel du domaine, élaboré à l'aide de diagrammes de spécification standards. Orienté expression des besoins en GDT, le référentiel est réutilisable dans les développements futurs de SIT en phase d'analyse du domaine. La démarche d'élaboration du référentiel est rationalisée ; elle se veut un guide méthodologique pour l'ingénierie même des SIT. Elle implique les principaux acteurs suivant un processus itératif. Cette démarche est de plus contextuelle pour mieux appréhender les singularités des projets et suffisamment flexible pour respecter le caractère créatif des métiers d'ingénierie.
8

Intergiciels et services pour la gestion de données distribuées

Roncancio, Claudia Lucia 23 June 2004 (has links) (PDF)
Ce manuscrit présente certains de mes travaux de recherche en matière de gestion de données, réalisés au sein de l'équipe bases de données STORM du laboratoire Logiciels, Systèmes, Réseaux de l'IMAG. Ils ont été effectués depuis 1995 (et jusqu'à 2003), année de ma prise de fonctions en tant que Maître de Conférences à l'Institut National Polytechnique (INP) de Grenoble, en poste à l'Ecole Nationale Supérieure d'Informatique et de Mathématiques Appliquées de Grenoble(ENSIMAG). Mes travaux concernent des aspects système --- gestion de cache et duplication de données, support transactionnels, parmi d'autres. Ils contribuent d'une part à l'extension des fonctions des SGBD et d'autre part à la conception de services séparés utilisables indépendamment d'un SGBD. Mon point de vue porte sur la diversification du panorama des architectures des systèmes de gestion de données. J'ai d'abord travaillé dans l'introduction de fonctions déductives et actives dans les SGBD pour ensuite m'orienter vers des solutions plus ouvertes, des intergiciels de gestion de données distribuées sur des unités fixes et mobiles.
9

Ingénierie système appliquée à la gestion des données techniques en entreprise étendue : Application aux boucles de conception / simulation

Nguyen Van, Thomas 06 December 2006 (has links) (PDF)
Cette thèse analyse l'évolution des technologies numériques et des méthodes applicables aux systèmes de gestion des données dans le contexte de l'entreprise étendue. De nos jours, dans le contexte de développement de produit en aéronautique, les projets évoluent vers des partenariats à grande échelle. Une grande quantité de données créées pour ce développement de produit doit alors être traitée et contrôlée d'une manière logique entre les différents partenaires. En effet, le besoin de permettre l'échange et l'intégration de données a évolué vers la gestion de contextes intégrés de conception. De cette façon, une intégration plus étroite entre les données créées et contrôlées est identifiée comme facteur permettant de raccourcir le cycle de développement. Cette intégration définit aussi bien l'intégration des données créées tout au long du projet que la structure informatique qui soutient ces processus. Cette thèse présente l'étude d'une architecture centralisée pour assurer le multi-partenariat et l'utilisation multi-activité des données en fournissant un référentiel pour celles-ci. L'utilisation des normes dans cette étude est également une condition pour résoudre la problématique d'interopérabilité en termes d'uniformisation et de migration des données et informations entre les différents systèmes d'ingénierie et les activités.
10

Network information discovery and structural optimization in the WOS's context by using distributed algorithms

Yuen, Sai Ho January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.1383 seconds