• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 16
  • 3
  • Tagged with
  • 48
  • 48
  • 18
  • 18
  • 16
  • 12
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Type-based detection of XML query-update independence / Detection de l'independance entre requête XML et mise à jour XML : une approche basée sur le typage

Ulliana, Federico 15 December 2012 (has links)
Pendant la dernière décennie, le format de données XML est devenu l'un des principaux moyens de représentation et d'échange de données sur le Web. La détection de l'indépendance entre une requête et une mise à jour, qui a lieu en absence d'impact d'une mise à jour sur une requête, est un problème crucial pour la gestion efficace de tâches comme la maintenance des vues, le contrôle de concurrence et de sécurité. Cette thèse présente une nouvelle technique d'analyse statique pour détecter l'indépendance entre requête et mise à jour XML, dans le cas où les données sont typées par un schéma. La contribution de la thèse repose sur une notion de type plus riche que celle employée jusqu'ici dans la littérature. Au lieu de caractériser les éléments d'un document XML utiles ou touchés par une requête ou mise à jour en utilisant un ensemble d’étiquettes, ceux-ci sont caractérisés par un ensemble de chaînes d'étiquettes, correspondants aux chemins parcourus pendant l'évaluation de l’expression dans un document valide pour le schéma. L'analyse d'indépendance résulte du développement d'un système d'inférence de type pour les chaînes. Cette analyse précise soulève une question importante et difficile liés aux schémas récursifs: un ensemble infini de chaînes pouvant être inférées dans ce cas, est-il possible et comment se ramener à une analyse effective donc finie. Cette thèse présente donc une technique d'approximation correcte et complète assurant une analyse finie. L'analyse de cette technique a conduit à développer des algorithmes pour une implantation efficace de l'analyse, et de mener une large série de tests validant à la fois la qualité de l'approche et son efficacité. / In the last decade XML became one of the main standards for data storage and exchange on the Web. Detecting XML query-update independence is crucial to efficiently perform data management tasks, like those concerning view-maintenance, concurrency control, and security. This thesis presents a novel static analysis technique to detect XML query-update independence, in the presence of a schema. Rather than types, the presented system infers chains of types. Each chain represents a path that can be traversed on a valid document during query/update evaluation. The resulting independence analysis is precise, although it raises a challenging issue: recursive schemas may lead to infer infinitely many chains. This thesis presents a sound and complete approximation technique ensuring a finite analysis in any case, together with an efficient implementation performing the chain-based analysis in polynomial space and time.
2

Validation des spécifications formelles de la mise à jour dynamique des applications Java Card / Validation of formal specifications for dynamic updates in Java Card applications

Lounas, Razika 10 November 2018 (has links)
La mise à jour dynamique des programmes consiste en la modification de ceux-ci sans en arrêter l'exécution. Cette caractéristique est primordiale pour les applications critiques en continuelles évolutions et nécessitant une haute disponibilité. Le but de notre travail est d'effectuer la vérification formelle de la correction de la mise à jour dynamique d'applications Java Card à travers l'étude du système EmbedDSU. Pour ce faire, nous avons premièrement établi la correction de la mise à jour du code en définissant une sémantique formelle des opérations de mise à jour sur le code intermédiaire Java Card en vue d'établir la sûreté de typage des mises à jour. Nous avons ensuite proposé une approche pour vérifier la sémantique du code mis à jour à travers la définition d'une transformation de prédicats. Nous nous sommes ensuite intéressés à la vérification de la correction concernant la détection de points sûrs de la mise à jour. Nous avons utilisé la vérification de modèles. Cette vérification nous a permis de corriger d'abord un problème d'inter blocage dans le système avant d'établir d'autres propriétés de correction : la sûreté d'activation et la garantie de mise à jour. La mise à jour des données est effectuée à travers les fonctions de transfert d'état. Pour cet aspect, nous avons proposé une solution permettant d'appliquer les fonctions de transfert d’état tout en préservant la consistance du tas de la machine virtuelle Java Card et en permettant une forte expressivité dans leurs écritures. / Dynamic Software Updating (DSU) consists in updating running programs on the fly without any downtime. This feature is interesting in critical applications that are in continual evolution and that require high availability. The aim of our work is to perform formal verification the correctness of dynamic software updating in Java Card applications by studying the system EmbedDSU. To do so, we first established the correctness of code update. We achieved this by defining formal semantics for update operations on java Card bytecode in order to ensure type safety. Then, we proposed an approach to verify the semantics of updated programs by defining a predicate transformation. Afterward, we were interested in the verification of correction concerning the safe update point detection. We used model checking. This verification allowed us first to fix a deadlock situation in the system and then to establish other correctness properties: activeness safety and updatability. Data update is performed through the application of state transfer functions. For this aspect, we proposed a solution to apply state transfer functions with the preservation of the Java Card virtual machine heap consistency and by allowing a high expressiveness when writing state transfer functions.
3

Gestion de fichiers de configuration par une vue abstraite modifiable

Giraldeau, Francis January 2011 (has links)
La gestion de fichiers de configuration sous Linux est complexe et propice aux erreurs étant donné le grand nombre de fichiers de formats différents. Toutes les techniques couramment utilisées pour modifier ces fichiers sont insatisfaisantes. Nous proposons d'abstraire la syntaxe variée des fichiers de configuration par une structure de données unique et modifiable. Nous nous intéressons aux algorithmes permettant de transformer un fichier de configuration - une chaîne de caractères - en une représentation abstraite, y effectuer des modifications et reporter ces modifications dans le fichier d'origine, ce qui doit se traduire par une modification minimale du fichier. Deux logiciels qui permettent d'effectuer des transformations bidirectionnelles sur des chaînes de caractères sont modifiés pour nos besoins, soit XSugar et Augeas. XSugar fait en sorte que certains caractères peuvent être perdus lors d'une transformation aller-retour. Dans le contexte de la gestion de fichiers de configuration, il est essentiel de préserver tous les caractères présents dans la représentation concrète, mais exclus de la représentation abstraite, de manière à les restituer dans la version concrète modifiée. Nous proposons deux techniques permettant de surmonter ces limitations. Cependant, les résultats ont été partiellement atteints. Augeas est limité dans le traitement de certains types de fichiers balisés, comme les fichiers XML. Une extension au langage adaptée à ce problème a été développée. Cette extension permet de transformer efficacement tout type de fichiers balisés. Le développement d'un module pour la configuration du serveur Web Apache démontre le succès dans l'application pratique de cette extension et constitue une première dans le domaine.
4

Bilinguisme et fonctions exécutives : une approche développementale / Bilingualism and executive functions : a developmental approach

Dana-Gordon, Clémence 13 December 2013 (has links)
En Sciences Cognitives, de plus en plus de travaux se sont consacrés à l’étude du fonctionnement cognitif chez les sujets bilingues. Ces études ont notamment montré que ces sujets étaient plus performants sur le plan du fonctionnement exécutif comparés aux monolingues. Cependant, ces travaux sont marqués par une très grande hétérogénéité dans la sélection des sujets ainsi que dans la méthodologie utilisée. La nature des composantes exécutives impliquées, la modalité (verbale vs non-verbale), ainsi que l’effet de l’âge sur cet avantage exécutif restent à préciser.Objectif : Etudier le fonctionnement exécutif et les stratégies cognitives de sujets bilingues français-anglais, dans des tâches exécutives (flexibilité, inhibition et mise à jour) verbales et non-verbales, et dans une épreuve de résolution de problèmes complexes, à divers âges de la vie. Matériel et Méthode : 85 sujets bilingues (17 préadolescents (13-15 ans), 20 adolescents (16-18 ans), 19 adultes (18-60 ans), 19 adultes (18 à 40 ans) et 10 adultes (41-65 ans)) et 85 sujets monolingues français appariés en âge et en quotient intellectuel ont été inclus et ont été évalués sur les des tests verbaux et non-verbaux explorant les trois composantes exécutives du modèle de Miyake, Friedman & al. (2000). Résultats : Chez les préadolescents, aucun avantage n’est retrouvé en faveur des bilingues quelles que soient la composante ou la modalité. Concernant les adolescents, les bilingues ont un avantage principalement en flexibilité en non-verbal, et à l’inverse, les monolingues ont un avantage en verbal pour cette même composante. Pour l’ensemble de ces adolescents, concernant la résolution d’un problème complexe, les monolingues mettent principalement en jeu des capacités inhibitoires et des capacités de mise à jour (verbal), alors qu’aucune stratégie préférentielle n’est retrouvée chez les bilingues. Chez les adultes de 18-60 ans, des performances plus élevées pour les capacités d’inhibition et en mise à jour sont retrouvées chez les bilingues, particulièrement en modalité verbale. Concernant la résolution d’un problème complexe, les monolingues mettent en jeu des capacités d’inhibition et de flexibilité, alors qu’aucune stratégie préférentielle n’est retrouvée chez les bilingues, à l’image de ce qui est observé chez les adolescents. Comparativement aux adultes plus jeunes ainsi qu’à des monolingues âgés, les bilingues âgés présentent des performances plus élevées pour les capacités de flexibilité, de mise à jour (verbal et non-verbal) et d’inhibition (verbal). L’inhibition est également moins ralentie dans les deux modalités comparativement aux sujets âgés monolingues. Globalement, les sujets âgés bilingues semblent moins affectés par le déclin cognitif lié au vieillissement.Conclusion : Par une méthodologie rigoureuse et homogène ainsi que par des analyses de comparaisons par classes d’âge et du niveau de langue, l’étude de l’effet du bilinguisme sur le fonctionnement cognitif confirme un avantage exécutif significatif chez les bilingues, dont les modalités dépendent néanmoins en grande partie de l’âge des sujets. / In Cognitive Sciences, more attention has been devoted to the study of cognitive functioning in bilingual subjects. These studies have shown that they were more efficient in terms of executive functioning compared to monolinguals. However, these studies are marked by a great heterogeneity in the selection of the bilingual subjects and the methodology used. The nature of executive components involved, the modality (verbal vs. non-verbal), and the effect of age on this executive benefit remains unclear. Aims : Studying executive functioning and cognitive strategies of French-English bilingual subjects on verbal and non-verbal executive tasks (flexibility, inhibition and updating) and on a complex solving task, at various stages of life. Materials and Methods : 85 bilingual subjects (17 preadolescents (13-15 years), 20 teenagers (16-18 years), 19 adults (18-60 years), 19 adults (18-40 years) and 10 adults (41-65 years)) and 85 French monolingual subjects matched on age and Intellectual Quotient were included and assessed on verbal and nonverbal executive tests exploring the three components of Miyake, Friedman & al.’s (2000 ) model. Results : For preadolescents, no benefit was found for bilingual subjects, irrespective of the component or modality. For adolescents, bilingual subjects have an advantage on non-verbal material, in flexibility mainly, while monolinguals have an advantage on verbal material for the same component. As far as solving a complex problem is concerned, all the monolingual subjects seem to put into play inhibitory and updating abilities (verbal), while no specific strategy is found in bilinguals. For the adults (18-60 years old), higher performances for inhibition and updating are found in bilinguals, particularly in the verbal modality. As for solving a complex problem, monolinguals call for inhibition and flexibility abilities, while, again no specific strategy is found in bilinguals. Compared to younger adults, as well as older monolingual subjects, older bilinguals have higher performances on flexibility, updating (verbal and nonverbal) and eventually inhibition which is less slowed down in both modalities compared to elderly monolinguals. Overall, elderly bilinguals seem less affected by cognitive decline associated with aging.Conclusion : Following a rigorous and consistent methodology and analysis by comparison of age groups and level of language, the study of the effect of bilingualism on cognitive functioning confirms a significant executive advantage in bilinguals, but the modalities largely depend on the subjects’ age.
5

Comparaison Vecteurs-Images pour la détection des changements des bâtiments d'une base de données topographiques

JAMET, Olivier 01 December 1998 (has links) (PDF)
Cette thèse s'attache à l'étude de la détection des changements du thème bâti, par comparaison automatique d'une base de données à un couple de photographies aériennes, en vue d'éviter l'examen visuel par un opérateur d'une partie des scènes traitées. La démarche adoptée propose une comparaison géométrique de la base de données avec les extractions 3D issues de l'appariement d'un couple d'images récent, et tente d'en assurer la fiabilité par une modélisation de l'incertitude des données utilisées. L'extraction d'information 3D sur le couple d'images fait l'objet d'une approche formelle qui conduit à la proposition d'un algorithme original permettant la mise en concurrence de solutions contradictoires, et la qualification des points extraits en 3D par une probabilité qui reflète l'ambiguité de la décision. Cette probabilité est utilisée conjointement à une modélisation sommaire de l'incertitude des données topographiques pour construire des indicateurs de changement dans le cadre de la théorie des croyances de Dempster-Shafer. Les modèles proposés sont évalués par rapport à des données réelles, tant en ce qui concerne la modélisation de l'appariement elle-même, que l'ensemble de la modélisation de l'incertitude, dont l'apport à la détection des changements est étudié dans le cadre du contrôle de l'emprise planimétrique du bâti de la Base de Données Topographiques nationale française.
6

Architecture et processus de développement permettant la mise à jour dynamique de systèmes embarqués automobiles / Architecture and Development Process for Dynamic Updates within Automotive Embedded Systems

Martorell, Hélène 09 December 2014 (has links)
Dans le contexte automobile actuel, le standard pour les calculateurs enfouis est AUTOSAR. L'un des inconvénients majeurs de cette architecture est son manque de flexibilité. Cependant, les mises à jour et la personnalisation des systèmes embarqués sont de plus en plus, non seulement plébiscités, mais également nécessaires. En effet, la complexité grandissante des systèmes exige à présent de déployer des moyens supplémentaires pour permettre leur maintenance et leur évolution de manière plus aisée. Ainsi, partant de ces constats, ce travail étudie les possibilités de faire des mises à jour dans le contexte d'AUTOSAR. Les modifications nécessaires se retrouvent non seulement dans l'architecture, mais également au sein du processus de développement et des considérations temps-réel. Tous ces aspects sont donc regardés en détails pour permettre les mises à jour partielles dans le cadre du standard AUTOSAR. Cette thèse décrit donc le processus de développement logiciel AUTOSAR et propose certaines améliorations mises en place au cours de ce travail. Un certain nombre de concepts sont également définis, afin d'aménager des espaces d'adaptation logiciels. Ces espaces sont ensuite utilisés pour intégrer des mises à jour partielles dans le calculateur embarqué. Le processus de développement est également modifié pour intégrer ces concepts ainsi que les mécanismes nécessaires à la mise à jour. Les aspects temps-réel concernant la mise à jour partielle dans les systèmes embarqués automobiles sont également traités ici. Un modèle de tâches approprié est mis en place dans le cadre d'AUTOSAR. De plus l'analyse de sensibilité est utilisée spécifiquement pour déterminer la flexibilité disponible dans un système donné. Les aspects d'implémentation sont également détaillés. En particulier, la création de mises à jour dans un contexte donné, la gestion des différentes versions possibles pour une application, l'utilisation et l'écriture dans la mémoire embarquée et enfin, les moyens nécessaires à la prise en compte des aspects de sûreté de fonctionnement. Pour terminer, tous les concepts développés dans ce travail sont appliqués à une preuve de concept reposant sur une application embarquée fournie par Renault. L'approche proposée est donc appliquée de manière pratique. / Currently the standard for embedded ECUs (Electronic Control Unit) in the automotive industry is AUTOSAR. One of the drawbacks of this architecture lies in its lack of flexibility. However, updates and customization of embedded systems are increasingly demanded and necessary. Indeed, systems are more and more complex and therefore require new methods and means to ease maintenance. Thus, from these observations, we study the possibilities for updates and resulting modifications (both on an architectural level and within the development process, and from a real-time point of view) in order to integrate within the AUTOSAR standard partial updates. This PhD thesis describes the software development process in an AUTOSAR context with a number of improvement we designed in this work. We also define concepts that allow to introduce placeholders for further updates within the embedded ECU. The development process has to be subsequently modified for integrating spaces for the updates along with the necessary mechanisms. Real-time problematic regarding partial updates in automotive systems is also considered here. In particular, we deal with sensitivity analysis that helps determine flexibility within the system. A number of implementation aspects are also detailed. In particular, the creation of the updates, versions management, use of embedded memory and dependability. All these concepts are finally applied on a proof of concept using an embedded application from Renault. We present here in details how the proposed approach can be used in practice.
7

Système symbolique de création de résumés de mise à jour

Genest, Pierre-Étienne January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
8

Mémoire de travail et mémoire procédurale dans la maladie de Parkinson : évaluation et entraînement

Gilbert, Brigitte January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
9

Généralisation de l'approche d'ensemble à la prévision hydrologique dans les bassins versants non jaugés / Quantification of uncertainty in hydrological modeling in ungauged basins

Randrianasolo, Rindra Annie 19 December 2012 (has links)
La prévision des crues est un exercice hydrologique complexe : les incertitudes y sont nombreuses, aussi bien dans le processus de modélisation hydrologique, dans la détermination de l'état initial du bassin versant avant le lancement de la prévision, que dans l'évolution des conditions météorologiques futures. Dans le cas des bassins versants non jaugés, où les observations de débits sont lacunaires voire absentes, ces incertitudes sont encore plus importantes, et le besoin de les réduire devient incontournable. Cette thèse s'intéresse à des méthodes simples et robustes qui peuvent apporter de l'information pertinente pour quantifier les incertitudes de prévision dans les bassins versants non jaugés. Le but est d'étudier la meilleure stratégie pour chercher l'information dans les bassins jaugés "donneurs", et pour la transférer vers le site non jaugé. Nous étudions les besoins pour mettre en place un modèle de simulation pluie-débit et pour effectuer une mise à jour du modèle de prévision en temps réel. Ces deux composantes de la prévision sont ainsi découplées dans notre approche. Cette thèse s'appuie sur une large base de données constituée d'environ 1000 bassins versants français, dont un jeu clé de 211 bassins versants qui permet la validation des approches développées. Elle s'appuie également sur une archive d'environ 4,5 années de prévisions d'ensemble de pluies, utilisées en forçage à la modélisation hydrologique journalière. La démarche adoptée consiste à intégrer les scenarios de transfert de l'information régionale disponible et les scenarios de la prévision météorologique d'ensemble dans un système de prévision orienté vers les bassins versants non jaugés. L'approche de prévision d'ensemble est ainsi généralisée à ce cas particulier de la prévision hydrologique. A travers plusieurs scénarios de débits futurs, nous cherchons à quantifier les incertitudes de prévisions dans les sites cibles non jaugés. Pour évaluer les différents scénarios des prévisions hydrologiques émis, un cadre de diagnostic d'évaluation des principales qualités d'un système de prévision d'ensemble, comprenant plusieurs critères numériques et graphiques, a été mis en place. Dans cette thèse, une attention particulière est prêtée aux attributs "fiabilité" et "précision" des prévisions. Nous proposons ainsi un nouveau critère graphique, nommé diagramme de précision d'ensemble. Ce critère permet notamment de mettre en valeur la qualité des prévisions qui ne sont pas forcément fiables, mais qui sont précises. Les résultats obtenus ont mis en évidence que la fiabilité des prévisions peut être améliorée sur un bassin versant non jaugé par l'utilisation de plusieurs jeux de paramètres issus des bassins versants voisins. Si la variabilité apportée par le voisinage géographique influe sur la dispersion des membres, et augmente ainsi la fiabilité des prévisions, la prise en compte des caractéristiques physiques, principalement de la surface des bassins versants, est apparue comme une alternative intéressante, influençant positivement aussi l'attribut précision des prévisions sur le site cible. De plus, il a été montré que la précision des prévisions d'ensemble sur le site non jaugé est améliorée par l'intermédiaire du transfert des bassins versants jaugés vers le site cible des corrections faites lors de la mise à jour sur les bassins voisins (mise à jour caractérisée ici par l'assimilation de la dernière observation de débit dans le modèle hydrologique, avant l'instant de prévision). Les différentes mesures de performance ont montré que la meilleure option pour améliorer la précision des prévisions serait de considérer les corrections effectuées sur le bassin le plus proche à chaque pas de temps de prévision. Le krigeage a également donné des résultats satisfaisants, marqués en plus par l'influence positive sur l'attribut fiabilité des prévisions. / Flood forecasting is a complex hydrological task: there are numerous uncertainties in the hydrological modelling process, in the determination of the initial catchment conditions before launching the forecast, and in the evolution of future weather conditions. In ungauged catchments, where streamflow observations are incomplete or absent, these uncertainties are even greater, and the need to reduce them becomes essential.This thesis focuses on simple and robust methods that can provide relevant information to quantify the uncertainty in ungauged catchments. The aim is to study the best strategy to search for information in gauged "donors" basins and to transfer it to the ungauged site. We investigate what information is needed to set up a rainfall-runoff model and to perform forecast updating in real time. These two components of a flood forecasting system are thus decoupled in our approach.This thesis is based on a large database of about 1000 French catchments, which includes a key set of 211 catchments that are used to validate the developed approaches. It also relies on an archive of about 4.5 years of ensemble forecasts of rainfall, which are used for hydrological modelling on a daily time step. The methodology adopted here integrates the scenarios of regional transfer of information and the scenarios of weather forecasting together in a forecasting system for ungauged basins. The approach of ensemble forecasting is thus generalised to this particular case of hydrological forecasting. Using several scenarios of future flows, we seek to quantify the predictive uncertainty in ungauged sites.To evaluate the flow forecast scenarios of the hydrological ensemble prediction system, a diagnostic framework with several numerical and graphical criteria is developed. Special attention is paid to the attributes of "reliability" and "accuracy" of the forecasts. We propose a new graphic criterion, named "diagram of ensemble accuracy". This criterion allows to highlight the quality of forecasts that are not necessarily reliable, but are accurate.The results show that forecast reliability in ungauged sites can be improved by using several sets of parameters from neighbour catchments. If on the one hand the variability brought by the information from the geographical proximity influences the spread of the ensemble forecasts, and thus improves forecast reliability, on the other hand taking into account the physical characteristics of the catchments, especially the surface, emerged as an interesting alternative, as it positively influences also the accuracy of the forecasts at the ungauged site.It is also shown that the accuracy of ensemble forecasts at ungauged sites can be improved with the transfer of updating information from gauged neighbour catchments (forecasting updating is here characterized by the assimilation of the last discharge observation in the hydrological model before the time of forecast). The updating information transferred to the ungauged site is the correction applied to the routing reservoir of the hydrological model. Different measures of forecast performance showed that the best option to improve forecast accuracy is to consider the corrections made at the closest gauged site. Kriging also gave satisfactory results, with additionally a positive impact also on the reliability of the ensemble flow forecasts.
10

Gestion de la Mise à Jour de Données Géographiques Répliquées

Pierkot, Christelle 02 July 2008 (has links) (PDF)
De nos jours, l'information géographique constitue une ressource incontournable dans un contexte de prise de décision et les données numériques spatiales sont de plus en plus fréquemment exploitées comme support et aide à la décision par de nombreuses organisations.<br />L'institution militaire utilise elle aussi les données spatiales comme soutien et aide à la décision. A chaque étape d'une mission, des informations géographiques de tous types sont employées (données numériques, cartes papiers, photographies aériennes...) pour aider les unités dans leurs choix stratégiques. Par ailleurs, l'utilisation de réseaux de communication favorise le partage et l'échange des données spatiales entre producteurs et utilisateurs situés à des endroits différents. L'information n'est pas centralisée, les données sont répliquées sur chaque site et les utilisateurs peuvent ponctuellement être déconnectés du réseau, par exemple lorsqu'une unité mobile va faire des mesures sur le terrain.<br />La problématique principale concerne donc la gestion dans un contexte militaire, d'une application collaborative permettant la mise à jour asynchrone et symétrique de données géographiques répliquées selon un protocole à cohérence faible optimiste. Cela nécessite de définir un modèle de cohérence approprié au contexte militaire, un mécanisme de détection des mises à jour conflictuelles lié au type de données manipulées et des procédures de réconciliation des écritures divergentes adaptées aux besoins des unités participant à la mission.<br />L'analyse des travaux montre que plusieurs protocoles ont été définis dans les communautés systèmes (Cederqvist :2001 ; Kermarrec :2001) et bases de données (Oracle :2003 ; Seshadri :2000) pour gérer la réplication des données. Cependant, les solutions apportées sont souvent fonctions du besoin spécifique de l'application et ne sont donc pas réutilisables dans un contexte différent, ou supposent l'existence d'un serveur de référence centralisant les données. Les mécanismes employés en information géographique pour gérer les données et les mises à jour ne sont pas non plus appropriés à notre étude car ils supposent que les données soient verrouillées aux autres utilisateurs jusqu'à ce que les mises à jour aient été intégrée (approche check in-check out (ESRI :2004), ou utilisent un serveur centralisé contenant les données de référence (versionnement : Cellary :1990).<br />Notre objectif est donc de proposer des solutions permettant l'intégration cohérente et autant que possible automatique, des mises à jour de données spatiales dans un environnement de réplication optimiste, multimaître et asynchrone.<br />Nous proposons une stratégie globale d'intégration des mises à jour spatiales basée sur une vérification de la cohérence couplé à des sessions de mises à jour. L'originalité de cette stratégie réside dans le fait qu'elle s'appuie sur des métadonnées pour fournir des solutions de réconciliation adaptées au contexte particulier d'une mission militaire.<br />La contribution de cette thèse est double. Premièrement, elle s'inscrit dans le domaine de la gestion de la mise à jour des données spatiales, domaine toujours très actif du fait de la complexité et de l'hétérogénéité des données (Nous limitons néanmoins notre étude aux données géographiques vectorielles) et de la relative «jeunesse » des travaux sur le sujet. Deuxièmement, elle s'inscrit dans le domaine de la gestion de la cohérence des données répliquées selon un protocole optimiste, en spécifiant en particulier, de nouveaux algorithmes pour la détection et la réconciliation de données conflictuelles, dans le domaine applicatif de l'information géographique.

Page generated in 0.0505 seconds