• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 34
  • 10
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 125
  • 48
  • 27
  • 26
  • 17
  • 16
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Généralisation de l'approche d'ensemble à la prévision hydrologique dans les bassins versants non jaugés / Quantification of uncertainty in hydrological modeling in ungauged basins

Randrianasolo, Rindra Annie 19 December 2012 (has links)
La prévision des crues est un exercice hydrologique complexe : les incertitudes y sont nombreuses, aussi bien dans le processus de modélisation hydrologique, dans la détermination de l'état initial du bassin versant avant le lancement de la prévision, que dans l'évolution des conditions météorologiques futures. Dans le cas des bassins versants non jaugés, où les observations de débits sont lacunaires voire absentes, ces incertitudes sont encore plus importantes, et le besoin de les réduire devient incontournable. Cette thèse s'intéresse à des méthodes simples et robustes qui peuvent apporter de l'information pertinente pour quantifier les incertitudes de prévision dans les bassins versants non jaugés. Le but est d'étudier la meilleure stratégie pour chercher l'information dans les bassins jaugés "donneurs", et pour la transférer vers le site non jaugé. Nous étudions les besoins pour mettre en place un modèle de simulation pluie-débit et pour effectuer une mise à jour du modèle de prévision en temps réel. Ces deux composantes de la prévision sont ainsi découplées dans notre approche. Cette thèse s'appuie sur une large base de données constituée d'environ 1000 bassins versants français, dont un jeu clé de 211 bassins versants qui permet la validation des approches développées. Elle s'appuie également sur une archive d'environ 4,5 années de prévisions d'ensemble de pluies, utilisées en forçage à la modélisation hydrologique journalière. La démarche adoptée consiste à intégrer les scenarios de transfert de l'information régionale disponible et les scenarios de la prévision météorologique d'ensemble dans un système de prévision orienté vers les bassins versants non jaugés. L'approche de prévision d'ensemble est ainsi généralisée à ce cas particulier de la prévision hydrologique. A travers plusieurs scénarios de débits futurs, nous cherchons à quantifier les incertitudes de prévisions dans les sites cibles non jaugés. Pour évaluer les différents scénarios des prévisions hydrologiques émis, un cadre de diagnostic d'évaluation des principales qualités d'un système de prévision d'ensemble, comprenant plusieurs critères numériques et graphiques, a été mis en place. Dans cette thèse, une attention particulière est prêtée aux attributs "fiabilité" et "précision" des prévisions. Nous proposons ainsi un nouveau critère graphique, nommé diagramme de précision d'ensemble. Ce critère permet notamment de mettre en valeur la qualité des prévisions qui ne sont pas forcément fiables, mais qui sont précises. Les résultats obtenus ont mis en évidence que la fiabilité des prévisions peut être améliorée sur un bassin versant non jaugé par l'utilisation de plusieurs jeux de paramètres issus des bassins versants voisins. Si la variabilité apportée par le voisinage géographique influe sur la dispersion des membres, et augmente ainsi la fiabilité des prévisions, la prise en compte des caractéristiques physiques, principalement de la surface des bassins versants, est apparue comme une alternative intéressante, influençant positivement aussi l'attribut précision des prévisions sur le site cible. De plus, il a été montré que la précision des prévisions d'ensemble sur le site non jaugé est améliorée par l'intermédiaire du transfert des bassins versants jaugés vers le site cible des corrections faites lors de la mise à jour sur les bassins voisins (mise à jour caractérisée ici par l'assimilation de la dernière observation de débit dans le modèle hydrologique, avant l'instant de prévision). Les différentes mesures de performance ont montré que la meilleure option pour améliorer la précision des prévisions serait de considérer les corrections effectuées sur le bassin le plus proche à chaque pas de temps de prévision. Le krigeage a également donné des résultats satisfaisants, marqués en plus par l'influence positive sur l'attribut fiabilité des prévisions. / Flood forecasting is a complex hydrological task: there are numerous uncertainties in the hydrological modelling process, in the determination of the initial catchment conditions before launching the forecast, and in the evolution of future weather conditions. In ungauged catchments, where streamflow observations are incomplete or absent, these uncertainties are even greater, and the need to reduce them becomes essential.This thesis focuses on simple and robust methods that can provide relevant information to quantify the uncertainty in ungauged catchments. The aim is to study the best strategy to search for information in gauged "donors" basins and to transfer it to the ungauged site. We investigate what information is needed to set up a rainfall-runoff model and to perform forecast updating in real time. These two components of a flood forecasting system are thus decoupled in our approach.This thesis is based on a large database of about 1000 French catchments, which includes a key set of 211 catchments that are used to validate the developed approaches. It also relies on an archive of about 4.5 years of ensemble forecasts of rainfall, which are used for hydrological modelling on a daily time step. The methodology adopted here integrates the scenarios of regional transfer of information and the scenarios of weather forecasting together in a forecasting system for ungauged basins. The approach of ensemble forecasting is thus generalised to this particular case of hydrological forecasting. Using several scenarios of future flows, we seek to quantify the predictive uncertainty in ungauged sites.To evaluate the flow forecast scenarios of the hydrological ensemble prediction system, a diagnostic framework with several numerical and graphical criteria is developed. Special attention is paid to the attributes of "reliability" and "accuracy" of the forecasts. We propose a new graphic criterion, named "diagram of ensemble accuracy". This criterion allows to highlight the quality of forecasts that are not necessarily reliable, but are accurate.The results show that forecast reliability in ungauged sites can be improved by using several sets of parameters from neighbour catchments. If on the one hand the variability brought by the information from the geographical proximity influences the spread of the ensemble forecasts, and thus improves forecast reliability, on the other hand taking into account the physical characteristics of the catchments, especially the surface, emerged as an interesting alternative, as it positively influences also the accuracy of the forecasts at the ungauged site.It is also shown that the accuracy of ensemble forecasts at ungauged sites can be improved with the transfer of updating information from gauged neighbour catchments (forecasting updating is here characterized by the assimilation of the last discharge observation in the hydrological model before the time of forecast). The updating information transferred to the ungauged site is the correction applied to the routing reservoir of the hydrological model. Different measures of forecast performance showed that the best option to improve forecast accuracy is to consider the corrections made at the closest gauged site. Kriging also gave satisfactory results, with additionally a positive impact also on the reliability of the ensemble flow forecasts.
52

Gestion de la Mise à Jour de Données Géographiques Répliquées

Pierkot, Christelle 02 July 2008 (has links) (PDF)
De nos jours, l'information géographique constitue une ressource incontournable dans un contexte de prise de décision et les données numériques spatiales sont de plus en plus fréquemment exploitées comme support et aide à la décision par de nombreuses organisations.<br />L'institution militaire utilise elle aussi les données spatiales comme soutien et aide à la décision. A chaque étape d'une mission, des informations géographiques de tous types sont employées (données numériques, cartes papiers, photographies aériennes...) pour aider les unités dans leurs choix stratégiques. Par ailleurs, l'utilisation de réseaux de communication favorise le partage et l'échange des données spatiales entre producteurs et utilisateurs situés à des endroits différents. L'information n'est pas centralisée, les données sont répliquées sur chaque site et les utilisateurs peuvent ponctuellement être déconnectés du réseau, par exemple lorsqu'une unité mobile va faire des mesures sur le terrain.<br />La problématique principale concerne donc la gestion dans un contexte militaire, d'une application collaborative permettant la mise à jour asynchrone et symétrique de données géographiques répliquées selon un protocole à cohérence faible optimiste. Cela nécessite de définir un modèle de cohérence approprié au contexte militaire, un mécanisme de détection des mises à jour conflictuelles lié au type de données manipulées et des procédures de réconciliation des écritures divergentes adaptées aux besoins des unités participant à la mission.<br />L'analyse des travaux montre que plusieurs protocoles ont été définis dans les communautés systèmes (Cederqvist :2001 ; Kermarrec :2001) et bases de données (Oracle :2003 ; Seshadri :2000) pour gérer la réplication des données. Cependant, les solutions apportées sont souvent fonctions du besoin spécifique de l'application et ne sont donc pas réutilisables dans un contexte différent, ou supposent l'existence d'un serveur de référence centralisant les données. Les mécanismes employés en information géographique pour gérer les données et les mises à jour ne sont pas non plus appropriés à notre étude car ils supposent que les données soient verrouillées aux autres utilisateurs jusqu'à ce que les mises à jour aient été intégrée (approche check in-check out (ESRI :2004), ou utilisent un serveur centralisé contenant les données de référence (versionnement : Cellary :1990).<br />Notre objectif est donc de proposer des solutions permettant l'intégration cohérente et autant que possible automatique, des mises à jour de données spatiales dans un environnement de réplication optimiste, multimaître et asynchrone.<br />Nous proposons une stratégie globale d'intégration des mises à jour spatiales basée sur une vérification de la cohérence couplé à des sessions de mises à jour. L'originalité de cette stratégie réside dans le fait qu'elle s'appuie sur des métadonnées pour fournir des solutions de réconciliation adaptées au contexte particulier d'une mission militaire.<br />La contribution de cette thèse est double. Premièrement, elle s'inscrit dans le domaine de la gestion de la mise à jour des données spatiales, domaine toujours très actif du fait de la complexité et de l'hétérogénéité des données (Nous limitons néanmoins notre étude aux données géographiques vectorielles) et de la relative «jeunesse » des travaux sur le sujet. Deuxièmement, elle s'inscrit dans le domaine de la gestion de la cohérence des données répliquées selon un protocole optimiste, en spécifiant en particulier, de nouveaux algorithmes pour la détection et la réconciliation de données conflictuelles, dans le domaine applicatif de l'information géographique.
53

SGBD sémantiques pour un environnement bureatique : intégrité et gestion de transactions

Pedraza Linares, Esperanza 25 November 1988 (has links) (PDF)
Ce travail traite deux problèmes rencontrés dans les environnements où l'on utitlise un SGBD de haut niveau sémantique et où les traitements réalisés sont peu structurés et évolutifs et se font sur des objets complexes et volumineux. II s"appui sur l'expérience acquise dans la réalisation des projets TIGRE ET DOEOIS. Le premier aspect porte sur la cohérence sémantique, ce qui concerne plus particulièrement les contraintes implicitement établies lors de la définition du schéma conceptuel de la base. La sémantique introduite dans les modèles que nous avons utilisés, est réalisée en intégrant des concepts déjà existants comme celui d'agrégation et de spécialisation qui se traduisent au niveau du schéma conceptuel par des dépendances existentielles entre les entités. Nous proposons pour les opérations de mise à jour, un ensemble de règles de propagations pour assurer que la base de données soit cohérente par rapport à son propre schéma conceptuel. Le deuxième aspect prend en compte l'exécution des opérations elles mêmes. Fournir la notion de transaction, c'est donner au programmeur d'application le moyen de définir' une séquence d'opérations comme étant un tout qui permet à la base de données d'évoluer entre deux états cohérents. Le problème que nous nous posons est de fournir un support pour l'exécution des applications qui assure le maintien de la cohérence, compte tenu des données et des caractéristiques des traitements faits aux données dans l'activité bureautique. Cet étude a abouti à la réalisation d'un mécanisme transactionnel simple et fléxible.
54

Expression et contrôle de l'intégrité sémantique dans les bases de données relationnelles : projet MICROBE

Ferrat, Lounas 19 May 1983 (has links) (PDF)
Cette thèse présente le sous-système ISIS, une méthode d'expression et de contrôle de l'intégrité sémantique, dans les bases de données relationnelles. Celle-ci est réglée par un ensemble de lois appelées contraintes d'intégrité sémantique (CIS). Une réalisation est effectuée dans le cadre du projet MICROBE
55

Détermination des paramètres de rotation de Mars à partir de mesures de poursuite Doppler : Théorie et Simulations

Yseboodt, Marie 16 December 2003 (has links)
L'expérience NEIGE (NEtlander Ionosphere and Geodesy Experiment) permettra d'obtenir des informations sur la structure interne de la planète Mars ainsi que sur son atmosphère grâce à l'observation de ses paramètres de rotation (précession, nutation, longueur du jour, mouvement du pôle). Pour quantifier la précision sur ces paramètres grâce à NEIGE, une formulation analytique de l'observable Doppler entre les landers et un orbiteur a été développée, basée sur une orbite Keplerienne précessante sous l'effet de l'aplatissement de la planète et sur un développement au premier ordre en série de Taylor par rapport aux petits paramètres caractérisant les variations de l'orientation de Mars. Cette formulation permet de comprendre simplement le jeu relatif des différents paramètres et permet également de modéliser leurs corrélations. Dans les conditions nominales de l'expérience, les paramètres liés au mouvement du pôle et aux variations saisonnières de l'angle de rotation sont retrouvés avec une précision meilleure que 3 milli-secondes d'arcs. L'incertitude sur le taux de précession ainsi que sur les paramètres liés à l'exitence d'un possible noyau liquide visible dans l'observable Doppler grâce à une amplification (résonance) des nutations, a également été étudiée. Nous montrons qu'à partir des mesures NEIGE, il sera possible de déduire des informations sur la structure interne de Mars, comme l'état liquide ou solide du noyau, son moment d'inertie et son aplatissement. D'autres paramètres ont été pris en compte dans notre étude, notamment les positions des landers, les éléments orbitaux du satellite et les amplitudes des variations du terme d'aplatissement. La modélisation utilisée permet de tester différentes configurations de mission comme le changement d'orbites, de position et nombre de landers ou l'influence du bruit de mesures, afin d'identifier les conditions minimisant les incertitudes sur les paramètres de rotation. Les incertitudes obtenues grâce aux simulations numériques réalisées avec un logiciel d'orbitographie développé par le CNES et celles obtenues par la méthode analytique sont cohérentes. En comparant ces résultats avec ceux des observables Range et Doppler lander-Terre (représentant les mesures réalisées pendant les missions Viking et Pathfinder), on remarque que l'observable Dopple lander-orbiteur est plus efficace pour détecter de petits mouvements en surface grâce à l'effet amplificateur du Doppler quand la distance entre l'observateur et le lander est petite.
56

Jean-Charles Harvey, défenseur des libertés et promoteur de la modernité : le jour (1937-1946)

Simard, David Éric January 2007 (has links) (PDF)
Notre essai critique se penche sur la contribution de Jean-Charles Harvey à la lutte pour les libertés et la modernisation du Canada français, et cela tout au long de l'existence de son journal de combat, Le Jour, qu'il dirigea de 1937 à 1946. Libre penseur aux idées empreintes de l'esprit des Lumières, Harvey fut le principal porte-voix du libéralisme moderne du Canada français durant une époque marquée par l'influence de l'idéologie traditionaliste et cléricale. Nous soulignons notamment le contexte et la nature des combats d'Harvey contre les tenants du traditionalisme, parmi lesquels nous avons pu identifier Lionel Groulx en tant que l'un des principaux adversaires idéologiques d'Harvey. Notre recherche nous a permis de constater que l'idéologie traditionaliste constituait un frein à l'avènement de la modernité au Canada français, devant quoi nous avons voulu cerner le rôle d'aiguillon que jouait Jean-Charles Harvey en tant que précurseur important de la modernisation que le Québec a fini par embrasser lors de l'avènement de la Révolution tranquille. Nous entendons également mesurer la contribution de Jean-Charles Harvey vis-à-vis les principaux enjeux et causes dont il fit du Jour un véhicule privilégié: l'éducation laïque, gratuite et obligatoire, le suffrage féminin, la laïcité, la lutte contre le traditionalisme -y compris le type de nationalisme instillé par ce dernier, la participation canadienne à la Deuxième guerre mondiale et l'unité canadienne. Nous abordons donc globalement l'héritage de Harvey en tant que précurseur de la modernisation de la société québécoise, de même que les interprétations émises par certains auteurs quant à l'oeuvre d'Harvey durant l'époque du Jour. Enfin, nous livrons l'évaluation que l'ensemble de notre recherche nous a permis de tirer quant à son bilan et à son impact sur la société québécoise telle qu'elle aura évolué après l'époque du Jour.
57

Extraction d'éléments curvilignes guidée par des mécanismes attentionnels pour des images de télédétection: approche par fusion de données

Cotteret, Gilles 09 December 2005 (has links) (PDF)
L'extraction d'éléments curvilignes d'images de télédétection, surtout proches de la limite de résolution ou lorsqu'elles sont bruitées, représente toujours un défi important pour les algorithmes informatiques, alors que pour les interprètes humains c'est une tâche immédiate. Dans ce travail une méthode novatrice est présentée pour guider l'extraction d'éléments curvilignes (routes, cours d'eau, etc) d'images de télédétection. Cette méthode a pour but de mettre à jour les systèmes d'informations géographiques (SIG) grâce à un modèle inédit (ELECA) qui comporte trois parties. Le modèle ELECA tire avantage de deux idées principales. Les données utilisées ne sont pas seulement les images de télédétection mais également les données des SIG qui ne sont pas nécessairement à jour. Le modèle s'appuie également sur des progrès récents des sciences psycho-cognitives en imitant partiellement le mouvement des yeux durant une recherche visuelle.<br /><br />Ainsi les trois parties du modèle ELECA sont (1) une méthode de recherche de l'information locale qui utilise un œil virtuel pour ne se focaliser qu'aux lieux d'information probable, évitant ainsi un traitement global de l'image ; (2) une méthode simple et rapide d'extraction de l'information locale par une adaptation astucieuse d'une analyse en composantes connexes ; et (3) une méthode originale de fusion des informations locales qui s'appuie sur des travaux de reconstruction de l'espace global par raisonnement spatial qualitatif.<br /><br />Le modèle ELECA évite de cette manière certains pièges dans lesquels tombent souvent les méthodes courantes/classiques. En particulier, la technique proposée peut être mise en œuvre pour des images partiellement masquées ou de basse résolution pour lesquelles seulement des interprètes humains peuvent traiter l'image présentement. La méthode a été aussi élaborée pour être rapide et efficace afin de pouvoir réaliser des mises à jour de SIG très rapides lorsque nécessaire.<br /><br />La dernière partie de ce travail est consacrée à l'élaboration d'une solution informatique supportant le modèle ELECA. Une architecture logicielle souple et adaptative est mise en avant, permettant l'intégration de développements ultérieurs pour le modèle. Enfin un volet algorithmique montre concrètement que les solutions du modèle ELECA sont implantables en termes informatiques.
58

Système symbolique de création de résumés de mise à jour

Genest, Pierre-Étienne January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
59

Contributions à la dynamique de frappe au clavier : multibiométrie, biométrie douce et mise à jour de la référence

Giot, Romain 23 October 2012 (has links) (PDF)
La dynamique de frappe au clavier est une modalité biométrique comportementale qui permet d'authentifier des individus selon leur façon de taper au clavier. Un tel système est peu coûteux, car il ne nécessite pas de matériel d'acquisition autre que le clavier de l'ordinateur, et est facilement accepté par l'utilisateur. Nous nous sommes principalement intéressé aux systèmes statiques où le texte saisit par l'utilisateur est connu à l'avance par la machine. Malheureusement, les performances de cette modalité sont plutôt médiocres en raison de la forte variabilité de la donnée biométrique. Cette variabilité est due à l'état émotionnel de la personne, l'apprentissage de la façon de taper, \ldots Nous proposons dans cette thèse différentes contributions permettant d'améliorer les performances de reconnaissance de systèmes de dynamique de frappe au clavier (DDF). Nous effectuons également une analyse des bases publiques permettant d'évaluer la performance de nouveaux systèmes de reconnaissance. Une contribution est la mise au point d'un système de DDF par mot de passe partagé. Nous étudions ensuite la fusion multibiométrique avec la dynamique de frappe au clavier et la reconnaissance faciale afin d'augmenter les performances des deux systèmes. Nous montrons, sur deux jeux de données différents, qu'il est possible de reconnaitre le genre d'un individu suivant sa façon de taper au clavier. Enfin, nous présentons une nouvelle méthode de mise à jour de la référence biométrique qui permet de prendre en compte le vieillissement de la donnée biométrique, afin de ne pas avoir une diminution des performances de reconnaissance au cours du temps.
60

La concertation entre les C.L.S.C. et les C.H.S.C.D. pour accroître leur complémentarité et améliorer les services à la clientèle agée en perte d'autonomie /

Boucher, Colette, January 1995 (has links)
Mémoire (M.P.M.O.)--Université du Québec à Chicoutimi, 1995. / Document électronique également accessible en format PDF. CaQCU

Page generated in 0.0294 seconds