• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 3
  • Tagged with
  • 13
  • 7
  • 7
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Une nouvelle approche de mise en correspondance stéréoscopique dense par méthodes possibilistes

Rabaud, Christophe 15 July 2005 (has links) (PDF)
Ce manuscrit présente une approche novatrice du problème de la mise en correspondance dense de pixel dans les images stéréoscopiques. L'originalité de ce tra- vail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécis et de l'incertain permettant de minimiser l'a-priori dans le processus de mise en corres- pondance. Ces techniques s'appuient sur une représentation par une partition floue de l'imprécision de la mesure de luminance induite par l'échantillonnage spatial et sur une classification duale de l'information de luminance associée à chaque pixel. Nous avons associé, à cette représentation, une modélisation de la contrainte épipolaire propre aux capteurs stéréoscopiques étalonnés permettant de prendre en compte l'imprécision des paramètres d'étalonnage. Cette représentation permet d'associer, à chaque pixel d'une des images, un domaine pondéré discret des pixels de l'autre image pouvant lui corres- pondre géométriquement et chromatiquement.Nous proposons ensuite de modifier ces distributions de possibilité en utilisant des contraintes supplémentaires, telles que l'ordre ou l'unicité, pour en augmenter la spé- cificité. Nous utilisons, pour ce faire, un processus itératif et coopératif bipolaire. C'est l'ensemble de cette démarche qui permet de minimiser l'influence de la représentation du problème sur les mesures d'appariements. La validité de notre approche est établie par des expérimentations sur des images stéréo- scopiques de synthèses et réelles dont on connait la verité terrain. Celles-ci permettent de tester le comportement de notre méthode vis-à-vis des variations d'illumination et de disparité.
2

Perception multisensorielle de la structure géométrique d'une scène

Ramparany, Fano 24 February 1989 (has links) (PDF)
Description géométrique de l'environnement grâce à la redondance et à la complémentarité des informations provenant de plusieurs capteurs. Cette description est basée sur une modélisation tridimensionnelle de type surfacique incorporant les informations géométriques et l'incertitude de ces informations
3

Analyse formelle de concepts et fusion d'informations : application à l'estimation et au contrôle d'incertitude des indicateurs agri-environnementaux

Assaghir, Zainab 12 November 2010 (has links) (PDF)
La fusion d'informations consiste à résumer plusieurs informations provenant des différentes sources en une information exploitable et utile pour l'utilisateur. Le problème de la fusion est délicat surtout quand les informations délivrées sont incohérentes et hétérogènes. Les résultats de la fusion ne sont pas souvent exploitable et utilisables pour prendre une décision, quand ils sont imprécis. C'est généralement due au fait que les informations sont incohérentes. Plusieurs méthodes de fusion sont proposées pour combiner les informations imparfaites et elles appliquent l'opérateur de fusion sur l'ensemble de toutes les sources et considèrent le résultat tel qu'il est. Dans ce travail, nous proposons une méthode de fusion fondée sur l'Analyse Formelle de Concepts, en particulier son extension pour les données numériques : les structures de patrons. Cette méthode permet d'associer chaque sous-ensemble de sources avec son résultat de fusion. Toutefois l'opérateur de fusion est choisi, alors un treillis de concept est construit. Ce treillis fournit une classification intéressante des sources et leurs résultats de fusion. De plus, le treillis garde l'origine de l'information. Quand le résultat global de la fusion est imprécis, la méthode permet à l'utilisateur d'identifier les sous-ensemble maximaux de sources qui supportent une bonne décision. La méthode fournit une vue structurée de la fusion globale appliquée à l'ensemble de toutes les sources et des résultats partiels de la fusion marqués d'un sous-ensemble de sources. Dans ce travail, nous avons considéré les informations numériques représentées dans le cadre de la théorie des possibilités et nous avons utilisé trois sortes d'opérateurs pour construire le treillis de concepts. Une application dans le monde agricole, où la question de l'expert est d'estimer des valeurs des caractéristiques de pesticide provenant de plusieurs sources, pour calculer des indices environnementaux est détaillée pour évaluer la méthode de fusion proposée.
4

Extraction de connaissances spatio-temporelles incertaines pour la prédiction de changements en imagerie satellitale

BOULILA, Wadii 28 June 2012 (has links) (PDF)
L'interprétation d'images satellitales dans un cadre spatiotemporel devient une voie d'investigation de plus en plus pertinente pour l'étude et l'interprétation des phénomènes dynamiques. Cependant, le volume de données images devient de plus en plus considérable ce qui rend la tâche d'analyse manuelle des images satellitales plus difficile. Ceci a motivé l'intérêt des recherches sur l'extraction automatique de connaissances appliquée à l'imagerie satellitale. Notre thèse s'inscrit dans ce contexte et vise à exploiter les connaissances extraites à partir des images satellitales pour prédire les changements spatiotemporels de l'occupation du sol. L'approche proposée consiste en trois phases : i) la première phase permet une modélisation spatiotemporelle des images satellitales, ii) la deuxième phase assure la prédiction de changements de l'occupation du sol et iii) la troisième phase consiste à interpréter les résultats obtenus. Notre approche intègre trois niveaux de gestion des imperfections : la gestion des imperfections liées aux données, la gestion des imperfections liées à la prédiction et finalement la gestion des imperfections liées aux résultats. Pour les imperfections liées aux données, nous avons procédé par une segmentation collaborative. Le but étant de réduire la perte d'information lors du passage du niveau pixel au niveau objet. Pour les imperfections liées à la prédiction, nous avons proposé un processus basé sur les arbres de décisions floues. Ceci permet de modéliser les imperfections liées à la prédiction de changements. Finalement, pour les imperfections liées aux résultats, nous avons utilisé les techniques de Raisonnement à Base des Cas et de fusion pour identifier et combiner les décisions pertinentes. L'expérimentation de l'approche proposée est scindée en deux étapes : une étape d'application et une étape d'évaluation. Les résultats d'évaluation ont montré la performance de notre approche mesurée en termes de taux d'erreur par rapport à des approches existantes.
5

Modèle d'estimation de l'imprécision des mesures géométriques de données géographiques / A model to estimate the imprecision of geometric measurements computed from geographic data.

Girres, Jean-François 04 December 2012 (has links)
De nombreuses applications SIG reposent sur des mesures de longueur ou de surface calculées à partir de la géométrie des objets d'une base de données géographiques (comme des calculs d'itinéraires routiers ou des cartes de densité de population par exemple). Cependant, aucune information relative à l'imprécision de ces mesures n'est aujourd'hui communiquée à l'utilisateur. En effet, la majorité des indicateurs de précision géométrique proposés porte sur les erreurs de positionnement des objets, mais pas sur les erreurs de mesure, pourtant très fréquentes. Dans ce contexte, ce travail de thèse cherche à mettre au point des méthodes d'estimation de l'imprécision des mesures géométriques de longueur et de surface, afin de renseigner un utilisateur dans une logique d'aide à la décision. Pour répondre à cet objectif, nous proposons un modèle permettant d'estimer les impacts de règles de représentation (projection cartographique, non-prise en compte du terrain, approximation polygonale des courbes) et de processus de production (erreur de pointé et généralisation cartographique) sur les mesures géométriques de longueur et de surface, en fonction des caractéristiques des données vectorielles évaluées et du terrain que ces données décrivent. Des méthodes d'acquisition des connaissances sur les données évaluées sont également proposées afin de faciliter le paramétrage du modèle par l'utilisateur. La combinaison des impacts pour produire une estimation globale de l'imprécision de mesure demeure un problème complexe et nous proposons des premières pistes de solutions pour encadrer au mieux cette erreur cumulée. Le modèle proposé est implémenté au sein du prototype EstIM (Estimation de l'Imprécision des Mesures) / Many GIS applications are based on length and area measurements computed from the geometry of the objects of a geographic database (such as route planning or maps of population density, for example). However, no information concerning the imprecision of these measurements is now communicated to the final user. Indeed, most of the indicators on geometric quality focuses on positioning errors, but not on measurement errors, which are very frequent. In this context, this thesis seeks to develop methods for estimating the imprecision of geometric measurements of length and area, in order to inform a user for decision support. To achieve this objective, we propose a model to estimate the impacts of representation rules (cartographic projection, terrain, polygonal approximation of curves) and production processes (digitizing error, cartographic generalisation) on geometric measurements of length and area, according to the characteristics and the spatial context of the evaluated objects. Methods for acquiring knowledge about the evaluated data are also proposed to facilitate the parameterization of the model by the user. The combination of impacts to produce a global estimation of the imprecision of measurement is a complex problem, and we propose approaches to approximate the cumulated error bounds. The proposed model is implemented in the EstIM prototype (Estimation of the Imprecision of Measurements)
6

Estimation du mouvement apparent majoritaire dans une séquence d'images vidéo par accumulation de votes bimodaux sur un histogramme approché

Comby, Frédéric 19 December 2001 (has links) (PDF)
Ce manuscrit présente une approche particulièrement novatrice du problème d'estimation du mouvement apparent dominant dans une séquence d'images. Elle se démarque des approches classiques apparentées à la corrélation ou au flot optique par le fait que les hypothèses sur les relations entre le mouvement apparent et les variations du niveau de gris des pixels de l'image influent peu sur la robustesse du procédé. L'originalité de ce travail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécis et de l'incertain permettant de minimiser l'a priori dans le processus d'estimation. L'estimation du mouvement majoritaire fait appel à l'estimation de la densité de probabilité du mouvement puis à la recherche du mode principal de cette distribution. Ces deux étapes sont réalisées grâce à une extension de la technique des histogrammes que nous avons appelée histogrammes approchés. Ces derniers permettent de prendre en compte les défauts de type imprécision et incertitude des données accumulées et de minimiser l'influence du partitionnement de l'espace paramétrique de ces données. La validité de notre approche est établie par des expérimentations sur des séquences d'images synthétiques et réelles. Celles-ci permettent de tester le comportement de notre méthode vis-à-vis de perturbations usuelles en traitement d'images telles que des variations d'illumination, des mouvements parasites ou des occlusions. Nous proposons deux applications à notre méthode d'estimation qui sont : la construction de mosaïque d'images et la stabilisation de séquences vidéo. Les résultats présentés permettent d'illustrer les performances satisfaisantes de notre approche en termes de robustesse et de précision.
7

Analyse formelle de concepts et fusion d'informations : application à l'estimation et au contrôle d'incertitude des indicateurs agri-environnementaux / Formal concept analysis and information fusion : application on the uncertainty estimation of environmental indicator

Assaghir, Zainab 12 November 2010 (has links)
La fusion d'informations consiste à résumer plusieurs informations provenant des différentes sources en une information exploitable et utile pour l'utilisateur.Le problème de la fusion est délicat surtout quand les informations délivrées sont incohérentes et hétérogènes. Les résultats de la fusion ne sont pas souvent exploitable et utilisables pour prendre une décision, quand ils sont imprécis. C'est généralement due au fait que les informations sont incohérentes. Plusieurs méthodes de fusion sont proposées pour combiner les informations imparfaites et elles appliquent l'opérateur de fusion sur l'ensemble de toutes les sources et considèrent le résultat tel qu'il est. Dans ce travail, nous proposons une méthode de fusion fondée sur l'Analyse Formelle de Concepts, en particulier son extension pour les données numériques : les structures de patrons. Cette méthode permet d'associer chaque sous-ensemble de sources avec son résultat de fusion. Toutefois l'opérateur de fusion est choisi, alors un treillis de concept est construit. Ce treillis fournit une classification intéressante des sources et leurs résultats de fusion. De plus, le treillis garde l'origine de l'information. Quand le résultat global de la fusion est imprécis, la méthode permet à l'utilisateur d'identifier les sous-ensemble maximaux de sources qui supportent une bonne décision. La méthode fournit une vue structurée de la fusion globale appliquée à l'ensemble de toutes les sources et des résultats partiels de la fusion marqués d'un sous-ensemble de sources. Dans ce travail, nous avons considéré les informations numériques représentées dans le cadre de la théorie des possibilités et nous avons utilisé trois sortes d'opérateurs pour construire le treillis de concepts. Une application dans le monde agricole, où la question de l'expert est d'estimer des valeurs des caractéristiques de pesticide provenant de plusieurs sources, pour calculer des indices environnementaux est détaillée pour évaluer la méthode de fusion proposée / Merging pieces of information into an interpretable and useful format is a tricky task even when an information fusion method is chosen. Fusion results may not be in suitable form for being used in decision analysis. This is generally due to the fact that information sources are heterogeneous and provide inconsistent information, which may lead to imprecise results. Several fusion operators have been proposed for combining uncertain information and they apply the fusion operator on the set of all sources and provide the resulting information. In this work, we studied and proposed a method to combine information using Formal Concept Analysis in particular Pattern Structures. This method allows us to associate any subset of sources with its information fusion result. Then once a fusion operator is chosen, a concept lattice is built. The concept lattice gives an interesting classification of fusion results and it keeps a track of the information origin. When the fusion global result is too imprecise, the method enables the users to identify what maximal subset of sources would support a more precise and useful result. Instead of providing a unique fusion result, the method yields a structured view of partial results labeled by subsets of sources. In this thesis, we studied the numerical information represented in the framework of possibility theory and we used three fusion operators to built the concept lattice. We applied this method in the context of agronomy when experts have to estimate several characteristics values coming from several sources for computing an environmental risk
8

Méthode non-additive intervalliste de super-résolution d'images, dans un contexte semi-aveugle / A non-additive interval-valued super-resolution image method, in a semi-blind context

Graba, Farès 17 April 2015 (has links)
La super-résolution est une technique de traitement d'images qui consiste en la reconstruction d'une image hautement résolue à partir d'une ou plusieurs images bassement résolues.Cette technique est apparue dans les années 1980 pour tenter d'augmenter artificiellement la résolution des images et donc de pallier, de façon algorithmique, les limites physiques des capteurs d'images.Comme beaucoup des techniques de reconstruction en traitement d'images, la super-résolution est connue pour être un problème mal posé dont la résolution numérique est mal conditionnée. Ce mauvais conditionnement rend la qualité des images hautement résolues reconstruites très sensible au choix du modèle d'acquisition des images, et particulièrement à la modélisation de la réponse impulsionnelle de l'imageur.Dans le panorama des méthodes de super-résolution que nous dressons, nous montrons qu'aucune des méthodes proposées par la littérature ne permet de modéliser proprement le fait que la réponse impulsionnelle d'un imageur est, au mieux, connue de façon imprécise. Au mieux l'écart existant entre modèle et réalité est modélisé par une variable aléatoire, alors que ce biais est systématique.Nous proposons de modéliser l'imprécision de la connaissance de la réponse impulsionnelle par un ensemble convexe de réponses impulsionnelles. L'utilisation d'un tel modèle remet en question les techniques de résolution. Nous proposons d'adapter une des techniques classiques les plus populaires, connue sous le nom de rétro-projection itérative, à cette représentation imprécise.L'image super-résolue reconstruite est de nature intervalliste, c'est à dire que la valeur associée à chaque pixel est un intervalle réel. Cette reconstruction s'avère robuste à la modélisation de la réponse impulsionnelle ainsi qu'à d'autres défauts. Il s'avère aussi que la largeur des intervalles obtenus permet de quantifier l'erreur de reconstruction. / Super-resolution is an image processing technique that involves reconstructing a high resolution image based on one or several low resolution images. This technique appeared in the 1980's in an attempt to artificially increase image resolution and therefore to overcome, algorithmically, the physical limits of an imager.Like many reconstruction problems in image processing, super-resolution is known as an ill-posed problem whose numerical resolution is ill-conditioned. This ill-conditioning makes high resolution image reconstruction qualityvery sensitive to the choice of image acquisition model, particularly to the model of the imager Point Spread Function (PSF).In the panorama of super-resolution methods that we draw, we show that none of the methods proposed in the relevant literature allows properly modeling the fact that the imager PSF is, at best, imprecisely known. At best the deviation between model and reality is considered as being a random variable, while it is not: the bias is systematic.We propose to model scant knowledge on the imager's PSF by a convex set of PSFs. The use of such a model challenges the classical inversion methods. We propose to adapt one of the most popular super-resolution methods, known under the name of "iterative back-projection", to this imprecise representation. The super-resolved image reconstructed by the proposed method is interval-valued, i.e. the value associated to each pixel is a real interval. This reconstruction turns out to be robust to the PSF model and to some other errors. It also turns out that the width of the obtained intervals quantifies the reconstruction error.
9

Etude de la vulnérabilité des eaux aux produits phytosanitaires : indicateur environnemental et modèle mécaniste, en vue d'une meilleure gestion du bassin versant de la Leysse (Savoie)

de Bruyn, Bertrand 30 January 2004 (has links) (PDF)
Le bassin de la Leysse a fait l'objet d'une modélisation mécaniste distribuée fondée sur le logiciel MIKE SHE, qui a permis de reproduire l'hydrologie par simulation des karsts, des nappes et des terrains à fort ruissellement. Un modèle de transport de substance chimique a permis de simuler des pollutions potentielles : par déversements accidentels ou diffuses par les produits phytosanitaires. Il montre le rôle prépondérant des eaux de surface pour le transfert des pollutions. Un indicateur environnemental de vulnérabilité des eaux de surface aux produits phytosanitaires, VESPP, de formulation simple et aux paramètres aisés à recueillir, a été évalué spatialement sur le bassin. Ses résultats sont en bon accord avec ceux du modèle. Ainsi validé, l'indicateur et sa méthode floue d?analyse des imprécisions peuvent être utilisés par des gestionnaires. Sa mise en place dans un logiciel d'aide à la décision a été réalisée sur la base du S.I.G. MapInfo.
10

Opérations booléennes sur les polyèdres représentés par leurs frontières et imprécisions numériques

Benouamer, Mohand Ourabah 08 July 1993 (has links) (PDF)
Les progrès enregistrés en modélisation solide ont beaucoup contribué à l'essor des diverses applications de la CAO/FAO, de la robotique et de la synthèse d'images. Les systèmes de modélisation solide contemporains combinent souvent la représentation par arbre de construction et la représentation par frontière afin de mieux répondre aux besoins des applications. Dans cette thèse nous proposons une nouvelle méthode de calcul de la frontière d'un objet polyédrique décrit par un arbre de construction, qui traite uniformément les nombreux cas particuliers et qui résout le problème crucial des imprécisions numériques inhérentes à l'arithmétique flottante. Une implantation utilisant une arithmétique rationnelle optimisée est présentée ainsi que des résultats de tests.

Page generated in 0.0668 seconds