• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Apprentissage actif pour la classification des occupations du sol sur larges étendues à partir d'images multispectrales à haute résolution spatiale : application en milieu cultivé, Lebna (Cap-Bon Tunisie) / Active learning for Mapping land cover on wide area, from high spatial resolution satellite images : application in cultivated areas, Lebna (Cap-Bon Tunisie)

Ben Slimene Ben Amor, Ines 23 November 2017 (has links)
Les activités anthropiques dans le bassin méditerranéen sont en forte évolution. Dans les zones agricoles, cette croissance entraîne des évolutions considérables de l'occupation du sol. Cette activité agricole exerce un impact majeur sur le fonctionnement hydrologique des paysages qui n'est identifiable qu'à une échelle bien plus large, sur plusieurs dizaines de km². Cette thèse se concentre sur la classification de l'occupation du sol sur une large étendue à partir d'une image monodate à haute résolution spatiale (SPOT6/7).Dans ce contexte, les données d'apprentissage sont collectées par des enquêtes terrain, par conséquent, elles sont très limitées. Les méthodes d'apprentissage supervisées sont généralement utilisées, en supposant que la distribution des classes est stable sur toute l'image. Cependant, en pratique, on constate une distorsion des distributions des classes (apparition de nouvelles classes, disparition de classes). Ce problème, intitulé "datashift", se produit souvent sur des larges étendues. Ainsi le modèle construit sur les données d'apprentissage initiales s'avère sous optimal pour la classification de l'image entière. Pour atténuer ce problème, les techniques d'apprentissage actif définissent un ensemble d'apprentissage efficace, en l'adaptant itérativement par l'ajout des données non labellisées les plus informatives. Ces techniques permettent d'améliorer le modèle de classification tout en conservant un petit ensemble d'apprentissage initial. L'échantillonnage se base généralement sur deux métriques : l'incertitude et la diversité.Dans cette thèse, nous montrons l'apport des techniques d'apprentissage actif pour la cartographie de l'occupation du sol en milieu agricole, en proposant un échantillonnage adapté par parcelle.L'apport des méthodes d'apprentissage actif est validé par rapport à une sélection aléatoire des parcelles. Une métrique de diversité basée sur l'algorithme Meanshift a été proposée.Dans un deuxième temps, nous avons traité le sous-problème du "datashift" qui est l'apparition de nouvelles classes. Nous avons proposé de nouvelles métriques de diversité basées sur l'algorithme Meanshift et les Fuzzy k-means ainsi qu'une nouvelle stratégie de sélection des données adaptées à la détection de nouvelles classes.Dans la dernière partie, nous nous sommes intéressés aux contraintes spatiales induites par les observations sur terrain et nous avons proposé une stratégie de labellisation par points de vue qui permet de diminuer largement les coûts humains d'observations terrain tout en gardant de bonnes précisions de classification ainsi que la découverte des nouvelles classes.Les méthodes proposées ont été testées et validées avec une image multispectrale SPOT6 à 6m de résolution sur le bassin versant de Lebna, Cap-Bon, Tunisie. / Anthropogenic activities in the Mediterranean are in strong evolution. In agricultural areas, this growth leads to considerable changes in land cover. This agricultural activity has a major impact on the hydrological functioning of the landscapes which can be only identified on a wide scale, over several tens of km². This thesis focuses on the land cover classification on wide area from a high spatial resolution monodate image (SPOT6/7).In this context, the learning data are collected by field surveys, therefore they are very limited. Supervised learning methods are generally used, assuming that the class distribution is stable over all the image. However, in practice, there is a class distributions distortion (new classes appear, classes disappear). This problem, called "datashift", always occurs over wide areas. Thus, the model constructed on the initial learning data is sub-optimal for the classification of the entire image. To lessen this problem, active learning techniques define an effective learning set, by iteratively adapting it by adding the most informative unlabeled data. These techniques improve the classification model while retaining a small initial learning set. Sampling is generally based on two metrics: uncertainty and diversity.In this thesis, we show the contribution of active learning techniques for the land cover mapping in agricultural environment, proposing a suitable sampling per parcel.The active learning methods contribution is validated respectively to a random selection of parcels. A diversity metric based on the Meanshift algorithm has been proposed.Secondly, we treated the sub-problem of the "datashift" which is the appearance of new classes. We proposed new metrics of diversity based on the Meanshift algorithm and Fuzzy k-means as well as a new data selection strategy adapted to the detection of new classes.Finally we were interested in the spatial constraints induced by the field observations and we proposed a strategy of labeling by stand points which make it possible to greatly reduce the human costs for field observations while maintaining good classification precisions as well as the discovery of new classes.The proposed methodologies were tested and validated on a multispectral SPOT6 image with 6m resolution on the Lebna watershed, Cap-Bon, Tunisia.
2

Interpolation des données en imagerie cardiaque par résonance magnétique du tenseur de diffusion

Yang, Feng 15 January 2011 (has links) (PDF)
L'un des problèmes fondamentaux de l'imagerie cardiaque par résonance magnétique du tenseur de diffusion (IRM-TD) est sa faible résolution spatiale, à cause des limitations matérielles des scanners IRM actuels. L'objectif principal de ce travail de thèse est de développer de nouvelles approches pour améliorer la résolution des données d'IRM-TD afin de mieux représenter l'architecture myocardique du coeur humain et de la comparer avec des résultats issus d'autres techniques d'investigation telles que l'imagerie par lumière polarisée. Dans ce cadre, le travail porte sur trois parties principales. La première concerne le développement d'une nouvelle approche pour l'interpolation des champs de vecteurs propres principaux issus de l'IRM-TD cardiaque humaine. Cette approche consiste d'abord à supprimer les vecteurs corrompus par le bruit au lieu de débruiter de manière uniforme le champ entier de vecteurs, et ensuite à interpoler le champ de vecteurs en utilisant la modèle Thin-Plate-Spline (TPS) afin d'exploiter la corrélation entre les composantes du vecteur. La deuxième partie concerne une nouvelle famille de méthodes d'interpolation pour les champs de tenseurs, basée soit sur les angles d'Euler soit sur le quaternion. Ces méthodes exploitent les caractéristiques du tenseur et préservent les paramètres de tenseurs, tels que le déterminant du tenseur, l'anisotropie fractionnelle (FA) et la diffusivité moyenne (MD). En outre, cette partie compare les principales approches d'interpolation au niveau des images pondérées en diffusion et des champs de tenseurs, et les résultats montrent qu'il serait préférable d'effectuer l'interpolation des données d'IRM-TD au niveau des champs de tenseurs. La troisième partie étudie le changement des paramètres MD et FA après un infarctus du myocarde chez les cochons, et l'influence des méthodes d'interpolation sur ces paramètres dans la zone infarctus et la zone distante. Les résultats montrent que la zone infarctus présente une diminution significative de FA et une augmentation significative de MD, comparée avec la zone distante, et que les méthodes d'interpolations du tenseur ont plus d'influence sur FA que sur MD, ce qui suggère que l'interprétation de ces paramètres cliniques après l'interpolation doive être prise avec précaution.
3

Squelettisation d’images en niveaux de gris et applications / Skeletonization of grayscale images and applications

Douss, Rabaa 26 November 2015 (has links)
L’opération morphologique de squelettisation transforme chaque objet d’une image en une forme linéique qui préserve la topologie de ce dernier (propriété d’homotopie). Elle est largement utilisée en biométrie mais aussi dans la reconnaissance des caractères ainsi que pour l’extraction de la microarchitecture osseuse. L’objectif de cette thèse est de développer une méthode de squelettisation appliquée directement sur les niveaux de gris de l’image, ce qui a pour large avantage de s’affranchir de prétraitement comme la binarisation. Une revue des méthodes de squelettisation en niveaux de gris permet de constater que l’amincissement est l’une des approches les plus usitées de par sa propriété d’homotopie. Cependant, cette approche est sensible au bruit de l’image et produit des squelettes sur-connectés. Un premier paramétrage de l’amincissement a été proposé dans la littérature afin d’abaisser des configurations de pixels liées au bruit. La première contribution de ce travail est de proposer un ajustement de ce paramètre basé sur une décision statistique. Il s’agit d’identifier les tests d’hypothèses correspondants aux différentes configurations d’abaissement en vue de fixer ce paramètre de façon locale. Ceci conduit à la mise en place d’une squelettisation appelée Self Contrast Controlled Thinning (SCCT) puisque robuste au bruit tout en s’adaptant automatiquement au contraste de l’image. La squelettisation SCCT est rendue accessible aux domaines d’application grâce à son implantation optimisée basée sur les files d’attente hiérarchiques. Ayant noté le peu d’efforts consacrés à l’évaluation de la squelettisation en niveaux de gris, la deuxième contribution de ce travail est de proposer un protocole visant à évaluer l’opération de squelettisation sur la base des propriétés requises à savoir la préservation de la topologie et de la géométrie. Ce protocole est déroulé sur une base d’images synthétiques et nous permet de comparer notre approche à celles de la littérature. La troisième contribution est de proposer une structuration du squelette en graphe donnant accès aux descripteurs structurels et morphométriques des objets étudiés en vue d’une exploitation du squelette par les experts des domaines d’applications. Dans le cadre du projet Voxelo coordonné par le laboratoire B2OA de l’Université Paris Diderot, cette structuration est exploitée pour extraire les descripteurs de la qualité de la microarchitecture osseuse à partir d’images RX haute résolution. / Skeletonization is an image transformation that aims to represent objects by their medial axis while preserving their topological characteristics (homotopy). It is widely used in biometrics, character recognition and also in the extraction of bone microarchitecture. The objective of this thesis is to develop a skeletonization method applied directly on image gray levels. This has the large advantage of freeing the operation from preprocessing techniques such as binarization. A review of grayscale skeletonization methods shows that the morphological thinning is one of the most used approaches for its topology preservation property. However, this approach is sensitive to image noise and produces inexploitable skeletons. A first parameterization of the thinning process has been proposed in the literature to reduce noise-related information. The first contribution of this work is to propose an adjustment of this parameter based on a statistical decision. To this end, a hypothesis test is identified for each lowering criterion in order to set the thinning parameter locally. This leads us to propose the Self Contrast Controlled Thinning method SCCT that is robust to noise and is automatically adjusted to image contrast. The SCCT is made available to application domains through its optimized implementation based on hierarchical queues. Noticing the lack of efforts to assess grayscale skeletonization, the second contribution of this work is to propose a quantitative evaluation protocol assessing skeletonization with regard to its fundamental properties that are namely the preservation of topology and geometry. This protocol is conducted over a synthetic images database and allows us to compare SCCT to approaches from the literature. The third contribution consists in structuring the skeleton into a graph that gives access to objects structural and morphometric descriptors and enables the exploitation of the skeleton by experts from various fields of application. This structuring is applied in the context of Voxelo project which is coordinated by B2OA laboratory of the University Paris Diderot. In this context, descriptors of bone microarchitecture quality are extracted from X-ray high resolution images.
4

Interpolation des données en imagerie cardiaque par résonance magnétique du tenseur de diffusion / Interpolation of data in cardiac DT-MRI

Yang, Feng 15 January 2011 (has links)
L'un des problèmes fondamentaux de l'imagerie cardiaque par résonance magnétique du tenseur de diffusion (IRM-TD) est sa faible résolution spatiale, à cause des limitations matérielles des scanners IRM actuels. L'objectif principal de ce travail de thèse est de développer de nouvelles approches pour améliorer la résolution des données d'IRM-TD afin de mieux représenter l'architecture myocardique du coeur humain et de la comparer avec des résultats issus d'autres techniques d'investigation telles que l'imagerie par lumière polarisée. Dans ce cadre, le travail porte sur trois parties principales. La première concerne le développement d'une nouvelle approche pour l'interpolation des champs de vecteurs propres principaux issus de l'IRM-TD cardiaque humaine. Cette approche consiste d'abord à supprimer les vecteurs corrompus par le bruit au lieu de débruiter de manière uniforme le champ entier de vecteurs, et ensuite à interpoler le champ de vecteurs en utilisant la modèle Thin-Plate-Spline (TPS) afin d'exploiter la corrélation entre les composantes du vecteur. La deuxième partie concerne une nouvelle famille de méthodes d'interpolation pour les champs de tenseurs, basée soit sur les angles d'Euler soit sur le quaternion. Ces méthodes exploitent les caractéristiques du tenseur et préservent les paramètres de tenseurs, tels que le déterminant du tenseur, l'anisotropie fractionnelle (FA) et la diffusivité moyenne (MD). En outre, cette partie compare les principales approches d'interpolation au niveau des images pondérées en diffusion et des champs de tenseurs, et les résultats montrent qu'il serait préférable d'effectuer l'interpolation des données d'IRM-TD au niveau des champs de tenseurs. La troisième partie étudie le changement des paramètres MD et FA après un infarctus du myocarde chez les cochons, et l'influence des méthodes d'interpolation sur ces paramètres dans la zone infarctus et la zone distante. Les résultats montrent que la zone infarctus présente une diminution significative de FA et une augmentation significative de MD, comparée avec la zone distante, et que les méthodes d'interpolations du tenseur ont plus d'influence sur FA que sur MD, ce qui suggère que l'interprétation de ces paramètres cliniques après l'interpolation doive être prise avec précaution. / One of fundamental problems in human cardiac diffusion tensor magnetic resonance imaging (DT-MRI) is its poor spatial resolution, due to the hardware limitations of MRI scanners. The main purpose of this PhD work is to develop new approaches to improving the resolution of cardiac DT-MRI data in order to better understand the myocardial architecture of the heart and compare it with results issues from other investigation techniques such as polarized light imaging. Within this framework, the present work is composed of three main parts. The first part concerns a new approach to interpolating primary eigenvector fields from human cardiac DT-MRI using Thin Plate Spline (TPS) model. This approach removes the noise-corrupted vectors rather than denoising the whole vector field in a uniform manner, and uses TPS model in order to exploit the correlation between vector components during interpolation. The second part is dealt with a new category of feature-based methods for diffusion tensor field interpolation using either Euler angles or quaternion. These feature-based methods well preserve tensor parameters, such as tensor determinant, fractional anisotropy (FA) and mean diffusivity (MD) values. In this part are also compared the main interpolation approaches at the level of diffusion weighted images and tensor fields. The results show that the interpolation of DT-MRI data should be performed at the level of tensor fields. The last part investigates changes in MD and FA after myocardial infarction in porcine hearts, and the influence of diffusion tensor interpolation methods on FA and MD in both infarction and remote region. It is found that the infarction region showed significantly decreased FA and increased MD than the remote region, and that diffusion tensor interpolations have more significant influence on FA than on MD, which suggests that precaution should be taken when performing the clinical analysis based on the parameters after diffusion tensor interpolations.

Page generated in 0.1131 seconds