Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
421 |
Contribution à l'étude des propriétés optiques des métamatériaux hyperboliques / Contribution to the study of the optical properties of hyperbolic metamaterialsBenedicto, Jessica 04 December 2013 (has links)
A la fin des années 80, ont été introduits les cristaux photoniques et les métamatériaux, permettant de concevoir des dispositifs avec des propriétés optiques très intéressantes. La découverte de ces propriétés artificielles est considérée comme l’une des avancées les plus spectaculaires de la photonique moderne, avec des applications importantes telles que la création de matériaux à réfraction négative, ou la conception de lentilles plates parfaites. Ces structures présentent néanmoins des pertes optiques dues aux métaux qui rendent plus difficile l’obtention de lentilles super-résolues. Une nouvelle approche, basée sur l’anisotropie du métamatériau, a alors été proposée comme une alternative très intéressante pour la conception de lentilles plates à super-résolution. Parallèlement les limites du modèle de Drude pour la description de la réponse optique des métaux ont été mises en évidence expérimentalement. Ce manuscrit de thèse présente une étude théorique et numérique d’empilements de couches minces métallo-diélectriques se comportant dans certains domaines de fonctionnement comme des milieux hyperboliques. Après avoir étudié le lien existant entre la réfraction négative et les décalages géants, le manuscrit se concentre sur la conception de lentilles plates permettant d’obtenir de la super-résolution : des images offrant une meilleure résolution que celle permise par les lois de la diffraction classique. Pour répondre à ces objectifs, nous avons développé une théorie basée sur l’approximation du milieu hyperbolique (obtenue avec un empilement métallo-diélectrique) par un milieu isotrope effectif à l’aide d’un développement parabolique du vecteur d’onde de Bloch. Les outils nécessaires pour toute étude de l’influence de la non-localité intrinsèque des métaux sur les propriétés optiques des structures sont ensuite développés et appliqués aux métallo-diélectriques. / In the early 80’s, planar or periodic photonics crystals have been introduced in order to control light and to obtain entirely new optical properties. The unrivalled properties of these metamaterials are of tremendous interest for advanced photonic systems, with some important applications such as materials with negative refraction or flat lenses. However, these structures present optical losses induced by metals defects and experimental fabrication at nanometric scales that prevent them to reach the expected performances. A new approach based on describing metallo-dielectric as anisotropic materials has then been proposed as an alternative description. In parallel, the limits of the Drude model have been experimentally highligthed. In this context this manuscript presents a theoretical and numerical study of metallo-dielectric multilayers that can be considered as homogeneous media with a hyperbolic dispersion relation. We first present the link between negative refraction and large negative lateral shifts, and then focus on the design of flat lenses with subwavelength resolution : structures allowing a better resolution than the classical diffraction limit. We thus developed a theory based on the approximation of the hyperbolic medium, by a homogeneous and isotropic medium with a parabolic development of the vector of wave of Bloch. Finally, the tools required to study the influence of the intrinsic nonlocality of metals on the optical properties of multilayers are developped and the formalism is applied to metallo-dielectric lenses.
|
422 |
Rôle de la microarchitecture osseuse dans le déterminisme héréditaire de la fragilité osseuse / Role of bone microarchitecture and hereditary determinants of bone fragilityAbdelmohsen Ali Mohamed Nagy, Hoda 26 March 2013 (has links)
Le rôle de la microstructure trabéculaire et corticale dans la résistance osseuse et le risque de fracture est bien documenté mais son déterminisme génétique n’a pas encore été étudié. Pour savoir si la microarchitecture osseuse et le métabolisme osseux ont un déterminisme héréditaire, une étude épidémiologique transversale (étude MODAM) a été menée pour évaluer la ressemblance familiale de la microarchitecture osseuse chez les femmes ménopausées et leurs filles non ménopausées en utilisant la tomodensitométrie quantitative périphérique haute résolution (HR-pQCT). Nous avons constaté que les filles des femmes ayant subi une fracture ont une densité osseuse volumétrique totale (vBMD) plus faible, des corticales amincies, et une altération de la microarchitecture osseuse trabéculaire au niveau du radius distal et du tibia comparativement aux filles dont les mères n’ont pas eu de fracture. Une autre étude épidémiologique transversale (étude MINOS) a été menée pour évaluer la corrélation de la densité minérale osseuse (DMO), de la taille des os, des marqueurs du remodelage osseux (BTM) et des hormones de régulation du remodelage osseux dans des paires de frères et des paires d'hommes non apparentés, appariés pour l'âge, le poids et la taille. Nous avons constaté que la taille des os, la DMO à certains sites du squelette et la plupart des BTM étaient plus fortement corrélés chez les frères comparativement aux hommes non apparentés. Ces données suggèrent un déterminisme héréditaire substantiel des niveaux de BTM chez les hommes. En conclusion, nous développons et confirmons l'importance des facteurs familiaux dans la pathogénie de l'ostéoporose chez les femmes et les hommes / The role of trabecular and cortical microstructure in bone strength and fracture risk is well documented, but its genetic determinism has not yet been studied. To find whether the bone microarchitecture, and bone metabolism have a strong hereditary determinism, a crosssectional epidemiological study (MODAM study) was conducted, investigating the familial resemblance of bone microarchitecture in postmenopausal mothers and their premenopausal daughters using high-resolution peripheral quantitative computed tomography (HR-pQCT). We found that daughters of women with fracture have lower total volumetric bone mineral density (vBMD), thinner cortices, and impaired trabecular microarchitecture at the distal radius and tibia, compared with daughters of women without fracture. Another cross-sectional epidemiological study (MINOS study) was conducted to assess the correlation of bone mineral density (BMD), bone size, bone turnover markers (BTMs) and hormones regulating bone turnover in pairs of brothers and pairs of unrelated men, matched for age, weight and height. We found that bone size, BMD at some skeletal sites and most of the BTM levels correlated more strongly in the brothers than in the unrelated men. These data suggest a substantial hereditary determinism of the BTM levels in men. In conclusion, we expand and confirm the importance of familial factors in the pathogenesis of osteoporosis in both women and men
|
423 |
Quantitative single molecule imaging deep in biological samples using adaptive optics / Imagerie quantitative des molécules uniques en profondeur dans les échantillons biologique à l'aide d'optiques adaptativesButler, Corey 04 July 2017 (has links)
La microscopie optique est un outil indispensable pour la recherche de la neurobiologie et médecine qui permet l’étude des cellules dans leur environnement natif. Les processus sous-cellulaires restent néanmoins cachés derrière les limites de la résolution optique, ce qui rend la résolution des structures plus petites que ~300nm impossible. Récemment, les techniques de la localisation des molécules individuelles (SML) ont permis le suivi des protéines de l’échelle nanométrique grâce à l’ajustement des molécules uniques à la réponse impulsionnelle du système optique. Ce processus dépend de la quantité de lumière recueilli et rend ces techniques très sensibles aux imperfections de la voie d’imagerie, nommé des aberrations, qui limitent l’application de SML aux cultures cellulaires sur les lamelles de verre. Un système commercial d’optiques adaptatives est implémenté pour compenser les aberrations du microscope, et un flux de travail est défini pour corriger les aberrations dépendant de la profondeur qui rend la 3D SML possible dans les milieux biologiques complexes. Une nouvelle méthode de SML est présentée qui utilise deux objectifs pour détecter le spectre d’émission des molécules individuelles pour des applications du suivi des particules uniques dans 5 dimensions (x,y,z,t,λ) sans compromis ni de la résolution spatiotemporelle ni du champ de vue. Pour faciliter les analyses de manière quantitative des Go de données générés, le développement des outils biochimiques, numériques et optiques est présenté. Ensemble, ces approches ont le but d’amener l’imagerie quantitative des molécules uniques dans les échantillons biologiques complexes / Optical microscopy is an indispensable tool for research in neurobiology and medicine, enabling studies of cells in their native environment. However, subcellular processes remain hidden behind the resolution limits of diffraction-limited optics which makes structures smaller than ~300nm impossible to resolve. Recently, single molecule localization (SML) and tracking has revolutionized the field, giving nanometer-scale insight into protein organization and dynamics by fitting individual fluorescent molecules to the known point spread function of the optical imaging system. This fitting process depends critically on the amount of collected light and renders SML techniques extremely sensitive to imperfections in the imaging path, called aberrations, that have limited SML to cell cultures on glass coverslips. A commercially available adaptive optics system is implemented to compensate for aberrations inherent to the microscope, and a workflow is defined for depth-dependent aberration correction that enables 3D SML in complex biological environments. A new SML technique is presented that employs a dual-objective approach to detect the emission spectrum of single molecules, enabling 5-dimensional single particle imaging and tracking (x,y,z,t,λ) without compromising spatiotemporal resolution or field of view. These acquisitions generate ~GBs of data, containing a wealth of information about the localization and environment of individual proteins. To facilitate quantitative acquisition and data analysis, the development of biochemical, software and hardware tools are presented. Together, these approaches aim to enable quantitative SML in complex biological samples.
|
424 |
Système multi-agents pour l'auto-structuration du trafic aérien / Multiagent system for air traffic self-structuringBreil, Romaric 03 October 2017 (has links)
La gestion des flux de trafic aérien (ATFM) cherche à structurer le trafic de manière à réduire la congestion dans l'espace aérien. La congestion étant causée par les avions volant dans les mêmes portions de l'espace aérien en même temps, l'ATFM organise le trafic dans les dimensions spatiales (ex. le réseau de routes) et dans la dimension temporelle (ex. séquencement et fusion de flux d'avions atterrissant ou décollant aux aéroports). L'objectif de cette thèse est de développer une méthodologie qui permet au trafic aérien de s'auto-structurer dans les dimensions spatiales et temporelle quand la demande est élevée. Cette structuration disparait quand la demande diminue. Pour remplir cet objectif, un système multi-agents a été développé, dans lequel les avions coopèrent pour structurer le trafic. Les systèmes multi-agents possèdent plusieurs avantages, incluant une bonne résilience aux perturbations, la résilience étant la capacité du système à modifier ses décisions de manière à retrouver un état stable après l'occurrence d'une perturbation dans son environnement. Dans ce système, trois algorithmes sont implémentés, visant à réduire la com- plexité du trafic de trois manières différentes. Le premier algorithme permet aux agents avions volant sur un réseau de route de réguler leur vitesse de manière à ré- duire le nombre de conflits, un conflit se produisant quand deux avions ne respectent pas les normes de séparation. Le deuxième algorithme permet aux avions de résoudre les conflits quand le trafic n'est pas structuré par un réseau de routes. Le troisième algorithme crée des réseaux de routes locaux temporaires pour structurer le trafic. Les trois algorithmes implémentés dans ce système multi-agents permet de réduire la complexité globale du trafic, qui devient plus simple à gérer pour les contrôleurs aériens. Ces algorithmes sont appliqués à des exemples réalistes et sont capables de structurer le trafic de manière résiliente. / Air Traffic Flow Management (ATFM) aims at structuring traffic in order to reduce congestion in airspace. Congestion being linked to aircraft located at the same position at the same time, ATFM organizes traffic in the spatial dimension (e.g. route network) and in the time dimension (e.g. sequencing and merging of aircraft flows taking off or landing at airports). The objective of this thesis is to develop a methodology that allows the traffic to self-organize in the time and space dimensions when demand is high. This structure disappears when the demand diminishes. In order to reach this goal, a multi-agent system has been developed, in which aircraft cooperate to structure traffic. Multi-agent systems have several advantages, including a good resilience when confronted with disruptive events, resilience being the ability of the system to adapt its decisions in order to get back to a stable state when confronted to a disruption in its environment. In this system, three algorithms have been implemented, aiming at reducing traffic complexity in three different ways. The first algorithm allows aircraft agents flying on a route network to regulate speed in order to reduce the number of conflicts, a conflict occurring when two aircraft do not respect separation norms. The second algorithm allows aircraft to solve conflicts when the traffic is not structured by a route network. The third algorithm creates temporary local route networks allowing to structure traffic. The three algorithms implemented in this multi-agent system allow to decrease overall traffic complexity, which becomes easier to manage by air traffic controllers. This algorithm was applied on realistic examples and was able to structure traffic in a resilient way.
|
425 |
Micro-governance and citizen-based security in BrazilSlakmon, Catherine January 2007 (has links)
No description available.
|
426 |
Etude de la structure nanométrique et de la viscosité locale de l’espace extracellulaire du cerveau par microscopie de fluorescence de nanotubes de carbone uniques / A study of the nanoscale structure and local viscosity of the brain extracellular space by single carbon nanotubes fluorescence microscopyDanné, Noémie 30 October 2018 (has links)
Le cerveau est composé de neurones et de cellules gliales qui jouent un rôle de soutien et de protection du réseau cellulaire. L’espace extra-cellulaire (ECS) correspond à l’espace qui existe entre ces cellules. Les modifications de sa structure peuvent dépendre de plusieurs paramètres comme l’âge, l’apprentissage ou les maladies neuro-dégénératives. Le volume de l’ECS correspond à environ 20$%$ du volume total du cerveau et les neurotransmetteurs et autres molécules circulent dans cet espace pour assurer une communication neuronale optimale. Cependant, les dimensions et la viscosité locale de cet espace restent encore mal-connues. L’ECS est composé entre autres de protéoglycans, de glycoaminoglycans (acide hyaluronique…) et de fluide cérébrospinal. Nous avons proposé dans cette thèse une stratégie pour mesurer les dimensions et les propriétés rhéologiques de l’espace extra-cellulaire de tranches de cerveaux de rats maintenue en vie à l’aide du suivi de nanotubes de carbone individuels luminescents. Pour ces applications, nous avons étudier la biocompatibilité et le rapport signal sur bruit de nos échantillons de nanotubes afin de les détecter en profondeur dans les tranches de cerveaux et de pouvoir mesurer leurs propriétés de diffusion. / The brain is mainly composed of neurons which ensure neuronal communication and glialcells which play a role in supporting and protecting the neural network. The extracellular space corresponds to the space that exists between all these cells and represents around 20 %of the whole brain volume. In this space, neurotransmitters and other molecules circulate into ensure optimal neuronal functioning and communication. Its complex organization whichis important to ensure proper functioning of the brain changes during aging, learning or neurodegenerative diseases. However, its local dimensions and viscosity are still poorly known.To understand these key parameters, in this thesis, we developed a strategy based on the tracking of single luminescent carbon nanotubes. We applied this strategy to measure the structural and viscous properties of the extracellular space of living rodent brains slices at the nanoscale. The organization of the manuscript is as follows. After an introduction of the photoluminescence properties of carbon nanotubes, we present the study that allowed us to select the optimal nanotube encapsulation protocol to achieve our biological applications. We also present a quantitative study describing the temperature increase of the sample when laser irradiations at different wavelengths are used to detect single nanotubes in a brain slice.Thanks to a fine analysis of the singular diffusion properties of carbon nanotubes in complex environments, we then present the strategy set up to reconstruct super-resolved maps (i.e. with resolution below the diffraction limit) of the brain extracellular space morphology.We also show that two local properties of this space can be extracted : a structural complexity parameter (tortuosity) and the fluid’s in situ viscosity seen by the nanotubes. This led us to propose a methodology allowing to model the viscosity in situ that would be seen, not by the nanotubes,but by any molecule of arbitrary sizes to simulate those intrinsically present or administered in the brain for pharmacological treatments. Finally, we present a strategy to make luminescent ultra-short carbon nanotubes that are not intrinsically luminescent and whose use could be a complementary approach to measure the local viscosity of the extracellular space of the brain.
|
427 |
Recherches sur les coûts et les bénéfices de la nouvelle régulation bancaire. Applications au cas européen / Essays on the costs and the benefits of the new regulatory framework : An application to European banksToader, Oana 05 July 2016 (has links)
L’arbitrage entre la stabilité et l’efficience des systèmes bancaires a toujours été au coeur de la définition desdispositifs de régulation bancaire. Cette thèse analyse comment cet arbitrage a été conçu et dans quelle mesure ila permis de concilier les deux types d’objectifs, c’est-à-dire les coûts et les bénéfices de la nouvelle réglementation.Nous évaluons, dans une première partie, l’impact des exigences renforcées en fonds propres et en liquidité sur lecoût du capital et sur l’activité bancaire. Les résultats empiriques montrent de manière générale que les coûts desnormes imposées par Bâle III sont relativement faibles et ont un impact limité sur l’activité de crédit. Nous mettonsen évidence un effet différencié selon les différentes catégories de banques, selon leur taille, importance systémique oubusiness model. Un autre constat tiré de cette étude concerne les anomalies dans la tarification du risque, généréespar l’existence des garanties implicites. C’est pourquoi, la seconde partie est consacrée à leur analyse approfondie etaux mesures mises en place pour éliminer le fameux problème de too big to fail. Même si des mesures ambitieusesont été adoptées par les autorités de régulation, les distorsions liées à l’activité des banques TBTF persistent. On envient à s’interroger, dans le cadre de la dernière partie, sur l’amélioration de la stabilité des institutions. Les résultatsmontrent que la mise en place des bonnes incitations, notamment grâce à des standards prudentiels adéquats, pourraits’avérer comme une solution efficiente pour réduire les risques financiers (probabilité de défaut, sensibilité au risquesystémique, perte en cas de scénario adverse). Ces différentes questions sont analysées pour les banques européennes.La démarche retenue est principalement empirique et les aspects microéconomiques ont été privilégiés. / The arbitrage between financial stability and the efficiency of banking systems has always been a key issue indefining the prudential regulation. This thesis analyses how this arbitrage is conceived and the extent to which itallows to reconcile the two objectives, namely the cost and the benefits of the new regulatory framework. We firstfocus on the impact of the new capital and liquidity requirements on the cost of capital and on banking activities. Ourfindings indicate that, globally, the cost of the recent reform is relatively low and does not have a significant impacton lending. We also emphasize a differentiated effect according to banks’ size, systemic importance and businessmodel. The existence of various distortions, affecting the pricing of risk, motivates the second part of the thesis, whichis dedicated to the analysis of implicit guarantees. We also assess the impact of resolution regimes and practices inending the too big to fail anomaly. Although ambitious measures have been undertaken, there is still a way to go toeliminate these distortions. In the third part, we examine the contribution of solvency and liquidity requirements tostrengthen the resilience of banks. The results indicate that setting up good incentives, through adequate prudentialstandards, could efficiently reduce financial risks (default probability, systemic risk, capital shortfall in case of adversescenario). The approach adopted in this thesis focuses on microeconomic aspects and is based on empirical studiesapplied to a sample of European banks.
|
428 |
La régulation du conflit impliquant le nom de domaine : articulation des sources / The regulation of domain name disputes : articulation of sourcesFau, Jean 30 September 2015 (has links)
Les noms de domaine sont des objets polymorphes, à la fois techniques et sémantiques. La question de leur régulation, avec l’essor du Domain Name System, est rapidement devenue un défi de taille pour le législateur. Face à une certaine défaillance du droit étatique s’est développé un véritable corpus supplétif de source privée. C’est notamment le cas des procédures extrajudiciaires de résolution des conflits mises en places par l’ICANN. Ces différents mécanismes de nature transnationale forment un ensemble cohérent, en constante évolution, que l’on peut qualifier de véritable lex domainia. Ce concept implique cependant une vision nécessairement pluraliste du droit - où cohabitent systèmes publics, privés et hybrides -, qui invite le juriste à repenser la théorie des sources. Cette thèse contribue à la compréhension de la nature et de l’articulation de ces différentes sphères normatives. Celles-ci ne doivent pas être considérées comme des espaces clos et hermétiques ; il existe entre eux des perméabilités qui dessinent un dispositif de régulation transnational aux sources plurielles. Il s’agit, selon l’auteur, d’une parfaite illustration de la théorie du réseau. / Domain names are polymorphic objects, whose nature is both technical and semantic. The question of their regulation has quickly become, with the rapid growth of the Domain Name System, a major challenge for the lawmaker. A certain default of state law favored the development of what one might call a private supplementary corpus. This is notably the case for extrajudicial domain name dispute resolution mechanisms promoted by the ICANN. These various transnational mechanisms form a coherent whole, in constant evolution, which can be described as a real lex domainia. This concept, however, necessarily implies a pluralistic conception of law - where public, private and hybrid systems cohabit -, which invites legal theorists to rethink the sources theory. This thesis contributes to the understanding of the nature and the articulation of these various normative spheres. These should not be regarded as closed and hermetic spaces ; permeabilities exist between them, that draw a transnational regulation pattern with plural sources. This is, according to the author, a perfect illustration of the mesh theory.
|
429 |
Apprentissage actif pour la classification des occupations du sol sur larges étendues à partir d'images multispectrales à haute résolution spatiale : application en milieu cultivé, Lebna (Cap-Bon Tunisie) / Active learning for Mapping land cover on wide area, from high spatial resolution satellite images : application in cultivated areas, Lebna (Cap-Bon Tunisie)Ben Slimene Ben Amor, Ines 23 November 2017 (has links)
Les activités anthropiques dans le bassin méditerranéen sont en forte évolution. Dans les zones agricoles, cette croissance entraîne des évolutions considérables de l'occupation du sol. Cette activité agricole exerce un impact majeur sur le fonctionnement hydrologique des paysages qui n'est identifiable qu'à une échelle bien plus large, sur plusieurs dizaines de km². Cette thèse se concentre sur la classification de l'occupation du sol sur une large étendue à partir d'une image monodate à haute résolution spatiale (SPOT6/7).Dans ce contexte, les données d'apprentissage sont collectées par des enquêtes terrain, par conséquent, elles sont très limitées. Les méthodes d'apprentissage supervisées sont généralement utilisées, en supposant que la distribution des classes est stable sur toute l'image. Cependant, en pratique, on constate une distorsion des distributions des classes (apparition de nouvelles classes, disparition de classes). Ce problème, intitulé "datashift", se produit souvent sur des larges étendues. Ainsi le modèle construit sur les données d'apprentissage initiales s'avère sous optimal pour la classification de l'image entière. Pour atténuer ce problème, les techniques d'apprentissage actif définissent un ensemble d'apprentissage efficace, en l'adaptant itérativement par l'ajout des données non labellisées les plus informatives. Ces techniques permettent d'améliorer le modèle de classification tout en conservant un petit ensemble d'apprentissage initial. L'échantillonnage se base généralement sur deux métriques : l'incertitude et la diversité.Dans cette thèse, nous montrons l'apport des techniques d'apprentissage actif pour la cartographie de l'occupation du sol en milieu agricole, en proposant un échantillonnage adapté par parcelle.L'apport des méthodes d'apprentissage actif est validé par rapport à une sélection aléatoire des parcelles. Une métrique de diversité basée sur l'algorithme Meanshift a été proposée.Dans un deuxième temps, nous avons traité le sous-problème du "datashift" qui est l'apparition de nouvelles classes. Nous avons proposé de nouvelles métriques de diversité basées sur l'algorithme Meanshift et les Fuzzy k-means ainsi qu'une nouvelle stratégie de sélection des données adaptées à la détection de nouvelles classes.Dans la dernière partie, nous nous sommes intéressés aux contraintes spatiales induites par les observations sur terrain et nous avons proposé une stratégie de labellisation par points de vue qui permet de diminuer largement les coûts humains d'observations terrain tout en gardant de bonnes précisions de classification ainsi que la découverte des nouvelles classes.Les méthodes proposées ont été testées et validées avec une image multispectrale SPOT6 à 6m de résolution sur le bassin versant de Lebna, Cap-Bon, Tunisie. / Anthropogenic activities in the Mediterranean are in strong evolution. In agricultural areas, this growth leads to considerable changes in land cover. This agricultural activity has a major impact on the hydrological functioning of the landscapes which can be only identified on a wide scale, over several tens of km². This thesis focuses on the land cover classification on wide area from a high spatial resolution monodate image (SPOT6/7).In this context, the learning data are collected by field surveys, therefore they are very limited. Supervised learning methods are generally used, assuming that the class distribution is stable over all the image. However, in practice, there is a class distributions distortion (new classes appear, classes disappear). This problem, called "datashift", always occurs over wide areas. Thus, the model constructed on the initial learning data is sub-optimal for the classification of the entire image. To lessen this problem, active learning techniques define an effective learning set, by iteratively adapting it by adding the most informative unlabeled data. These techniques improve the classification model while retaining a small initial learning set. Sampling is generally based on two metrics: uncertainty and diversity.In this thesis, we show the contribution of active learning techniques for the land cover mapping in agricultural environment, proposing a suitable sampling per parcel.The active learning methods contribution is validated respectively to a random selection of parcels. A diversity metric based on the Meanshift algorithm has been proposed.Secondly, we treated the sub-problem of the "datashift" which is the appearance of new classes. We proposed new metrics of diversity based on the Meanshift algorithm and Fuzzy k-means as well as a new data selection strategy adapted to the detection of new classes.Finally we were interested in the spatial constraints induced by the field observations and we proposed a strategy of labeling by stand points which make it possible to greatly reduce the human costs for field observations while maintaining good classification precisions as well as the discovery of new classes.The proposed methodologies were tested and validated on a multispectral SPOT6 image with 6m resolution on the Lebna watershed, Cap-Bon, Tunisia.
|
430 |
Suivi des glaciers alpins par combinaison d'informations hétérogènes : images SAR Haute Résolution et mesures terrain / Monitoring alpine glaciers by combination of heterogeneous informations : High Resolution SAR image and ground measurementsFallourd, Renaud 04 April 2012 (has links)
Les travaux présentés dans cette thèse concernent l’utilisation de données de télédétection inédites pour le suivi des glaciers du massif du Mont Blanc : les images radar à synthèse d’ouverture Haute Résolution (HR) du satellite TerraSAR-X et les prises de vue HR d’un appareil photo numérique automatique. Cette thèse s’attache à montrer l’apport de ces sources d’informations hétérogènes pour mesurer le déplacement de surface des glaciers alpins. Dans cette optique, un examen des méthodes de mesure de déplacement spécifiques à chacun des deux types d’images est réalisé. Deux approches sont alors explorées : la mesure de déplacement monosource dans la géométrie propre à chaque capteur et la mesure de déplacement multisource via des combinaisons intra-capteur et inter-capteur. Alors que l’approche monosource fournit uniquement des mesures 2D du déplacement, les mesures multisources permettent pour la première fois d’estimer des champs de déplacement 3D de la surface des glaciers du Mont Blanc. Les mesures ont été réalisées sur plusieurs séries temporelles d’images couvrant la période 2008-2009 pour quatre glaciers du massif du Mont Blanc (Argentière, Mer de Glace/Leschaux, Bossons et Taconnaz). Dans le contexte du changement climatique, ces mesures de déplacement de surface fournissent une donnée intéressante en glaciologie pour contraindre les modèles numériques d’écoulement et d’évolution des glaciers. / The works presented in this PhD thesis focuses on the use of new remote sensing data for "massif du Mont Blanc" glaciers’ monitoring: High Resolution (HR) synthetic aperture radar images of TerraSAR-X satellite and HR shooting of the automatic digital camera. This thesis will show the contribution of this heterogeneous information to the measurement of the surface displacement of alpine glacier. For this purpose, a review of displacement measurement methods specific to each of the two types of image is proposed. Then two approaches are explored: the mono-source displacement measurement in the geometry for each sensor and the multi-source displacement measurement via intra-sensor and inter-sensor combinations. While the mono-source approach provides only 2D displacement measurements, multi-source measurements allow, for the first time, the estimation of 3D surface displacement fields of the Mont Blanc glaciers. The measurements were performed on several image time series covering the period 2008-2009 for four Mont Blanc glaciers (Argentière, Mer de Glace/Leschaux, Bossons et Taconnaz). In the context of global warming, these surface displacement measurements provide interesting data in the glaciology domain in order to constrain flow and evolution digital models.
|
Page generated in 0.0772 seconds