• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 192
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 963
  • 354
  • 284
  • 190
  • 150
  • 103
  • 94
  • 91
  • 89
  • 89
  • 87
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
691

Development and validation of innovative ultrasound flow imaging methods / Développement et validation de nouvelles méthodes d'imagerie du flux par ultrasons

Lenge, Matteo 17 March 2015 (has links)
L'échographie est largement utilisée pour l'imagerie du flux sanguin pour ses nombreux avantages tels que son inocuité, son cout réduit, sa facilité d'utilisation et ses performances. Cette thèse a pour objectif de proposer de nouvelles méthodes ultrasonores d'imagerie du flux sanguin. Après une étude bibliographique, plusieurs approches ont été étudiées en détail jusqu'à leur implémentation sur l'échographe de recherche ULA-OP développé au sein du laboratoire et ont été validées en laboratoire et en clinique. La transmission d'ondes planes a été proposée pour améliorer la technique d'imagerie utilisant les oscillations transverses. Des champs de pression ultrasonores présentant des oscillations transverses sont générés dans de larges régions et exploités pour l'estimation vectorielle du flux sanguin à une haute cadence d'imagerie. Des cartes du flux sanguin sont obtenues grâce à une technique s'appuyant sur la transmission d'ondes planes couplées à un nouvel algorithme d'estimation de la vitesse dans le domaine fréquentiel. Les méthodes vectorielles implémentées en temps réel dans le ULA-OP ont été comparées à la méthode Doppler classique lors d'une étude clinique. Les résultats ont montré le bénéfice des méthodes vectorielles en termes de précision et de répétabilité. La nouvelle méthode proposée a démontré sa grande précision ainsi que son gain en termes de temps de calcul aussi bien en simulations qu'en acquisitions en laboratoire ou lors d'essais in vivo. Une solution logicielle temps réel implémentée sur une carte GPU a été proposée et testée afin de réduire encore le temps de calcul et permettre l'emploi de la méthode en clinique / Ultrasound is widely used for blood flow imaging because of the considerable advantages for the clinician, in terms of performance, costs, portability, and ease of use, and for the patient, in terms of safety and rapid checkup. The undesired limitations of conventional methods (1-D estimations and low frame-rate) are widely overtaken by new vector approaches that offer detailed descriptions of the flow for a more accurate diagnosis of cardiovascular system diseases. This PhD project concerns the development of novel methods for blood flow imaging. After studying the state-of-the-art in the field, a few approaches have been examined in depth up to their experimental validation, both in technical and clinical environments, on a powerful ultrasound research platform (ULA-OP). Real-time novel vector methods implemented on ULA-OP were compared to standard Doppler methods in a clinical study. The results attest the benefits of the vector methods in terms of accuracy and repeatability. Plane-wave transmissions were exploited to improve the transverse oscillation imaging method. Double oscillating fields were produced in large regions and exploited for the vectorial description of blood flow at high frame rates. Blood flow maps were obtained by plane waves coupled to a novel velocity estimation algorithm operating in the frequency domain. The new method was demonstrated capable of high accuracy and reduced computational load by simulations and experiments (also in vivo). The investigation of blood flow inside the common carotid artery has revealed the hemodynamic details with unprecedented quality. A software solution implemented on a graphic processing unit (GPU) board was suggested and tested to reduce the computational time and support the clinical employment of the method
692

Méthodes de démélange et de fusion des images multispectrales et hyperspectrales de télédétection spatiale / Unmixing and fusion methods for remote sensing multispectral and hypersectral images

Benhalouche, Fatima Zohra 03 May 2018 (has links)
Au cours de cette thèse, nous nous sommes intéressés à deux principales problématiques de la télédétection spatiale de milieux urbains qui sont : le "démélange spectral " et la "fusion". Dans la première partie de la thèse, nous avons étudié le démélange spectral d'images hyperspectrales de scènes de milieux urbains. Les méthodes développées ont pour objectif d'extraire, d'une manière non-supervisée, les spectres des matériaux présents dans la scène imagée. Le plus souvent, les méthodes de démélange spectral (méthodes dites de séparation aveugle de sources) sont basées sur le modèle de mélange linéaire. Cependant, lorsque nous sommes en présence de paysage non-plat, comme c'est le cas en milieu urbain, le modèle de mélange linéaire n'est plus valide et doit être remplacé par un modèle de mélange non-linéaire. Ce modèle non-linéaire peut être réduit à un modèle de mélange linéaire-quadratique/bilinéaire. Les méthodes de démélange spectral proposées sont basées sur la factorisation matricielle avec contrainte de non-négativité, et elles sont conçues pour le cas particulier de scènes urbaines. Les méthodes proposées donnent généralement de meilleures performances que les méthodes testées de la littérature. La seconde partie de cette thèse à été consacrée à la mise en place de méthodes qui permettent la fusion des images multispectrale et hyperspectrale, afin d'améliorer la résolution spatiale de l'image hyperspectrale. Cette fusion consiste à combiner la résolution spatiale élevée des images multispectrales et la haute résolution spectrale des images hyperspectrales. Les méthodes mises en place sont des méthodes conçues pour le cas particulier de fusion de données de télédétection de milieux urbains. Ces méthodes sont basées sur des techniques de démélange spectral linéaire-quadratique et utilisent la factorisation en matrices non-négatives. Les résultats obtenus montrent que les méthodes développées donnent globalement des performances satisfaisantes pour la fusion des données hyperspectrale et multispectrale. Ils prouvent également que ces méthodes surpassent significativement les approches testées de la littérature. / In this thesis, we focused on two main problems of the spatial remote sensing of urban environments which are: "spectral unmixing" and "fusion". In the first part of the thesis, we are interested in the spectral unmixing of hyperspectral images of urban scenes. The developed methods are designed to unsupervisely extract the spectra of materials contained in an imaged scene. Most often, spectral unmixing methods (methods known as blind source separation) are based on the linear mixing model. However, when facing non-flat landscape, as in the case of urban areas, the linear mixing model is not valid any more, and must be replaced by a nonlinear mixing model. This nonlinear model can be reduced to a linear-quadratic/bilinear mixing model. The proposed spectral unmixing methods are based on matrix factorization with non-negativity constraint, and are designed for urban scenes. The proposed methods generally give better performance than the tested literature methods. The second part of this thesis is devoted to the implementation of methods that allow the fusion of multispectral and hyperspectral images, in order to improve the spatial resolution of the hyperspectral image. This fusion consists in combining the high spatial resolution of multispectral images and high spectral resolution of hyperspectral images. The implemented methods are designed for urban remote sensing data. These methods are based on linear-quadratic spectral unmixing techniques and use the non-negative matrix factorization. The obtained results show that the developed methods give good performance for hyperspectral and multispectral data fusion. They also show that these methods significantly outperform the tested literature approaches.
693

Thermodynamique et turbulence dans les épisodes de vent fort sur le Golfe du Lion / Thermodynamics and tubulence during cold air outbreaks over the Gulf of Lion

Brilouet, Pierre-Etienne 28 November 2017 (has links)
En période hivernale, le golfe du Lion est sujet à des conditions de vents régionaux forts (Mistral et/ou Tramontane) qui transportent des masses d'air continentales froides et sèches au dessus de la mer. Ces événements, les Cold Air Outbreaks (CAO) , conduisent à d'intenses échanges air-mer et donc à un pompage de chaleur qui favorise la formation d'eaux denses et le déclenchement de la convection océanique profonde. La bonne représentation de ces échanges air-mer intenses dans les modèles de climat et de prévision numérique du temps reste à l'heure actuelle une problématique majeure. Elle est au cœur du projet ASICS-MED centré sur compréhension des mécanismes de formation d'eaux denses en Méditerranée et qui s'inscrit dans le cadre de la thématique " Échanges air-mer intenses " du programme HyMeX dédié à l'étude du cycle de l'eau en Méditerranée. Les processus qui s'opèrent au sein de la couche limite atmosphérique marine (CLAM) et de la couche de mélange océanique (CMO) interagissent entre eux à différentes échelles spatiales et temporelles. La compréhension de l'évolution globale de la CLAM mais également des mécanismes locaux nécessitent la prise en compte de l'ensemble des processus. L'étude présentée ici est consacrée à la structure moyenne et turbulente de la CLAM en conditions de vents forts. L'objectif est de déterminer comment l'organisation du champ turbulent est impactée lors d'épisodes de CAO et d'estimer les flux de surface associés à ces conditions de vents forts. La méthodologie adoptée est basée sur l'utilisation conjointe d'observations aéroportées collectées lors de la campagne de mesure SOP2 d'HyMeX et de simulations numériques. La campagne de mesure SOP2 d'HyMeX qui a eu lieu au cours de l'hiver 2013 dans le golfe du Lion a permis de documenter grâce à l'avion de recherche ATR42 la structure moyenne et turbulente de la CLAM lors de 11 épisodes de CAO. Une analyse spectrale s'appuyant sur un modèle analytique a été réalisé sur 181 paliers (i.e. segments de vol rectilignes et stabilisés en altitude). Les profils verticaux des échelles turbulentes caractéristiques ainsi que la forme du spectre de la vitesse verticale ont permis de mettre en évidence un allongement des structures énergétiques dans l'axe du vent moyen associé à l'organisation du champ turbulent sous la forme de rouleaux longitudinaux. Une description unidirectionnelle du champ turbulent tridimensionnel peut conduire à une représentativité limitée des structures cohérentes au sein des échantillons. Cependant, la connaissance des profils de flux sur toute l'épaisseur de la CLAM est nécessaire pour l'estimation des échanges air-mer. Une méthode de correction des flux turbulents calculés par eddy correlation a été appliqué afin de prendre en compte les erreurs systématique et aléatoire relatives à la mesure et au traitement de données. Cette correction a permis de déterminer les meilleures estimations possibles des flux extrapolés à la surface avec une marge d'incertitude pour les 11 épisodes de CAO documentés lors de la campagne SOP2 d'HyMeX. La comparaison de ces estimations aéroportées aux autres sources d'information dérivées de paramétrisations des flux a permis de mettre en évidence une sous-estimation systématique du flux de chaleur latente en conditions de vents forts. Une approche numérique a permis de compléter l'analyse de la structure moyenne et turbulente de la CLAM lors d'épisodes de CAO. / During winter, local strong winds (Mistral or Tramontana) occurred in the Gulf of Lion which bring cold and dry continental air over a warmer sea. Those events, the cold air outbreaks, can lead to intense air-sea interactions which favour dense water formation and deep oceanic convection. The representation of air-sea exchanges is a fundamental aspect of of climate modelling and numerical weather forecasting. The ASICS-MED project aims to identify fine-scale processes leading to dense water formation and is a part of the "Intense air-sea exchanges" topic of the HyMeX program devoted to hydrological cycle in the Mediterranean. The processes occurring within the marine atmospheric boundary layer (MABL) and the oceanic mixing layer (ML) interact with one another at different spatial and temporal scales. Understanding the overall evolution of the MABL but also the local mechanisms requires taking into account all the processes. The study presented here is devoted to the mean and turbulent structure of the MABL under strong wind conditions. The objective is to determine how the organization of the turbulent field is impacted during CAO events and to estimate the surface fluxes associated with these strong wind conditions. The methodology adopted is based on the joint use of airborne observations collected during the HyMeX-SOP2 field campaign and numerical simulations. The HyMeX-SOP2 field campaign took place during the winter of 2013 in the Gulf of Lion. The research aircraft ATR42 was operated to document the mean and turbulent structure of the MABL during 11 CAO events. A spectral analysis based on an analytic model was carried out on 181 legs (i.e. stacked straight and level runs stabilized in altitude). The vertical profiles of the turbulent characteristic scales as well as the shape of the vertical velocity spectrum revealed an elongation of the energy structures in the mean wind direction associated with the organization of the turbulent field into longitudinal rolls. A unidirectional sampling of the three-dimensional turbulent field may lead to a limited representativeness of the coherent structures within the samples. However, knowledge of kinematic fluxes profiles over the entire thickness of the CLAM is necessary to estimate air-sea exchanges. A correction method was applied to turbulent fluxes calculated by eddy correlation in order to take into account systematic and random errors related to measurement and data processing. This correction made it possible to determine the best possible estimates of the extrapolated surface fluxes with a margin of uncertainty for the 11 CAO events documented during the HyMeX-SOP2 field campaign. The comparison of these airborne estimates with the other sources of information derived from bulk parameterizations show a systematic underestimation of the latent heat flux under strong wind conditions. A numerical approach allowed to complete the analysis of the mean and turbulent structure of the MABL during CAO events. The numerical study, based on the non-hydrostatic Meso-NH model, focuses on an episode of strong Tramontana with winds greater than 25m/s documented during the HyMeX-SOP2 field campaign. In a first step, a one-dimensional framework made it possible to understand the forcing terms necessary to reproduce in a realistic way the development of the observed MABL. This reference configuration allowed, in a second time, a Large-Eddy Simulation of the CAO event. This simulation has been validated using airborne data and has allowed to deepen the description of the turbulent field as well as the evolution of the coherent structures oriented in the axis of the mean wind.
694

Modélisation de l'oscillation Madden-Julian lors de son passage sur l'océan Indien et le continent maritime / Modelling the Madden-Julian oscillation during its passage over the Indian Ocean and the Maritime continent

Kuznetsova, Daria 18 September 2018 (has links)
L'oscillation de Madden-Julian (MJO) est la composante dominante de la variabilité intrasaisonnière dans l'atmosphère tropicale, se propageant vers l'est dans la bande équatoriale. Elle se compose d'un centre convectif (phase active) accompagné de la convergence des anomalies du vent zonal de bas niveau et de la divergence de niveau supérieur, et de zones de convection faible (phases supprimées). Trois périodes de l'activité MJO sur l'océan Indien et le continent maritime ont été choisies : 6-14 avril 2009, 23-30 novembre 2011 et 9-28 février 2013. Les simulations avec et sans paramétrisation de la convection ont été réalisées pour un grand domaine avec le modèle atmosphérique Méso-NH. Il a été obtenu que les simulations avec convection paramétrée n'étaient pas capables de reproduire un signal MJO. Pour 2009 et 2011, lorsque le couplage entre la convection et la circulation de grande échelle était fort, les simulations avec convection explicite ont montré une propagation visible de la MJO, ce qui n'a pas été le cas pour 2013. Pour 2011, les processus contribuant à la suppression de la convection ont été étudiés avec une analyse isentropique pour séparer les masses d'air ascendantes ayant une température potentielle équivalente élevée des masses d'air subsidentes ayant une température potentielle équivalente faible. Trois circulations de grande échelle ont été trouvées : une circulation troposphérique, une circulation de percées nuageuses dans la couche de tropopause tropicale, et une circulation de masses d'air à faible température potentielle équivalente dans la basse troposphère. Cette dernière correspond aux intrusions d'air sec de grande échelle des zones subtropicales dans la bande équatoriale, trouvées principalement pendant la phase supprimée de la MJO sur l'océan Indien. / The Madden-Julian Oscillation (MJO) is the dominant component of the intraseasonal variability in the tropical atmosphere, propagating eastward in the equatorial band. It consists of a convective center (active phase) accompanied by the low-level zonal wind anomaly convergence and the upper-level zonal wind anomaly divergence, and zones of weak convection (suppressed phases). Three time periods of the MJO activity over the Indian Ocean and the Maritime Continent were chosen: 6-14 April 2009, 23-30 November 2011, and 9-28 February 2013. The simulations with and without convective parameterizations were performed for a large domain with the atmospheric model Méso-NH. It was obtained that the simulations with parameterized convection were not able to reproduce an MJO signal. For 2009 and 2011 when the coupling between convection and large-scale circulation was strong, the convection-permitting simulations showed a visible MJO propagation, which was not the case for 2013. For the 2011 episode, the processes contributing to the suppression of the convection were studied using an isentropic analysis to separate the ascending air masses with high equivalent potential temperature from the subsiding air masses with low equivalent potential temperature. Three large-scale circulations were found: a tropospheric circulation, an overshoot circulation within the tropical tropopause layer, and a circulation of air masses with low equivalent potential temperature in the lower troposphere. The latter corresponds to the large-scale dry air intrusions from the subtropical zones into the equatorial band, mostly found during the suppressed MJO phase over the Indian Ocean.
695

Localisation et suivi d'humains et d'objets, et contrôle de robots au travers d'un sol sensible / Spatial computing for ambient intelligence, sensing and services of load-sensing floors

Andries, Mihai 15 December 2015 (has links)
Cette thèse explore les capacités d’une intelligence ambiante équipée d’un réseau de capteurs de pression au sol. Elle traite le problème de la perception d’un environnement au travers un réseau de capteurs de basse résolution. Les difficultés incluent l’interpretation des poids dispersés pour des objets avec multiples supports, l’ambiguïté de poids entre des objets, la variation du poids des personnes pendant les activités dynamiques, etc. Nous introduisons des nouvelles techniques, partiellement inspirées du domaine de la vision par l’ordinateur, pour la détection, le suivi et la reconnaissance des entités qui se trouvent sur le sol. Nous introduisons également des nouveaux modes d’interaction entre les environnements équipés de tels capteurs aux sols, et les robots qui évoluent dans ces environnements. Ceci permet l’interprétation non-intrusive des événements qui ont lieu dans des environnements dotés d’une intelligence ambiante, avec des applications dans l’assistance automatisée à domicile, l’aide aux personnes âgées, le diagnostic continu de la santé, la sécurité, et la navigation robotique / This thesis explores the capabilities of an ambient intelligence equipped with a load-sensing floor. It deals with the problem of perceiving the environment through a network of low-resolution sensors. Challenges include the interpretation of spread loads for objects with multiple points of support, weight ambiguities between objects, variation of persons’ weight during dynamic activities, etc. We introduce new techniques, partly inspired from the field of computer vision, for detecting, tracking and recognizing the entities located on the floor. We also introduce new modes of interaction between environments equipped with such floor sensors and robots evolving inside them. This enables non-intrusive interpretation of events happening inside environments with embedded ambient intelligence, with applications in assisted living, senile care, continuous health diagnosis, home security, and robotic navigation
696

Well-controlled and well-described SAMs-based platforms for the study of material-bacteria interactions occuring at the molecular scale / Des plateformes monocouches moléculaires auto-assemblées, contrôlées et décrites de façon approfondie, pour l'étude des interactions matériau-bactérie à l'échelle moléculaire

Böhmler, Judith 11 September 2012 (has links)
L'adhésion bactérienne est la première étape du processus de formation d'un biofilm et est un enjeu majeur de la recherche depuis plusieurs dizaines d'années. Les biofilms ont des conséquences parfois dramatiques dans des domaines comme la santé, l'agroalimentaire ou la purification des eaux usées. Toutefois, l'adhésion bactérienne reste un phénomène mal compris. Dans cette thèse, l'adhésion bactérienne est étudiée sur des surfaces modèles très bien organisées et structurées, de chimie de surface variable à l'échelle moléculaire. Une méthodologie de caractérisation adaptée aux monocouches déposées sur wafers de silicium est proposée. Des surfaces modèles composées de monocouches mixtes auto-assemblées de densités variables de NH2 dans un continuum de CH, sont développées et optimisées. Ces surfaces contrôlées, de densités de 0% NH2 à 100% NH2 dans CH3, sont utilisées comme outil pour étudier l'adhésion bactérienne en conditions de culture « batch »et « temps réel ». Les résultats montrent un impact significatif sur l'adhésion bactérienne de faibles différences chimiques à l'échelle moléculaire. Les résultats des expériences menées en conditions « batch » permettent de déterminer deux zones « plateau » dans lesquelles l'adhésion bactérienne ne varie pas significativement malgré des variations importantes de la concentration en groupements amine sur la surface. Une zone de transition entre les zones « plateau » est mise en évidence, dans laquelle une faible modification de la concentration en groupement amine mène à l'augmentation / diminution significative du nombre de bactéries adhérées. Cette tendance est montrée pour deux souches différentes de bactérie. / Bacterial adhesion is the first step of biofilm formation and in the focus of research interest since several decades. Biofilms cause many problems, sometimes dramatic, for example in health, food packing or waste water purification. Despite of high interest, bacterial adhesion process is only poorly understood yet. In this work, bacterial adhesion was investigated on well-organized and structured model surfaces with various chemistries at molecular scale. For that purpose a characterization methodology was developed to sufficiently analyze monolayers on silicon wafers, and controlled mixed monolayers surfaces with different densities of NH 2 backfilled with CH3 were developed and optimized. These controlled surfaces with different densities of 0 % NH2 up to 100% NH2 were eventually used as tool to study bacterial adhesion in batch and real time conditions. The results demonstrate a significant impact on bacterial adhesion of weak difference in the surface chemistry at molecular scale. In the batch experiments, two so-called "plateaus" zones were determined, in which bacterial adhesion is not significantly different despite the change of the amine concentration on the surface. On the contrary, one transition zone exists between the "plateaus" in which a slight chunge.in the amine concentration leads to a significant increase / decrease of the bacterial adhesion. The same trend of bacteria behavior was observed for different bacterial strains.
697

Optique adaptative et interférométrie spatialement incohérente plein champ pour l’imagerie de la rétine / Adaptive optics in full-field spatially incoherent interferometry and its retinal imaging

Xiao, Peng 16 November 2017 (has links)
Cette thèse traite de l’étude et du développement d’un système d’optique adaptative pour la tomographie par cohérence optique plein champ (AO-FFOCT en anglais) appliquée à l’imagerie haute résolution de la rétine. L’analyse de l’effet des aberrations géométriques sur les performances en FFOCT a montré que pour une illumination spatialement incohérente, la résolution transverse est insensible aux aberrations et ne fait que diminuer le niveau du signal. Comme ce sont des aberrations de bas ordres comme la myopie et l’astigmatisme qui prédominent pour l’œil humain, une méthode d’optique adaptative avec une configuration sans conjugaison qui utilise une correction de front d’onde en transmission est suggérée, puis appliquée à la correction de ces ordres afin de simplifier le système d’AO-FFOCT. Des corrections de front d’onde sont effectuées sans analyseur de surface d’onde, en utilisant le niveau du signal de FFOCT comme métrique. Des expériences avec des échantillons diffusants et un œil artificiel sont menées pour démontrer la faisabilité d’un système d’AO-FFOCT conçu pour la correction d’aberration. Afin de résoudre les problèmes posés par les mouvements oculaires et de compenser en temps réel la différence de chemin optique entre les deux bras de l’interféromètre, l’instrument de FFOCT est couplé à un système d’OCT spectral. Avec cette combinaison de systèmes, l’imagerie FFOCT in vivo cellulaire de la rétine à haute résolution a été réalisée pour la première fois sur l’œil humain. / This thesis follows the study and development of an adaptive optics full-field optical coherence tomography (AO-FFOCT) system, aiming for high resolution en face human retinal imaging. During the quantification of the effects of geometrical aberrations on the FFOCT system performance, it is shown that, with spatially incoherent illumination, the lateral resolution of FFOCT is insensitive to aberrations, which only cause the FFOCT signal reduction. Since low order aberrations like myopia and astigmatism dominate in human eye, a non-conjugate AO configuration by using transmissive wavefront corrector is suggested and applied for low order aberrations correction to simplify the AO-FFOCT system. Wavefront corrections are done with a wavefront sensorless method by using FFOCT signal level as the metric. Experiments with scattering samples and artificial eye model are conducted to demonstrate the feasibility of the customized AO-FFOCT system for aberration correction. In order to resolve the eye motion effects and employ real-time matching of the optical path lengths of the two interferometric arms in FFOCT, a system combination of traditional spectral-domain OCT (SDOCT) with FFOCT is adopted. With this combined system, high resolution FFOCT cellular retinal imaging is achieved in human eye in vivo for the first time.
698

Méthodes d'analyse de texture pour la cartographie d'occupations du sol par télédetection très haute résolution : application à la fôret, la vigne et les parcs ostréicoles / Texture analysis approach for soil occupation mapping using very high resolution remote sensing data : application to forest, vineyards and oyster parks

Regniers, Olivier 11 December 2014 (has links)
Le travail présenté dans cette thèse a pour objectif d’évaluer le potentiel de modèles probabilistes multivariés appliqués sur les sous-bandes d’une décomposition en ondelettes pour la classification d’images de télédétection optiques à très haute résolution spatiale. Trois thématiques principales ont été investiguées dans ce travail : la différenciation de classes d’âge de peuplements de pins maritimes, la détection de parcelles viticoles et la détection de parcs ostréicoles. Une contribution originale concerne la proposition d’une chaîne traitement pour une classification supervisée orientée objet se basant sur des mesures de similarité adaptées au contexte de modélisation probabiliste. Celle-ci implique la création d’une base de données de patchs de texture pour l’apprentissage et l’utilisation d’une pré-segmentation de l’image à classifier. Les modèles probabilistes multivariés testés ont tout d’abord été évalués dans une procédure d’indexation d’images. Les modèles les plus performants identifiés par cette procédure ont été ensuite appliqués dans la chaîne de traitement proposée. Dans les trois thématiques explorées, les modèles multivariés ont révélé des capacités remarquables de représentation de la texture et ont permis d’obtenir une qualité de classification supérieure à celle obtenue par la méthode des matrices de co-occurrence. Ces résultats démontrent l’intérêt de la représentation multi-échelles et multi-orientations de la texture dans l’espace transformé en ondelettes et la pertinence de la modélisation multivariée des coefficients d’ondelettes issus de cette décomposition. / The prime objective of this thesis is to evaluate the potential of multivariate probabilistic models applied on wavelet subbands for the classification of very high resolution remote sensing optical data. Three main applications are investigated in this study: the differentiation of age classes of maritime pine forest stands, the detection of vineyards and the detection of oyster fields. One main contribution includes the proposal of an original supervised and object-oriented classification scheme based on similarity measurements adapted to the context of probabilistic modeling. This scheme involves the creation of a database of texture patches for the learning step and a pre-segmentation of the image to classify. The tested multivariate models were first evaluated in an image retrieval framework. The best models identified in this procedure were then applied in the proposed image processing scheme. In the three proposed thematic applications, multivariate models revealed remarkable abilities to represent the texture and reached higher classification accuracies than the method based on co-occurrence matrices. These results confirm the interest of the multi-scale and multi-orientation representation of textures through the wavelet transform, as well as the relevance of the multivariate modeling of wavelet coefficients
699

Echantillonnage compressif appliqué à la microscopie de fluorescence et à la microscopie de super résolution / Compressive fluorescence microscopy for biological imaging and super resolution microscopy.

Chahid, Makhlad 19 December 2014 (has links)
Mes travaux de thèse portent sur l’application de la théorie de l’échantillonnagecompressif (Compressed Sensing ou Compressive Sampling, CS) à la microscopie defluorescence, domaine en constante évolution et outil privilégié de la recherche fondamentaleen biologie. La récente théorie du CS a démontré que pour des signauxparticuliers, dits parcimonieux, il est possible de réduire la fréquence d’échantillonnagede l’information à une valeur bien plus faible que ne le prédit la théorie classiquede l’échantillonnage. La théorie du CS stipule qu’il est possible de reconstruireun signal, sans perte d’information, à partir de mesures aléatoires fortement incomplèteset/ou corrompues de ce signal à la seule condition que celui-ci présente unestructure parcimonieuse.Nous avons développé une approche expérimentale inédite de la théorie du CSà la microscopie de fluorescence, domaine où les signaux sont naturellement parcimonieux.La méthode est basée sur l’association d’une illumination dynamiquestructurée à champs large et d’une détection rapide à point unique. Cette modalitépermet d’inclure l’étape de compression pendant l’acquisition. En outre, nous avonsmontré que l’introduction de dimensions supplémentaires (2D+couleur) augmentela redondance du signal, qui peut être pleinement exploitée par le CS afin d’atteindredes taux de compression très importants.Dans la continuité de ces travaux, nous nous sommes intéressés à une autre applicationdu CS à la microscopie de super résolution, par localisation de moléculesindividuelles (PALM/STORM). Ces nouvelles techniques de microscopie de fluorescenceont permis de s’affranchir de la limite de diffraction pour atteindre des résolutionsnanométriques. Nous avons exploré la possibilité d’exploiter le CS pour réduiredrastiquement les temps d’acquisition et de traitement.Mots clefs : échantillonnage compressif, microscopie de fluorescence, parcimonie,microscopie de super résolution, redondance, traitement du signal, localisation demolécules uniques, bio-imagerie / My PhD work deals with the application of Compressed Sensing (or CompressiveSampling, CS) in fluorescence microscopy as a powerful toolkit for fundamental biologicalresearch. The recent mathematical theory of CS has demonstrated that, for aparticular type of signal, called sparse, it is possible to reduce the sampling frequencyto rates well below that which the sampling theorem classically requires. Its centralresult states it is possible to losslessly reconstruct a signal from highly incompleteand/or inaccurate measurements if the original signal possesses a sparse representation.We developed a unique experimental approach of a CS implementation in fluorescencemicroscopy, where most signals are naturally sparse. Our CS microscopecombines dynamic structured wide-field illumination with fast and sensitive singlepointfluorescence detection. In this scheme, the compression is directly integratedin the measurement process. Additionally, we showed that introducing extra dimensions(2D+color) results in extreme redundancy that is fully exploited by CS to greatlyincrease compression ratios.The second purpose of this thesis is another appealing application of CS forsuper-resolution microscopy using single molecule localization techniques (e.g.PALM/STORM). This new powerful tool has allowed to break the diffraction barrierdown to nanometric resolutions. We explored the possibility of using CS to drasticallyreduce acquisition and processing times.
700

Imagerie sismique à deux dimensions des milieux visco-élastiques par inversion des formes d'ondes : développements méthodologiques et applications

Brossier, Romain 30 November 2009 (has links) (PDF)
La connaissance des structures internes de la Terre, à différentes échelles, présente des enjeux majeurs d'ordres économiques, humains, environnementaux et scientifiques. Diverses méthodes d'imagerie ont été développées en utilisant les informations contenues dans les ondes sismiques. La méthode d'inversion des formes d'ondes construit des images quantitative haute résolution des paramètres physiques du sous-sol, en exploitant le champ d'onde complet, sous la forme d'un problème d'optimisation. Dans ce travail de thèse, je présente l'application de l'inversion des formes d'ondes en domaine fréquentiel, pour imager les paramètres visco-élastiques dans des géometries à deux dimensions à grands offsets. Dans un premier temps les développements méthodologiques et algorithmiques sont présentés. La modélisation de la propagation des ondes P-SV en domaine fréquentiel, le problème direct du processus d'imagerie, est assurée par une méthode d'éléments finis Galerkin discontinus, assurant une grande flexibilité dans le choix des ordres d'interpolation et dans l'utilisation de maillages triangulaires non-structurés. Le problème inverse est résolu sous une forme linéarisée, afin de limiter le nombre de simulations directes, et utilise l'algorithme quasi-Newton L-BFGS permettant de tirer bénéfice de l'estimation "économique" du Hessien. Le processus global d'imagerie est implémenté sous la forme d'un algorithme massivement parallèle destiné aux calculateurs modernes à mémoire distribuée. Dans un deuxième temps, les algorithmes développés sont appliqués à des cas d'étude. Des applications sont menées dans des modèles synthétiques réalistes représentatifs d'environnements terrestres et marins. Ces études montrent les difficultés associées à la reconstruction des paramètres élastiques à partir de données mettant en jeu des phénomènes de propagations complexes (ondes converties, multiples, ondes de surfaces...). Des solutions sont proposées sous forme de processus hiérarchiques multi-échelles, afin de limiter les effets des non-linéarités du problème inverse et ainsi d'améliorer la convergence du processus vers le minimum global. Enfin, la sensibilité de différentes normes et critères de minimisation est analysée, à partir de données bruités issues de modèles synthétiques réalistes, ainsi que sous l'approximation acoustique pour un jeu de données réelles pétrolière. Ces tests montrent certaines limites du formalisme classique basé sur la norme L2 dans l'espace des données, tandis que la norme L1 apparaît comme alternative robuste pour l'inversion de données décimées en domaine fréquentiel.

Page generated in 0.0848 seconds