• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 10
  • 1
  • Tagged with
  • 21
  • 21
  • 14
  • 12
  • 10
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Prévisions hydrologiques d’ensemble : développements pour améliorer la qualité des prévisions et estimer leur utilité / Hydrological ensemble forecasts : developments to improve their quality and estimate their utility.

Zalachori, Ioanna 19 April 2013 (has links)
La dernière décennie a vu l'émergence de la prévision probabiliste de débits en tant qu'approche plus adaptée pour l'anticipation des risques et la mise en vigilance pour lasécurité des personnes et des biens. Cependant, au delà du gain en sécurité, la valeur ajoutée de l'information probabiliste se traduit également en gains économiques ou en une gestion optimale de la ressource en eau disponible pour les activités économiques qui en dépendent. Dans la chaîne de prévision de débits, l'incertitude des modèles météorologiques de prévision de pluies joue un rôle important. Pour pouvoir aller au-delà des limites de prévisibilité classiques, les services météorologiques font appel aux systèmes de prévision d'ensemble,générés sur la base de variations imposées dans les conditions initiales des modèlesnumériques et de variations stochastiques de leur paramétrisation. Des scénarioséquiprobables de l'évolution de l'atmosphère pour des horizons de prévision pouvant aller jusqu'à 10-15 jours sont ainsi proposés. L'intégration des prévisions météorologiques d'ensemble dans la chaîne de prévision hydrologique se présente comme une approche séduisante pour produire des prévisions probabilistes de débits et quantifier l'incertitude prédictive totale en hydrologie. / The last decade has seen the emergence of streamflow probabilistic forecasting as the most suitable approach to anticipate risks and provide warnings for public safety and property protection. However, beyond the gains in security, the added‐value of probabilistic information also translates into economic benefits or an optimal management of water resources for economic activities that depend on it.In streamflow forecasting, the uncertainty associated with rainfall predictions from numerical weather prediction models plays an important role. To go beyond the limits of classical predictability, meteorological services developed ensemble prediction systems, which are generated on the basis of perturbations of the initial conditions of the models and stochastic variations in their parameterization. Equally probable scenarios of the evolution of the atmosphere are proposed for forecasting horizons up to 10‐15 days.The integration of weather ensemble predictions in the hydrological forecasting chain is an interesting approach to produce probabilistic streamflow forecasts and quantify the total predictive uncertainty in hydrology. Last and final summary in the thesis.
12

Méthodes de detection robustes avec apprentissage de dictionnaires. Applications à des données hyperspectrales / Detection tests for worst-case scenarios with optimized dictionaries. Applications to hyperspectral data

Raja Suleiman, Raja Fazliza 16 December 2014 (has links)
Le travail dans cette thèse porte sur le problème de détection «one among many» où l’on doit distinguer entre un bruit sous H0 et une parmi L alternatives connues sous H1. Ce travail se concentre sur l’étude et la mise en œuvre de méthodes de détection robustes de dimension réduite utilisant des dictionnaires optimisés. Ces méthodes de détection sont associées au test de Rapport de Vraisemblance Généralisé. Les approches proposées sont principalement évaluées sur des données hyperspectrales. Dans la première partie, plusieurs sujets techniques associés à cette thèse sont présentés. La deuxième partie met en évidence les aspects théoriques et algorithmiques des méthodes proposées. Deux inconvénients liés à un grand nombre d’alternatives se posent. Dans ce cadre, nous proposons des techniques d’apprentissage de dictionnaire basées sur un critère robuste qui cherche à minimiser la perte de puissance dans le pire des cas (type minimax). Dans le cas où l’on cherche un dictionnaire à K = 1 atome, nous montrons que la solution exacte peut être obtenue. Ensuite, nous proposons dans le cas K > 1 trois algorithmes d’apprentissage minimax. Finalement, la troisième partie de ce manuscrit présente plusieurs applications. L’application principale concerne les données astrophysiques hyperspectrales de l’instrument Multi Unit Spectroscopic Explorer. Les résultats numériques montrent que les méthodes proposées sont robustes et que le cas K > 1 permet d’augmenter les performances de détection minimax par rapport au cas K = 1. D’autres applications possibles telles que l’apprentissage minimax de visages et la reconnaissance de chiffres manuscrits dans le pire cas sont présentées. / This Ph.D dissertation deals with a "one among many" detection problem, where one has to discriminate between pure noise under H0 and one among L known alternatives under H1. This work focuses on the study and implementation of robust reduced dimension detection tests using optimized dictionaries. These detection methods are associated with the Generalized Likelihood Ratio test. The proposed approaches are principally assessed on hyperspectral data. In the first part, several technical topics associated to the framework of this dissertation are presented. The second part highlights the theoretical and algorithmic aspects of the proposed methods. Two issues linked to the large number of alternatives arise in this framework. In this context, we propose dictionary learning techniques based on a robust criterion that seeks to minimize the maximum power loss (type minimax). In the case where the learned dictionary has K = 1 column, we show that the exact solution can be obtained. Then, we propose in the case K > 1 three minimax learning algorithms. Finally, the third part of this manuscript presents several applications. The principal application regards astrophysical hyperspectral data of the Multi Unit Spectroscopic Explorer instrument. Numerical results show that the proposed algorithms are robust and in the case K > 1 they allow to increase the minimax detection performances over the K = 1 case. Other possible applications such as worst-case recognition of faces and handwritten digits are presented.
13

Statistical Post-processing of Deterministic and Ensemble Wind Speed Forecasts on a Grid / Post-traitements statistiques de prévisions de vent déterministes et d'ensemble sur une grille

Zamo, Michaël 15 December 2016 (has links)
Les erreurs des modèles de prévision numérique du temps (PNT) peuvent être réduites par des méthodes de post-traitement (dites d'adaptation statistique ou AS) construisant une relation statistique entre les observations et les prévisions. L'objectif de cette thèse est de construire des AS de prévisions de vent pour la France sur la grille de plusieurs modèles de PNT, pour les applications opérationnelles de Météo-France en traitant deux problèmes principaux. Construire des AS sur la grille de modèles de PNT, soit plusieurs milliers de points de grille sur la France, demande de développer des méthodes rapides pour un traitement en conditions opérationnelles. Deuxièmement, les modifications fréquentes des modèles de PNT nécessitent de mettre à jour les AS, mais l'apprentissage des AS requiert un modèle de PNT inchangé sur plusieurs années, ce qui n'est pas possible dans la majorité des cas.Une nouvelle analyse du vent moyen à 10 m a été construite sur la grille du modèle local de haute résolution (2,5 km) de Météo-France, AROME. Cette analyse se compose de deux termes: une spline fonction de la prévision la plus récente d'AROME plus une correction par une spline fonction des coordonnées du point considéré. La nouvelle analyse obtient de meilleurs scores que l'analyse existante, et présente des structures spatio-temporelles réalistes. Cette nouvelle analyse, disponible au pas horaire sur 4 ans, sert ensuite d'observation en points de grille pour construire des AS.Des AS de vent sur la France ont été construites pour ARPEGE, le modèle global de Météo-France. Un banc d'essai comparatif désigne les forêts aléatoires comme meilleure méthode. Cette AS requiert un long temps de chargement en mémoire de l'information nécessaire pour effectuer une prévision. Ce temps de chargement est divisé par 10 en entraînant les AS sur des points de grille contigü et en les élaguant au maximum. Cette optimisation ne déteriore pas les performances de prévision. Cette approche d'AS par blocs est en cours de mise en opérationnel.Une étude préalable de l'estimation du « continuous ranked probability score » (CRPS) conduit à des recommandations pour son estimation et généralise des résultats théoriques existants. Ensuite, 6 AS de 4 modèles d'ensemble de PNT de la base TIGGE sont combinées avec les modèles bruts selon plusieurs méthodes statistiques. La meilleure combinaison s'appuie sur la théorie de la prévision avec avis d'experts, qui assure de bonnes performances par rapport à une prévision de référence. Elle ajuste rapidement les poids de la combinaison, un avantage lors du changement de performance des prévisions combinées. Cette étude a soulevé des contradictions entre deux critères de choix de la meilleure méthode de combinaison : la minimisation du CRPS et la platitude des histogrammes de rang selon les tests de Jolliffe-Primo. Il est proposé de choisir un modèle en imposant d'abord la platitude des histogrammes des rangs. / Errors of numerical weather prediction (NWP) models can be reduced thanks to post-processing methods (model output statistics, MOS) that build a statistical relationship between the observations and associated forecasts. The objective of the present thesis is to build MOS for windspeed forecasts over France on the grid of several NWP models, to be applied on operations at Météo-France, while addressing the two main issues. First, building MOS on the grid of some NWP model, with thousands of grid points over France, requires to develop methods fast enough for operational delays. Second, requent updates of NWP models require updating MOS, but training MOS requires an NWP model unchanged for years, which is usually not possible.A new windspeed analysis for the 10 m windspeed has been built over the grid of Météo-France's local area, high resolution (2,5km) NWP model, AROME. The new analysis is the sum of two terms: a spline with AROME most recent forecast as input plus a correction with a spline with the location coordinates as input. The new analysis outperforms the existing analysis, while displaying realistic spatio-temporal patterns. This new analysis, now available at an hourly rate over 4, is used as a gridded observation to build MOS in the remaining of this thesis.MOS for windspeed over France have been built for ARPEGE, Météo-France's global NWP model. A test-bed designs random forests as the most efficient MOS. The loading times is reduced by a factor 10 by training random forests over block of nearby grid points and pruning them as much as possible. This time optimisation goes without reducing the forecast performances. This block MOS approach is currently being made operational.A preliminary study about the estimation of the continuous ranked probability score (CRPS) leads to recommendations to efficiently estimate it and to generalizations of existing theoretical results. Then 4 ensemble NWP models from the TIGGE database are post-processed with 6 methods and combined with the corresponding raw ensembles thanks to several statistical methods. The best combination method is based on the theory of prediction with expert advice, which ensures good forecast performances relatively to some reference forecast. This method quickly adapts its combination weighs, which constitutes an asset in case of performances changes of the combined forecasts. This part of the work highlighted contradictions between two criteria to select the best combination methods: the minimization of the CRPS and the flatness of the rank histogram according to the Jolliffe-Primo tests. It is proposed to choose a model by first imposing the flatness of the rank histogram.
14

Contributions statistiques aux prévisions hydrométéorologiques par méthodes d’ensemble / Statistical contributions to hydrometeorological forecasting from ensemble methods

Courbariaux, Marie 27 January 2017 (has links)
Dans cette thèse, nous nous intéressons à la représentation et à la prise en compte des incertitudes dans les systèmes de prévision hydrologique probabilistes à moyen-terme. Ces incertitudes proviennent principalement de deux sources : (1) de l’imperfection des prévisions météorologiques (utilisées en intrant de ces systèmes) et (2) de l’imperfection de la représentation du processus hydrologique par le simulateur pluie-débit (SPQ) (au coeur de ces systèmes).La performance d’un système de prévision probabiliste s’évalue par la précision de ses prévisions conditionnellement à sa fiabilité. L’approche statistique que nous suivons procure une garantie de fiabilité à condition que les hypothèses qu’elle implique soient réalistes. Nous cherchons de plus à gagner en précision en incorporant des informations auxiliaires.Nous proposons, pour chacune des sources d’incertitudes, une méthode permettant cette incorporation : (1) un post-traitement des prévisions météorologiques s’appuyant sur la propriété statistique d’échangeabilité et permettant la prise en compte de plusieurs sources de prévisions, ensemblistes ou déterministes ; (2) un post-traitement hydrologique utilisant les variables d’état des SPQ par le biais d’un modèle Probit arbitrant entre deux régimes hydrologiques interprétables et permettant ainsi de représenter une incertitude à variance hétérogène.Ces deux méthodes montrent de bonnes capacités d’adaptation aux cas d’application variés fournis par EDF et Hydro-Québec, partenaires et financeurs du projet. Elles présentent de plus un gain en simplicité et en formalisme par rapport aux méthodes opérationnelles tout en montrant des performances similaires. / In this thesis, we are interested in representing and taking into account uncertainties in medium term probabilistic hydrological prediction systems.These uncertainties mainly come from two sources: (1) from the imperfection of meteorological forecasts (used as inputs to these systems) and (2) from the imperfection of the representation of the hydrological process by the rainfall-runoff simulator (RRS) (at the heart of these systems).The performance of a probabilistic forecasting system is assessed by the sharpness of its predictions conditional on its reliability. The statistical approach we follow provides a guarantee of reliability if the assumptions it implies are complied with. We are also seeking to incorporate auxilary information to get sharper.We propose, for each source of uncertainty, a method enabling this incorporation: (1) a meteorological post-processor based on the statistical property of exchangeability and enabling to take into account several (ensemble or determistic) forecasts; (2) a hydrological post-processor using the RRS state variables through a Probit model arbitrating between two interpretable hydrological regimes and thus representing an uncertainty with heterogeneous variance.These two methods demonstrate adaptability on the various application cases provided by EDF and Hydro-Québec, which are partners and funders of the project. Those methods are moreover simpler and more formal than the operational methods while demonstrating similar performances.
15

Prévisions hydrologiques d'ensemble : développements pour améliorer la qualité des prévisions et estimer leur utilité

Zalachori, Ioanna 19 April 2013 (has links) (PDF)
La dernière décennie a vu l'émergence de la prévision probabiliste de débits en tant qu'approche plus adaptée pour l'anticipation des risques et la mise en vigilance pour lasécurité des personnes et des biens. Cependant, au delà du gain en sécurité, la valeur ajoutée de l'information probabiliste se traduit également en gains économiques ou en une gestion optimale de la ressource en eau disponible pour les activités économiques qui en dépendent. Dans la chaîne de prévision de débits, l'incertitude des modèles météorologiques de prévision de pluies joue un rôle important. Pour pouvoir aller au-delà des limites de prévisibilité classiques, les services météorologiques font appel aux systèmes de prévision d'ensemble,générés sur la base de variations imposées dans les conditions initiales des modèlesnumériques et de variations stochastiques de leur paramétrisation. Des scénarioséquiprobables de l'évolution de l'atmosphère pour des horizons de prévision pouvant aller jusqu'à 10-15 jours sont ainsi proposés. L'intégration des prévisions météorologiques d'ensemble dans la chaîne de prévision hydrologique se présente comme une approche séduisante pour produire des prévisions probabilistes de débits et quantifier l'incertitude prédictive totale en hydrologie.
16

Sommes et extrêmes en physique statistique et traitement du signal : ruptures de convergences, effets de taille finie et représentation matricielle / Sums and extremes in statistical physics and signal processing : Convergence breakdowns, finite size effects and matrix representations

Angeletti, Florian 06 December 2012 (has links)
Cette thèse s'est développée à l'interface entre physique statistique et traitement statistique du signal, afin d'allier les perspectives de ces deux disciplines sur les problèmes de sommes et maxima de variables aléatoires. Nous avons exploré trois axes d'études qui mènent à s'éloigner des conditions classiques (i.i.d.) : l'importance des événements rares, le couplage avec la taille du système, et la corrélation. Combinés, ces trois axes mènent à des situations dans lesquelles les théorèmes de convergence classiques sont mis en défaut.Pour mieux comprendre l'effet du couplage avec la taille du système, nous avons étudié le comportement de la somme et du maximum de variables aléatoires indépendantes élevées à une puissance dépendante de la taille du signal. Dans le cas du maximum, nous avons mis en évidence l'apparition de lois limites non standards. Dans le cas de la somme, nous nous sommes intéressés au lien entre effet de linéarisation et transition vitreuse en physique statistique. Grâce à ce lien, nous avons pu définir une notion d'ordre critique des moments, montrant que, pour un processus multifractal, celui-ci ne dépend pas de la résolution du signal. Parallèlement, nous avons construit et étudié, théoriquement et numériquement, les performances d'un estimateur de cet ordre critique pour une classe de variables aléatoires indépendantes.Pour mieux cerner l'effet de la corrélation sur le maximum et la somme de variables aléatoires, nous nous sommes inspirés de la physique statistique pour construire une classe de variable aléatoires dont la probabilité jointe peut s'écrire comme un produit de matrices. Après une étude détaillée de ses propriétés statistiques, qui a montré la présence potentielle de corrélation à longue portée, nous avons proposé pour ces variables une méthode de synthèse en réussissant à reformuler le problème en termes de modèles à chaîne de Markov cachée. Enfin, nous concluons sur une analyse en profondeur du comportement limite de leur somme et de leur maximum. / This thesis has grown at the interface between statistical physics and signal processing, combining the perspectives of both disciplines to study the issues of sums and maxima of random variables. Three main axes, venturing beyond the classical (i.i.d) conditions, have been explored: The importance of rare events, the coupling between the behavior of individual random variable and the size of the system, and correlation. Together, these three axes have led us to situations where classical convergence theorems are no longer valid.To improve our understanding of the impact of the coupling with the system size, we have studied the behavior of the sum and the maximum of independent random variables raised to a power depending of the size of the signal. In the case of the maximum, we have brought to light non standard limit laws. In the case of the sum, we have studied the link between linearisation effect and glass transition in statistical physics. Following this link, we have defined a critical moment order such that for a multifractal process, this critical order does not depend on the signal resolution. Similarly, a critical moment estimator has been designed and studied theoretically and numerically for a class of independent random variables.To gain some intuition on the impact of correlation on the maximum or sum of random variables, following insights from statistical physics, we have constructed a class of random variables where the joint distribution probability can be expressed as a matrix product. After a detailed study of its statistical properties, showing that these variables can exhibit long range correlations, we have managed to recast this model into the framework of Hidden Markov Chain models, enabling us to design a synthesis procedure. Finally, we conclude by an in-depth study of the limit behavior of the sum and maximum of these random variables.
17

Structuration de surfaces au moyen d'un traitement laser femtoseconde : applications à la fonctionnalisation de surface du polypropylène en vue de sa métallisation

Belaud, Vanessa 16 January 2014 (has links)
Ce présent travail de thèse porte sur l’étude du potentiel d’un traitement de surface par laser femtoseconde comme étape de substitution aux traitements réalisés actuellement lors de la métallisation de polymère. Pour cela, l’étude des modifications chimiques et morphologiques induites par traitement laser femtoseconde ainsi que leurs influences respectives sur les propriétés d’adhérences et de mouillabilités de la surface polypropylène sont présentées. Une revue bibliographique met en évidence la faisabilité d’une modification contrôlée de la surface du polypropylène après traitement laser femtoseconde. De plus, ces modifications engendrent une évolution démontrée des propriétés de mouillage qui peuvent répondre à certaines demandes industrielles. Après traitement laser femtoseconde, la surface traitée répond de différentes manières à la sollicitation en fonction de ses propriétés intrinsèques. Les expériences d’impacts localisés et de surfaces nous ont conduits à observer trois stades de modifications topographiques pour les conditions étudiées : un phénomène d’incubation, d’accumulation et d’ablation. Ce dernier a fait l’objet d’une étude plus approfondie. De manière générale, on observe deux régimes d’ablation linéaires pour l’ensemble des densités de puissance étudiées lorsque l’on étudie la profondeur d’ablation en fonction du nombre d’impulsion et le volume d’ablation en fonction de la densité de puissance cumulée. Enfin, nous montrons que les liaisons présentes en surface après traitement sont dépendantes de deux facteurs ; la densité de puissance cumulée utilisée et l’environnement de travail. Sachant que les modifications topographiques obtenues sont de types multi-échelles, les résultats ont été analysés sur la base des modèles de Wenzel (1936) et de Cassie-Baxter (1944) relatifs à la théorie du mouillage de surfaces rugueuses. Les résultats expérimentaux et leurs corrélations avec les paramètres de rugosités 3D calculés à différentes échelles ont été traités par une analyse statistique. On observe alors un comportement mixte avec un contact intime de la goutte sur les sommets des aspérités (modèle de Wenzel) et un contact hétérogène (airpolypropylène) à une échelle mésoscopique (état « fakir » décrit par le modèle de Cassie-Baxter). Toutefois, la situation où la goute repose sur le sommet des structures (CB) n’est pas toujours stable. Nous avons étudié la transition de l’état CB à l’état W par des expériences d’évaporation. On observe que cette transition est fortement dépendante de la chimie de surface dont la contribution est prépondérante sur les propriétés d’adhérence métal/PP. En contrôlant cette propriété, il est alors possible de répondre à une problématique industrielle de galvanoplastie (adhérence augmenté par le traitement laser) ou d’électroformage (adhérence faible permettant une réplication de bonne qualité des motifs). / This work presents the potential of a femtosecond laser surface treatment as an alternative step of pretreatments during the metallization of polymer. To do this, the study of chemical and morphological modification induced by femtosecond laser treatment and their respective influences on the properties of adhesion and wettability of polypropylene surface are presented. A literature review highlights the feasibility of a controlled surface modification after femtosecond laser treatment of polypropylene (PP). In addition, it is known that these modifications changes the wetting properties and can be used to meet industrial applications development. After femtosecond laser treatment, the treated surface responds to the solicitation with different morphological comportment according to its intrinsic properties. Experiences of localized impacts and surfaces us to observe three stages of topographic changes to the conditions studied: an incubation phenomenon of accumulation and ablation. The ablation phenomenon is further study. Generally, two linear ablation regime is observed for all power densities examined when considering the depth of ablation as a function of the pulse number and the ablation volume according to the accumulated power density. Finally, we show that the bonds present on the surface after treatment are dependent on two factors: the accumulated power density used and the working environment. Knowing that topographic obtained is multi-scales, the results were analyzed on the basis of models Wenzel (W)(1936) and Cassie–Baxter (CB) (1944) which explain the theory of wetting of rough surfaces. The experimental results and their correlations with 3D roughness parameters calculated at different scales were treated by statistical analysis. We observe a mixed model behavior with intimate contact of the drop on the tops of the asperities (Wenzel model) and a heterogeneous contact (air - PP) in a mesoscopic scale (state " fakir " described by the Cassie -Baxter model). However, this situation where the drop sits on the top of asperities (CB) is not always the most stable. We have studied the transition between the CB state and the W state by evaporation experiments. It is observed that this transition is strongly dependent on the surface chemistry whose contribution is much greater than the adhesion properties metal / PP. If controlling this property, it is possible to obtain two industrial applications: electroplating (increased adhesion by laser treatment) or electroforming (low adherence to replicate the topography).
18

Développement d'outils statistiques pour l'amélioration de dispositifs d'imagerie acoustique et micro-onde

Diong, Mouhamadou 09 December 2015 (has links)
L'un des enjeux majeurs pour les systèmes d'imagerie par diffraction acoustique et micro-onde, est l'amélioration des performances obtenues au moment de la reconstruction des objets étudiés. Cette amélioration peut s'effectuer par la recherche d'algorithmes d'imagerie plus performants d'une part et par la recherche d'une meilleure configuration de mesures d'autre part. La première approche (recherche d'algorithmes) permet d'améliorer le processus d'extraction de l'information présente dans un échantillon de mesures donné. Néanmoins, la qualité des résultats d'imagerie reste limitée par la quantité d'information initialement disponible. La seconde approche consiste à choisir la configuration de mesures de manière à augmenter la quantité d'information disponible dans les données. Pour cette approche, il est nécessaire de quantifier la quantité d'information dans les données. En théorie de l'estimation, ceci équivaut à quantifier la performance du système. Dans cette thèse, nous utilisons la Borne de Cramer Rao comme mesure de performance, car elle permet d'analyser la performance des systèmes de mesures sans être influencé par le choix de la méthode d'inversion utilisée. Deux analyses sont proposées dans ce manuscrit. La première consiste en l'évaluation de l'influence des facteurs expérimentaux sur la performance d'inversion. Cette analyse a été effectuée pour différents objets le tout sous une hypothèse de configuration bidimensionnelle. La seconde analyse consiste à comparer les performances de l'estimateur obtenu avec l'approximation de Born aux valeurs de la borne de Cramer Rao (BCR); l'objectif étant d'illustrer d'autres applications possibles de la BCR. / Improving the performance of diffraction based imaging systems constitutes a major issue in both acoustic and electromagnetic scattering. To solve this problem, two main approaches can be explored. The first one consists in improving the inversion algorithms used in diffraction based imaging. However, while this approach generally leads to a significant improvement of the performance of the imaging system, it remains limited by the initial amount of information available within the measurements. The second one consists in improving the measurement system in order to maximize the amount of information within the experimental data. This approach does require a quantitative mean of measuring the amount of information available. In estimation problems, the {appraisal of the} performance of the system is often used for that purpose. In this Ph.D. thesis, we use the Cramer Rao bound to assess the performance of the imaging system. In fact, this quantity has the advantage of providing an assessment which is independent from the inversion algorithm used. Two main analysis are discussed in this thesis. The first analysis explores the influence on the system's performance, of several experimental conditions such as the antennas positions, the radiation pattern of the source, the properties of the background medium, etc. Two classes of objects are considered: 2D homogeneous circular cylindrical objects and 2D cylindrical objects with defect. The second analysis studies the performance of an estimator based on Born approximation with the Cramer Rao Bound as reference. The aim of this second analysis is to showcase other possible applications for the Cramer Rao Bound.
19

Traitement aveugle et semi-aveugle du signal pour les télécommunications et le génie biomédical

Zarzoso, Vicente 09 November 2009 (has links) (PDF)
Ce rapport résume mes activités de recherche depuis l'obtention de mon doctorat. Je me suis penché sur le problème fondamental de l'estimation de signaux sources à partir de l'observation de mesures corrompues de ces signaux, dans des scénarios où les données mesurées peuvent être considérées comme une transformation linéaire inconnue des sources. Deux problèmes classiques de ce type sont la déconvolution ou égalisation de canaux introduisant des distorsions linéaires, et la séparation de sources dans des mélanges linéaires. L'approche dite aveugle essaie d'exploiter un moindre nombre d'hypothèses sur le problème à résoudre : celles-ci se réduisent typiquement à l'indépendance statistique des sources et l'inversibilité du canal ou de la matrice de mélange caractérisant le milieu de propagation. Malgré les avantages qui ont suscité l'intérêt pour ces techniques depuis les années soixante-dix, les critères aveugles présentent aussi quelques inconvénients importants, tels que l'existence d'ambiguïtés dans l'estimation, la présence d'extrema locaux associés à des solutions parasites, et un coût de calcul élevé souvent lié à une convergence lente. Ma recherche s'est consacrée à la conception de nouvelles techniques d'estimation de signal visant à pallier aux inconvénients de l'approche aveugle et donc à améliorer ses performances. Une attention particulière a été portée sur deux applications dans les télécommunications et le génie biomédical : l'égalisation et la séparation de sources dans des canaux de communications numériques, et l'extraction de l'activité auriculaire à partir des enregistrements de surface chez les patients souffrant de fibrillation auriculaire. La plupart des techniques proposées peuvent être considérées comme étant semi-aveugles, dans le sens où elles visent à exploiter des informations a priori sur le problème étudié autres que l'indépendance des sources ; par exemple, l'existence de symboles pilotes dans les systèmes de communications ou des propriétés spécifiques de la source atriale dans la fibrillation auriculaire. Dans les télécommunications, les approches que j'ai explorées incluent des solutions algébriques aux fonctions de contraste basées sur la modulation numérique, la combinaison de contrastes aveugles et supervisés dans des critères semi-aveugles, et une technique d'optimisation itérative basée sur un pas d'adaptation calculé algébriquement. Nos efforts visant à extraire le signal atrial dans des enregistrements de fibrillation auriculaire nous ont permis non seulement de dégager de nouvelles fonctions de contraste basées sur les statistiques de second ordre et d'ordre élevé incorporant l'information a priori sur les statistiques des sources, mais aussi d'aboutir à de nouveaux résultats d'impact clinique et physiologique sur ce trouble cardiaque encore mal compris. Ce rapport se conclut en proposant quelques perspectives pour la continuation de ces travaux. Ces recherches ont été menées en collaboration avec un nombre de collègues en France et à l'étranger, et ont également compris le co-encadrement de plusieurs doctorants. Les contributions qui en ont découlé ont donné lieu à plus de soixante publications dans des journaux, des conférences et des ouvrages collectifs à caractère international. Quelques-unes de ces publications sont jointes à ce document.
20

Estimation de mouvement dense long-terme et évaluation de qualité de la synthèse de vues. Application à la coopération stéréo-mouvement.

Conze, Pierre-Henri 16 April 2014 (has links) (PDF)
Les nouvelles technologies de la vidéo numérique tendent vers la production, la transmission et la diffusion de contenus de très haute qualité, qu'ils soient monoscopiques ou stéréoscopiques. Ces technologies ont énormément évolué ces dernières années pour faire vivre à l'observateur l'expérience la plus réaliste possible. Pour des raisons artistiques ou techniques liées à l'acquisition et à la transmission du contenu, il est parfois nécessaire de combiner la vidéo acquise à des informations de synthèse tout en veillant à maintenir un rendu photo-réaliste accru. Pour faciliter la tâche des opérateurs de production et post-production, le traitement combiné de contenus capturés et de contenus de synthèse exige de disposer de fonctionnalités automatiques sophistiquées. Parmi celles-ci, nos travaux de recherche ont porté sur l'évaluation de qualité de la synthèse de vues et l'élaboration de stratégies d'estimation de mouvement dense et long-terme. L'obtention d'images synthétisées de bonne qualité est essentielle pour les écrans 3D auto-stéréoscopiques. En raison d'une mauvaise estimation de disparité ou interpolation, les vues synthétisées générées par DIBR font cependant parfois l'objet d'artéfacts. C'est pourquoi nous avons proposé et validé une nouvelle métrique d'évaluation objective de la qualité visuelle des images obtenues par synthèse de vues. Tout comme les techniques de segmentation ou d'analyse de scènes dynamiques, l'édition vidéo requiert une estimation dense et long-terme du mouvement pour propager des informations synthétiques à l'ensemble de la séquence. L'état de l'art dans le domaine se limitant quasi-exclusivement à des paires d'images consécutives, nous proposons plusieurs contributions visant à estimer le mouvement dense et long-terme. Ces contributions se fondent sur une manipulation robuste de vecteurs de flot optique de pas variables (multi-steps). Dans ce cadre, une méthode de fusion séquentielle ainsi qu'un filtrage multilatéral spatio-temporel basé trajectoires ont été proposés pour générer des champs de déplacement long-termes robustes aux occultations temporaires. Une méthode alternative basée intégration combinatoire et sélection statistique a également été mise en œuvre. Enfin, des stratégies à images de référence multiples ont été étudiées afin de combiner des trajectoires provenant d'images de référence sélectionnées selon des critères de qualité du mouvement. Ces différentes contributions ouvrent de larges perspectives, notamment dans le contexte de la coopération stéréo-mouvement pour lequel nous avons abordé les aspects correction de disparité à l'aide de champs de déplacement denses long-termes.

Page generated in 0.1273 seconds