Spelling suggestions: "subject:"statistique"" "subject:"qtatistique""
381 |
Certification de l'intégrité d'images numériques et de l'authenticité / Certification of authenticity and integrity of digital imagesNguyen, Hoai phuong 07 February 2019 (has links)
Avec l’avènement de l’informatique grand public et du réseau Internet, de nombreuses vidéos circulent un peu partout dans le monde. La falsification de ces supports est devenue une réalité incontournable, surtout dans le domaine de la cybercriminalité. Ces modifications peuvent être relativement anodines (retoucher l’apparence d’une personne pour lui enlever des imperfections cutanées), dérangeantes (faire disparaitre les défauts d’un objet) ou bien avoir de graves répercussions sociales (montage présentant la rencontre improbable de personnalités politiques). Ce projet s’inscrit dans le domaine de l’imagerie légale (digital forensics en anglais). Il s’agit de certifier que des images numériques sont saines ou bien falsifiées. La certification peut être envisagée comme une vérification de la conformité de l’image à tester en rapport à une référence possédée. Cette certification doit être la plus fiable possible car la preuve numérique de la falsification ne pourra être établie que si la méthode de détection employée fournit très peu de résultats erronés. Une image est composée de zones distinctes correspondantes à différentes portions de la scène (des individus, des objets, des paysages, etc.). La recherche d’une falsification consiste à vérifier si une zone suspecte est « physiquement cohérente » avec d’autres zones de l’image. Une façon fiable de définir cette cohérence consiste à se baser sur les « empreintes physiques » engendrées par le processus d’acquisition. Le premier caractère novateur de ce projet est la différenciation entre les notions de conformité et d’intégrité. Un support est dit conforme s’il respecte le modèle physique d’acquisition. Si certains des paramètres du modèle prennent des valeurs non autorisées, le support sera déclaré non-conforme. Le contrôle d’intégrité va plus loin. Il s’agit d’utiliser le test précédent pour vérifier si deux zones distinctes sont conformes à un modèle commun. Autrement dit, contrairement au contrôle de conformité qui s’intéresse au support dans son ensemble, le contrôle d’intégrité examine l’image zone par zone pour vérifier si deux zones sont mutuellement cohérentes, c’est-à-dire si la différence entre les paramètres caractérisant ces deux zones est cohérente avec la réalité physique du processus d’acquisition. L’autre caractère novateur du projet est la construction d’outils permettant de pouvoir calculer analytiquement les probabilités d’erreurs du détecteur de falsifications afin de fournir un critère quantitatif de décision. Aucune méthode ou outil actuels ne répondent à ces contraintes. / Nowadays, with the advent of the Internet, the falsification of digital media such as digital images and video is a security issue that cannot be ignored. It is of vital importance to certify the conformity and the integrity of these media. This project, which is in the domain of digital forensics, is proposed to answer this problematic.
|
382 |
Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz / Statistical modeling of multi-site diversity for frequencies between 20 and 50 GHZFayon, Gaëtan 12 December 2017 (has links)
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant. / Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now.
|
383 |
Création d'un modèle de market-timing à partir de deux modèles industriels : simulation d'une gestion de portefeuille de contrats de matières premières / Creation of a model of market-timing from two industrial models : Simulation of the management of a portfolio of commodity contractsBambou, Mike 31 March 2015 (has links)
Dans l’industrie, des méthodes de Maîtrise Statistique des Procédés (MSP) sont utilisées pour savoir si des pièces usinées lors d’un processus de fabrication sont non conformes aux spécifications. Les deux méthodes utilisées sont la méthode de Shewhart et la méthode EWMA (moyenne mobile à pondération exponentielle). Une adaptation de ces deux méthodes à la bourse est faite pour créer un modèle qui anticipe les cours sur les marchés à termes de matières premières. Ces deux méthodes sont utilisées simultanément, ce qui est une première. Le modèle présenté différencie plusieurs types de mouvements et plusieurs types d’investisseurs sur les marchés. C’est un modèle prudent. L’obtention de fortes performances est importante mais la diminution du risque et la limitation des pertes le sont également. Une simulation de la gestion d’un portefeuille pouvant être investi dans douze marchés à terme est faite. Ces marchés sont les suivants : le gaz naturel, le pétrole, le blé, le maïs, le soja, le bois, le jus d’orange concentré surgelé, le café, le cacao, le sucre, le coton et le cuivre. Cette simulation dans laquelle le portefeuille n’est pas « en levier » donne des résultats impressionnants. La simulation est faite du 3 janvier 2000 au 31 décembre 2013. Le capital initial est de $ 10 000 000 et à la fin de la simulation il est de $ 189 868 766. Le taux de rendement actuariel est de 23%. La seule rentabilité annuelle négative est celle de 2013 (-0.5%) et la meilleure est celle de 2010 (67%) La volatilité annualisée est de 17%. Le ratio d’information est exceptionnel : 0.85 ! La capacité au market-timing est de 47%. Ce pourcentage est ordinaire mais il recouvre le fait que la performance moyenne d’une position gagnante est de 17% tandis que celle d’une position perdante est de -6%. La performance d’une position gagnante compense, en moyenne, celle de trois positions perdantes. / Methods of Statistical Process Control (SPC) are used in the industrial sector to know if work pieces are conforms to specifications. Two methods are used: the Shewhart method and the Exponentially-weighted moving average method (EWMA). An adaptation of these methods to the financial markets is done to create a model which anticipates prices on commodities markets. Both methods are used simultaneously which is the first time. The developed model distinguishes several types of market movements and various types of investors. It is a safe model. Obtaining strong performances is important but reducing risk and limiting losses are too. A simulation of the management of a portfolio which may be invested of twelve commodities is done. The markets are: natural gas, oil, wheat, corn, soybeans, lumber, frozen concentrated orange juice, coffee, cocoa, sugar, cotton and copper. We decide to simulate a portfolio without “leverage” and results are impressive. The simulation is done from January 3rd 2000 to December 31th 2013. The initial capital of the portfolio is $ 10,000,000 and at the end of the simulation is $ 189,868,766. The rate of annual return is 23%. The only negative annual return is that of 2013 (-0.5%) and the best is that of 2010 (67%). The annualized volatility is 17%. The information ratio is exceptional: 0.85! The ability to market timing is 47%. This percentage is ordinary, but the average performance of winning positions is 17% while that of a losing position is -6%. The performance of a winning position, on average, corrects that of three losing positions.
|
384 |
Études des phenomenes de transposition didactique de la statistique dans le champ universitaire et ses environnements : une contribution à la pédagogie universitaire / The phenomena of didactic transposition of statistics in the academic fields : a contribution to the University TeachingJutand, Marthe-Aline 02 December 2015 (has links)
La spécificité de la statistique, en tant que science d’analyse et de décision,suscite l’intérêt de l’ensemble des domaines scientifiques et sociétaux. Elle endevient ainsi une discipline protéiforme s’appuyant sur des dimensions partagées,mais aussi sur des formulations spécifiques. Dans les deux situations étudiées,doctorat et expertise, le chercheur doit développer des capacités à expliciter lesétapes d’une démarche statistique et à communiquer de manière compréhensible àdes fins de diffusion et d’appropriation. L’analyse des thèses met en lumière desrégularités d’usage de concepts et de mots, mais aussi, de nombreuses spécificitésdisciplinaires. L’analyse de la situation d’expertise, quant à elle, souligne le travaildidactique mis en oeuvre par le chercheur afin de rendre possible le transfert deconnaissance à destination des politiques décisionnaires.Les différents éléments et analyses ayant constitué cette thèse ont pourobjet de participer à la réflexion sur l’enseignement de la statistique à l’université etsur les stratégies pédagogiques à développer. Notre analyse met en évidencel’importance de former les étudiants à la diffusion et la traduction de résultatsd’études statistiques. Tout ceci conduit à la question de la transformation desenseignements de la statistique à l’université afin de développer les temps et desméthodes d’apprentissage de diffusion, à visée d’explicitation, des savoirsstatistiques et des résultats auprès de publics variés. / Statistics, with its particularity being a science based on analysis anddecision, generates interests from all scientific and social domains. Thus, statistics isa many-sided discipline based on shared dimensions, but also on specificformulations.Researchers must develop specific skills to explain each step of a statisticalapproach in both situations studied: doctoral theses and expertise. Additionally,results need to be communicated clearly and precisely by a researcher in order toassure their comprehension and the appropriation of knowledge. The analysis ofdoctoral theses highlights a regularity in the use of statistical concepts and statisticallanguage, but also numerous specificities for academic disciplines. Moreover, theanalysis of expertise highlights that researchers set up didactic approaches toimprove the transfer of knowledge to decision-making politics.This thesis aims to take part in the reflection about i) the teaching ofstatistics at the university and ii) the pedagogical strategies that needs to bedeveloped by highlighting the teaching strategies proven to be useful for statisticaleducation. Our analysis clearly shows the importance of qualifying students in thedissemination and communication of results from statistical analyses. Takentogether, there is a clear need to develop new teaching strategies for statistics at theuniversity aiming at developing teaching methods facilitating explicitcommunication of statistical expertise and results addressing a wide range ofaudiences.
|
385 |
Modélisation de la fiabilité de composants d'un moteur aéronautique basée sur les données des dégradations en fonction de la maintenance programmée / Reliability modelling of aeronautical turboshaft engines components from damages data according to the scheduled maintenanceBillon, Aurélie 30 May 2012 (has links)
L’objectif de nos travaux est de mettre en place une méthode pour modéliser le comportement de la dégradation de moteurs aéronautiques à partir de données de retour d’expérience en vue de quantifier l’impact sur le niveau de sécurité des vols. Ces modèles tiennent compte d'un composant dont les mécanismes de défaillance sont en concurrence vis-à-vis d’un événement final (événement redouté rare) et de la politique de maintenance préventive. Nous souhaitons ainsi estimer la fiabilité d'un composant et étudier l'impact d'une nouvelle périodicité de maintenance sur cette fiabilité. Un algorithme d'optimisation des différentes périodicités de maintenances préventives appliquées au composant est également proposé. / The aim of our studies is to propose a statistical model of turboshaft engines ageing behaviour in order to improve the reliability level assessment. Field and repair data feedback are used to fit our model. This model takes into account one component whose failure mechanisms are in competition with respect to a final event and scheduled maintenance policy. We want to estimate reliability of engine component and, for instance, optimize the preventive maintenance policy.
|
386 |
Expliquer, quantifier, prouver : une histoire de l'économie des discriminations 1957-2010 / No English title availableChassonnery-Zaïgouche, Cléo 17 December 2014 (has links)
A la suite des travaux de Becker (1955), de nombreuses analyses économiques se sont consacrées à la description, à l’explication, à la mesure – voire à la résorption – des discriminations. Ces recherches se sont d’abord intéressées aux discriminations raciales et de genre sur le marché du travail, puis ont, par la suite, concerné d’autres groupes discriminés et d’autres domaines d’application – comme le marché des prêts immobiliers ou l’accès au système scolaire. Se sont ainsi constitués un domaine d’analyse, une littérature théorique et un important corpus empirique. La première partie de la thèse est consacrée aux modèles théoriques qui ont tenté d’expliquer les discriminations. Les conditions d’énonciation du concept – les “catégories de la différence” et la norme de non-discrimination – émergent au tournant des XIXème et XXème siècles et constituent la pré-histoire de l’économie des discriminations (Chapitre 1). Gary S. Becker est le premier à proposer une modélisation microéconomique du phénomène dans le sillage de l’émergence d’une “économie du travail analytique” (Chapitre 2). Les théories de la discrimination statistique, initiées séparément par Kenneth J. Arrow et Edmund S. Phelps, ont ensuite apporté d’autres explications aux discriminations, fondées sur le manque d’information sur les caractéristiques économiques des individus (Chapitre 3). La deuxième partie de la thèse est consacrée l’histoire de la controverse entre mesure directe et mesure indirecte des discriminations, et aux enjeux méthodologiques de la quantification et de la preuve des discriminations. La technique de décomposition salariale dite Oaxaca-Blinder constitue la première mesure empirique étudiée en économie (Chapitre 4). Cette méthode indirecte sera remise en perspective par l’émergence des expérimentations de laboratoire et de terrains sur les discriminations (Chapitre 5). Enfin, trois “régimes d’expertise” utilisant l’économie des discriminations sont analysés : le conseil au Prince à travers la position politique de Friedman sur les politiques raciales dans les années 1960; l’évaluation quantitative des politiques d’anti-discrimination et d’affirmative action; et l’utilisation des analyses de décomposition salariale dans les cours de justice (Chapitre 6). La problématique de la thèse consiste à délimiter ce qui, dans l’histoire de la pensée récente, est spécifique à l’économie des discriminations. Du point de vue de l’histoire des méthodes, l’économie des discriminations est une illustration des évolutions générales de la discipline. De plus, l’étude de la discrimination a été une des voies par laquelle le renouveau du traitement de l’information en économie s’est effectué : de la prise en compte des défauts d’information aux effets de signal, des conséquences de l’appartenance de groupe à la modélisation de l’identité. / No English summary available.
|
387 |
Etude statistique et modélisation de la dégradation NBTI pour les technologies CMOS FDSOI et BULK. / Statistical study and modeling of NBTI degradation for CMOS FDSOI and BULK technologiesNouguier, Damien 28 September 2018 (has links)
L’industrie microélectronique arrive à concevoir des transistors atteignant dimensions de l’ordre de la dizaine de nanomètres. Et ce faisant elle tend atteindre ses limites en terme de réduction des dimensions des transistors CMOS. Or à ces dimensions, la fiabilité et la variabilité des dispositifs prennent une ampleur critique en ce qui concerne les prédictions de durée de vie et de garantie des composants. Parmi les aspects critiques, la dégradation NBTI (Négative Bias Temperature Instability) représente l’un des plus gros défis en termes de fiabilité. Cette dégradation tire son origine d’un piégeage de charge dans l’oxyde de grille et est responsable pour une grande partie de la dégradation des transistors. A l’aide d’un important travail expérimental, nous avons caractérisé à l’aide de mesure rapide les cinétiques de dégradation et de relaxation de la dégradation NBTI, puis nous avons travaillé sur la modélisation des phases de stress et de relaxation. Nous sommes parvenues à créer un modèle pour le stress et la relaxation que nous avons éprouvé sur un certain nombre de nœuds technologiques allant du 14nm FDSOI au 180nm Bulk. Nous avons aussi évalué l’impact de certains changements de procédées de fabrication sur la dégradation NBTI.Enfin nous proposons une étude poussée de la variabilité induite par le NBTI et du modèle DCM (Defect centric Model) permettant de modéliser cette variabilité. Nous proposons alors une correction mathématique de ce modèle, et la possibilité de le réécrire afin de pouvoir l’utiliser pour un plus grand nombre de défauts. Enfin nous mettrons ce modèle en échec sur les prédictions qu’il fait de défauts et nous proposons un nouveau modèle sous la forme d’un DCM à deux défauts ou DDCM (Dual Defect Centric Model).Mots-clés : Microélectronique, FDSOI, Bulk, variabilité, NBTI, caractérisation électrique, modélisation. / The microelectronics industry is able to design transistors reaching dimensions of the order of ten nanometers. And doing this, we reaching the limits in terms of size reduction of CMOS transistors. At these dimensions, the reliability and variability of the devices is critical in terms of lifetime prediction and component warranty. Among the critical aspects, NBTI (Negative Bias Temperature Instability) degradation represents one of the biggest challenges in terms of reliability. This degradation coming from a charge trapping in the gate oxide is responsible for a large part of the degradation of the transistors. Performing a huge experimental work based on the characterization of the kinetic of degradation and relaxation of the NBTI degradation with rapid measurements, allowing us to work on the modeling of the stress and relaxation phases of NBTI degradation. We have successfully create a model for stress and relaxation of the NBTI degradation. These models were then tested on several technological nodes from 14nm FDSOI to 180nm Bulk. We also study the impact of some process changes on NBTI degradation. Finally, we propose a detailed study of the variability induced by the NBTI and the DCM model (Defect centric Model) allowing to model this variability. We also propose a mathematical correction of this model but also another mathematical expression of this model allowing to use it for a large number of defects. Enfin, nous prouvons que DCM est défectueux dans sa prédiction du nombre de défauts et nous proposons un nouveau modèle sous la forme d'un DCM avec deux défauts ou DDCM (Dual Defect Centric Model).
|
388 |
Integrable turbulence in optical fiber experiments : from local dynamics to statistics / Turbulence intégrable dans des expériences de fibres optiques : dynamique locale et statistiqueTikan, Alexey 15 November 2018 (has links)
Ce travail est dédié à l’étude de l’origine des phénomènes statistiques récemment observés dans le cadre de la turbulence intégrable. Les études expérimentales et numériques de la propagation d’ondes partiellement cohérentes dans les systèmes décrits par l’équation de Schrödinger non linéaire à une dimension ont révélé un écart par rapport à la distribution gaussienne. Les régimes de propagation focalisant et défocalisant présentent un comportement qualitativement différent: la probabilité que des événements extrêmes apparaissent dans le cas focalisant est supérieure à la loi normale, alors que dans le régime défocalisant, elle y est inférieure. Nous avons réalisé des expériences d’optique bien décrites par l'équation de Schrödinger non linéaire 1-D afin d'étudier ce problème. Nous avons construit deux outils de mesure nouveaux et complémentaires. En utilisant ces outils, nous avons réalisé une observation directe des structures cohérentes qui apparaissent à différents stades de la propagation dans les deux régimes. En fournissant une analyse de ces structures, nous avons déterminé les mécanismes dominants dans les régimes focalisant et défocalisant. Dans le régime focalisant, nous avons mis en évidence le caractère universel de structures voisines des solitons de Peregrine et établi un lien avec un résultat mathématique rigoureux obtenu dans le régime semi-classique. Dans le régime défocalisant, nous avons montré que le mécanisme d'interférence non linéaire entre impulsions voisines définit l'évolution des conditions initiales partiellement cohérentes. Nous avons proposé un modèle simplifié qui explique la présence des différentes échelles dans les données enregistrées. / This work is dedicated to the investigation of the origin of statistical phenomena recently observed in the framework of integrable turbulence. Namely, experimental and numerical studies of the partially-coherent waves propagation in 1-D Nonlinear Schrödinger equation systems revealed a deviation from the Gaussian statistics. Focusing and defocusing regimes of propagation demonstrated qualitatively different behaviour: the probability of extreme events to appear in the focusing case is higher than it is predicted by normal law, while in defocusing it is lower. We provided optical experiments well described by the 1-D Nonlinear Schrödinger equation in order to investigate this problem. We built two novel and complementary ultrafast measurement tools. Employing these tools we provided direct observation of coherent structures which appear at different stages of the propagation in both regimes. Providing analysis of these structures, we determined dominating mechanisms in both focusing and defocusing regimes. In the focusing regime, we discovered the universal appearance of Peregrine soliton-like structures and made a link with the rigorous mathematical result obtained in the semi-classical regime. In the defocusing case, we showed that the mechanism of nonlinear interference of neighbour pulse-like structures defines the evolution of the partially-coherent initial conditions. We considered a simplified model which explained the presence of different scales in the recorded data.
|
389 |
Méthodes de détection parcimonieuses pour signaux faibles dans du bruit : application à des données hyperspectrales de type astrophysique / Sparsity-based detection strategies for faint signals in noise : application to astrophysical hyperspectral dataParis, Silvia 04 October 2013 (has links)
Cette thèse contribue à la recherche de méthodes de détection de signaux inconnus à très faible Rapport Signal-à-Bruit. Ce travail se concentre sur la définition, l’étude et la mise en œuvre de méthodes efficaces capables de discerner entre observations caractérisées seulement par du bruit de celles qui au contraire contiennent l’information d’intérêt supposée parcimonieuse. Dans la partie applicative, la pertinence de ces méthodes est évaluée sur des données hyperspectrales. Dans la première partie de ce travail, les principes à la base des tests statistiques d’hypothèses et un aperçu général sur les représentations parcimonieuses, l’estimation et la détection sont introduits. Dans la deuxième partie du manuscrit deux tests d’hypothèses statistiques sont proposés et étudiés, adaptés à la détection de signaux parcimonieux. Les performances de détection des tests sont comparés à celles de méthodes fréquentistes et Bayésiennes classiques. Conformément aux données tridimensionnelles considérées dans la partie applicative, et pour se rapprocher de scénarios plus réalistes impliquant des systèmes d’acquisition de données, les méthodes de détection proposées sont adaptées de façon à exploiter un modèle plus précis basé sur des dictionnaires qui prennent en compte l’effet d’étalement spatio-spectral de l’information causée par les fonctions d’étalement du point de l’instrument. Les tests sont finalement appliqués à des données astrophysiques massives de type hyperspectral dans le contexte du Multi Unit Spectroscopic Explorer de l’Observatoire Européen Austral. / This thesis deals with the problem of detecting unknown signals at low Signal- to- Noise Ratio. This work focuses on the definition, study and implementation of efficient methods able to discern only-noise observations from those that presumably carry the information of interest in a sparse way. The relevance of these methods is assessed on hyperspectral data as an applicative part. In the first part of this work, the basic principles of statistical hypothesis testing together with a general overview on sparse representations, estimation and detection are introduced. In the second part of the manuscript, two statistical hypotheses tests are proposed and studied. Both are adapted to the detection of sparse signals. The behaviors and the relative differences between the tests are theoretically investigated through a detailed study of their analytical and structural characteristics. The tests’ detection performances are compared with those of classical frequentist and Bayesian methods. According to the three-dimensional data sets considered in the applicative part, and to be closer to realistic scenarios involving data acquisition systems, the proposed detection strategies are then adapted in order to: i) account for spectrally variable noise; ii) exploit the spectral similarities of neighbors pixels in the spatial domain and iii) exploit the greater accuracy brought by dictionary-based models, which take into account the spatiospectral blur of information caused by instrumental Point Spread Functions. The tests are finally applied to massive astrophysical hyperspectral data in the context of the European Southern Observatory’s Multi Unit Spectroscopic Explorer.
|
390 |
Contributions to the statistical mechanics of ideal two and a half dimensional flows / Mécanique statistique d'écoulements idéaux à deux dimensions et demiThalabard, Simon 28 October 2013 (has links)
Dans cette thèse, nous nous intéressons à la mécanique statistique d’une classe d’écoulements “quasi-bidimensionnels”. Nous nous penchons plus particulièrement sur le cas des écoulements tri-dimensionnels axisymétriques, bidimensionnels stratifiés et bidimensionnels magnéto hydrodynamiques. La dynamique de ces écoulements est génériquement décrite par les équations d’évolution d’un champ de vitesses incompressible bidimensionnel,couplées à une équation d’évolution d’un champ scalaire. Ce dernier représente tantôt une température, tantôt un courant électrique, tantôt un mouvement tourbillonnaire transverse. Ces écoulements ont un intérêt géophysique ou astrophysique : ils peuvent être utilisés pour modéliser grossièrement les ouragans, les courants océaniques à l’échelle planétaire, les taches solaires, etc. Ils ont aussi un intérêt plus fondamental.Malgré leur géométrie bidimensionnelle intrinsèque, les écoulements “2D3C” peuvent être en effet tri-dimensionnellement connotés. Dans les cas que l’on regarde, la vorticité n’est pas seulement transportée : elle est aussi étirée. Il n’est ainsi pas évident de savoir si la tendance naturelle des écoulements 2D3C est de s’organiser en structures cohérentes énergétiques à grande échelle comme en deux dimensions, ou plutôt de répartir leur énergie sur les petites échelles comme en trois dimensions. Il n’est a priori pas clair nonplus de savoir si une forme d’énergie (cinétique ou magnétique/tourbillonnaire) y est privilégiée aux dépends de l’autre.Pour répondre à ces questions de manière très générale, nous étudions et décrivons la mécanique statistique d’équilibre des écoulements 2D3C sus-mentionnés, en nous plaçant d’abord dans le cadre des “ensembles d’équilibre absolu” considérés par Robert Kraichnan à la fin des années 1960, puis dans le cadre plus moderne des “mesures microcanoniques stationnaires” introduites par Raoul Robert, Jonathan Miller et Joël Sommeria pour les fluides bidimensionnels au début des années 1990. Les équilibres 2D3C sont décrits dans la première partie de ce manuscript. La seconde partie du manuscript est plus pratique, et également plus spéculative. Nous nous servons d’ outils de la mécanique statistique d’équilibre pour interpréter des données turbulentes expérimentales provenant d’expériences de type Von Kármán . Nous utilisons ensuite des résultats récents de théorie de probabilité pour montrer que des régimes de turbulence quasi-bidimensionnelle (turbulence tri-dimensionnelle avec rotation,turbulence dans des couches savonneuses) ont des propriétés d’invariance conforme statistique, analogues à celles observées dans des systèmes de spins ferromagnétiques au point critique. / The present manuscript deals with the statistical mechanics of some inviscid fluidmodels which are possibly relevant in the context of geophysics and astrophysics. Weinvestigate the case of axially symmetric flows, two-dimensional Boussinesq flows, andtwo-dimensional magneto-hydro fluids. Those flows can be loosely referred to as twodimensionalflows with three components (“2D3C”). In addition to the two-dimensionalvelocity field, they describe the evolution of an additional field variable, which representseither a magnetic current, a salinity, a temperature or a swirl depending on the situation.In common with the dynamics of strictly two-dimensional hydrodynamical flows, thenon-linear dynamics of 2D3C flows is constrained by the presence of an infinite numberof Casimir invariants, which emerge as dynamical invariants in the limit of a vanishingforcing and a vanishing dissipation . In common with three-dimensional flows, the vorticityis not only mixed but also stretched by the dynamics. The additional field may actas a source or a sink of kinetic energy. It is commonly believed that such flows have thepropensity to develop large scale coherent structures. Whether those long lived structuresare equilibrium or metastable structures is however not so clear, nor are the exactconditions of their emergence. The role of the Casimir invariants in constraining those isnot so obvious either.
|
Page generated in 0.147 seconds