Spelling suggestions: "subject:"traitement dde données"" "subject:"traitement dee données""
11 |
Etude de l'émission haute énergie des objets compacts avec SPI/INTEGRALDroulans, Robert 28 November 2011 (has links) (PDF)
L'étude de l'émission haute énergie est indispensable pour comprendre les processus radiatifs inhérents aux flots d'accrétion sur les objets compacts (trous noirs et étoiles à neutrons). Le continuum X/γ d'un tel système est généralement interprété selon deux composantes. La première traduit la présence d'un disque d'accrétion alors que la deuxième, à plus haute énergie (>20 keV), peut s'expliquer par des diffusions Compton inverses entre électrons chauds et photons de plus basse énergie. Les mécanismes de chauffage des électrons et la structure du milieu de Comptonisation restent cependant mal connus. Pour approfondir notre compréhension des processus physiques qui gouvernent ce milieu, nous disposons d'une quantité importante de données issues de l'instrument SPI, un spectromètre haute énergie (20 keV - 8 MeV) développé au CESR (désormais IRAP, Toulouse, France) pour la mission INTEGRAL de l'ESA. Au-dessus de 150 keV, SPI réunit une résolution spectrale et une sensibilité sans précédent et constitue donc un outil idéal pour l'étude de l'émission haute énergie des objets compacts. Le manuscrit présente les résultats d'une étude spectrale et temporelle de trois systèmes particuliers. Le premier est l'énigmatique microquasar GRS 1915+105, caractérisé par une forte variabilité en rayons X et une luminosité colossale. Sur une échelle de temps de l'ordre du jour, l'indice de photon dans la bande 20 - 200 keV varie entre 2.7 et 3.5 ; à plus haute énergie (>150 keV), les mesures de SPI montrent la présence systématique d'une composante additionnelle qui s'étend sans coupure jusqu'à ~500 keV. Le deuxième système abordé est GX 339-4, une source dont le comportement spectral est représentatif des systèmes à trou noir. Les mesures de SPI ont révélé que le spectre de son état dur lumineux présente une composante énergétique (>150 keV) qui varie sur une échelle de temps de quelques heures. Pour expliquer ce phénomène, je propose une interprétation alternative de l'état dur grâce à un nouveau modèle qui inclut les effets du champ magnétique de manière auto-cohérente. Enfin, cette thèse comprend l'étude de la source GS 1826-24, un système à étoile à neutrons. Le flot d'accrétion étant extraordinairement stable, plus de 8 Msec de données ont pu être intégrées ce qui a permis de détecter la source jusqu'à plus de 500 keV. Une fois de plus, les mesures ont mis en évidence une composante haute énergie dans le spectre moyen ; cette caractéristique n'est donc pas exclusivement associée aux systèmes à trou noir. Après comparaison des résultats obtenus pour les trois sources, je discute les possibles origines physiques de l'émission haute énergie des systèmes accrétants, concluant que toutes les formes spectrales observées peuvent être expliquées par une couronne magnétique alimentée par des processus d'accélération non-thermiques.
|
12 |
Gestion de données pour la visualisation de maquettes numériques en environnement virtuel immersif: application au design automobilePaillot, Damien 11 1900 (has links) (PDF)
Les techniques de la réalité virtuelle constituent de nouveaux outils pour les métiers de la conception de produits manufacturés et offrent des gains en terme d'innovation, de temps et d'argent. L'enjeu industriel est l'intégration de ces techniques dans le cycle de conception du produit. Ces techniques doivent ainsi s'interfacer avec les différents corps de métiers et pouvoir être en phase avec le rythme des mises à jour des modèles numériques. La problématique technologique posée est relative à la gestion des données géométriques produites par les bureaux d'études en conception assistée par ordinateur. Ces données sont exhaustives, très nombreuses et ne sont pas manipulables dans un dispositif de réalité virtuelle en raison des contraintes de temps de calcul. Une maquette numérique, possédant une quantité d'informations maîtrisée et dédiée à la réalité virtuelle, est alors nécessaire. Ces travaux ont pour objectif d'apporter des méthodes et outils permettant l'utilisation des techniques de l'immersion virtuelle par les métiers du design automobile. Une chaîne de conversion, simplification et optimisation des données en fonction des critères des métiers du design automobile est proposée pour la création d'une maquette numérique dédiée à l'immersion virtuelle. La gestion en temps réel des données de cette maquette numérique est effectuée en fonction de critères de visualisation de la scène dans un contexte d'immersion virtuelle.
|
13 |
Traitement et analyse de séries chronologiques continues de turbidité pour la formulation et le test de modèles des rejets urbains par temps de pluieMétadier, Marjolaine 14 February 2011 (has links) (PDF)
Des approches parcimonieuses sont aujourd'hui développées pour la modélisation de la qualité des rejets urbains par temps de pluie, e adéquation avec la quantité de données disponibles. De plus, l'analyse des incertitudes apparaît comme un outil incontournable pour le test des modèles. Parallèlement, le développement des techniques de mesure en continu en réseau, spectrométrie et turbidité, permet l'obtention de données continues de flux de matières en suspension et de demande chimique en oxygène en grand nombre, apportant une information riche. Ce travail constitue une des premières études en hydrologie urbaine basée sur l'exploitation d'une grande base de données acquises par la mesure de la turbidité. Des mesures sur la période 2004-2008 ont été exploitées sur deux sites. Après traitement et validation, 263 et 239 événements pluvieux ont été retenus. L'analyse des données a permis la formulation d'hypothèses sur la génération des flux pour la proposition de modèles adaptés. Le test de l'approche multi-régression a confirmé la nécessité de construire des modèles locaux, basés sur une analyse approfondie des données. Les meilleurs modèles obtenus sont ceux pour la masse événementielle qui parviennent à reproduire en tendance la variabilité des observations. La méthode bayésienne a été utilisée pour le test d'un modèle d'Accumulation-Erosion-Transfert simple à l'échelle du bassin versant. Les premiers résultats mettent e défaut la structure du modèle testé. Cependant ces premiers tests ont démontré l'efficacité de la procédure d'analyse bayésienne, dont l'application du principe d'apprentissage permet d'améliorer de manière significative les structures des modèles.
|
14 |
Données de santé et secret partagé : pour un droit de la personne à la protection de ses données de santé partagées / Health data shared and professional secret : toward protecting the patient's right to confidentiality regarding health informationZorn, Caroline 05 December 2009 (has links)
Le secret partagé est une exception légale au secret professionnel, permettant à ceux qui prennent en charge le patient d'échanger des informations le concernant, sans être sanctionnés du fait de cette révélation d'informations protégées. Si les soignants depuis toujours communiquent au sujet du patient dans son intérêt, il n'y en a pas moins un équilibre à trouver entre l'échange d'informations nécessaire à la pratique médicale, et le respect de la vie privée qu'un partage trop large peu compromettre. Or, l'émergence de l'outil informatique, multipliant les possibilités de partage de données de santé, remet en cause un équilibre fondé sur des mécanismes traditionnels de protection de l'intimité de la personne. Le traitement de données de santé partagées doit alors s'analyser au regard des règles du secret partagé, des règles de la législation "Informatique et Libertés", mais également au jour d'un foisonnement vertigineux de normes relatives à la mise en oeuvre de dossiers spécifiques comme le Dossier médical personnel, le Dossier pharmaceutique ou l'Historique des remboursements. La mise en relief systématique de la place du consentement de la personne concernée conduit au constat de l'impérative inscription à la Constitution du droit de la personne à la protection de ses données de santé partagées. / The medical professional secret is a legal exception to the professional secret; it allows a patient's caregivers to exchange health information that is relevant to that patient's care without being punished for revealing confidential information. That caregivers discuss patient's health information with other medical professional involved in that patient's care is to the benefit of the patient. Nonetheless, there is a fine balance to be struck between a "need to know" professional exchange of information, which is essential to care of the patient, and a broad exchange of information, which may ultimately comprise the confidentiality of the patient's private life. The emergence of an electronic tool, which multiplies the potential possibilities for data exchange, further disrupts this balance. Consequently, the manipulation of this shared health information must be subject to the medical professional secret, the "Informatique et Libertés" legislation, and all of the numerous norms and standards as defined by the French national electronic medical record (DMP), the pharmaceutical medical record (Dossier pharmaceutique), or the reimbursement repository (Historique des remboursements). As the patient's health information is increasingly shared between health care providers - through means such as the DMP or DP - the patient's right and ability to control the access to his/her health information have to become more and more important. A study regarding the importance of obtaining the patient's consent lead to the following proposal: to inscribe in the French Constitution the patient's right to confidentiality regarding health information.
|
15 |
Développement d'une méthodologie robuste de sélection de gènes dans le cadre d'une activation pharmacologique de la voie PPAR / Development of a robust methodology of selected genes in the context of pharmacological activation of the PPAR pathwayCotillard, Aurélie 03 December 2009 (has links)
De part leur dimension élevée, les données de puces à ADN nécessitent l’application de méthodes statistiques pour en extraire une information pertinente. Dans le cadre de l’étude des différences entre deux agonistes de PPAR (Peroxisome Proliferator-Activated Receptor), nous avons sélectionné trois méthodes de sélection de variables : T-test, Nearest Shrunken Centroids (NSC) et Support Vector Machine – Recursive Feature Elimination. Ces méthodes ont été testées sur des données simulées et sur les données réelles de l’étude PPAR. En parallèle, une nouvelle méthodologie, MetRob, a été développée afin d’améliorer la robustesse ce ces méthodes vis à vis de la variabilité technique des puces à ADN, ainsi que leur reproductibilité. Cette nouvelle méthodologie permet principalement d’améliorer la valeur prédictive positive, c’est-à-dire la confiance accordée aux résultats. La méthode NSC s’est révélée la plus robuste et ce sont donc les résultats de cette méthode, associée à MetRob, qui ont été étudiés d’un point de vue biologique. / The microarray technology provides high dimensional data that need to be statistically treated for extracting relevant information. Within the context of the study of the differences between two PPAR (Peroxisome Proliferator-Activated Receptor) agonists, we selected three feature selection methods : T-test, Nearest Shrunken Centroids (NSC) and Support Vector Machine – Recursive Feature Elimination. These methods were tested on simulated and on real data. At the same time, a new methodology, MetRob, was developed in order to improve the robustness of these methods towards the technical variability of microarrays, as well as their reproducibility. This new methodology mainly improves the positive predictive value, which means the confidence in the results. The NSC method was found to be the most robust. The results of the association of MetRob and NSC were thus studied from a biological point of view.
|
16 |
Efficient support for data-intensive scientific workflows on geo-distributed clouds / Support pour l'exécution efficace des workflows scientifiques à traitement intensif de données sur les cloud géo-distribuésPineda Morales, Luis Eduardo 24 May 2017 (has links)
D’ici 2020, l’univers numérique atteindra 44 zettaoctets puisqu’il double tous les deux ans. Les données se présentent sous les formes les plus diverses et proviennent de sources géographiquement dispersées. L’explosion de données crée un besoin sans précédent en terme de stockage et de traitement de données, mais aussi en terme de logiciels de traitement de données capables d’exploiter au mieux ces ressources informatiques. Ces applications à grande échelle prennent souvent la forme de workflows qui aident à définir les dépendances de données entre leurs différents composants. De plus en plus de workflows scientifiques sont exécutés sur des clouds car ils constituent une alternative rentable pour le calcul intensif. Parfois, les workflows doivent être répartis sur plusieurs data centers. Soit parce qu’ils dépassent la capacité d’un site unique en raison de leurs énormes besoins de stockage et de calcul, soit car les données qu’ils traitent sont dispersées dans différents endroits. L’exécution de workflows multisite entraîne plusieurs problèmes, pour lesquels peu de solutions ont été développées : il n’existe pas de système de fichiers commun pour le transfert de données, les latences inter-sites sont élevées et la gestion centralisée devient un goulet d’étranglement. Cette thèse présente trois contributions qui visent à réduire l’écart entre les exécutions de workflows sur un seul site ou plusieurs data centers. Tout d’abord, nous présentons plusieurs stratégies pour le soutien efficace de l’exécution des workflows sur des clouds multisite en réduisant le coût des opérations de métadonnées. Ensuite, nous expliquons comment la manipulation sélective des métadonnées, classées par fréquence d’accès, améliore la performance des workflows dans un environnement multisite. Enfin, nous examinons une approche différente pour optimiser l’exécution de workflows sur le cloud en étudiant les paramètres d’exécution pour modéliser le passage élastique à l’échelle. / By 2020, the digital universe is expected to reach 44 zettabytes, as it is doubling every two years. Data come in the most diverse shapes and from the most geographically dispersed sources ever. The data explosion calls for applications capable of highlyscalable, distributed computation, and for infrastructures with massive storage and processing power to support them. These large-scale applications are often expressed as workflows that help defining data dependencies between their different components. More and more scientific workflows are executed on clouds, for they are a cost-effective alternative for intensive computing. Sometimes, workflows must be executed across multiple geodistributed cloud datacenters. It is either because these workflows exceed a single site capacity due to their huge storage and computation requirements, or because the data they process is scattered in different locations. Multisite workflow execution brings about several issues, for which little support has been developed: there is no common ile system for data transfer, inter-site latencies are high, and centralized management becomes a bottleneck. This thesis consists of three contributions towards bridging the gap between single- and multisite workflow execution. First, we present several design strategies to eficiently support the execution of workflow engines across multisite clouds, by reducing the cost of metadata operations. Then, we take one step further and explain how selective handling of metadata, classified by frequency of access, improves workflows performance in a multisite environment. Finally, we look into a different approach to optimize cloud workflow execution by studying some parameters to model and steer elastic scaling.
|
17 |
Méthodes et modèles pour l’étude de la mobilité des personnes par l’exploitation de données de radiotéléphonie / Method and models to study human mobility using mobile phone dataMilion, Chloé 16 December 2015 (has links)
Ce travail de thèse repose sur les intrications entre deux domaines : celui des transports et celui des télécommunications. L’usage intensif et quotidien des réseaux entraîne de la part des acteurs de chacun des domaines des besoins d’analyse pour assurer et garantir la qualité des services fournis aux usagers. Nous nous proposons alors de fournir aux acteurs du transport des mesures des déplacements réalisées à partir de données de signalisation qu’ils pourront traiter avec leur connaissance métier et prendre des décisions sur des sujets étendus allant de l’aménagement du territoire à l’opération des réseaux de transports. Les méthodologies de mesure de déplacements présentées sont basées sur l’exploitation de traces numériques dans les réseaux mobiles. Ces traces sont le reflet de l’usage d’un réseau de télécommunications et existent à des fins d’opération. Les méthodes proposées ici trouvent leur fondement dans notre connaissance du fonctionnement de la téléphonie mobile et sur le traitement des énormes volumes de données que génèrent les terminaux mobiles quotidiennement en tout endroit opéré par Orange. Nous verrons que l’activité de ces terminaux embarqués au niveau de l’individu permettent d’estimer des attributs des déplacements, des volumes par paires origine-destination, des indicateurs de qualité de service ou encore de quantifier des facteurs explicatifs de choix de déplacements. Les relations d’usage explorées au travers de cette signalisation mobile offrent également la possibilité de caractériser l’usage du sol / This work stands on the close relationship that exists between two areas one use every day, namely transportation and telecommunications. Due to a daily and intensive usage of both networks, actors of each area raise up some needs to ensure delivered services and their quality to their end-users. Then, we propose to the actor of transportation measurement of performed trips that can be treated with the knowledge of the transportation actors trade in order to ease the decision making process on matters that go from land uses up to network operation. The methodologies presented here from trip measurement are based on the exploitation of the digital footprints that are fund within a telecommunication network. Those footprints are reflecting how the network is used and already exist for operating purposes. The methods proposed in this work result from our knowledge of the telecommunication mechanisms and the huge amount of data that are generated at every time and every place where Orange is operating. We introduce that mobile equipment embedded onto individuals of whom we capture their activity can lead to estimate trips attributes, origin-destination trip tables, quality of service indicators and quantification of explain factor of trip choices. We also show how the mining of usage relationship through signaling data can lead to the characterization of land use
|
18 |
Analyse spectrale des données du sondage Euclid / Spectral analysis of the Euclid survey dataJamal, Sara 02 October 2017 (has links)
Les futurs sondages à grande échelle, comme la mission Euclid, produiront un large set de données qui nécessitera la mise en place de chaînes de traitement complètement automatisées pour analyser les données, extraire l'information et s'assurer que l'ensemble des exigences est respecté. À partir des données collectées, le redshift est une quantité essentielle à mesurer. Des méthodes distinctes pour l'estimation de redshift existent dans la littérature, mais il n'y a pas à l'heure actuelle une définition d'un critère de qualité automatisé pour juger de la fiabilité d'une mesure de redshift spectroscopique. Dans ce travail, nous avons présenté les techniques usuelles de l'analyse spectrale, comme le filtrage et l'extraction du continu, qui peuvent être réalisées en amont de l'estimation du redshift. Puis, nous nous sommes en grande partie intéressés à la problématique de prise de décision quant à l'évaluation de la fiabilité d'une mesure de redshift en développant une nouvelle méthodologie qui exploite les algorithmes de Machine Learning (ML) et les caractéristiques de la fonction de densité en probabilité du redshift (zPDF) définie dans un cadre bayésien.Notre idée consiste à quantifier, via le ML et des descripteurs des zPDFs, la fiabilité d'une mesure de redshift au sein de partitions distinctes qui décrivent différents niveaux de confiance. Par ex. une estimation de redshift obtenue à partir d'une zPDF multimodale ne dépeint pas le même niveau de confiance que celle obtenue à partir d'une zPDF unimodale. Nous estimons que cette nouvelle méthodologie pourra être exploitée dans le cadre de futurs sondages spectroscopiques à grande échelle comme Euclid. / Large-scale surveys, as Euclid, will produce a large set of data that will require the development of fully automated data-processing pipelines to analyze the data, extract crucial information and ensure that all requirements are met. From a survey, the redshift is an essential quantity to measure. Distinct methods to estimate redshifts exist in the literature but there is no fully-automated definition of a reliability criterion for redshift measurements. In this work, we first explored common techniques of spectral analysis, as filtering and continuum extraction, that could be used as preprocessing to improve the accuracy of spectral features measurements, then focused on developing a new methodology to automate the reliability assessment of spectroscopic redshift measurements by exploiting Machine Learning (ML) algorithms and features of the posterior redshift probability distribution function (PDF). Our idea consists in quantifying, through ML and zPDFs descriptors, the reliability of a redshift measurement into distinct partitions that describe different levels of confidence. For example, a multimodal zPDF refers to multiple (plausible) redshift solutions possibly with similar probabilities, while a strong unimodal zPDF with a low dispersion and a unique and prominent peak depicts of a more "reliable" redshift estimate. We assess that this new methodology could be very promising for next-generation large spectroscopic surveys on the ground and space such as Euclid and WFIRST.
|
19 |
Évolution de la rotation du cœur des étoiles sur la branche des géantes rouges : des mesures à grande échelle vers une caractérisation du transport de moment cinétique / Evolution of the core rotation of red giant branch stars : from large-scale measurements towards a characterisation of the angular momentum transportGehan, Charlotte 21 September 2018 (has links)
L’astérosismologie consiste à sonder les intérieurs stellaires en détectant les ondes sismiques qui s’y propagent. Les géantes rouges, des étoiles évoluées peu massives dont l’hydrogène du cœur est épuisé, sont des pulsateurs de type solaire présentant des modes mixtes qui nous permettent d’accéder directement aux propriétés physiques de leur cœur. Les mesures sismiques disponibles indiquent qu’un ou plusieurs mécanismes physiques encore mal compris contrebalancent l’accélération de la rotation du cœur sous l’effet de sa contraction, en transportant du moment cinétique. La majeure partie de cette thèse a été consacrée au développement d’une méthode permettant une mesure aussi automatisée que possible de la rotation moyenne du cœur des étoiles de la branche des géantes rouges observées par le satellite Kepler (NASA). Les mesures obtenues pour environ 900 étoiles mettent en évidence que la rotation du cœur est à peu près constante le long de la branche des géantes rouges,avec des valeurs indépendantes de la masse des étoiles. Le deuxième volet de cette thèse est consacré à l’interprétation de ces résultats basée sur la modélisation stellaire. L’enjeu consiste à utiliser les mesures à grande échelle obtenues durant la première partie pour caractériser la quantité de moment cinétique qui doit être extraite localement de chaque région du cœur, à différents instants sur la branche des géantes rouges, pour différentes masses stellaires. / Asteroseismology consists in probing stellar interiors through the detection of seismic waves. Red giants are evolved low-mass stars that have exhausted hydrogen in their core. These stars are solar-type pulsators presenting mixed modes that allow us to have a direct access to the physical properties of their core. The available seismic measurements indicate that one or several mechanisms that remain poorly understood counterbalance the acceleration ofthe core rotation, resulting from its contraction, by transporting angularmomentum. The greatest part of this PhD thesis was devoted to the development of a method allowing a measurement as automated as possible of the mean core rotation of stars on the red giant branch that were observed by the Kepler satellite (NASA). The measurements that were derived for almost 900 stars highlight that the core rotation is almost constant along the red giant branch, with values largely independent of the stellar mass. The second part of this PhD thesis is devoted to the interpretation of these results based on stellar modelling. The challenge consists in using the large-scale measurements obtainedin the first part to characterise the quantity of angular momentum that has to be extracted from each layer of the core, at different timesteps on the red giant branch, for different stellar masses.
|
20 |
Valorisation des données altimétriques de SARAL/AltiKa pour l'étude de la calotte Antarctique / Development of SARAL/AltiKa altimetric data over the Antarctic ice sheetMichel, Aurélie 28 June 2016 (has links)
L'Antarctique est encore un continent à explorer pour comprendre le climat terrestre, passé, présent et futur. Grâce à l'analyse des carottages, on peut remonter l'histoire du climat terrestre sur plusieurs centaines de milliers d'années. Grâce à l'étude de sa topographie, on peut remonter à la variabilité de son climat, connaître sa dynamique : écoulement de la glace, vêlages d'icebergs. . . Grâce au suivi de la topographie, c'est-à-dire la variation de la hauteur de glace, on peut estimer les pertes et les gains de masses ainsi que la contribution à la hausse du niveau de la mer, pour déduire l'impact sur les océans et les littoraux. Pour explorer ce continent, nous utilisons dans cette thèse l'instrument embarqué sur satellite qu'est l'altimètre. Une onde radar ou laser est envoyée sur le sol et la réflexion de ce signal est enregistrée permettant d'extraire des paramètres pertinents et la hauteur de glace. Les satellites ont pris le relais des expéditions célèbres du XIXème siècle, notamment depuis le lancement du premier altimètre couvrant jusqu'à 82æ S ce continent, embarqué sur la mission ERS-1. Depuis 2013, SARAL marque un changement dans les caractéristiques instrumentales par rapport aux missions précédentes, car elle émet dans une fréquence appartenant à la bande Ka (36.75 Ghz) au lieu des bandes Ku (13.6 Ghz) et S (3.2 Ghz) ce qui implique une interaction avec la surface différente qu'il faut pouvoir comprendre. Avec près de trois ans d'observations, ce manuscrit regroupe les travaux sur le traitement des données altimétriques dans un but de valorisation de la mission SARAL. Nous présentons le contexte géographique et le contexte technique pour montrer les difficultés du traitement des données . En utilisant la méthode des points de croisement que nous expliciterons, nous présentons l'importance de la comparaison de deux missions concomitantes, ENVISAT et ICESat afin d'estimer la profondeur de pénétration en bande Ku de l'onde radar et corriger de cet effet, étude que l'on pourra répéter avec SARAL une fois la mission ICESat-2 lancée. Nous avons adapté une chaîne de calibration et de validation des données sur glace continentale qui nous permet d'établir des diagnostics, des statistiques et des suivis temporels. La pente de la surface joue un rôle prépondérant dans la dégradation de la précision des données. Nous mettons en place un processus de sélection des données altimétriques afin d'augmenter cette précision. Grâce à cette sélection et l'application de la correction de marée océanique, nous quantifions avec des métriques aux points de croisement la performance de la mesure de SARAL sur glace continentale, et nous réduisons l'imprécision de la mesure de plus de 90%. Enfin, grâce aux sorties de notre chaîne de validation, nous décrivons les observations de SARAL sur près de trois ans afin d'apporter une analyse préliminaire cohérente avec la mission précédente qu'est ENVISAT. Nous soulevons les améliorations à apporter pour aller plus loin dans la physique de la mesure. Que ce soit la comparaison avec d'autres missions, l'utilisation de modèles ou des modifications dans l'algorithme d'extraction des paramètres du signal appelé retracking, SARAL apporte de nouvelles perspectives afin que l'évolution de la calotte Antarctique soit connue avec une précision toujours croissante. / Antarctica still remains a fascinating place to be explored. With ice corings, the past Earth climate can be retraced. Studying its surface, its climate variability and its dynamic are better known : ice velocity, iceberg calvings. . . Through the height variations monitoring, ice gains and losses are estimated, leading to the contribution to the sea-level rise, from which is deduced the impact over coastal areas or the oceans. To explore this continent, we use the sensor called altimeter : a radar or laser wave is sent from the satellite to the surface and the reflected signal is recorded. From this signal we extract relevant parameters and the height. The satellites have observed this area, notably since the altimetric mission ERS-1 launching, until 82æ S in 1991, following the still famous explorations from the beginning of the twentieth century. SARAL, launched in February 2013, innovates because of the major change in the frequency used, the Ka-band (36.75 Ghz) instead of the Ku-band (13.6Ghz) and the S-band (3.2 Ghz) implying a different interaction between the radar wave and the snowpack that needs to be investigated. Using almost three years of observations, we focus on the altimetric signal processing and its validation. The geographic and the technical aspects are introduced and we show the limitations in the altimetric data processing. Using the crossover method (explained in greater detail later), we compare two simultaneous missions, ENVISAT and ICESat in order to better constrain the penetration effect of the radar-wave into the snowpack and correct it. The method that is used will be of great interest to compare SARAL with the future mission ICESat- 2. A new calibration and validation tool has been implemented, allowing a long-term survey of the Antarctic area, providing statistics, diagnostics and temporal series. The slope effect is the major limitation in the precision assessment of the mission. Thanks to a new way of selecting the data and the oceanic tide correction, we quantify with metrics computed at crossover points the accuracy of altimetric data over the Antarctic ice sheet. We describe in the last part the SARAL observations to give a preliminary analysis in agreement with the former mission ENVISAT. Other ways of improvement are presented, like future altimetric missions, modifications in the so-called retracking algorithm that extracts the relevant parameters or even the use of models. SARAL raises perspectives to estimate with a growing precision the evolution of the Antarctic continent, and this thesis is a state of the art about the different possible processings needed to do so.
|
Page generated in 0.0874 seconds