• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 59
  • 33
  • Tagged with
  • 240
  • 240
  • 127
  • 123
  • 50
  • 48
  • 32
  • 28
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Complexification des données et des techniques en linguistique : contributions du TAL aux solutions et aux problèmes

Tanguy, Ludovic 11 September 2012 (has links) (PDF)
Ce mémoire d'habilitation est l'occasion de faire le bilan de mon activité d'enseignant-chercheur en traitement automatique des langues (TAL) dans un laboratoire de linguistique (CLLE-ERSS) et des principales évolutions de l'outillage informatique de la linguistique au cours des 15 dernières années. Mes recherches portent notamment sur le repérage de structures morphosyntaxiques dans les textes, l'analyse des structures du discours et l'acquisition de ressources lexicales à partir de corpus. Certaines se positionnent dans des cadres applicatifs comme la recherche d'information et la classification de textes, mais aussi dans des contextes plus spécifiques en lien avec d'autres disciplines (médecine, psychologie, sociologie...). En m'appuyant sur la diversité de ces travaux et de mes collaborations, j'identifie quatre dimensions d'évolution principales : - l'augmentation de la masse de données langagières disponibles et notamment la part croissante de l'utilisation du Web comme corpus ; - la complexification de l'outillage informatique disponible pour gérer la masse et la variété des données accessibles (outils de constitution et d'interrogation de corpus) ; - la complexification de l'annotation des données langagières, qu'elle soit manuelle, assistée ou automatique ; - la montée en puissance, en TAL mais aussi en linguistique descriptive, des méthodes quantitatives (depuis l'analyse statistique jusqu'aux techniques de fouille de données et d'apprentissage). Si les avancées techniques du TAL ont permis d'accroître de façon conséquente les potentialités d'investigation du matériau langagier, et dans certains cas de dégager de nouveaux questionnements, elles ont aussi contribué à creuser un fossé entre les deux composantes (informatique et linguistique) de la discipline. A travers ma propre expérience d'acteur ou d'accompagnateur de ces changements et avec une vocation de "passeur" interdisciplinaire, je cherche à dégager les principaux enjeux actuels pour la linguistique outillée : - doter la linguistique descriptive d'outils de visualisation de données pour aborder la complexité, en exploitant les avancées théoriques et techniques de ce nouveau champ disciplinaire et en les adaptant aux spécificités du matériau langagier ; - rendre abordables aux linguistes les techniques fondamentales de l'analyse statistique, mais aussi les méthodes d'apprentissage artificiel seules capables d'assister l'investigation et l'exploitation de données massives et complexes ; - replacer la linguistique au sein des développements actuels du TAL, notamment par le biais de l'utilisation de descripteurs linguistiques riches dans les outils de traitement par apprentissage, pour un bénéfice mutuel.
102

Contributions aux modèles d'équations structurelles à variables latentes

Jakobowicz, Emmanuel 22 October 2007 (has links) (PDF)
Les modèles d'équations structurelles à variables latentes constituent des modèles statistiques complexes permettant de mettre en relation des concepts non observables. Les deux méthodes d'estimation de ces modèles, que sont, d'une part, l'analyse de la structure de covariance (méthode LISREL) et, d'autre part, l'approche PLS, offrent des solutions à la fois concurrentes et complémentaires. Dans ce travail, un certain nombre de questionnements liés à ce type de modèles et de méthodes sont abordés aussi bien d'un point de vue théorique qu'empirique. Nous étudions la construction du modèle initial par le biais d'algorithmes itératifs, au niveau des relations du modèle de mesure et du modèle structurel. Nous présentons des tests basés sur des permutations afin de comparer des échantillons non appariés sur un modèle donné. Des transformations dites optimales des variables sont utilisées afin de rechercher des relations non linéaires. Finalement, des méthodes permettant le traitement de données manquantes spécifiques induites par des filtres sont décrites. Pour chaque cas, la théorie existante est présentée et des approches novatrices sont introduites. Nous appliquons l'ensemble de ces méthodes dans le cadre de l'analyse de la satisfaction et de la fidélité des clients sur des données provenant d'Electricité de France.
103

Modélisation grande échelle de réseaux biologiques :<br />vérification par contraintes booléennes de la cohérence des données

Veber, Philippe 17 December 2007 (has links) (PDF)
Les techniques de biologie moléculaire dites haut-débit permettent de mesurer un grand nombre de variables simultanément. Elles sont aujourd'hui couramment utilisées et produisent des masses importantes de données. Leur exploitation est compliquée par le bruit généralement observé dans les mesures, et ce d'autant plus que ces dernières sont en général trop onéreuses pour être suffisamment reproduites. La question abordée dans cette thèse porte sur l'intégration et l'exploitation des données haut-débit : chaque source de données mesurant un aspect du fonctionnement cellulaire, comment les combiner dans un modèle et en tirer des conclusions pertinentes sur le plan biologique ? Nous introduisons un critère de consistance entre un modèle graphique des régulations cellulaires et des données de déplacement d'équilibre. Nous montrons ensuite comment utiliser ce critère comme guide pour formuler des prédictions ou proposer des corrections en cas d'incompatibilité. Ces différentes tâches impliquent la résolution de contraintes à variables sur domaines finis, pour lesquelles nous proposons deux approches complémentaires. La première est basée sur la notion de diagramme de décision, qui est une structure de données utilisée pour la vérification des circuits ; la deuxième fait appel à des techniques récentes de programmation logique. L'utilisation de ces techniques est illustrée avec des données réelles sur la bactérie "E. coli" et sur la levure. Les réseaux étudiés comportent jusqu'à plusieurs milliers de gènes et de régulations. Nous montrons enfin, sur ces données, comment notre critère de consistance nous permet d'arriver à des prédictions robustes, ainsi que des corrections pertinentes du modèle étudié.
104

Contribution à l'analyse de données temporelles

Douzal-Chouakria, Ahlame 29 November 2012 (has links) (PDF)
Mes travaux de recherche portent sur l'analyse de données temporelles et s'articulent en trois parties : -la représentation de séries temporelles, -la définition de métriques et leur apprentissage, -ainsi que la proposition de nouvelles approches de classification dédiées aux séries temporelles. Le déploiement de statistiques d'autocorrélation spatiale sur des structures de contiguïté particulières, telle que temporelle, met en évidence des propriétés intéressantes. Elles permettent, par exemple, d'appréhender le comportement des séries (aléatoire, chaotique), d'évaluer le niveau de saillance d'un événement, ou de mesurer la dépendance locale ou globale entre une structure évolutive et les observations associées. Ces propriétés ont guidé nos principaux travaux. Ainsi, une première contribution concerne la représentation compacte de séries multivariées. J'ai étudié une approche de réduction de la dimension temporelle de séries multivariées, par segmentation, préservant les corrélations inférées par la série ; l'identification de segments saillants étant guidée par la variance locale. Dans une deuxième partie, je me suis intéressée à la définition de métriques intégrant la composante forme des séries et leur positionnement dans un cadre plus général. L'alignement de séries étant un concept fondamental dans la définition de métriques, mon intérêt a porté, ensuite, sur l'apprentissage de couplages pour la discrimination de classes de séries complexes. L'approche proposée vise à lier les séries selon les caractéristiques communes au sein des classes et différentielles entre les classes. Le couplage ainsi appris permet de dériver une métrique locale pondérée restreignant la comparaison des séries aux attributs discriminants. Enfin, le troisième volet de mes travaux est dédié à l'extension des arbres de classification/régression à des variables prédictives temporelles. L'arbre temporel de classification proposé recours à un nouveau critère de coupure fondé sur une métrique adaptative et la localisation de sous-séquences discriminantes.
105

Techniques d'anormalité appliquées à la surveillance de santé structurale / Novelty detection applied to structural health monitoring

Cury, Alexandre 16 December 2010 (has links)
Le paradigme de la surveillance de santé structurale repose sur l'introduction d'indicateurs fiables et robustes permettant de détecter, localiser, quantifier et prédire un endommagement de manière précoce. En effet, la détection d'une modification structurale susceptible de devenir critique peut éviter l'occurrence de dysfonctionnements majeurs associés à des conséquences sociales, économiques et environnementales très importantes.Ces dernières années, de nombreuses recherches se fait de l'évaluation dynamique un élément de diagnostic. La plupart des méthodes reposent sur une analyse temporelle ou fréquentielle des signaux pour en extraire une information compressée au travers de quelques caractéristiques modales ou d'indicateurs évolués construits sur ces caractéristiques. Ces indicateurs ont montré leur efficacité, mais le problème de leur sensibilité, de la nécessité de disposer d'un état de référence, et de leur fiabilité en terme de la probabilité de détection et de fausses alarmes, reste entier. De plus, le fait d'utiliser des mesures dynamiques (particulièrement si plusieurs voies de mesures sont considérées) mène au stockage de grands volumes de données.Dans ce contexte, il est important d'employer des techniques permettant d'utiliser autant des données brutes que les propriétés modales de manière pratique et pertinente. Pour cela, des représentations adaptées ont été développées pour améliorer la manipulation et le stockage des données. Ces représentations sont connues sous le nom de og données symboliques fg . Elles permettent de caractériser la variabilité et l'incertitude qui entachent chacune des variables. Le développement de nouvelles méthodes d'analyse adéquates pour traiter ces données est le but de l'Analyse de Données Symboliques (ADS).L'objectif de cette thèse est double : le premier consiste à utiliser différentes méthodes couplées à l'ADS pour détecter un endommagement structural. L'idée est d'appliquer des procédures de classification non supervisée (e.g. divisions hiérarchiques, agglomérations hiérarchiques et nuées dynamiques) et supervisée (e.g., arbres de décision Bayésiens, réseaux de neurones et machines à vecteurs supports) afin de discriminer les différents états de santé d'une structure. Dans le cadre de cette thèse, l'ADS est appliquée aux mesures dynamiques acquises emph{in situ} (accélérations) et aux paramètres modaux identifiés. Le deuxième objectif est la compréhension de l'impact des effets environnementaux, notamment de ceux liés à la variation thermique, sur les paramètres modaux. Pour cela, des techniques de régression des données sont proposées.Afin d'évaluer la pertinence des démarches proposées, des études de sensibilité sont menées sur des exemples numériques et des investigations expérimentales. Il est montré que le couplage de l'ADS aux méthodes de classification de données permet de discriminer des états structuraux avec un taux de réussite élevé. Par ailleurs, la démarche proposée permet de vérifier l'importance d'utiliser des techniques permettant de corriger les propriétés modales identifiées des effets thermiques, afin de produire un processus de détection d'endommagements efficace / The paradigm of structural health monitoring is based on the development of reliable and robust indicators able to detect, locate, quantify and predict damage. Studies related to damage detection in civil engineering structures have a noticeable interest for researchers in this area. Indeed, the detection of structural changes likely to become critical can avoid the occurrence of major dysfunctions associated with social, economic and environmental consequences.Recently, many researches have focused on dynamic assessment as part of structural diagnosis. Most of the studied techniques are based on time or frequency domain analyses to extract compressed information from modal characteristics or based on indicators built from these parameters. These indicators have shown their potentialities, but the problem of their sensitivity, the necessity of a reference state, and their reliability in terms of detection probability and false alarm, still remains. Moreover, the use of raw dynamic measurements (especially if several measurement channels are considered) leads to the storage of large datasets.In this context, it is important to use techniques capable of dealing not only with raw data but also modal parameters in a practical and relevant way. In order to give some insights to this problem, appropriate representations have been developed to improve both manipulation and storage of data. These representations are known as og symbolic data fg. They are used to characterize the variability and uncertainty that exists within each variable. The development of new methods capable of dealing with this type of data is the goal of Symbolic Data Analysis (SDA).This thesis has two main objectives: the first one is to use different methods coupled with the SDA to detect structural damage. The idea is to employ clustering procedures (e.g., hierarchy-divisive, hierarchy-agglomerative and dynamic clouds) and supervised classification methods (e.g., Bayesien decision trees, neural networks and support vector machines) to discriminate different structural states. In this thesis, SDA is applied to dynamic measurements obtained on site (accelerations) and to the identified modal parameters. The second goal is to study the impact of environmental effects, particularly those related to thermal variation over modal parameters. To this end, a couple of regression techniques are proposed.In order to attest the efficiency of the proposed approaches, several sensibility studies considering numerical applications and experimental investigations are carried out. It is shown that SDA coupled with classification methods is able to distinguish structural conditions with adequate rates. Furthermore, it is stressed the importance of using techniques capable of correcting modal parameters from thermal effects in order to build efficient procedures for damage detection
106

Analyse et modélisation de la réponse des détecteurs du projet PICASSO pour la recherche de la matière sombre

Plante, Arthur 11 1900 (has links)
Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron. / The latest cosmological measurement showed the presence of a type of exotic matter constituing of 85% mass-energy of the universe. This type of non-baryonic matter would consist of neutral, non-relativistic, massives particules which are weakly interacting with normal matter. All the candidates are grouped under the generic name of WIMPs (Weakly Interactive Massive Particles). The PICASSO project (Project In CAnada to Search for Supersymmtric Objects) is an experiment using superheated liquid C4F10 as target material. The detection principle is a variant of the bubble chamber technique and the experiment ins installed in the SNOLAB underground laboratory in Sudbury (Ontario). The goal of this project is to make a direct measurement of a dark matter particle. The detection principle is that a dark matter particule interacting with the active liquid produces a nuclear recoil of 19F. The energy deposition of the recoiling fluorine nucleus triggers a phase transition accompagnied by an acoustic signal recorded by piezoelectrics sensors. In this work, the simulation of the count rate of PICASSO detectors subjected to monoenergetic neutron beam was performed using the theory of Seitz which describes particle induced phase transitions in supherheated liquids. which describes the criteria for a phase transition to occur in a superheated liquid. In addition, a model calculating the acoustic signal emitted during a phase transition caused by different types of radiation has been developped which allowed the characterisation of the discrimination between different kind of background events as a function of threshold energy. Finally, an acoustic signal analysis tools, the localisation of events, was used to apply fiducial cuts to the detectors in order to improve the alpha-neutron discrimination.
107

Méthodes d’analyse fonctionnelle et multivariée appliquées à l’étude du fonctionnement écologique des assemblages phytoplanctoniques de l’étang de Berre

Malkassian, Anthony 03 December 2012 (has links)
L'étude de la relation entre les variations d'abondance du phytoplancton et les facteurs environnementaux (naturels ou anthropiques) dans les zones saumâtres peu profondes est essentielle à la compréhension et à la gestion de cet écosystème complexe. Les relations existant entre les variables physico-chimiques (température, salinité et les nutriments) et les assemblages de phytoplancton de l'étang de Berre ont été analysées à partir d'un suivi écologique mensuel de 16 années (1994-2010). A l'aide des données recueillies par cette étude à long terme, des questions en relation avec la gestion de ce milieu ont été abordées grâce à l'application d'analyses statistiques et à la représentation originale des données. Depuis 2004, la nouvelle politique de relargage d'eau douce a provoqué de forts changements dans la salinité globale de la lagune : une diminution de la stratification et une raréfaction des phénomènes d'anoxie dans sa partie la plus profonde. Un changement dans la structure de la communauté phytoplanctonique a également été observé en association avec l'évolution des conditions environnementales. Une augmentation de la richesse spécifique phytoplanctonique, et plus précisément, l'émergence d'espèces à affinité marine a permis de mettre en évidence la première étape d'une marinisation de la lagune. Ces résultats soulignent l'impact significatif d'un nouvelle politique de gestion de cette zone côtière particulière. Nous nous sommes ensuite intéressés à la dynamique du phytoplancton à l'échelle de la journée reflet des variations rapides de l'environnement. / The study of the relationship between variations in phytoplankton abundance and environmental forces (natural or anthropogenic) in shallow brackish areas is essential to both understanding and managing this complex ecosystem. Over a 16 year (1994-2011) monthly monitoring program the relationships between physicochemical variables (temperature, salinity and nutrients) and phytoplankton assemblages of the Berre Lagoon were analyzed. Using data collected from this long-term study, we have addressed environmental management issues through the application of advanced statistical analyses and original data displays. These analyses and data displays can readily be applied to other data sets related to the environment, with the aim of informing both researcher and practitioner. Since 2004, a new policy for freshwater discharge has induced strong changes in the global salinity of the lagoon : a weakened stratification and a rarefaction of anoxia phenomena in its deepest part. A shift in the structure of the phytoplankton community has been observed in association with changes in environmental conditions. An increase of phytoplanktonic species richness, and more precisely, the emergence of species with marine affinity highlights the first step of a marinization of the lagoon. The results underline the significant impact of a new management policy in this specific coastal zone. We then focused on the response of phytoplankton to quick environmental variations. An original approach for automated high frequency analysis of phytoplankton was adopted with the use of an autonomous flow cytometer (CytoSense).
108

Modélisation statistique de données fonctionnelles environnementales : application à l'analyse de profils océanographiques. / Statistical modeling of environmental functional data : application to the analyse of oceanographic profiles.

Bayle, Severine 12 June 2014 (has links)
Afin d'étudier les processus biogéochimiques de l'Océan Austral, des balises posées sur des éléphants de mer ont permis de récolter en 2009-2010 des profils de variables océanographiques (Chlorophylle a (Chl a), température, salinité, lumière) dans une zone s'étalant du sud des îles Kerguelen jusqu'au continent Antarctique. Cette thèse se penche en particulier sur les données de Chl a, car celle-ci est contenue dans les organismes photosynthétiques qui jouent un rôle essentiel de pompe à carbone. Mais les profils verticaux de Chl a, récoltés peu fréquemment, ne permettent pas d'obtenir une cartographie de cette variable dans cette zone de l'océan. Cependant, nous disposons de profils de lumière, échantillonnés plus souvent. L'objectif était alors de développer une méthodologie permettant de reconstruire de manière indirecte les profils de Chl a à partir des profils de lumière, et qui prenne en compte les caractéristiques de ce type de données qui se présentent naturellement comme des données fonctionnelles. Pour cela, nous avons abordé la décomposition des profils à reconstruire ou explicatifs sur une base de splines, ainsi que les questions d'ajustement associées. Un modèle linéaire fonctionnel a été utilisé, permettant de prédire des profils de Chl a à partir des dérivées des profils de lumière. Il est montré que l'utilisation d'un tel modèle permet d'obtenir une bonne qualité de reconstruction pour accéder aux variations hautes fréquences des profils de Chl a à fine échelle. Enfin, une interpolation par krigeage fonctionnel permet de prédire la concentration en Chl a de nuit, car les mesures de lumière acquises à ce moment-là ne peuvent pas être exploitées. / To study biogeochemical processes in the Southern Ocean, tags placed on elephant seals allowed to collect during 2009-2010 oceanographic variables profiles (Chlorophyll a (Chl a), temperature, salinity, light) in an area ranging from southern Kerguelen until the Antarctic continent. This thesis focuses on Chl a data as it is contained in photosynthetic organisms and these ones play an essential role in the oceanic carbon cycle. The infrequently collected vertical Chl a profiles don't provide a mapping of this variable in this area of the ocean. However, we have light profiles sampled more often. The aim of this thesis was then to develop a methodology for reconstructing indirectly Chl a profiles from light profiles, and that takes into account characteristics of this kind of data that naturally occur as functional data. For this, we adressed the profiles decomposition to rebuild or explanations on splines basis, as well as issues related adjustment. A functional linear model was used to predict Chl a profiles from light profiles derivatives. It was shown that the use of such a model provides a good quality of reconstruction to access high frequency variations of Chl a profiles at fine scale. Finally, a functional kriging interpolation predicted the Chl a concentration during night, as light measurements acquired at that time can't be exploited. In the future, the methodology aims to be applied to any type of functional data.
109

Pronostic moléculaire basé sur l'ordre des gènes et découverte de biomarqueurs guidé par des réseaux pour le cancer du sein / Rank-based Molecular Prognosis and Network-guided Biomarker Discovery for Breast Cancer

Jiao, Yunlong 11 September 2017 (has links)
Le cancer du sein est le deuxième cancer le plus répandu dans le monde et la principale cause de décès due à un cancer chez les femmes. L'amélioration du pronostic du cancer a été l'une des principales préoccupations afin de permettre une meilleure gestion et un meilleur traitement clinique des patients. Avec l'avancement rapide des technologies de profilage génomique durant ces dernières décennies, la disponibilité aisée d'une grande quantité de données génomiques pour la recherche médicale a motivé la tendance actuelle qui consiste à utiliser des outils informatiques tels que l'apprentissage statistique dans le domaine de la science des données afin de découvrir les biomarqueurs moléculaires en lien avec l'amélioration du pronostic. Cette thèse est conçue suivant deux directions d'approches destinées à répondre à deux défis majeurs dans l'analyse de données génomiques pour le pronostic du cancer du sein d'un point de vue méthodologique de l'apprentissage statistique : les approches basées sur le classement pour améliorer le pronostic moléculaire et les approches guidées par un réseau donné pour améliorer la découverte de biomarqueurs. D'autre part, les méthodologies développées et étudiées dans cette thèse, qui concernent respectivement l'apprentissage à partir de données de classements et l'apprentissage sur un graphe, apportent une contribution significative à plusieurs branches de l'apprentissage statistique, concernant au moins les applications à la biologie du cancer et la théorie du choix social. / Breast cancer is the second most common cancer worldwide and the leading cause of women's death from cancer. Improving cancer prognosis has been one of the problems of primary interest towards better clinical management and treatment decision making for cancer patients. With the rapid advancement of genomic profiling technologies in the past decades, easy availability of a substantial amount of genomic data for medical research has been motivating the currently popular trend of using computational tools, especially machine learning in the era of data science, to discover molecular biomarkers regarding prognosis improvement. This thesis is conceived following two lines of approaches intended to address two major challenges arising in genomic data analysis for breast cancer prognosis from a methodological standpoint of machine learning: rank-based approaches for improved molecular prognosis and network-guided approaches for enhanced biomarker discovery. Furthermore, the methodologies developed and investigated in this thesis, pertaining respectively to learning with rank data and learning on graphs, have a significant contribution to several branches of machine learning, concerning applications across but not limited to cancer biology and social choice theory.
110

Détection de l'effet de lentille gravitationnelle dans les données de Planck-HFI / Detection of CMB lensing in Planck-HFI data

Lavabre, Alexis 25 May 2011 (has links)
Le satellite Planck est le satellite de troisième génération visant à observer le fond diffus cosmologique. La résolution et la sensibilité de ses instruments permettent pour la première fois de mettre en évidence les effets de lentille gravitationnelle subis par les photons du fond diffus cosmologique. Cette thèse présente une méthode originale de détection de ces effets dans les données de l'instrument HFI de Planck.La première partie donne dans un premier temps, une description générale du modèle standard de la cosmologie et de la physique du fond diffus cosmologique. Elle aborde ensuite en détails l'effet de lentille gravitationnelle, en se concentrant plus particulièrement sur son impact sur les observables du fond diffus cosmologique. Elle termine par une présentation du satellite Planck et de ses instruments.La seconde partie se concentre sur la description d'un ensemble d'outils de simulations et d'analyse que j'ai développé au cours de ma thèse afin de réaliser la première détection des effets de lentille gravitationnelle sur le fond diffus cosmologique. Elle présente la méthode originale employée qui repose sur une analyse des cartes du ciel par morceaux, permettant de s'affranchir des zones du ciel les plus contaminées. On trouvera également dans cette partie une caractérisation, de l'estimateur du champ de potentiel de lentille, pour des cartes masquée, en présence de bruit inhomogène ainsi que la présentation d'une méthode pour corriger les biais de l'analyse à l'aide de simulations Monte-Carlo.La dernière partie, est consacrée au travail sur les données de l'instrument HFI. Le premier chapitre présente l'application de la méthode d'analyse précédente aux cartes des observations combinées à 143GHz et 217GHz ainsi que la carte issue de la séparation des composantes avec l'algorithme GMCA. Les résultats montrent un spectre de puissance de la déflexion compatible avec le spectre attendu, dans un modèle lambda CMB, calculé à partir des paramètres cosmologiques issus de WMAP intégrant sept années d'observations. Les points de mesure, issus du spectre combiné des cartes à 143GHz et 217GHz, pour les multipôles inférieurs à 500, donnent un Chi2 par degré de liberté de 1.26. Finalement, le dernier chapitre présente l'algorithme de compression des données de l'instrument HFI à bord du satellite. Il traite en détail le réglage et le suivi des paramètres de compression et du débit des données, depuis le lancement du satellite et fait le bilan sur les erreurs de compression rencontrées / The Planck satellite is the third generation experement dedicated to the observation of the cosmic microwave backgroud (CMB). The resolution and sensibility of its intruments allow for the first time the detection of the weak lensing effect on CMB. This thesis present a original detection method of this effect in the data of the HFI instrument of Planck.The first part give a general description of the standard model of cosmology et the physics of the CMB. The part then presents the details of the weak lensing effect, concentrating on its impact on the CMB observables. This part ends with a description of the Planck satellite and its instruments.The second part, discribes the set of simulations and analysis tools that I have developed allowding me to make the first mesureament of the weak lensing effect on CMB. It presents the original method that I used which is based on a patch analysis of the full sky data, that is able to only take into account the less contaminated regions. This part also present the caracterisation of the lensing potential estimator for masked maps in the presence of inhomogeneous noise and introduce a method, based on Monte-Carlo simulations, that is used to correct for the biais produced by the analysis method.The last part, concentrates on the work on HFI data. The first chapter presents the application of the above method to the maps of the combined observations at 143GHz and 217GHz and the maps from component separation using GMCA algorithm. The results show a deflection power spectrum compatible with the one expect in a lambda CMB universe, calculated with the cosmological parameters estimated by WMAP including seven years of observations. Using the points, from the combined estimation from the 143GHz and 217GHz maps, for multipole smaller than 500, gives a 1.26 Chi2 by degree of freedom. Finally, the last chapter presents the comression algorithm used onboard to compression HFI data. It gives the details of the tunning and the following of the compression parameters and the data rate, since the launch and summarize the results on the compression errors

Page generated in 0.101 seconds