Spelling suggestions: "subject:"3analyse dde données"" "subject:"3analyse dee données""
41 |
Classification de profils d'expression de gènes: application à l'étude de la régulation du cycle cellulaire chez les eucaryotes.Diallo, Alpha 03 June 2010 (has links) (PDF)
La technologie des puces à ADN a rendu aujourd'hui possible de mesurer les niveaux d'expression de milliers de gènes durant des processus biologiques importants. Analyser des profils d'expression de multiples gènes offre la possibilité d'éclairer certains aspects de la génomique fonctionnelle. Ce travail porte sur l'analyse, la classification et l'interprétation de profils d'expressions de gènes durant le processus de division cellulaire. La division cellulaire est le processus biologique de prolifération des cellules qui devient drastiquement aberrant dans le cas de cellules cancéreuses. Tenant compte de la structure temporelle des données d'expression, nous avons étudié trois familles de mesures de proximités. La première famille définit des mesures limitées à la comparaison des valeurs des expressions en ignorant la contrainte de dépendance temporelle des données. La seconde famille se limite à la comparaison des formes des expressions. Enfin, la troisième famille de mesures couvre simultanément les aspects formes et valeurs. Une formalisation unifiée de ces mesures est proposée. Une classification adaptative de milliers de gènes est appliquée afin d'apprendre la mesure de proximité à considérer pour l'identification et la caractérisation de gènes impliqués dans les phases du cycle cellulaire.
|
42 |
DE LA SIMULATION DE LISA A L'ANALYSE DES DONNEES. Détection d'ondes gravitationnelles par interférométrie spatiale (LISA : Laser Interferometer Space Antenna)Petiteau, Antoine 30 June 2008 (has links) (PDF)
Les ondes gravitationnelles sont émises par une large gamme de sources astrophysiques et cosmologiques. L'étude des ondes à basse fréquence telles que celles émises par les binaires de trous noirs, les EMRIs ou encore les fonds galactique et stochastique, nécessite l'utilisation d'un détecteur spatial. C'est la mission LISA (Laser Interferometer Space Antenna) composée de trois satellites distants de 5 millions de kilomètres et qui s'échangent des faisceaux lasers afin de former plusieurs interféromètres. La bonne compréhension de ce projet complexe nécessite le développement d'un simulateur tel que celui réalisé pendant cette thèse, LISACode. C'est un simulateur scientifique de LISA qui s'attache à rester au plus proche de la réalité du détecteur, sans pour autant le décrire au niveau des détails d'ingénierie. Il fournit des flux de données similaires à ceux de la future mission et applique la méthode TDI qui réduit effectivement le bruit laser. Ainsi il permet de tester des points technologiques importants de LISA et de mener des études scientifiques sur les ondes gravitationnelles. C'est un outil essentiel pour la préparation de l'analyse de données qui est un point capital de la mission LISA. Ainsi le second point de cette thèse porte sur le développement d'une méthode d'analyse basée sur l'étude de la modulation d'amplitude du signal gravitationnel induite par le mouvement LISA. Cette étude donne accès à la position de la source. L'application de cette méthode a nécessité la mise en place de méthodes d'extraction du signal. Les résultats obtenus pour une onde monochromatique et pour une onde émise par une binaire de trous noirs super-massifs sont prometteurs.
|
43 |
Une aide à la conception de systèmes de production basée sur la simulation et l'analyse de donnéesChristine, Heritier-Pingeon 20 June 1991 (has links) (PDF)
Les formes nouvelles de la concurrence imposent aux systèmes de production une flexibilité de plus en plus grande. Dans le cas de systèmes automatisés, les décisions prises lors de la conception vont fortement conditionner les possibilités du futur système ainsi que ses capacités d'adaptation aux changements, donc son degré de flexibilité. Le travail contenu dans ce mémoire s'attache précisément à l'étude de méthodes et d'outils d'aide à la décision pour la conception de systèmes de production. Le lecteur est d'abord introduit au domaine puis aux outils et méthodes utilisés. Le modèle d'atelier qui sert de support à la démarche est alors présenté : il est suivi d'une réflexion sur la construction des campagnes de simulations conduites à partir de ce modèle, réflexion concrétisée par la définition d'un module de génération automatique de plans de simulations associés au modèle d'atelier choisi. L'analyse des données utilisées comme méthode d'acquisition des connaissances sur le comportement des systèmes de production est ensuite envisagée : une méthode d'analyse est proposée et expérimentée. Ce travail a été développé avec le souci constant d'explorer les possibilités de l'analyse de données dans le domaine et d'évaluer ces possibilités sur la base de nombreuses expériences.
|
44 |
Polarimétrie aux longueurs d'onde millimétriques avec les instruments NIKA et NIKA2 / Polarimetry at millimeter wavelenghts with the NIKA and NIKA2 instrumentsRitacco, Alessia 14 October 2016 (has links)
Le rôle des champs magnétiques dans le processus de formation stellaire reste une question ouverte de l'astrophysique moderne.Récemment, les observations du satellite Herschel ont dévoilé que certaines structures filamenteuses seraient propices à ces processus de formation d’étoile. Ces structures filamenteuses ont été associées à des régions de champ magnétique bien organisé grâce aux observations polarimétriques du satellite Planck. Une meilleure compréhension du rôle des champs magnétiques lors de la formation stellaire requiert néanmoins des observations polarimétriques détaillées de la poussière galactique aux échelles de 0.01 - 0.1 pc.Des observations polarimétriques à hautes résolutions peuvent être effectuées au télescope de 30 mètres de l’IRAM en utilisant la caméra NIKA2.Le but de cette thèse a été de valider le concept et de caractériser les performances du polarimètre monté sur la caméra NIKA2. Ces tests et caractérisations ont été réalisés sur NIKA, le démonstrateur technologique de NIKA2, installée à l’IRAM de 2012 à 2015.NIKA consiste en deux matrices de 132 et 224 LEKIDS (Lumped Element Kinetic Inductance Detectors) qui couvrent un champ de vue (FoV) de ~1.8 arcminutes à 1.15 (260) et 2.05 (150) mm (GHz).Le système de polarisation est constitué d’une lame demi-onde tournante à mesh métalliques(HWP) et d’une grille métallique (polariseur). La rapidité des détecteurs LEKIDs combinée à la modulation de la lame permettent la mesure simultanée des trois paramètres de Stokes, I, Q, U, caractérisant la polarisation linéaire. Le signal est extrait en utilisant une procédure de “démodulation”, qui est équivalente à un lock-in autour de la quatrième harmonique de la fréquence de rotation de la lame.Dans la première partie de la thèse je présente la caractérisation instrumentale de l’efficacité du système développé. Ensuite, la chaîne d’analyse des données dédiée à la polarisation est présentée. Cette dernière a été spécifiquement développée pour l'instrument NIKA et a permis de reconstruire le signal observé en polarisation et de le projeter sur des cartes.La réduction des données observationnelles de sources non polarisées a révélé la présence d’un effet systématique. Celui-ci a été interprété comme résultant d’une polarisation instrumentale due à une perte d’intensité I vers les canaux de polarisation Q et U.Afin de corriger cet effet, un algorithme a été développé. Celui-ci permet de ramener la polarisation instrumentale, initialement de l'ordre de ~3 %, en-dessous du pour-cent.Enfin, les observations de sources polarisées corrigées de l'effet systématique ont confirmé le potentiel du polarimètre NIKA afin de mesurer la polarisation du ciel.Ces résultats ouvrent la voie à de prochaines observations polarimétriques avec la caméra NIKA2, installée en octobre 2015.Cette caméra dispose de deux bandes de fréquences à 260 (polarisé) et 150 (non polarisé) GHz pour un total de 3300 détecteurs, 12 et 18 arcsec FWHM de résolution et FoV de 6.5 diamètre arcminutes.Cette caméra fournira sans aucun doute une meilleure compréhension des interactions du champ magnétique dans le milieu interstellaire de notre Galaxie. / The role played by magnetic fields in the star formation process is an outstanding question of modern astrophysics. Herschel satellite observations have unveiled filamentary structures as the preferential sites of star formation. Complementary low resolution observations of dust polarization by the Planck satellite have demonstrated that these filamentary structures are associated to well organized magnetic fields, which should play a major role in this process. A better understanding of this process requires detailed observations of galactic dust polarization on scales of 0.01 pc to 0.1 pc. Such high resolution polarization observations can be carried out at the IRAM 30 meter telescope using the recently installed New IRAM Kid Array (NIKA2) camera, which features two frequency bands at 260 (polarized) and 150 (non polarized) GHz for a total of 3300 detectors, 12 and 18 arcsec FWHM resolution and Field of View (FoV) of 6.5 arcminutes diameter. The NIKA camera, which consists of two arrays of 132 and 224 LEKIDs (Lumped Element Kinetic Inductance Detectors) covering a FoV of ∼1.8 arcminutes at 1.15 (260) and 2.05 (150) mm (GHz), was installed at the IRAM 30 telescope from 2012 to 2015.The purpose of this thesis was the characterization of the NIKA polarization system performance. The system consisted of a rotating multi-mesh half wave plate and a grid polarizer. The rapidity of the LEKID detectors combined to the modulation of the HWP permits the simultaneous measurement of the three stokes parameters I,Q,U, components of the linear polarization. Then the signal is extracted with a lock-in procedure by isolating the amplitude of the mechanical rotation fourth harmonic.In the first part of the thesis the instrumental efficiency characterization of the system is presented. Later, the dedicated polarization data analysis is described. It has been specifically developed for the NIKA instrument and has allowed to map polarisation observations of compact and extended sources.The data reduction of unpolarized sources observations showed an instrumental polarization systematic effect. In order to correct for this effect an algorithm has been developed allowing to reduce an observed instrumental polarization of the order of ~ 3 % to below ~ 1%. In addition, polarized sources observations corrected for the systematic effect confirmed the potentiality of the NIKA polarimeter to measure the polarization. This opens the way to forthcoming observations with NIKA2 that will undoubtedly provide advances in the field of Galactic emission and interactions with the magnetic field.
|
45 |
Modélisation et exécution des applications d'analyse de données multi-dimentionnelles sur architectures distribuées. / Modelling and executing multidimensional data analysis applications over distributed architectures.Pan, Jie 13 December 2010 (has links)
Des quantités de données colossalles sont générées quotidiennement. Traiter de grands volumes de données devient alors un véritable challenge pour les logiciels d'analyse des données multidimensionnelles. De plus, le temps de réponse exigé par les utilisateurs de ces logiciels devient de plus en plus court, voire intéractif. Pour répondre à cette demande, une approche basée sur le calcul parallèle est une solution. Les approches traditionnelles reposent sur des architectures performantes, mais coûteuses, comme les super-calculateurs. D'autres architectures à faible coût sont également disponibles, mais les méthodes développées sur ces architectures sont souvent bien moins efficaces. Dans cette thèse, nous utilisons un modèle de programmation parallèle issu du Cloud Computing, dénommé MapReduce, pour paralléliser le traitement des requêtes d'analyse de données multidimensionnelles afin de bénéficier de mécanismes de bonne scalabilité et de tolérance aux pannes. Dans ce travail, nous repensons les techniques existantes pour optimiser le traitement de requête d'analyse de données multidimensionnelles, y compris les étapes de pré-calcul, d'indexation, et de partitionnement de données. Nous avons aussi résumé le parallélisme de traitement de requêtes. Ensuite, nous avons étudié le modèle MapReduce en détail. Nous commençons par présenter le principe de MapReduce et celles du modèle étendu, MapCombineReduce. En particulier, nous analysons le coût de communication pour la procédure de MapReduce. Après avoir présenté le stockage de données qui fonctionne avec MapReduce, nous présentons les caractéristiques des applications de gestion de données appropriées pour le Cloud Computing et l'utilisation de MapReduce pour les applications d'analyse de données dans les travaux existants. Ensuite, nous nous concentrons sur la parallélisation des Multiple Group-by query, une requête typique utilisée dans l'exploration de données multidimensionnelles. Nous présentons la mise en oeuvre de l'implémentation initiale basée sur MapReduce et une optimisation basée sur MapCombineReduce. Selon les résultats expérimentaux, notre version optimisée montre un meilleur speed-up et une meilleure scalabilité que la version initiale. Nous donnons également une estimation formelle du temps d'exécution pour les deux implémentations. Afin d'optimiser davantage le traitement du Multiple Group-by query, une phase de restructuration de données est proposée pour optimiser les jobs individuels. Nous re-definissons l'organisation du stockage des données, et nous appliquons les techniques suivantes, le partitionnement des données, l'indexation inversée et la compression des données, au cours de la phase de restructuration des données. Nous redéfinissons les calculs effectués dans MapReduce et dans l'ordonnancement des tâches en utilisant cette nouvelle structure de données. En nous basant sur la mesure du temps d'exécution, nous pouvons donner une estimation formelle et ainsi déterminer les facteurs qui impactent les performances, telles que la sélectivité de requête, le nombre de mappers lancés sur un noeud, la distribution des données « hitting », la taille des résultats intermédiaires, les algorithmes de sérialisation adoptée, l'état du réseau, le fait d'utiliser ou non le combiner, ainsi que les méthodes adoptées pour le partitionnement de données. Nous donnons un modèle d'estimation des temps d'exécution et en particulier l'estimation des valeurs des paramètres différents pour les exécutions utilisant le partitionnement horizontal. Afin de soutenir la valeur-unique-wise-ordonnancement, qui est plus flexible, nous concevons une nouvelle structure de données compressées, qui fonctionne avec un partitionnement vertical. Cette approche permet l'agrégation sur une certaine valeur dans un processus continu. / Along with the development of hardware and software, more and more data is generated at a rate much faster than ever. Processing large volume of data is becoming a challenge for data analysis software. Additionally, short response time requirement is demanded by interactive operational data analysis tools. For addressing these issues, people look for solutions based on parallel computing. Traditional approaches rely on expensive high-performing hardware, like supercomputers. Another approach using commodity hardware has been less investigated. In this thesis, we are aiming to utilize commodity hardware to resolve these issues. We propose to utilize a parallel programming model issued from Cloud Computing, MapReduce, to parallelize multidimensional analytical query processing for benefit its good scalability and fault-tolerance mechanisms. In this work, we first revisit the existing techniques for optimizing multidimensional data analysis query, including pre-computing, indexing, data partitioning, and query processing parallelism. Then, we study the MapReduce model in detail. The basic idea of MapReduce and the extended MapCombineReduce model are presented. Especially, we analyse the communication cost of a MapReduce procedure. After presenting the data storage works with MapReduce, we discuss the features of data management applications suitable for Cloud Computing, and the utilization of MapReduce for data analysis applications in existing work. Next, we focus on the MapReduce-based parallelization for Multiple Group-by query, a typical query used in multidimensional data exploration. We present the MapReduce-based initial implementation and a MapCombineReduce-based optimization. According to the experimental results, our optimized version shows a better speed-up and a better scalability than the other version. We also give formal execution time estimation for both the initial implementation and the optimized one. In order to further optimize the processing of Multiple Group-by query processing, a data restructure phase is proposed to optimize individual job execution. We redesign the organization of data storage. We apply, data partitioning, inverted index and data compressing techniques, during data restructure phase. We redefine the MapReduce job's calculations, and job scheduling relying on the new data structure. Based on a measurement of execution time we give a formal estimation. We find performance impacting factors, including query selectivity, concurrently running mapper number on one node, hitting data distribution, intermediate output size, adopted serialization algorithms, network status, whether using combiner or not as well as the data partitioning methods. We give an estimation model for the query processing's execution time, and specifically estimated the values of various parameters for data horizontal partitioning-based query processing. In order to support more flexible distinct-value-wise job-scheduling, we design a new compressed data structure, which works with vertical partition. It allows the aggregations over one certain distinct value to be performed within one continuous process.
|
46 |
On Metric and Statistical Properties of Topological Descriptors for geometric Data / Sur les propriétés métriques et statistiques des descripteurs topologiques pour les données géométriquesCarriere, Mathieu 21 November 2017 (has links)
Dans le cadre de l'apprentissage automatique, l'utilisation de représentations alternatives, ou descripteurs, pour les données est un problème fondamental permettant d'améliorer sensiblement les résultats des algorithmes. Parmi eux, les descripteurs topologiques calculent et encodent l'information de nature topologique contenue dans les données géométriques. Ils ont pour avantage de bénéficier de nombreuses bonnes propriétés issues de la topologie, et désirables en pratique, comme par exemple leur invariance aux déformations continues des données. En revanche, la structure et les opérations nécessaires à de nombreuses méthodes d'apprentissage, comme les moyennes ou les produits scalaires, sont souvent absents de l'espace de ces descripteurs. Dans cette thèse, nous étudions en détail les propriétés métriques et statistiques des descripteurs topologiques les plus fréquents, à savoir les diagrammes de persistance et Mapper. En particulier, nous montrons que le Mapper, qui est empiriquement un descripteur instable, peut être stabilisé avec une métrique appropriée, que l'on utilise ensuite pour calculer des régions de confiance et pour régler automatiquement ses paramètres. En ce qui concerne les diagrammes de persistance, nous montrons que des produits scalaires peuvent être utilisés via des méthodes à noyaux, en définissant deux noyaux, ou plongements, dans des espaces de Hilbert en dimension finie et infinie. / In the context of supervised Machine Learning, finding alternate representations, or descriptors, for data is of primary interest since it can greatly enhance the performance of algorithms. Among them, topological descriptors focus on and encode the topological information contained in geometric data. One advantage of using these descriptors is that they enjoy many good and desireable properties, due to their topological nature. For instance, they are invariant to continuous deformations of data. However, the main drawback of these descriptors is that they often lack the structure and operations required by most Machine Learning algorithms, such as a means or scalar products. In this thesis, we study the metric and statistical properties of the most common topological descriptors, the persistence diagrams and the Mappers. In particular, we show that the Mapper, which is empirically instable, can be stabilized with an appropriate metric, that we use later on to conpute confidence regions and automatic tuning of its parameters. Concerning persistence diagrams, we show that scalar products can be defined with kernel methods by defining two kernels, or embeddings, into finite and infinite dimensional Hilbert spaces.
|
47 |
The blind Bayesian approach to Cosmic Microwave Background data analysis / L'approche bayésienne de l'analyse du fond diffus cosmologiqueVansyngel, Flavien 16 December 2014 (has links)
Le thème principal de cette thèse est l'analyse de données du fond diffus cosmologique (CMB). En particulier, je présente une méthode, Bayesian Independent Analysis (BICA), qui effectue à la fois la séparation des composants et l'inférence du spectre de puissance du CMB. Je commence par présenter les principes de base du CMB et souligne la nécessité d'une modélisation robuste des erreurs au niveau de la carte. Puis je présente la principale source d'erreurs dans les produits du CMB, à savoir les avant-plans. La séparation des composants est une étape cruciale dans l'analyse de données de CMB. Je passe en revue plusieurs méthodes visant à nettoyer le CMB des avant-plans. Puis je présente BICA. La méthode est formulée dans le cadre bayésien aveugle. Il en résulte une inférence jointe de la carte de CMB et de son spectre de puissance. Ainsi, les erreurs sur la reconstruction comprennent les incertitudes dues à la présence d'avant-plans dans les données. En considérant des choix particuliers de prior et d'échantillonnage, je montre comment la formulation bayésienne de séparation des composantes fournit un cadre unificateur dont les méthodes précédentes sont des cas particuliers. Je présente les résultats de BICA lorsqu'elle est appliquée sur des données simulées et les données Planck. Cette méthode est capable de reconstruire la carte du CMB et son spectre sur une large fraction du ciel. Les principales contributions de cette thèse sont : 1) un spectre de puissance du CMB dont les erreurs prennent en compte la présence d'avant-plans mais sans modèle physique, 2) une carte CMB avec un modèle d'erreur incluant à la fois le bruit et avant-plans. / The main topic of this thesis is the analysis of Cosmic Microwave Background (CMB) data. In particular, I present a method, Bayesian Independent component analysis (BICA), that performs both CMB component separation and CMB power spectrum inference.I begin by presenting the basics of our understanding of the CMB emission and highlight the need for a robust error modelling at the map level. Then I present the main source of errors in the CMB products, namely the foregrounds.Component separation is a crucial and delicate step in CMB data analysis. I review several methods aiming at cleaning the CMB from foregroundsThen I present BICA. The method is formulated in a blind Bayesian framework. The posterior distribution provides an inference of the CMB map and power spectrum from the observation maps. Thus, the errors on the reconstruction include the uncertainties due the presence of foregrounds in the data. By considering particular choices of prior and sampling scheme, I show how the Bayesian formulation of component separation provide a unifying framework of which previous methods are special cases.I present the results of BICA when applied on both simulated data and 2013 Planck data. This method is able to reconstruct the CMB map and power spectrum on a large fraction of the sky. The main contributions of this thesis is to provide: 1) a CMB power spectrum on a large multipole range whose errors take the presence of foregrounds into account but without assuming physical models, 2) a CMB map inference together with an error model including both noise and foregrounds residuals.
|
48 |
Analyse multi-satellite et multi-échelle de la turbulence dans le vent solaire / Multi-spacecraft and multi-scale analysis of solar wind turbulenceLion, Sonny 26 September 2016 (has links)
La turbulence dans le vent solaire a suscité beaucoup d'intérêt depuis les premières mesures in-situ dans l'héliosphère. Mais de nombreuses questions sont encore sans réponse. En particulier, le rôle de la turbulence dans le chauffage du vent solaire ainsi que la nature de la turbulence autour des échelles ioniques, là où les fluctuations turbulentes sont supposées être dissipées. À travers une étude multi-satellite incluant les sondes Helios 2, Stereo et Ulysses, nous avons montré qu'à grande échelle, dans le domaine inertiel, il existe une forte corrélation entre la pression thermique des ions et l'amplitude des fluctuations magnétiques. Cette corrélation est observée de 0,3 à 5,4 unités astronomiques. Elle pourrait s'expliquer soit par la présence d'une corrélation fossile déjà présente dans la photosphère ou la couronne solaire ; soit par le fait que le vent solaire est chauffé par la turbulence. Par la suite, nous nous sommes concentrés sur les échelles ioniques, où le spectre turbulent forme un coude. Grâce à la transformée en ondelettes, nous avons mis en évidence la présence d'ondes d'Alfvén de faibles amplitudes, ainsi que celle de couches de courant et vortex d'Alfvén de fortes amplitudes. Nous avons aussi mis en place un nouveau formalisme basé sur une fonction de quatre paramètres permettant de décrire la statistique des fluctuations magnétiques dans le vent solaire. Cette description s'applique des échelles MHD aux échelles électroniques. En utilisant deux approches différentes, l'analyse locale et l'analyse statistique des fluctuations, nous avons établi un lien entre l'évolution de l'intermittence et celle du spectre turbulent aux échelles ioniques. / Turbulence in the solar wind has been attracting attention since first in-situ measurements in the Heliosphere. Still a lot of open questions remain. In particular, the role of turbulence in the solar wind heating as well as its nature around plasma kinetic scales, where turbulent fluctuations are supposed to be dissipated. Through a multi-satellite analysis including Helios 2, Stereo and Ulysses probes, we were able to show that at large-scale, in the inertial range, there exist a strong correlation between the ion thermal pressure and the amplitude of magnetic fluctuations, which maintains between 0.3 and 5.4 astronomical units. The origine of this correlation can be (i) a fossil correlation present already in the photosphere or in the solar corona; or (ii) the solar wind heating by the turbulence. This heating is expected to take place at plasma kinetic scales.Subsequently we focused on ionic scales, where the turbulent spectrum has a break. Thanks to wavelet transform and phase coherence analysis we shed light on the nature of turbulence around the spectral break: we show the presence of small amplitude Alfvén waves as well as strong amplitude current sheets and Alfvén vortices. We proposed as well new statistical description of magnetic fluctuations in the solar wind by using a four-parameter function, valid from MHD to electron scales. Using two different approaches, detail analysis of fluctuations and statistical analysis, we established the connection between intermittency and the evolution of the turbulent spectrum at ion scales.
|
49 |
Pipeline intégratif multidimensionnel d'analyse de données NGS pour l'étude du devenir cellulaire / Multi-dimensional and integrative pipeline for NGS-based datasets to explore cell fate decisionsMohamed Saleem, Mohamed Ashick 30 November 2015 (has links)
L'épigénomique pourrait nous aider à mieux comprendre pourquoi différents types cellulaires montrent différents comportements. Puisque, dans le cadre d'études épigénétiques, il peut êtrenécessaire de comparer plusieurs profils de séquençage, il y a un besoin urgent en nouvelles approches et nouveaux outils pour pallier aux variabilités techniques sous-jacentes. Nous avons développé NGS-QC, un système de contrôle qualité qui détermine la qualité de données et Epimetheus, un outil de normalisation d'expériences de modifications d'histones basé sur les quartiles afin de corriger les variations techniques entre les expériences. Enfin, nous avons intégré ces outils dans un pipeline d'analyse allèle-spécifique afin de comprendre le statut épigénétique de XCI dans le cancer du sein où la perte du Xi est fréquent. Notre analyse a dévoilé des perturbations dans le paysage épigénétique du X et des réactivations géniques aberrantes dans le Xi, dont celles associées au développement du cancer. / Epigenomics would help us understand why various cells types exhibit different behaviours. Aberrant changes in reversible epigenetic modifications observed in cancer raised focus towards epigenetic targeted therapy. As epigenetic studies may involve comparing multi-profile sequencing data, thereis an imminent need for novel approaches and tools to address underlying technical variabilities. Wehave developed NGS-QC, a QC system to infer the experimental quality of the data and Epimetheus, a quantile-based multi-profile normalization tool for histone modification datasets to correct technical variation among samples. Further, we have employed these developed tools in an allele-specific analysis to understand the epigenetic status of X chromosome inactivation in breast cancer cells where disappearance of Xi is frequent. Our analysis has revealed perturbation in epigenetic landscape of X and aberrant gene reactivation in Xi including the ones that are associated with cancer promotion.
|
50 |
Processus turbulents dans la couche limite atmosphérique pendant la transition d'après-midi / Turbulent processes in the boundary layer during the afternoon transitionDarbieu, Clara 09 March 2015 (has links)
Cette thèse porte sur l'étude de la transition d'après-midi (TA) de la couche limite atmosphérique (CLA). La TA est une période complexe du cycle diurne, de par son manque de stationnarité et parce qu'elle est régie par un ensemble de forçages qui faiblissent et dont les rôles respectifs changent par rapport à ce qu'ils ont pu être durant la période convective. Il résulte une moins bonne compréhension de cette période que des régimes quasi-stationnaires convectifs, neutres ou stables. La TA pourrait conditionner l'établissement du brouillard nocturne, influencer le développement de la couche limite du lendemain et être une phase clé du cycle diurne pour la ventilation des espèces en trace vers l'atmosphère libre. Par conséquent, de meilleures description et compréhension de la TA pourraient améliorer les modèles météorologiques et de qualité de l'air. Les principaux objectifs de la thèse ont été de mieux comprendre comment la turbulence décroît pendant la TA en mettant l'accent sur l'évolution de la structure verticale de la turbulence lorsque les transferts d'énergie en surface diminuent progressivement, et sur le rôle que joue la surface à ce moment particulier du cycle diurne. Le projet international BLLAST (Boundary Layer Late Afternoon and Sunset Turbulence) a servi de cadre à cette thèse. La campagne de mesures qui s'est déroulée en été 2011 sur le Plateau de Lannemezan, au nord de la chaîne Pyrénéenne, a fourni les nombreuses observations utilisées dans cette thèse. Une approche complémentaire aux observations est l'utilisation d'un modèle atmosphérique permettant de résoudre explicitement les échelles de la turbulence (LES). / This thesis focuses on the afternoon transition (AT) of the atmospheric boundary layer (ABL). This transitional period is complex, because it is non-stationary and most of the forcings, though smaller than during the previous convective period, may come into play. Thus, this transitional period is less understood than the quasi-stationary convective, neutral or stable regimes. Yet, the AT could impact on the nocturnal fog set up, influence the boundary-layer development on the following day and play a crucial role in the transport and dispersion of pollutants and trace species towards the free troposphere. Therefore, a better understanding of the AT could improve the meteorological models. One of the main objectives of the thesis is to improve the knowledge of the decay of turbulence during the AT, when the surface energy transfers are gradually decreasing. We especially put emphasis on the evolution of the ABL turbulence vertical structure. This work is in the core of the BLLAST (Boundary Layer Late Afternoon and Sunset Turbulence) international project. A field campaign took place in summer 2011 in France, on the northern side of the Pyrenean foothills (at "Plateau de Lannemezan"), providing numerous observations used in the thesis. In addition, we also used a Large-Eddy Simulation (LES) with which the turbulent scales can be explicitly resolved. Thanks to this approach, the evolution during the AT of the scale definitions, scaling laws, turbulence characteristics and of the role of the boundary layer processes are now better understood. Thanks to the set of observations, an overview of the BLLAST ATs has been done, according to the various meteorological conditions as well as the structure and evolution of the mean and turbulence structure of the ABLs. A large variability of the AT duration was observed, depending on the surface characteristics and atmospheric conditions. The evolution of the turbulent characteristics during the AT has been studied at the surface and higher in the ABL by means of aircraft measurements and LES data. The study points out the LES ability to reproduce the turbulence evolution throughout the afternoon.
|
Page generated in 0.0706 seconds