Spelling suggestions: "subject:"nombre dde"" "subject:"nombre dee""
161 |
Étude multi-échelles des courbes de désaturation capillaire par tomographie RXOughanem, Rezki 20 December 2013 (has links) (PDF)
L'injection de tensioactifs est une méthode très appliquée dans le domaine de la récupération améliorée des hydrocarbures. Cependant, son efficacité repose sur la capacité de ces agents chimiques à mobiliser l'huile résiduelle en diminuant la tension interfaciale entre l'huile et l'eau. Des modèles à l'échelle du réservoir calculent l'efficacité de la récupération d'huile résiduelle par injection de solutions contenant des tensioactifs. Les mécanismes physiques pris en compte dans les modélisations font intervenir la physico-chimie du système roche-fluide et une courbe globale donnant la saturation résiduelle en huile en fonction du nombre capillaire (courbe de désaturation capillaire). Cette donnée est majeure dans le calcul de l'efficacité de récupération d'huile par injection de solutions de tensioactifs. En effet la mobilisation de l'huile résiduelle laissée en place après injection d'eau n'est possible qu'en augmentant considérablement le nombre capillaire. La prédiction de l'efficacité d'un procédé chimique de récupération passe par la compréhension, à l'échelle du pore, du processus de mobilisation des ganglions d'huile suivant la structure poreuse et le nombre capillaire. L'objet de cette thèse est de caractériser la récupération d'huile tertiaire en fonction du nombre capillaire dans diverses roches mouillables à l'eau. Ces courbes permettront de quantifier l'effet de la microstructure, les hétérogénéités du milieu poreux et diverses propriétés pétrophysiques sur la récupération d'huile. Cette thèse permettra aussi de caractériser les différents mécanismes d'action de tensioactifs sur la mobilisation d'huile résiduelle dans le milieu poreux. L'expérimentation par tomographie RX est utilisée. La tomographie RX permettra de caractériser les courbes de désaturation capillaire à l'échelle de Darcy et visualiser localement le déplacement d'huile résiduelle à travers les milieux poreux. Des essais d'écoulement diphasique sous micro-CT permettront d'observer in-situ et d'étudier les interfaces eau/huile et leurs évolutions en 3D au sein du milieu poreux en fonction du nombre capillaire.
|
162 |
Caracterización de variantes genómicas. Aplicación de nuevas tecnologías al estudio del retraso mental.Madrigal Bajo, Irene 28 March 2008 (has links)
Estudios recientes han permitido estimar que aproximadamente un 5% del genoma consiste en duplicaciones segmentarias (DS), secuencias de entre 1-100 kb con un nivel de similitud de más del 95% (Eichler, 2001). Las regiones flanqueadas por duplicaciones segmentarias son susceptibles de sufrir reordenamientos mediante recombinación homóloga no alélica y se ha hipotetizado que estas regiones representan puntos calientes de inestabilidad genómica propensos a variación en número de copia (CNVs). Esta variación estructural (deleciones, duplicaciones e inversiones) representa una fuerza mutacional infravalorada en la contribución a las enfermedades genéticas, y en particular en los loci susceptibles a retraso mental. La aparición de nuevas tecnologías como los arrays de CGH o el MLPA permiten el análisis de alta resolución para la identificación de alteraciones genéticas y variaciones en número de copia a nivel de todo el genoma. La aplicación de estas tecnologías ha permitido, recientemente, establecer la implicación de microdeleciones y microduplicaciones en diversas enfermedades genéticas, como por ejemplo el retraso mental (RM). Las técnicas convencionales (cariotipo, FISH, CGH o PCR) de las que disponemos actualmente para el estudio de enfermedades genéticas como el retraso mental no son los suficientemente sensibles para la detección de reordenamientos submicroscópicos. Disponiendo de la tecnología y el material adecuado, es posible la caracterización molecular nuevas variantes geonómicas en retraso mental. Debido a la gran cantidad de casos de RM en los que se desconoce su etiología, el objetivo principal de esta tesis ha sido la caracterización de variantes genómicas responsables de RM aplicando nuevas tecnologías: aCGH del cromosoma X y MLPA. El MLPA se basa en la detección simultánea del número de copias de una secuencia específica mediante la hibridación genómica del DNA con una mezcla de sondas específicas. La cantidad relativa del producto amplificado se correlaciona con el número de copias de la secuencia diana de esa sonda. Por otro lado, los arrays de CGH permiten detectar reordenamientos cromosómicos desequilibrados de <1 Mb. Con el uso de clones genómicos distribuidos de forma que cubran la totalidad del cromosoma X se puede generar un array específico que permitirá obtener un cariotipo molecular de este cromosoma a nivel de 100kb, lo que permitirá detectar microdeleciones, microduplicaciones e inversiones del cromosoma X. Esta parte del proyecto que incluye tanto el diseño, la construcción y validación del array como la hibridación de las muestras se realiza de forma coordinada con el Centro de Regulación de Barcelona (CRG).Para este estudio se seleccionaron pacientes procedentes de familias con herencia compatible con un RM ligado al cromosoma X. Estas familias procedían del Departamento de Bioquímica y Genética Molecular del Hospital Clínico de Barcelona y del grupo GIRMOGEN (Grupo Investigación Retraso Mental de Origen Genético). A todos ellos se les había realizado previamente un cariotipo, se había descartado la expansión del triplete CGG el gen FMR1, responsable del Síndrome del X frágil y no se habían detectado reordenamientos subteloméricos. Gracias a la aplicación de estas tecnologías hemos identificado y caracterización de nuevas variantes genómicas implicadas en RM (11,5%). La detección de reordenamientos cripticos en pacientes afectos de estas enfermedades nos ha permitido establecer una correlación genotipo/fentipo e identificar nuevos genes y mecanismos implicados en el desarrollo del RM. / "CARACTERIZATION OF GENOMIC VARIANTS. APLICATION OF NEW TECHONOLOGIES TO THE STUDY OF MENTAL RETARDATION" TEXT:Mental Retardation (RM) is a common disorder affecting 1-3% of general population. X-linked MR represents and important group inside MR. Nowadays OMIM lists 359 entries about XLMR although only 44 X-linked genes are known to cause XLMR (syndromic and non-syndromic). On the other hand, subtelomeric rearrangements comprise 5-7% of MR with unknown genetic origin. There are few reports about submicroscopic rearrangements that affect X chromosome due to the difficulties that implicate these studies. CGHarray (array-based comparative genomic hibridization) measures submicroscopic DNA copy number changes and allows the simultaneous high-resolution mapping of these changes onto the genome sequence. With the construction and application of a specific CGH microarray, it will be possible to characterize different molecular variants inside this chromosome in those cases of MRLX without molecular diagnosis. On the other hand, MLPA is based in the simultaneous detection of the number of copies of a specific sequence through hybridization of genomic DNA with a mixture of specific probes. The main objective of the present project is to identify submicroscopic duplications and deletions affecting chromosome X in patients with non-syndromic. For this study we selected patients from families with an inheritance consistent with an XLMR. These families came from the Department of Biochemistry and Molecular Genetics at the Hospital Clinical of Barcelona and the GIRMOGEN group (Research Group for Mental Retardation of Genetic Origin). The application of new techonolgies such as MLPA o aCGH has led to the identification of new rearrangements in the X chromosome responsible for MR (11,5%). The detection of cryptic rearrangements in MR patients has enabled us to establish a gentype/phenotype correlation and to identify new genes and mechanisms involved in the development of MR.
|
163 |
A semantics for groups and eventsLasersohn, Peter. January 1990 (has links)
Revision of the author's Thesis (Ph. D.)--Ohio State University, 1988. / Includes bibliographical references (p. 135-140).
|
164 |
Jeux à objectif compétitif sur les graphes / Commpetitive optimization graph gamesSchmidt, Simon 15 December 2016 (has links)
Dans cette thèse nous étudions trois jeux à objectif compétitif sur les graphes. Les jeux à objectif compétitif proposent une approche dynamique des problèmes d'optimisation discrètes. L'idée générale consiste à associer à un problème d'optimisation (coloration, domination, etc.) un jeu combinatoire partisan de la façon suivante. Deux joueurs construisent tour à tour la structure reliée au problème d'optimisation. L'un d'eux cherche à ce que cette structure soit le plus optimale possible, tandis que l'autre essaye de l'en empêcher. Sous l'hypothèse que les deux joueurs jouent optimalement, la taille de la structure obtenue définit un invariant ludique.Nous commençons par étudier une variante 1-impropre du jeu de coloration, qui est le premier et le plus étudié des jeux à objectif compétitif. Dans ce jeu, les joueurs colorient les sommets d'un graphe de sorte que deux sommets adjacents ne partagent jamais la même couleur. Dans la version 1-impropre, un sommet peut avoir au plus un voisin ayant la même couleur que lui. Nous considérons ensuite le jeu de domination, dans lequel les deux joueurs doivent construire un ensemble dominant, c'est-à-dire un ensemble de sommets du graphe tel que tout autre sommet est adjacent à l'un des membres de cet ensemble. Finalement, nous définissons un nouveau jeu à objectif compétitif, relié au problème de coloration distinguante. Dans ce jeu, il s'agit de construire une coloration qui n'est invariante par aucun des automorphismes du graphe. Nous soulevons plusieurs interrogations stimulantes concernant ce nouveau jeu, notamment sur la caractérisation des graphes ayant un invariant ludique infini, par l'existence d'automorphismes d'ordre deux. / In this thesis, we study three competitive optimization graph games. These games allow a dynamic approach to discrete optimization problems, which is an advantageous alternative way to consider these questions. The global idea consists in defining a combinatorial partisan game, associated to the original optimization problem, like coloring, domination, etc. Two players alternatively build the structure related to the optimization problem. One of them tries to obtain a structure as optimal as possible, whereas his opponent wants to prevent him from doing it. Under the hypothesis that both players play optimally, the size of the obtained structure defines a game invariant of the graph.We start by studying a 1-improper variation of the coloring game, which is the first and the most studied competitive optimization graph game. In this game, the players colors the vertices of a graph, such that two adjacent vertices do not share the same color. In the 1-improper version, we allow a vertex to have at most one neighbor with the same color as it. Then, we study the domination game, in which the players have to build a domination set, that is a sub-set of vertices such that any other vertex is adjacent to one of the vertex in this set. Finally, we define a new game, related to the distinguishing coloring problem. This game is about building a vertex-coloring which is preserved by none of the graph automorphisms. We raise some challenging open questions about this new game, especially concerning the characterization of graphs with infinite game invariant, by the existence of order two automorphisms.
|
165 |
Analyse des synchronisations dans un programme parallèle ordonnancé par vol de travail. Applications à la génération déterministe de nombres pseudo-aléatoires. / Analysis of Synchronizations In Greedy-Scheduled Executions - Application to Efficient Generation of Pseudorandom Numbers in ParallelMor, Stefano Drimon Kurz 26 October 2015 (has links)
Nous présentons deux contributions dans le domaine de la programmation parallèle.La première est théorique : nous introduisons l'analyse SIPS, une approche nouvelle pour dénombrer le nombre d'opérations de synchronisation durant l'exécution d'un algorithme parallèle ordonnancé par vol de travail.Basée sur le concept d'horloges logiques, elle nous permet,: d'une part de donner de nouvelles majorations de coût en moyenne; d'autre part de concevoir des programmes parallèles plus efficaces par adaptation dynamique de la granularité.La seconde contribution est pragmatique: nous présentons une parallélisation générique d'algorithmes pour la génération déterministe de nombres pseudo-aléatoires, indépendamment du nombre de processus concurrents lors de l'exécution.Alternative à l'utilisation d'un générateur pseudo-aléatoire séquentiel par processus, nous introduisons une API générique, appelée Par-R qui est conçue et analysée grâce à SIPS.Sa caractéristique principale est d'exploiter un générateur séquentiel qui peut "sauter" directement d'un nombre à un autre situé à une distance arbitraire dans la séquence pseudo-aléatoire.Grâce à l'analyse SIPS, nous montrons qu'en moyenne, lors d'une exécution par vol de travail d'un programme très parallèle (dont la profondeur ou chemin critique est très petite devant le travail ou nombre d'opérations), ces opérations de saut sont rares.Par-R est comparé au générateur pseudo-aléatoire DotMix, écrit pour Cilk Plus, une extension de C/C++ pour la programmation parallèle par vol de travail.Le surcout théorique de Par-R se compare favorablement au surcoput de DotMix, ce qui apparait aussi expériemntalement.De plus, étant générique, Par-R est indépendant du générateur séquentiel sous-jacent. / We present two contributions to the field of parallel programming.The first contribution is theoretical: we introduce SIPS analysis, a novel approach to estimate the number of synchronizations performed during the execution of a parallel algorithm.Based on the concept of logical clocks, it allows us: on one hand, to deliver new bounds for the number of synchronizations, in expectation; on the other hand, to design more efficient parallel programs by dynamic adaptation of the granularity.The second contribution is pragmatic: we present an efficient parallelization strategy for pseudorandom number generation, independent of the number of concurrent processes participating in a computation.As an alternative to the use of one sequential generator per process, we introduce a generic API called Par-R, which is designed and analyzed using SIPS.Its main characteristic is the use of a sequential generator that can perform a ``jump-ahead'' directly from one number to another on an arbitrary distance within the pseudorandom sequence.Thanks to SIPS, we show that, in expectation, within an execution scheduled by work stealing of a "very parallel" program (whose depth or critical path is subtle when compared to the work or number of operations), these operations are rare.Par-R is compared with the parallel pseudorandom number generator DotMix, written for the Cilk Plus dynamic multithreading platform.The theoretical overhead of Par-R compares favorably to DotMix's overhead, what is confirmed experimentally, while not requiring a fixed generator underneath.
|
166 |
Automates cellulaires pour la modélisation et le contrôle en épidémiologie / Cellular automata for modeling and control in epidemiologyCisse, Baki 08 June 2015 (has links)
Ce travail de thèse traite de la modélisation et du contrôle des maladies infectieuses à l’aide des automates cellulaires. Nous nous sommes d’abord focalisés sur l’étude d’un modèle de type SEIR. Nous avons pu monter d’une part qu’un voisinage fixe pouvait entrainer une sous-évaluation de l’incidence et de la prévalence et d’autre part que sa structure a un impact direct sur la structure de la distribution de la maladie. Nous nous sommes intéressés également la propagation des maladies vectorielles à travers un modèle de type SIRS-SI multi-hôtes dans un environnement hétérogène.Les hôtes y étaient caractérisés par leur niveau de compétence et l’environnement par la variation du taux de reproduction et de mortalité. Son application à la maladie de Chagas, nous a permis de montrer que l’hétérogénéité de l’habitat et la diversité des hôtes contribuaient à faire baisser l’infection. Cependant l’un des principaux résultats de notre travail à été la formulation du nombre de reproduction spatiale grâce à deux matrices qui représentent les coefficients d’interactions entre les différentes cellules du réseau. / This PhD thesis considers the general problem of epidemiological modelling and control using cellular automata approach.We first focused on the study of the SEIR model. On the one hand, we have shown that the traditionnal neighborhood contribute to underestimate the incidence and prevalence of infection disease. On the other hand, it appeared that the spatial distribution of the cells in the lattice have a real impact on the disease spreading. The second study concerns the transmission of the vector-borne disease in heterogeneous landscape with host community. We considered a SIRS-SI with various level of competence at witch the environnment heterogeneity has been characterized by the variation of the birth flow and the death rate. We simulated the Chagas disease spreading and shown that the heterogeneity of habitat and host diversity contribute to decrease the infection. One of the most important results of our work, was the proposition of the spatial reproduction number expression based on two matrices that represent the interaction factors between the cells in the lattice.
|
167 |
Propriétés en fatigue à grand et très grand nombre de cycles et à haute température des superalliages base nickel monogranulaires / High and Very High Cycle Fatigue of Ni-Based Single Crystal Superalloys at High TemperatureCervellon, Alice 12 November 2018 (has links)
Les propriétés en fatigue à grand et très grand nombre de cycles des superalliages base Ni monogranulaires ont été étudiées à 1000°C sous trois fréquences (0.5, 70 et 20000 Hz) et quatre rapports de charge (-1, 0.05, 0.3, 0.8), en prenant le CMSX-4 comme alliage de référence.Dans un premier temps, le régime de fatigue à très grand nombre de cycles a été étudié à 20 kHz. A R = -1, la fissure fatale s’amorce à chaque fois depuis un pore de fonderie en interne et se propage suivant les plans cristallographiques {111}, pour des durées de vie entre 106 et 109 cycles, et ce malgré la présence d’autres défauts tels que les eutectiques ou carbures. Le procédé d’élaboration, en impactant directement la taille des pores de fonderie, contrôle la durée de vie alors que la microstructure a peu d’influence. A R = 0.8, le fluage contrôle la durée de vie en fatigue gigacyclique, et rend alors ce régime sensible à la microstructure et à la composition chimique de l’alliage. Les essais à très longues durées de vie (> 109 cycles) ont également été caractérisés et ont permis de proposer un mécanisme d’amorçage dans ce régime de fatigue.Dans un second temps, l’influence de la fréquence d’essai sur les endommagements dépendants du temps tels que l’oxydation et le fluage, et leur interaction, a été étudiée. A R ≤ 0, diminuer la fréquence d’essai revient à inhiber la criticité des défauts internes en favorisant l’endommagement en surface par oxydation. A R ≥ 0.8, le fluage est l’endommagement conduisant à la rupture des éprouvettes quelle que soit la fréquence de sollicitation ou la durée de vie. Les rapports de charge intermédiaires présentent une interaction importante entre les endommagements en oxydation, fatigue et fluage en fonction de la fréquence de sollicitation et des conditions de chargement. A partir de ces observations, un modèle d’endommagement a été proposé afin de prédire la durée de vie du CMSX-4 et présente des résultats satisfaisants par rapport aux données expérimentales. / High and very high cycle fatigue properties of Ni-based single crystal superalloys have been studied at 1000°C using three frequencies (0.5, 70, 20000 Hz), four stress ratios (-1, 0.05, 0.3, 0.8) and CMSX-4 alloy as reference.Firstly, the very high cycle fatigue regime (VHCF) has been studied at 20 kHz. At R = -1, fatal crack always initiates between 106 and 109 cycles from an internal casting pore et then propagates in a crystallographic mode, despite the presence of other metallurgical defects such as eutectics and carbides. The elaboration process controls VHCF life under these conditions as it directly affects casting pore size, whereas microstructure has no relevant influence. At R = 0.8, creep controls VHCF life and makes this regime sensitive to microstructure and alloy’s chemical composition. Long term tests (> 109 cycles) have also been characterized and have enabled to propose a crack initiation mechanism operating in the VHCF regime.Secondly, the influence of frequency on time-dependent damages such as oxidation and creep, and their interaction, has been studied. At R ≤ 0, reducing frequency inhibits the harmfulness of internal critical defects by promoting oxidation surface damage. At R ≥ 0.8, creep damage leads to specimens rupture for all frequency test and loading conditions. Intermediate stress ratios present an important interaction between oxidation, fatigue and creep damage according to the frequency and loading conditions. Based on these observations, a damage model that predicts CMSX-4 fatigue life has been proposed and presents satisfying results in comparison to experimental data.
|
168 |
Spectrocopie gamma des noyaux 84, 86Se, 83As et 98Y / Gamma spectroscopy of nuclei : 84,86Se, 83As et 98YDrouet, Floriane 10 September 2014 (has links)
Le travail présenté dans ce manuscrit regroupe quatre études par spectroscopie gamma de quatre noyaux produits par une réaction de fission induite par protons de 25 MeV, sur une cible épaisse d'238U. Cette expérience a été menée au JYFL à Jyväskylä auprès du multidétecteur JUROGAM II. Dans ce manuscrit l'étude spectroscopique détaillée des noyaux : 84Se, 86Se, 83As et 98Y a été menée. Les trois premiers noyaux sont des noyaux sphériques se situant au voisinage de la couche magique N = 50. Leurs études peuvent permettre de mieux aborder l'évolution du gap de cette couche, mais aussi d'améliorer les interactions utilisées dans les calculs de modèle en couches permettant de reproduire leurs comportements. Huit nouvelles transitions ont pu être assignées à ces noyaux, ces résultats expérimentaux sont relativement bien en accord avec les calculs de modèle en couches effectués. Le noyau 98Y est un noyau possédant une coexistence de formes nucléaires. Alors que les états d'énergies inférieures à 500keV ont une configuration sphérique, les états situés au dessus sont déformés. Cinq nouvelles transitions ont été déterminées et ajoutées au schéma de niveaux existants, et deux calculs utilisant deux modèles collectifs ont été réalisés. Le premier utilisant le modèle GICM reproduit le comportement des états au dessous de 500keV et le deuxième QPRM reproduit les états prolate déformés permettant l'assignation d'un comportement sphérique à l'isomère (10-). / The work presented in this thesis includes four gamma-ray spectroscopy studies of four nuclei produced by fission induced by 25 MeV protons, on a thick target of 238U. This experiment was realized at JYFL in Jyväskylä with the multi-detector JUROGAM II. In this manuscript a detailed spectroscopic study of nuclei : 84Se, 86 Se, 83 As and 98Y was performed. The first three nuclei are spherical and they are on or adjacent to the N =50 shell closure. Their studies provide a better understanding of the possible decrease in energy of this shell closure, and also of the interactions used in shell-model calculations. Eight new transitions have been assigned to these nuclei and these experimental results are in a relatively good agreement with the shell-model calculations. In the nucleus 98Y a coexistence of nuclear shapes is observed. While the low-energy states below 500keV have a spherical configuration, higher lying states are deformed. Five new transitions were discovered and added to the existing levels scheme, and two calculations using two collective models have been made. The first set of calculations has used the GICM model to reproduce the behavior of states below 500keV and the second set of calculations has used QPRM to reproduce the prolate deformed states, and permitted the assignment of a spherical shape to the isomer (10-).
|
169 |
Bioinformatique et infertilité : analyse des données de séquençage haut-débit et caractérisation moléculaire du gène DPY19L2 / Bioinformatics and infertility : high throughput sequencing data analysis and molecular characterization of DPY19L2 geneKaraouzene, Thomas 29 November 2017 (has links)
Ces dix dernières années, l’investigation des maladies génétiques a été bouleversée par l’émergence des techniques de séquençage haut-débit. Celles-ci permettent désormais de ne plus séquencer les gènes un par un, mais d’avoir accès à l’intégralité de la séquence génomique ou transcriptomique d’un individu. La difficulté devient alors d’identifier les variants causaux parmi une multitude d’artefacts techniques et de variants bénins, pour ensuite comprendre la physiopathologie des gènes identifiés.L’application du séquençage haut débit est particulièrement prometteuse dans le champ de la génétique de l’infertilité masculine car il s’agit d’une pathologie dont l’étiologie est souvent génétique, qui est génétiquement très hétérogène et pour laquelle peu de gènes ont été identifiés. Mon travail de thèse est donc centré sur la l’infertilité et comporte deux parties majeures : l’analyse des données issues du séquençage haut débit d’homme infertiles et de modèles animaux et la caractérisation moléculaire d’un phénotype spécifique d’infertilité, laglobozoospermie.Le nombre de variants identifiés dans le cadre d’un séquençage exomique pouvant s’élever à plusieurs dizaines de milliers, l’utilisation d’un outil informatique performant est indispensable. Pour arriver à une liste de variants suffisamment restreinte pour pouvoir être interprétée, plusieurs traitements sont nécessaires. Ainsi, j’ai développé un pipeline d’analyse de données issues de séquençage haut-débit effectuant de manière successive l’intégralité des étapes de l’analyse bio-informatique, c’est-à-dire l’alignement des reads sur un génome de référence, l’appel des génotypes, l’annotation des variants obtenus ainsi que le filtrage de ceux considérés comme non pertinents dans le contexte de l’analyse. L’ensemble de ces étapes étant interdépendantes,les réaliser au sein du même pipeline permet de mieux les calibrer pour ainsi réduire le nombre d’erreurs générées. Ce pipeline a été utilisé dans cinq études au sein du laboratoire, et a permis l’identification de variants impactant des gènes candidats prometteurs pouvant expliquer le phénotype d’infertilité des patients.L’ensemble des variants retenus ont ensuite pu être validés expérimentalement.J’ai également pris part aux investigations génétiques et moléculaires permettant la caractérisation du gène DPY19L2, identifié au laboratoire et dont la délétion homozygote entraine une globozoospermie, caractériséepar la présence dans l’éjaculât de spermatozoïdes à tête ronde dépourvus d’acrosome. Pour cela, j’ai contribué à caractériser les mécanismes responsables de cette délétion récurrente, puis, en utilisant le modèle murin Dpy19l2 knock out (KO) mimant le phénotype humain, j’ai réalisé une étude comparative des transcriptomes testiculaires de souris sauvages et de souris KO Dpy19l2-/-. Cette étude a ainsi permis de mettre en évidence la dérégulation de 76 gènes chez la souris KO. Parmi ceux-ci, 23 sont impliqués dans la liaison d’acides nucléiques et de protéines, pouvant ainsi expliquer les défauts d’ancrage de l’acrosome au noyau chez les spermatozoïdes globozoocéphales.Mon travail a donc permis de mieux comprendre la globozoospermie et de développer un pipeline d’analyse bioinformatique qui a déjà permis l’identification de plus de 15 gènes de la gamétogenèse humaine impliqués dans différents phénotypes d’infertilité. / In the last decade, the investigations of genetic diseases have been revolutionized by the rise of high throughput sequencing (HTS). Thanks to these new techniques it is now possible to analyze the totality of the coding sequences of an individual (exome sequencing) or even the sequences of his entire genome or transcriptome.The understanding of a pathology and of the genes associated with it now depends on our ability to identify causal variants within a plethora of technical artifact and benign variants.HTS is expected to be particularly useful in the field infertility as this pathology is expected to be highly genetically heterogeneous and only a few genes have so far been associated with it. My thesis focuses on male infertility and is divided into two main parts: HTS data analysis of infertile men and the molecular characterization of a specific phenotype, globozoospermia.Several thousands of distinct variants can be identified in a single exome, thereby using effective informatics is essential in order to obtain a short and actionable list of variants. It is for this purpose that I developed a HTS data analysis pipeline performing successively all bioinformatics analysis steps: 1) reads mapping along a reference genome, 2) genotype calling, 3) variant annotation and 4) the filtering of the variants considered as non-relevant for the analysis. Performing all these independent steps within a single pipeline is a good way to calibrate them and therefore to reduce the number of erroneous calls. This pipeline has been used in five studies and allowed the identification of variants impacting candidate genes that may explain the patients’ infertility phenotype. All these variants have been experimentally validated using Sanger sequencing.I also took part in the genetic and molecular investigations which permitted to demonstrate that the absence of the DPY192 gene induces male infertility due to globozoospermia, the presence in the ejaculate of only round-headed and acrosomeless spermatozoa. Most patients with globozoospermia have a homozygous deletion of the whole gene. I contributed to the characterization of the mechanisms responsible for this recurrent deletion, then, using Dpy19l2 knockout (KO) mice, I realized the comparative study of testicular transcriptome of wild type and Dpy19l2 -/- KO mice. This study highlighted a dysregulation of 76 genes in KO mice. Among them, 23 are involved in nucleic acid and protein binding, which may explain acrosome anchoring defaults observed in the sperm of globozoospermic patients.My work allowed a better understanding of globozoospermia and the development of a HTS data analysis pipeline. The latter allowed the identification of more than 15 human gametogenesis genes involved in different infertility phenotypes.
|
170 |
A la recherche du chaînon manquant : le groupement configuré comme intermédiaire entre l'approximation des quantités et la maîtrise du nombre chez des enfants de 5 et 8 ans / In search of the missing link : the configured grouping as intermediary between the approximation of quantities and the mastery of number with five and eight year oldsMiravète, Sébastien 24 March 2016 (has links)
Le sens inné du nombre (comparaisons approximatives de quantités, etc.) ne peut distinguer de grandes quantités exactes et n’a pas de représentation numérique interne (pour lui, une quantité n’est pas un nombre d’objets).L’objectif principal est de montrer que de grandes quantités exactes peuvent être distinguées sans comptage et avec une représentation numérique interne, si elles sont organisées avec des groupement configurés. Les propriétés numériques de ces groupements peuvent être utilisées très tôt sans enseignement ou entraînement et avant l’apprentissage du système décimal. De cette façon, la découverte de ces propriétés (à l’école ou durant l’évolution culturelle humaine) pourrait être un chaînon (manquant) entre l’acquisition d’une représentation numérique interne et la découverte du système décimal.Une revue de littérature (Article 1) et deux études (Articles 2 et 3) sont conduites afin de corroborer cette nouvelle perspective. L’article 1 montre que quatre règles ont besoin d’être respectées lorsqu’on évalue si les participants ont une représentation numérique interne. L’article 2 (3 expériences) montre que des enfants de 8 ans peuvent comparer avec une représentation numérique interne, en 5 secondes, de grandes quantités exactes organisées avec des groupements configurés, sans comptage, enseignement explicite ou entraînement. L’article 3 (3 expériences) montre que des enfants de 5 ans peuvent réussir le même type de comparaison avant d’avoir appris le système décimal.Ces résultats suggèrent que certains apprentissages avancés peuvent être réussis spontanément par simple adaptation de l’environnement aux capacités cognitives des apprenants. / Humans have a primary number sense (e.g. approximate estimations) and a secondary arithmetical knowledge (e.g. the counting). They are genetically predisposed to acquire the first but not the second. The number sense cannot distinguish exact large quantities and does not have an internal numerical representation (for this sense, a quantity is not a number).The main goal is to show that exact large quantities can be easily distinguished without counting and with an internal numerical representation, if they are organized with configured groups. In addition, the numerical properties of configured groups could be used very early without instruction or training and before learning the decimal system. This way, the discovery of these properties (at school or during the human cultural evolution) could be a (missing) link between the acquisition of an internal numerical representation and the discovery of the decimal system.A literature review (Article 1) and two studies (Article 2 and 3) are conducted in order to corroborate this new perspective. The Article 1 shows that four rules need to be respected in order to evaluate if participants have an internal numerical representation. The Article 2 (3 experiments) show that 8-year olds can compare with an internal numerical representation, in five seconds, exact large quantities organized with configured groups, without counting, instruction or training. The Article 3 (3 experiments) shows that 5-year olds can succeed in the same type of comparison before learning the decimal system.These results suggest that some advanced learning can be spontaneously successful by adapting the environment to the cognitive abilities of learners.
|
Page generated in 0.0959 seconds