• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 5
  • 4
  • Tagged with
  • 28
  • 9
  • 9
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Extraire et valider les relations complexes en sciences humaines : statistiques, motifs et règles d'association

Cadot, Martine 12 December 2006 (has links) (PDF)
Cette thèse concerne la fouille de données en sciences humaines. Cette branche récente de l'intelligence artificielle consiste en un ensemble de méthodes visant à extraire de la connaissance à partir de données stockées sur des supports informatiques. Parmi celles-ci, l'extraction de motifs et de règles d'association est une méthode de traitement des données qui permet de représenter de façon symbolique la structure des données, comme le font les méthodes statistiques classiques, mais qui, contrairement à celles-ci, reste opérationnelle en cas de données complexes, volumineuses. Toutefois ce modèle informatique des données, construit à partir de comptages de cooccurrences, n'est pas directement utilisable par les chercheurs en sciences humaines : il est essentiellement dédié aux données dichotomiques (vrai/faux), ses résultats directs, très morcelés, sont difficiles à interpréter, et sa validité peut paraître douteuse aux chercheurs habitués à la démarche statistique. Nous proposons des techniques que nous avons construites puis expérimentées sur des données réelles dans le but de réduire les difficultés d'utilisation que nous venons de décrire : 1) un test de randomisation à base d'échanges en cascade dans la matrice sujets x propriétés permet d'obtenir les liaisons statistiquement significatives entre deux propriétés, 2) une extension floue de la méthode d'extraction classique des motifs, qui produit des règles d'association floues généralisant les règles binaires et proches des règles floues définies par les chercheurs poursuivant les travaux de Zadeh, 3) MIDOVA, un algorithme extrayant les interactions n-aires entre variables - problème peu connu, peu abordé en informatique, et abordé avec de fortes limitations en statistiques - et 4) des méta-règles pour nettoyer le jeu de règles d'association de ses principales contradictions et redondances.
22

Enumerating functional substructures of genome-scale metabolic networks : stories, precursors and organisations

Vieira Milreu, Paulo 19 December 2012 (has links) (PDF)
In this thesis, we presented three different methods for enumerating special subnetworks containedin a metabolic network: metabolic stories, minimal precursor sets and chemical organisations. Foreach of the three methods, we gave theoretical results, and for the two first ones, we further providedan illustration on how to apply them in order to study the metabolic behaviour of living organisms.Metabolic stories are defined as maximal directed acyclic graphs whose sets of sources and targets arerestricted to a subset of the nodes. The initial motivation of this definition was to analyse metabolomicsexperimental data, but the method was also explored in a different context. Metabolic precursor setsare minimal sets of nutrients that are able to produce metabolites of interest. We present threedifferent methods for enumerating minimal precursor sets and we illustrate the application in a studyof the metabolic exchanges in a symbiotic system. Chemical organisations are sets of metabolites thatare simultaneously closed and self-maintaining, which captures some stability feature in the
23

On ultra-wideband over fiber transmission systems employing semiconductor optical amplifiers / Etude de systèmes de transmission à bande ultra large sur fibre utilisant des amplificateurs optiques à semiconducteurs

Taki, Haidar 25 September 2017 (has links)
La technologie Ultra WideBand (UWB) sur fibre est une solution prometteuse pour répondre aux enjeux des futurs réseaux de communication WLAN/WPAN. Les caractéristiques de la fibre, incluant son énorme bande passante, offrent la possibilité d'une bonne qualité de service à longue portée. La propagation sans-fil UWB doit être réalisée sous des contraintes de densité spectrale de puissance particulières, imposées par l'autorité de régulation (FCC pour les Etats-Unis). La nouveauté de notre travail provient de I' exploitation des avantages d'un amplificateur optique à semi-conducteurs (SOA) afin d'obtenir une extension de portée à un coût et une complexité limités. Cependant, les effets non linéaires et le bruit d'émission spontanée amplifiée (ASE), intrinsèques à ce type de composant, sont susceptibles de dégrader la performance du système. La réduction de ces effets indésirables a donc été d'une importance centrale dans cette étude. Les non-linéarités du SOA ont été compensées en appliquant une solution de pré-distorsion analogique des formes d'ondes électriques. Un traitement basé sur phaser a également été proposé pour réduire simultanément I' influence de I'ASE et linéariser les caractéristiques du SOA, grâce à des opérations de chirping réparties entre l'émetteur et le récepteur. Avec la transmission Impulse Radio, en raison des propriétés temporelles des formats de modulation, des raies spectrales apparaissent, ce qui peut violer la limite FCC ou réduire I' efficacité énergétique. Une nouvelle technique de randomisation de formes d'ondes a été étudiée, qui s'est révélée efficace pour supprimer ces pics spectraux. Les trois approches ont montré un grand potentiel avec les formats On Off Keying et Pulse Position Modulation, à longue portée optique. Les performances d'une modulation différentielle Chaos Shift Keying ont finalement été examinées; une probabilité d'erreur inférieure a été obtenue expérimentalement en comparaison avec d'autres modulations non cohérentes. / Ultra WideBand (UWB) over fiber is a promising technology for meeting the demands of future wireless local-area networks (WLANs) and wireless personal-area networks (WPANs). Thanks to the enormous bandwidth and fiber characteristics, a high communication quality may be established at long reach. UWB wireless propagation must be achieved with special power and spectral constraints fixed by the regulatory bodies (e.g. US Federal Communication Commission). The novelty of our work originates from exploiting the benefits of a Semiconductor Optical Amplifier (SOA) so as to get a reach extension at limited cost and complexity. However, the inherent nonlinear effects and Amplified Spontaneous Emission (ASE) noise associated to such device may affect the system performance.Overcoming these impairments has been of central importance in this study. SOA nonlinearities have been mitigated by applying analog pre-distortion in electrical domain. Phaser-based processing was also proposed to simultaneously reduce ASE influence and linearize SOA characteristics, thanks to up/down chirping performed on the transmitter/receiver sides. With Impulse Radio UWB transmission, due to the time properties of modulation patterns, discrete lines arise in the corresponding spectrum, which may violate FCC limit or reduce the power efficiency. A new shape randomization technique has been investigated, which proved to be effective in suppressing these spectral spikes. The three approaches have shown a great potential with On Off Keying and Pulse Position Modulation formats at long optical reach.The performance of Differential Chaos Shift Keying was finally examined in the over fiber system, a lower error probability was experimentally achieved in comparison with other non-coherent modulations.
24

La génétique humaine pour l'étude de cibles pharmacologiques

Legault, Marc-André 03 1900 (has links)
En étudiant les variations génétiques au sein d'une population, il est possible d'identifier des polymorphismes génétiques qui confèrent une protection naturelle contre la maladie. Si l'on parvient à comprendre le mécanisme moléculaire qui sous-tend cette protection, par exemple en reliant la variation génétique à la perturbation d'une protéine bien précise, il pourrait être possible de développer des thérapies pharmacologiques qui agissent sur la même cible biologique. Cette relation entre les médicaments et les variations génétiques est une des prémisses centrales de la validation génétique de cibles pharmacologiques qui est un facteur de réussite dans le développement de médicaments. Dans cette thèse, nous utiliserons un modèle génétique pour prédire les effets bénéfiques et indésirables de l'ivabradine, un médicament utilisé afin de réduire la fréquence cardiaque. L'ivabradine est un inhibiteur du canal ionique potassium/sodium hyperpolarization-activated cyclic nucleotide-gated channel 4, encodé par le gène HCN4, dont les bénéfices sont hétérogènes chez différentes populations de patients. Ce médicament est efficace pour le traitement de l'angine et de l'insuffisance cardiaque, mais s'est avéré inefficace en prévention secondaire chez des patients coronariens stables sans dysfonction systolique. La caractérisation des effets de l'ivabradine s'est échelonnée sur une période de 6 ans et trois grands essais de phase III ont été menées. Nous étudierons la possibilité d'avoir prédit ou accéléré ce processus à l'aide de modèles génétiques et nous contrasterons les effets spécifiques à l'ivabradine des effets généraux de la réduction de la fréquence cardiaque par une approche de randomisation mendélienne. Deuxièmement, une approche génétique sera utilisée pour évaluer l'effet de l'inhibition de la cholesteryl ester tranfer protein (CETP), une enzyme responsable du transfert des cholestérols estérifiés et des triglycérides entre différentes lipoprotéines ainsi qu'une cible pharmacologique largement étudiée pour le traitement de la maladie coronarienne. Les études génétiques prédisent un bénéfice à l'inhibition de CETP, mais les essais randomisés ont eu des résultats hétérogènes et décevants. Nous utiliserons un modèle génétique d'inhibition de la CETP pour identifier des variables qui peuvent moduler l'effet de l'inhibition de la CETP sur des biomarqueurs et la maladie ischémique. Les biomarqueurs pris en compte comprennent les taux de cholestérol à lipoprotéines de basse et haute densité, mais aussi la capacité du plasma à absorber le cholestérol, une mesure fonctionnelle importante et sous-étudiée. Le sexe et l'indice de masse corporelle se sont avérés être deux variables qui modifient fortement les effets d'une réduction génétiquement prédite de la concentration de CETP sur les paramètres étudiés. Notre modèle prédit un bénéfice plus important de l'inhibition de la CETP pour les femmes et les individus ayant un indice de masse corporelle normal sur le profil lipidique, mais nous n'avons pas pu démontrer une modulation de l'effet sur la maladie ischémique. Cette étude reste importante sur le plan méthodologique, car elle soulève la possibilité d'utiliser des modèles génétiques de cibles pharmacologiques pour prédire l'hétérogénéité dans la réponse au médicament, une lacune des essais randomisés classiques. Enfin, nous avons adopté une approche centrée sur les gènes pour caractériser l'effet de 19 114 protéines humaines sur 1 210 phénotypes de la UK Biobank. Les résultats de cette étude sont accessibles au public (https://exphewas.statgen.org/) et constituent une ressource précieuse pour cerner rapidement les conséquences phénotypiques associées à un locus. Dans le contexte de validation de cibles pharmacologiques, cette plate-forme web peut aider à rapidement identifier les problèmes de sécurité potentiels ou à découvrir des possibilités de repositionnement du médicament. Un exemple d'utilisation de cette plate-forme est présenté où nous identifions le gène de la myotiline comme un nouvel acteur potentiel dans la pathogénèse de la fibrillation auriculaire. / Using population-level data, it is possible to identify genetic polymorphisms that confer natural protection against disease. If the molecular mechanism underlying this protection can be understood, for example by linking variants to the disruption of a particular protein, it may be possible to develop drugs that act on the same biological target. This link between drugs and variants is a central premise of genetic drug target validation. In this work, a genetic model is used to predict the beneficial and adverse effects of ivabradine, a drug used to lower heart rate. Ivabradine is an inhibitor of the ion channel potassium/sodium hyperpolarization-activated cyclic nucleotide-gated channel 4, encoded by the HCN4 gene, with heterogeneous benefits in different patient populations. This drug is effective in the treatment of angina and heart failure but it is ineffective in patients with stable coronary artery disease without systolic dysfunction. Characterization of the effect of ivabradine has occurred over a 6-year period and three large phase III trials have been conducted. We will investigate whether this process could have been streamlined using genetic models and contrast the ivabradine-specific effect with the general effect of heart rate reduction using a Mendelian Randomization approach. Second, a genetic approach is used to study the effect of inhibiting cholesteryl ester tranfer protein (CETP), an enzyme responsible for the transfer of cholestery esters and triglycerides between different lipoproteins and a widely studied drug target for the treatment of coronary artery disease. Genetic studies predict a benefit of CETP inhibition, but randomized trials yielded heterogeneous and disappointing results. We will use a genetic model of CETP inhibition to identify variables that may modulate the effect of CETP inhibition on biomarkers and ischemic disease. The biomarkers we considered included low- and high-density lipoprotein cholesterol levels but also the plasma cholesterol efflux capacity, an important and understudied functional measure of high density lipoproteins. Sex and body mass index strongly modulated the effect of a genetically predicted lower CETP concentration on the lipid profile. Our model predicts a greater benefit of CETP inhibition in women and individuals with normal body mass index on the lipid profile, but these observations did not translate to changes in the effect on cardiovascular outcomes. This study remains methodologically important because it demonstrates the possibility of using genetic models of drug targets to predict heterogeneity in drug response, a shortcoming of conventional randomized trials. Finally, we adopted a gene-centric approach to characterize the effect of 19,114 human protein-coding genes on 1,210 UK Biobank phenotypes. The results of this study are publicly available (https://exphewas.statgen.org/) and provide a valuable resource to rapidly screen the phenotypic consequences associated with a gene. In the context of drug target validation, this platform can help quickly identify potential safety issues or discover drug repurposing opportunities. An example of the use of this platform is presented where we identify the myotilin gene as a potential atrial fibrillation gene.
25

Détection de l’invalidité et estimation d’un effet causal en présence d’instruments invalides dans un contexte de randomisation mendélienne

Boucher-Roy, David 08 1900 (has links)
La randomisation mendélienne est une méthode d’instrumentation utilisant des instruments de nature génétique afin d’estimer, via par exemple la régression des moindres carrés en deux étapes, une relation de causalité entre un facteur d’exposition et une réponse lorsque celle-ci est confondue par une ou plusieurs variables de confusion non mesurées. La randomisation mendélienne est en mesure de gérer le biais de confusion à condition que les instruments utilisés soient valides, c’est-à-dire qu’ils respectent trois hypothèses clés. On peut généralement se convaincre que deux des trois hypothèses sont satisfaites alors qu’un phénomène génétique, la pléiotropie, peut parfois rendre la troisième hypothèse invalide. En présence d’invalidité, l’estimation de l’effet causal de l’exposition sur la réponse peut être sévèrement biaisée. Afin d’évaluer la potentielle présence d’invalidité lorsqu’un seul instrument est utilisé, Glymour et al. (2012) ont proposé une méthode qu’on dénomme ici l’approche de la différence simple qui utilise le signe de la différence entre l’estimateur des moindres carrés ordinaires de la réponse sur l’exposition et l’estimateur des moindres carrés en deux étapes calculé à partir de l’instrument pour juger de l’invalidité de l’instrument. Ce mémoire introduit trois méthodes qui s’inspirent de cette approche, mais qui sont applicables à la randomisation mendélienne à instruments multiples. D’abord, on introduit l’approche de la différence globale, une simple généralisation de l’approche de la différence simple au cas des instruments multiples qui a comme objectif de détecter si un ou plusieurs instruments utilisés sont invalides. Ensuite, on introduit les approches des différences individuelles et des différences groupées, deux méthodes qui généralisent les outils de détection de l’invalidité de l’approche de la différence simple afin d’identifier des instruments potentiellement problématiques et proposent une nouvelle estimation de l’effet causal de l’exposition sur la réponse. L’évaluation des méthodes passe par une étude théorique de l’impact de l’invalidité sur la convergence des estimateurs des moindres carrés ordinaires et des moindres carrés en deux étapes et une simulation qui compare la précision des estimateurs résultant des différentes méthodes et leur capacité à détecter l’invalidité des instruments. / Mendelian randomization is an instrumentation method that uses genetic instruments to estimate, via two-stage least squares regression for example, a causal relationship between an exposure and an outcome when the relationship is confounded by one or more unmeasured confounders. Mendelian randomization can handle confounding bias provided that the instruments are valid, i.e., that they meet three key assumptions. While two of the three assumptions can usually be satisfied, the third assumption is often invalidated by a genetic phenomenon called pleiotropy. In the presence of invalid instruments, the estimate of the causal effect of exposure on the outcome may be severely biased. To assess the potential presence of an invalid instrument in single-instrument studies, Glymour et al. (2012) proposed a method, hereinafter referred to as the simple difference approach, which uses the sign of the difference between the ordinary least squares estimator of the outcome on the exposure and the two-stage least squares estimator calculated using the instrument. Based on this approach, we introduce three methods applicable to Mendelian randomization with multiple instruments. The first method is the global difference approach and corresponds to a simple generalization of the simple difference approach to the case of multiple instruments that aims to detect whether one or more instruments are invalid. Next, we introduce the individual differences and the grouped differences approaches, two methods that generalize the simple difference approach to identify potentially invalid instruments and provide new estimates of the causal effect of the exposure on the outcome. The methods are evaluated using a theoretical investigation of the impact that invalid instruments have on the convergence of the ordinary least squares and two-stage least squares estimators as well as with a simulation study that compares the accuracy of the respective estimators and the ability of the corresponding methods to detect invalid instruments.
26

Vérification de la pléiotropie en randomisation mendélienne : évaluation méthodologique et application à l'estimation de l'effet causal de l'adiposité sur la pression artérielle

Mbutiwi, Fiston Ikwa Ndol 07 1900 (has links)
Introduction La randomisation mendélienne (RM) est une approche de plus en plus populaire dans les études observationnelles qui utilise des variants génétiques (habituellement des polymorphismes mononucléotidiques ou single-nucleotide polymorphisms, SNPs) associés à une exposition (hypothèse 1 ou pertinence) comme instruments pour estimer l’effet causal de cette exposition sur une issue, en assumant l’absence de confusion entre l’instrument et l’issue (hypothèse 2 ou indépendance) et l’absence d’un effet de l’instrument sur l’issue en dehors de l’exposition (hypothèse 3 ou restriction d’exclusion). Cependant, la validité des résultats de la RM est menacée par la pléiotropie, phénomène biologique par lequel un SNP affecte distinctement l’exposition et l’issue, qui est l’une des principales causes de violation de la restriction d’exclusion. Cette thèse examine certains défis méthodologiques pratiques de la RM relatifs à la vérification de la restriction d’exclusion et à la validité des résultats à travers trois principaux objectifs : 1) cartographier comment les chercheurs en RM préviennent, détectent et/ou contrôlent, et discutent des violations potentielles de la restriction d'exclusion dues notamment à la pléiotropie ; 2) évaluer la performance de la méthode basée sur la confusion positive, qui compare les estimés ponctuels de l’effet de l’exposition sur l’issue obtenus par la RM et par la régression conventionnelle, dans la détection des instruments invalides dans plusieurs contextes pratiques d’études de RM ; et 3) examiner l’impact des méthodes courantes de gestion de la médication antihypertensive dans les études de RM modélisant la pression artérielle (PA) sur l'estimation de l’effet causal et la détection des violations potentielles de la restriction d'exclusion. Méthodes Pour l’objectif 1, une revue de littérature de 128 études de RM ayant utilisé au moins un SNP sur le gène FTO (fat mass and obesity-associated) comme instrument de l’indice de masse corporelle (IMC) a été réalisée. La façon dont les auteurs préviennent, évaluent ou contrôlent, et discutent des violations potentielles de la restriction d’exclusion dues notamment à la pléiotropie a été examinée. Pour l’objectif 2, une étude de simulation statistique considérant des contextes d’études de RM utilisant comme instrument un SNP ou un score de risque génétique (genetic risk score, GRS), une issue continue ou binaire, dans des scénarios évaluant l’impact de la taille de l’échantillon et du type de pléiotropie (indirect ou direct), a été réalisée. La performance de la méthode basée sur la confusion positive a été définie comme le pourcentage de jeux de données simulés dans lesquels la méthode détectait des instruments invalides. Pour l’objectif 3, une étude de RM de l’association entre l’IMC et la PA systolique (PAS) a été réalisée. Les méthodes de gestion de la médication antihypertensive examinées étaient : (i) pas de correction, (ii) inclure la médication dans les modèles comme une covariable d’ajustement, (iii) exclure de l’analyse les sujets traités aux antihypertenseurs, (iv) ajouter une valeur constante de 15 mm Hg aux valeurs mesurées de la PAS chez les sujets traités aux antihypertenseurs, et (v) utiliser comme issue un indicateur binaire de l'hypertension. Résultats Il existe une pléthore de méthodes utilisées dans les études de RM dont certaines peuvent être sous-optimales à prévenir, détecter ou contrôler le biais dû à l’inclusion des SNPs pléiotropiques. Les simulations statistiques montrent qu’en RM utilisant un SNP comme instrument, la méthode basée sur la confusion positive est performante à détecter l’invalidité de l’instrument lorsque la pléiotropie est directe plutôt qu’indirecte, indépendamment de l’issue, mais la performance de la méthode s’améliore avec l’augmentation de taille de l’échantillon. En revanche, la méthode est moins performante à détecter l’invalidité lorsque l’instrument est un GRS, mais sa performance augmente avec la proportion des SNPs invalides inclus dans le GRS. Enfin, les estimations de la RM varient énormément selon la stratégie de gestion de la médication antihypertensive choisie, contrairement à la détection des violations de la restriction d’exclusion qui n’en est pas affectée. Conclusion Cette thèse met de l’avant certaines difficultés méthodologiques dans les applications de la RM et l’importance de la triangulation de plusieurs méthodes dans la vérification des hypothèses de RM. Le champ de la RM est en plein essor, et des nouvelles méthodes sont souvent proposées. Il devient important non seulement de les évaluer, mais aussi d’en détailler l’utilisation et les hypothèses sous-jacentes pour une utilisation optimale en complément aux méthodes existantes. / Introduction Mendelian randomization (MR) is an increasingly popular technique in observational studies that uses genetic variants (usually single-nucleotide polymorphisms, SNPs) associated with an exposure (Assumption 1 or relevance) as instruments to estimate the causal effect of that exposure on an outcome, assuming no confounding between the instrument and the outcome (Assumption 2 or independence) and no effect of the instrument on the outcome outside of its association with the exposure (Assumption 3 or exclusion restriction). However, the validity of the MR results is challenged by pleiotropy, the biological phenomenon whereby a SNP distinctly affects the exposure and the outcome, which is one of the leading causes of violation of the exclusion restriction assumption. This thesis examines some practical MR methodological challenges related to the assessment of the exclusion restriction and the validity of MR results through three main objectives: 1) to examine how MR researchers prevent, detect, and/or control for, and discuss potential violations of the exclusion restriction due especially to pleiotropy; 2) to evaluate the performance of the leveraging positive confounding (LPC) method that compares the MR and the conventional point estimates in detecting invalid instruments in several practical MR settings; and 3) to examine the impact of commonly used methods of accounting for antihypertensive medication in MR studies modeling blood pressure (BP) on the estimation of the causal effect and the detection of potential violations of the exclusion restriction. Methods For Objective 1, a literature review of 128 MR studies that used at least one SNP in the fat mass and obesity-associated (FTO) gene as an instrument for body mass index (BMI) was conducted to examined how the authors prevent, detect, or control, and discuss potential violations of the exclusion restriction, especially due to pleiotropy. For Objective 2, a simulation study considering MR analyse settings using single SNP or genetic risk score (GRS) as an instrument, continuous or binary outcome, in scenarios evaluating the impact of sample size and type of pleiotropy (indirect vs. direct) was performed. The performance of the LPC method was assessed as the percentage of simulated datasets in which the LPC method detected invalid instruments. For Objective 3, an MR study of the association between BMI and systolic BP (SBP) was performed. The methods for accounting for antihypertensive medication examined were: (i) no adjustment, (ii) include medication in the models as an adjustment covariate, (iii) exclude from the analysis subjects treated with antihypertensive medication, (iv) add a constant value of 15 mm Hg to the measured values of SBP in subjects using antihypertensive medication, and (v) use as outcome a binary indicator of hypertension. Results There exists a plethora of methods used in MR studies, some of which may be suboptimal for preventing, detecting, or controlling for bias due to the inclusion of pleiotropic SNPs. Statistical simulations show that in MR using single SNP as an instrument, the LPC method performs better at detecting invalidity of the instrument when the pleiotropy is direct than indirect, regardless of the outcome, although the performance of the method improves with increasing sample size. In contrast, the method performs less well in detecting invalidity when the instrument is a GRS, but its performance increases with the proportion of invalid SNPs included in the GRS. Finally, MR estimates change greatly depending on the chosen strategy of accounting for antihypertensive medication in contrast to the detection of exclusion restriction violations which is not impacted. Conclusion This present thesis highlights some of the methodological challenges in MR applications and the importance of triangulating multiple methods when assessing the MR assumptions. The MR field is booming, and new methods are often proposed. Therefore, it is important to evaluate these methods as well as to detail their application and underlying assumptions for optimal use as a complement to existing methods.
27

Vegetation patterns and role of edaphic heterogeneity on plant communities in semi-deciduous forests from the Congo Basin

Amani Ya Igugu, Aimé-Christian 08 September 2011 (has links)
Contrary to the other forest ecosystems in the Democratic Republic of Congo (D.R. Congo), semi-deciduous forests have so far attracted little attention and studies regarding their ecological aspects remain sketchy. Yet semi-deciduous forests are among the most important non-flooded ecosystems in the Congo Basin and their importance is high, both ecologically and economically. They are home to a variety of species, some of them being exploited for timber by forest companies acting in the region. There is a constant need to focus on their composition and diversity, and to understand factors shaping their communities.<p>Using a sampling method broadly inspired from the synusial phytosociology approach, we examined plant communities within each of the forest layers composing the overstorey (canopy and emergent trees) and the understorey (shrub and herbaceous layers). <p>The role of edaphic heterogeneity on plant communities in the considered semi-deciduous forests was examined. We mainly focused on:<p>- Floristic parameters within these ecosystems;<p>- Spatial structure of edaphic variables;<p>- Species responses to edaphic heterogeneity;<p>- Distance decay in the considered ecosystems;<p>- Phylogenetic patterns within plant communities.<p>Some of the species found in the considered semi-deciduous forests are more related to a type of soil than another, defining some “edaphic specialists” species while many others can be considered “generalists”. Spatial distance effect in the considered plant communities is marked by a decrease of floristic similarity with the geographical distance and all the forest layers showed a pattern of spatial phylogenetic clustering meaning that species cohabiting within a same plot are more related than species from distant plots.<p> / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
28

Solving dense linear systems on accelerated multicore architectures / Résoudre des systèmes linéaires denses sur des architectures composées de processeurs multicœurs et d’accélerateurs

Rémy, Adrien 08 July 2015 (has links)
Dans cette thèse de doctorat, nous étudions des algorithmes et des implémentations pour accélérer la résolution de systèmes linéaires denses en utilisant des architectures composées de processeurs multicœurs et d'accélérateurs. Nous nous concentrons sur des méthodes basées sur la factorisation LU. Le développement de notre code s'est fait dans le contexte de la bibliothèque MAGMA. Tout d'abord nous étudions différents solveurs CPU/GPU hybrides basés sur la factorisation LU. Ceux-ci visent à réduire le surcoût de communication dû au pivotage. Le premier est basé sur une stratégie de pivotage dite "communication avoiding" (CALU) alors que le deuxième utilise un préconditionnement aléatoire du système original pour éviter de pivoter (RBT). Nous montrons que ces deux méthodes surpassent le solveur utilisant la factorisation LU avec pivotage partiel quand elles sont utilisées sur des architectures hybrides multicœurs/GPUs. Ensuite nous développons des solveurs utilisant des techniques de randomisation appliquées sur des architectures hybrides utilisant des GPU Nvidia ou des coprocesseurs Intel Xeon Phi. Avec cette méthode, nous pouvons éviter l'important surcoût du pivotage tout en restant stable numériquement dans la plupart des cas. L'architecture hautement parallèle de ces accélérateurs nous permet d'effectuer la randomisation de notre système linéaire à un coût de calcul très faible par rapport à la durée de la factorisation. Finalement, nous étudions l'impact d'accès mémoire non uniformes (NUMA) sur la résolution de systèmes linéaires denses en utilisant un algorithme de factorisation LU. En particulier, nous illustrons comment un placement approprié des processus légers et des données sur une architecture NUMA peut améliorer les performances pour la factorisation du panel et accélérer de manière conséquente la factorisation LU globale. Nous montrons comment ces placements peuvent améliorer les performances quand ils sont appliqués à des solveurs hybrides multicœurs/GPU. / In this PhD thesis, we study algorithms and implementations to accelerate the solution of dense linear systems by using hybrid architectures with multicore processors and accelerators. We focus on methods based on the LU factorization and our code development takes place in the context of the MAGMA library. We study different hybrid CPU/GPU solvers based on the LU factorization which aim at reducing the communication overhead due to pivoting. The first one is based on a communication avoiding strategy of pivoting (CALU) while the second uses a random preconditioning of the original system to avoid pivoting (RBT). We show that both of these methods outperform the solver using LU factorization with partial pivoting when implemented on hybrid multicore/GPUs architectures. We also present new solvers based on randomization for hybrid architectures for Nvidia GPU or Intel Xeon Phi coprocessor. With this method, we can avoid the high cost of pivoting while remaining numerically stable in most cases. The highly parallel architecture of these accelerators allow us to perform the randomization of our linear system at a very low computational cost compared to the time of the factorization. Finally we investigate the impact of non-uniform memory accesses (NUMA) on the solution of dense general linear systems using an LU factorization algorithm. In particular we illustrate how an appropriate placement of the threads and data on a NUMA architecture can improve the performance of the panel factorization and consequently accelerate the global LU factorization. We show how these placements can improve the performance when applied to hybrid multicore/GPU solvers.

Page generated in 0.0984 seconds