• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 576
  • 287
  • 57
  • 4
  • 1
  • Tagged with
  • 879
  • 443
  • 154
  • 94
  • 93
  • 91
  • 84
  • 82
  • 79
  • 79
  • 78
  • 76
  • 72
  • 72
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Sélection de modèle : une approche décisionnelle

Boisbunon, Aurélie 14 January 2013 (has links) (PDF)
Cette thèse s'articule autour de la problématique de la sélection de modèle, étudiée dans le contexte de la régression linéaire. L'objectif est de déterminer le meilleur modèle de prédiction à partir de données mesurées, c'est-à-dire le modèle réalisant le meilleur compromis entre attache aux données et complexité du modèle. La contribution principale consiste en la dérivation de critères d'évaluation de modèles basés sur des techniques de théorie de la décision, plus précisément l'estimation de coût. Ces critères reposent sur une hypothèse distributionnelle plus large que l'hypothèse classique gaussienne avec indépendance entre les observations : la famille des lois à symétrie sphérique. Cette famille nous permet à la fois de nous affranchir de l'hypothèse d'indépendance et d'ajouter une plus grande robustesse puisque nos critères ne dépendent pas de la forme spécifique de la distribution. Nous proposons également une méthode de comparaison des critères dérivés au travers d'une mesure de type Erreur quadratique (MSE), qui permet de déterminer si un critère d'évaluation de modèle est meilleur qu'un autre. La seconde contribution attaque le problème de la construction des différents modèles comparés. Les collections de modèles considérées sont celles issues des méthodes de régularisation parcimonieuses, de type Lasso. En particulier, nous nous sommes intéressés à la Pénalité Concave Minimax (MCP), qui garde la sélection du Lasso tout en corrigeant son biais d'estimation. Cette pénalité correspond cependant à un problème non différentiable et non convexe. La généralisation des outils habituels de sous-différentielles grâce aux différentielles de Clarke a permis de déterminer les conditions d'optimalité et de développer un algorithme de chemin de régularisation pour le MCP. Enfin, nous comparons nos propositions avec celles de la littérature au travers d'une étude numérique, dans laquelle nous vérifions la qualité de la sélection. Les résultats montrent notamment que nos critères obtiennent des performances comparables à ceux de la littérature, et que les critères les plus couramment utilisés en pratique (validation croisée) ne sont pas toujours parmi les plus performants.
92

Evaluation des risques de crise, appliquée à la détection des conflits armés intra-étatiques

Delavallade, Thomas 06 December 2007 (has links) (PDF)
Dans de nombreux domaines, l'analyse rationnelle des risques fait partie intégrante du processus de décision. Il s'agit d'un outil méthodologique essentiel pour les acteurs politiques et économiques qui leur permet d'anticiper le déclenchement de crises potentielles. Dans certains secteurs d'activité les conséquences de telles crises sont parfois telles que le recours à l'analyse de risque correspond à une contrainte réglementaire imposée par le législateur. L'objectif d'une telle analyse est de parvenir à identifier les situations à risque ainsi que les principaux facteurs de risque de manière à pouvoir mettre en place les politiques de prévention adéquates.<br />Si de nombreuses cellules de veille ont été mises en place, tant au niveau de l'entreprise, qu'au niveau des institutions nationales et internationales, la quantité d'information potentiellement pertinente pour un sujet donné est parfois telle que la mise à disposition d'outils automatisant tout ou partie du traitement de cette information répond à un besoin réel, sinon à une nécessité.<br />Dans cette optique, dans cette thèse, nous proposons un système générique d'aide à l'anticipation de crises. Notre objectif est de fournir une synthèse d'une situation donnée, d'un point de vue structurel et non événementiel, via l'identification des crises potentielles ainsi que des principaux facteurs de risque associés. Le système que nous proposons repose sur l'apprentissage supervisé de règles de décision floues.<br />La qualité des données d'apprentissage étant problématique dans de nombreuses applications, nous proposons, dans nos travaux, une étude approfondie sur la chaîne de prétraitement, et en particulier sur le traitement des valeurs manquantes et sur la sélection d'attributs. Nous avons également mis l'accent sur l'évaluation et la sélection de modèles afin de pouvoir adapter les modèles de détection au problème à traiter, ainsi qu'aux besoins de l'utilisateur final.<br />La synthèse des résultats fournis par notre système étant destiné à des utilisateurs en charge de la veille stratégique, des outils d'aide au raisonnement et à la compréhension de cette synthèse sont également proposés.<br />Pour juger de l'intérêt de notre méthodologie nous détaillons son application à un problème concret : la détection des conflits armés intra-étatiques.
93

Estimation par tests

Sart, Mathieu 25 November 2013 (has links) (PDF)
Cette thèse porte sur l'estimation de fonctions à l'aide de tests dans trois cadres statistiques différents. Nous commençons par étudier le problème de l'estimation des intensités de processus de Poisson avec covariables. Nous démontrons un théorème général de sélection de modèles et en déduisons des bornes de risque non-asymptotiques sous des hypothèses variées sur la fonction à estimer. Nous estimons ensuite la densité de transition d'une chaîne de Markov homogène et proposons pour cela deux procédures. La première, basée sur la sélection d'estimateurs constants par morceaux, permet d'établir une inégalité de type oracle sous des hypothèses minimales sur la chaîne de Markov. Nous en déduisons des vitesses de convergence uniformes sur des boules d'espaces de Besov inhomogènes et montrons que l'estimateur est adaptatif par rapport à la régularité de la densité de transition. La performance de l'estimateur est aussi évalué en pratique grâce à des simulations numériques. La seconde procédure peut difficilement être implémenté en pratique mais permet d'obtenir un résultat général de sélection de modèles et d'en déduire des vitesses de convergence sous des hypothèses plus générales sur la densité de transition. Finalement, nous proposons un nouvel estimateur paramétrique d'une densité. Son risque est contrôlé sous des hypothèses pour lesquelles la méthode du maximum de vraisemblance peut ne pas fonctionner. Les simulations montrent que ces deux estimateurs sont très proches lorsque le modèle est vrai et suffisamment régulier. Il est cependant robuste, contrairement à l'estimateur du maximum de vraisemblance.
94

Sélection de variables pour la classification non supervisée en grande dimension

Meynet, Caroline 09 November 2012 (has links) (PDF)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse.
95

Semi-supervised co-selection : instances and features : application to diagnosis of dry port by rail / Co-selection instances-variables en mode semi-supervisé : application au diagnostic de transport ferroviaire.

Makkhongkaew, Raywat 15 December 2016 (has links)
Depuis la prolifération des bases de données partiellement étiquetées, l'apprentissage automatique a connu un développement important dans le mode semi-supervisé. Cette tendance est due à la difficulté de l'étiquetage des données d'une part et au coût induit de cet étiquetage quand il est possible, d'autre part.L'apprentissage semi-supervisé consiste en général à modéliser une fonction statistique à partir de base de données regroupant à la fois des exemples étiquetés et d'autres non-étiquetés. Pour aborder une telle problématique, deux familles d'approches existent : celles basées sur la propagation de la supervision en vue de la classification supervisée et celles basées sur les contraintes en vue du clustering (non-supervisé). Nous nous intéressons ici à la deuxième famille avec une difficulté particulière. Il s'agit d'apprendre à partir de données avec une partie étiquetée relativement très réduite par rapport à la partie non-étiquetée.Dans cette thèse, nous nous intéressons à l'optimisation des bases de données statistiques en vue de l'amélioration des modèles d'apprentissage. Cette optimisation peut être horizontale et/ou verticale. La première définit la sélection d'instances et la deuxième définit la tâche de la sélection de variables.Les deux taches sont habituellement étudiées de manière indépendante avec une série de travaux considérable dans la littérature. Nous proposons ici de les étudier dans un cadre simultané, ce qui définit la thématique de la co-sélection. Pour ce faire, nous proposons deux cadres unifiés considérant à la fois la partie étiquetée des données et leur partie non-étiquetée. Le premier cadre est basé sur un clustering pondéré sous contraintes et le deuxième sur la préservation de similarités entre les données. Les deux approches consistent à qualifier les instances et les variables pour en sélectionner les plus pertinentes de manière simultanée.Enfin, nous présentons une série d'études empiriques sur des données publiques connues de la littérature pour valider les approches proposées et les comparer avec d'autres approches connues dans la littérature. De plus, une validation expérimentale est fournie sur un problème réel, concernant le diagnostic de transport ferroviaire de l'état de la Thaïlande / We are drowning in massive data but starved for knowledge retrieval. It is well known through the dimensionality tradeoff that more data increase informative but pay a price in computational complexity, which has to be made up in some way. When the labeled sample size is too little to bring sufficient information about the target concept, supervised learning fail with this serious challenge. Unsupervised learning can be an alternative in this problem. However, as these algorithms ignore label information, important hints from labeled data are left out and this will generally downgrades the performance of unsupervised learning algorithms. Using both labeled and unlabeled data is expected to better procedure in semi-supervised learning, which is more adapted for large domain applications when labels are hardly and costly to obtain. In addition, when data are large, feature selection and instance selection are two important dual operations for removing irrelevant information. Both of tasks with semisupervised learning are different challenges for machine learning and data mining communities for data dimensionality reduction and knowledge retrieval. In this thesis, we focus on co-selection of instances and features in the context of semi-supervised learning. In this context, co-selection becomes a more challenging problem as the data contains labeled and unlabeled examples sampled from the same population. To do such semi-supervised coselection, we propose two unified frameworks, which efficiently integrate labeled and unlabeled parts into the co-selection process. The first framework is based on weighting constrained clustering and the second one is based on similarity preserving selection. Both approaches evaluate the usefulness of features and instances in order to select the most relevant ones, simultaneously. Finally, we present a variety of empirical studies over high-dimensional data sets, which are well-known in the literature. The results are promising and prove the efficiency and effectiveness of the proposed approaches. In addition, the developed methods are validated on a real world application, over data provided by the State Railway of Thailand (SRT). The purpose is to propose the application models from our methodological contributions to diagnose the performance of rail dry port systems. First, we present the results of some ensemble methods applied on a first data set, which is fully labeled. Second, we show how can our co-selection approaches improve the performance of learning algorithms over partially labeled data provided by SRT
96

Etude des facteurs contrôlant l’efficacité de la sélection génomique chez le palmier à huile (Elaeis guineensis Jacq) / Study of factors affecting the accuracy of genomic selection in oil palm (Elaeis guineensis Jacq)

Cros, David 11 December 2014 (has links)
La production agricole doit augmenter à un rythme jamais atteint pour faire face à la forte hausse attendue de la demande alimentaire. La sélection génomique (SG) pourrait y contribuer en donnant la possibilité de sélectionner des individus uniquement sur leur génotype, rendant ainsi l'amélioration génétique des rendements plus efficace. L'amélioration actuelle de la production du palmier à huile, première plante oléagineuse au monde, se fait par sélection récurrente réciproque pour produire des hybrides. L'intégration de la SG à ce schéma aurait des retombées majeures. Cette thèse vise à évaluer le potentiel de la SG pour prédire les aptitudes à la combinaison hybride dans les populations parentales (Deli et groupe B).Des données du dernier cycle d'amélioration ont permis d'obtenir la première estimation empirique de la précision de la SG. Malgré les petites populations disponibles pour calibrer le modèle génomique, cette étude a montré qu'avec des candidats à la sélection apparentés à la population de calibration (plein-frères, descendants), la précision était suffisante pour faire une présélection sur certaines composantes du rendement dans le groupe B. Par ailleurs, des simulations sur quatre générations ont montré que, pour plusieurs stratégies de SG (en particulier avec une calibration faite uniquement à la première génération en incluant des génotypes d'hybrides), la précision de sélection chez les individus non testés en croisement était suffisante pour sélectionner des parents uniquement sur leur génotype. Ceci a abouti à une augmentation de plus de 50% du gain génétique annuel. Une augmentation pus rapide de la consanguinité a aussi été mise en évidence, mais elle pourrait être limitée par des méthodes classiques de gestion de la consanguinité. Finalement, les données expérimentales et simulées indiquent que la SG pourrait diminuer l'intervalle moyen de génération et accroître l'intensité de sélection, accélérant ainsi considérablement le progrès génétique sur le rendement en huile de palme. Un schéma de sélection génomique récurrente réciproque est proposé pour le palmier à huile. Son application nécessite de confirmer expérimentalement les simulations en estimant sur plusieurs générations la précision de sélection sans recalibration du modèle. Ces futures recherches devraient utiliser les nouveaux modèles de SG, potentiellement plus efficaces (prise en compte des effets non additifs ou d'informations a priori sur les effets des marqueurs, etc.). / Agricultural production must increase at an unprecedented rate to meet the strong growth expected in food demand. Genomic selection (GS) could contribute to reaching this goal by allowing selection of individuals on their sole genotype, making breeding more efficient. Breeding for yield in oil palm, the first oil crop in the world, is currently based on hybrid production by reciprocal recurrent selection. The integration of GS to this scheme would have major repercussions. This thesis aims to assess the potential of GS to predict hybrid combining abilities in parental populations (Deli and group B). Data from the last breeding cycle were used to obtain the first empirical estimate of GS accuracy. Despite the small populations available to calibrate the genomic model, the study showed that with candidates related to the training population (sibs, progenies), the accuracy was sufficient to make a pre-selection in the group B on some yield components. In addition, simulations over four generations showed that the accuracy of several GS strategies (especially when training the model only in the first generation using hybrid genotypes) was high enough for non progeny tested individuals to allow selecting among them on their genotype. This resulted in an increase of more than 50% of annual genetic gain compared to traditional breeding. A faster increase in inbreeding was also demonstrated, but this could be limited by conventional methods of inbreeding management. Finally, the experimental and simulated data indicated that GS could reduce the average generation interval and increase the selection intensity, vastly speeding up the genetic progress for oil palm yield. A recurrent reciprocal genomic selection scheme was suggested for oil palm. Its application requires an experimental confirmation of the simulations, by estimating GS accuracy over several generations without retraining the model. Future research should use new GS models, potentially more effective (taking into account non additive effects or a priori information on marker effects, etc.).
97

Estimation par tests / Estimation via testing

Sart, Mathieu 25 November 2013 (has links)
Cette thèse porte sur l'estimation de fonctions à l'aide de tests dans trois cadres statistiques différents. Nous commençons par étudier le problème de l'estimation des intensités de processus de Poisson avec covariables. Nous démontrons un théorème général de sélection de modèles et en déduisons des bornes de risque non-asymptotiques sous des hypothèses variées sur la fonction à estimer. Nous estimons ensuite la densité de transition d'une chaîne de Markov homogène et proposons pour cela deux procédures. La première, basée sur la sélection d'estimateurs constants par morceaux, permet d'établir une inégalité de type oracle sous des hypothèses minimales sur la chaîne de Markov. Nous en déduisons des vitesses de convergence uniformes sur des boules d'espaces de Besov inhomogènes et montrons que l'estimateur est adaptatif par rapport à la régularité de la densité de transition. La performance de l'estimateur est aussi évalué en pratique grâce à des simulations numériques. La seconde procédure peut difficilement être implémenté en pratique mais permet d'obtenir un résultat général de sélection de modèles et d'en déduire des vitesses de convergence sous des hypothèses plus générales sur la densité de transition. Finalement, nous proposons un nouvel estimateur paramétrique d'une densité. Son risque est contrôlé sous des hypothèses pour lesquelles la méthode du maximum de vraisemblance peut ne pas fonctionner. Les simulations montrent que ces deux estimateurs sont très proches lorsque le modèle est vrai et suffisamment régulier. Il est cependant robuste, contrairement à l'estimateur du maximum de vraisemblance. / This thesis deals with the estimation of functions from tests in three statistical settings. We begin by studying the problem of estimating the intensities of Poisson processes with covariates. We prove a general model selection theorem from which we derive non-asymptotic risk bounds under various assumptions on the target function. We then propose two procedures to estimate the transition density of an homogeneous Markov chain. The first one selects an estimator among a collection of piecewise constant estimators. The selected estimator is shown to satisfy an oracle-type inequality under minimal assumptions on the Markov chain which allows us to deduce uniform rates of convergence over balls of inhomogeneous Besov spaces. Besides, the estimator is adaptive with respect to the smoothness of the transition density. We also evaluate the performance of the estimator in practice by carrying out numerical simulations. The second procedure is only of theoretical interest but yields a general model selection theorem from which we derive rates of convergence under more general assumptions on the transition density. Finally, we propose a new parametric estimator of a density. We upper-bound its risk under assumptions for which the maximum likelihood method may not work. The simulations show that these two estimators are very close when the model is true and regular enough. However, contrary to the maximum likelihood estimator, this estimator is robust.
98

Mécanismes de sélection visuelle pour l'action et pour la perception : apports de l'étude des saccades oculaires chez des patients présentant une hémianopsie latérale homonyme / Mechanisms of visual target selection for action and for perception : contributions of the study of saccadic eye movements in patients with homonymous hemianopia

Fayel, Alexandra 03 March 2014 (has links)
La saccade oculaire, i.e. mouvement très rapide des yeux, permet d’amener l’objet d’intérêt sur la fovéa, afin que le système visuel puisse analyser ses propriétés. Malgré l’importance du cortex occipital dans le traitement de l’information visuelle, son rôle dans la génération de saccades est encore peu connu. Pour ce faire, l’hémianopsie latérale homonyme consécutive à une atteinte unilatérale du cortex occipital (i.e. amputation de l’hémichamp visuel controlésionnel) peut être considérée comme modèle d’étude. En effet, malgré la perte de la vision consciente, certains patients sont capables de répondre à un stimulus présenté dans l’hémichamp controlésionnel. Ces capacités préservées, appelées vision aveugle, peuvent être de nature attentionnelle et/ou motrice. Le but de cette thèse est ainsi d’étudier l’implication du cortex occipital dans la génération de saccades. En manipulant les propriétés spatiales et temporelles du point de fixation, de la cible ou d’un distracteur, les paramètres des saccades de ces patients ont été examinés en étudiant différents types de saccades (volontaires et réactives) ainsi que des effets connus pour moduler les paramètres saccadiques (effets d’un distracteur et adaptation saccadique). Parallèlement, les capacités de vision aveugle ont été examinées à partir de différentes tâches perceptives (détection et discrimination), nécessitant une réponse verbale, manuelle (appui-bouton) et/ou oculomotrice (saccade et fixation). Malgré la perte de la conscience visuelle du stimulus présenté dans l’hémichamp controlésionnel, des capacités de vision aveugle sont attestées par la réalisation d’une action oculomotrice sur ce stimulus. La dichotomie observée dans ces capacités en fonction de la nécessité de réaliser une action sur la stimulation visuelle suppose une implication du cortex occipital dans les mécanismes de sélection pour l’action et pour la perception. Par ailleurs, une dissociation est observée dans l’atteinte des paramètres saccadiques. Si l’initiation de la saccade – reflétée par la latence - est altérée dans les deux hémichamps ipsi- et controlésionnel, le calcul de la métrique de la saccade – reflétée par l’amplitude - est spécifiquement altéré dans l’hémichamp controlésionnel. Ainsi, nos résultats sont en faveur d’une implication du cortex occipital dans la génération des saccades oculaires ainsi qu’en faveur d’un modèle fonctionnel de génération de saccades à deux voies de traitement parallèles dédiées respectivement à l’initiation et à la métrique de la saccade. / Saccadic eye movements are rapid and necessary to targeting the interesting object in our visual environment. Despite the crucial role of the occipital cortex in the visual process, its implication in the saccadic generation is poorly studied. To examine this, we can use one pathological model, the homonymous hemianopia (i.e. loss of contralateral visual hemifield to unilateral occipital lesion). Despite the loss of conscious vision, some patients can be able to react at one stimulus presented in the contralesional hemifield. These residual abilities, named blindsight, can be observed in attentional and/or motor tasks. The aim of this thesis is examine the parameters of saccades in hemianopic patients, through the study of saccade types (voluntary and reflexive saccades) and classical effects on the modulation of saccadic parameters (gap effect and distractor effects, by manipulating the spatial and temporal characteristics of the fixation point, the target or a distractor). Furthermore, the residual abilities are investigated by perceptual tasks (detection or discrimination) with different types of response: verbal, manual (key press) and motor (saccade or fixation). Overall, despite the loss of conscious perception of the target presented in the contralesional hemifield, residual abilities are found as showed by the saccadic execution toward the target, with a dichotomy depending on the need to perform an action on the visual stimulation. This suggests that the role of the occipital cortex is not the same in the selection mechanism for the action and the perception. Concerning to saccadic programming, dissociation is found in the saccadic parameters. The saccadic initiation, studied by with the saccade latency, is altered in both ipsi- and contralesional hemifields but the saccade metric, studied by the saccade amplitude, is altered in the contralesional hemifield. This suggests that the occipital cortex is implicated in the saccade generation and that saccade programing involves two pathways for the initiation and the metric of saccades.
99

La politique de sélection des commissions scolaires régionales de la région 03 pour les candidats au poste de directeur adjoint

Côté, Claude 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
100

Phenotypic diversity in fruit and seed traits, and neutral genetic diversity in Allanblackia Floribunda

Atangana, Alain Rene 16 April 2018 (has links)
Allanblackia floribunda est un arbre des forêts denses humides tropicales valorisé pour la teneur élevée en acides gras de ses graines, essentiellement constitués d’acides stéarique et oléique dont l’efficacité dans la réduction du mauvais cholestérol de l’organisme humain a été prouvée. Pour cette raison, les graines de A. floribunda collectées en milieu naturel sont commercialisées. Toutefois, les travaux sur la culture de cette espèce sont encore à leur phase initiale. Nous avons déterminé la possibilité d’amélioration génétique de cette espèce en échantillonnant 17 à 40 fruits par arbre de 70 arbres distribués sur quatre sites en milieu naturel. La matière grasse a été extraite des graines, et les teneurs en acides stéarique et oléique estimées à l’aide de méthodes développées au cours de cette étude. La variation phénotypique des traits des fruits et des graines a été caractérisée dans et entre les arbres, et entre les sites. Les estimations de répétabilité des caractères mesurés ont été effectuées. Des corrélations phénotypiques entre les traits étudiés ont aussi été estimées, et quatre traits ont été retenus pour effectuer la sélection multi-caractère de 20 arbres-plus qui constitueront la population d’amélioration de cette espèce pour la production des graines. Nous avons par la suite isolé 10 marqueurs moléculaires de type microsatellite polymorphes à partir de A. floribunda, et sept de ces marqueurs étaient polymorphes à la fois chez Allanblackia gabonensis et Allanblackia stanerana. La variation de huit loci microsatellites a permis de caractériser la structure génétique neutre de 10 populations de A. floribunda de zone de forêt naturelle du Cameroun, puis d’inférer l’histoire récente des forêts humides d’Afrique Centrale. Aucune différence significative n’a été observée entre les paramètres génétiques de la population d’amélioration et celle existant en milieu naturel indiquant qu’une amélioration de cette espèce à partir des 20 arbres sélectionnés ne réduirait pas sa diversité génétique neutre. Toutefois, une légère augmentation du taux de consanguinité a été observée dans la population d’amélioration, et des recommandations sont formulées pour la conservation des ressources génétiques durant l’amélioration de A. floribunda. / Allanblackia floribunda or tallow tree is a tropical forest-tree species that is valued for its seeds, which are rich in hard fat consisting mostly of stearic and oleic acids, reported to lower plasma cholesterol levels, thus reducing the risks of heart attack. Owing to this fat profile, Allanblackia oil is used for margarine production and in soap and ointments manufacture, and seeds extracted from Allanblackia fruits by local communities are traded. We determined whether the species could be genetically improved for fruit/seed production by sampling 17 to 40 fruits from each of 70 trees that were distributed among four sites in wild stands. Fat was extracted from the seeds, and stearic and oleic acid content of the fat was estimated using methods developed in this study. Phenotypic variation in fruit/seed traits was assessed within- and among-trees, and among sites. Repeatabilities were estimated for measured characters, and relationships between these characters investigated. Twenty “plus trees” were selected for breeding, and implications for improvement discussed. Then we isolated and characterized ten microsatellite primer pairs for A. floribunda. Seven of these microsatellite loci were polymorph for both Allanblackia gabonensis and Allanblackia stanerana species as well. Using eight informative microsatellite loci, we have characterized the genetic structure of A. floribunda natural populations from Cameroon, and inferred the recent history of rainforests from Central Africa. No significant difference was identified in genetic parameters between wild stands and the breeding population, indicating that breeding A. floribunda from 20 trees would not reduce nuclear genetic diversity. However, a slight increase in inbreeding was observed in the breeding population, and recommendations for genetic diversity conservation during tree improvement in the species are made.

Page generated in 0.0608 seconds