461 |
Statistical methods for analysis and correction of high-throughput screening dataDragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
|
462 |
Caractéristiques et déterminants des taux de croissance des firmes : Investigations empiriquesCoad, Alex 23 April 2007 (has links) (PDF)
Cette thèse se concentre sur les investigations empiriques de la croissance des firmes, en utilisant des bases de données des firmes manufacturières françaises et américaines. Nous commençons avec une revue de la littérature afin d'identifier les lacunes dans la littérature actuelle. Nous regardons ensuite la loi de Gibrat et la distribution des taux de croissance. Puis nous observons des effets d'autocorrélation dans la croissance des firmes. Dans un discussion théorique nous contrastons la théorie des 'contraintes financières' à la théorie évolutionniste, et nous concluons que la recherche néoclassique a peut-être exagéré le problème des contraintes financières. Dans notre base de données, nous observons que la croissance est plus ou moins indépendant de la performance financière, et nous concluons que la sélection est assez faible.<br />Dans la dernière partie nous étudions la relation entre<br />l'innovation et la performance des firmes. Des régressions par quantile indiquent que l'innovation a des effets spectaculaires dans une minorité des cas, mais pour 'la firme moyenne' elle n'a que peu d'influence.
|
463 |
Apprentissage dans les espaces de grande dimension : Application à la caractérisation de tumeurs noires de la peau à partir d'imagesTenenhaus, Arthur 08 December 2006 (has links) (PDF)
L'objectif de la thèse est de définir les bases conceptuelles permettant de développer des méthodes efficaces et adaptées à la classification dans les espaces de grande dimension. Dans ce contexte, les méthodes à noyau s'avèrent particulièrement adaptées. En effet, au-delà de leurs propriétés de régularisation - régularisation de type Tikhonov (Régression Ridge, Support Vector Machines, ... ) ou réduction de dimension (Partial Least Squares, Régression sur Composantes Principales,...) – elles offrent des avantages algorithmiques majeurs lorsque la dimension des données est supérieure au nombre d'observations. Ces méthodes ont fait l'objet d'une étude approfondie à la fois du point de vue théorique et appliqué dans les deux premiers chapitres de la thèse.<br /><br />Les deux chapitres suivants proposent de nouvelles méthodes, découlant de cette étude. Elles se fondent sur des principes de réduction de dimension supervisée en se focalisant principalement sur la régression PLS, particulièrement bien adaptée à la gestion de données de grande dimension. Il s'agissait de concevoir des algorithmes de classification s'appuyant sur les principes algorithmiques de la régression PLS. Nous avons proposé, la Kernel Logistic PLS, modèle de classification nonlinéaire et binaire basé à la fois sur la construction de variables latentes et sur des transformations du type Empirical Kernel Map. Nous avons étendu la KL-PLS au cas où la variable à prédire est polytomique donnant naissance à la Kernel Multinomial Logistic PLS regression.<br />Enfin dans les deux derniers chapitres, nous avons appliqué ces méthodes à de nombreux domaines, notamment en analyse d'images. Nous avons ainsi contribué au développement d'une application en vraie grandeur dans le domaine médical en élaborant un outil d'aide au diagnostic de tumeurs noires de la peau à partir d'images.
|
464 |
Prise en compte de la perception émotionnelle du consommateur dans le processus de conception de produitsMantelet, Fabrice 11 1900 (has links) (PDF)
L'objectif de cette recherche est de montrer qu'il est possible d'intégrer un outil qui permette de décomposer et de quantifier le ressenti émotionnel du consommateur par rapport à un produit ou une représentation intermédiaire d'un produit dans le processus de conception afin d'optimiser celui-ci. En effet, de nos jours, face à un environnement économique en forte croissance, il ne peut pas y avoir de conception de produit sans désir de communication entre les concepteurs et les consommateurs. Cette volonté de communiquer entraîne de la part du consommateur, des comportements et réactions véritables. Il est donc pertinent de s'intéresser aux réactions des consommateurs, de pouvoir mesurer et prendre en compte leurs émotions dans le processus de conception de produit. L'intérêt scientifique de cette recherche est d'explorer de nouvelles voies, par la combinaison de différentes techniques issues de plusieurs domaines (Ingénierie, Ergonomie, Psychologie, Marketing...). Nous résumons notre apport en recherche par la quantification et la décomposition du ressenti émotionnel du consommateur par rapport à un produit. Pour cela, nous proposons un outil utilisable transversalement dans le processus de conception et générique car il est utilisable indépendamment du secteur industriel. Les résultats de cet outil peuvent être exploités par l'ensemble de l'équipe projet. Notre travail s'appuie sur des actions en conception et innovation, accomplies dans le cadre d'un projet européen, et de deux projets de mastères recherches avec des partenaires industriels.
|
465 |
Fonctions noyaux pour molécules et leur application au criblage virtuel par machines à vecteurs de supportMahé, Pierre 11 1900 (has links) (PDF)
La recherche thérapeutique a de plus en plus recours à des techniques de modélisation, dites de criblage virtuel, visant à corréler la structure d'une molécule avec ses propriétés biologiques. En particulier, l'utilisation de modèles prédictifs quantifiant la toxicité d'une molécule ou son activité vis à vis d'une cible thérapeutique, permet de réduire de manière considérable le temps et les coûts nécessaires à la mise au point de nouveaux médicaments. Nous nous proposons d'aborder ce problème dans le cadre des méthodes à noyaux, qui permettent de construire de tels modèles de manière efficace dès lors que l'on dispose d'une fonction noyau mesurant la similarité des objets que l'on considère. Plus particulièrement, l'objet de cette thèse est de définir de telles fonctions noyaux entre structures bi- et tri-dimensionnelles de molécules. D'un point de vue méthodologique, ce problème se traduit respectivement comme celui de comparer des graphes représentant les liaisons covalentes des molécules, ou des ensembles d'atomes dans l'espace. Plusieurs approches sont envisagées sur la base de l'extraction et la comparaison de divers motifs structuraux qui permettent d'encoder les groupes fonctionnels des molécules à différents niveaux de résolution. Les validations expérimentales suggèrent que cette méthodologie est une alternative prometteuse aux approches classiques en criblage virtuel.
|
466 |
Inégalités d'oracle, agrégation et adaptationRigollet, Philippe 20 November 2006 (has links) (PDF)
Historiquement, les inégalités d'oracle ont été développées comme des outils particulièrement efficaces pour l'adaptation à un paramètre inconnu en statistique mathématique. Initialement dédiées à la démonstration de propriétés statistiques de certains estimateurs, elles peuvent s'inscrire dans le cadre plus général du problème l'agrégation où elles sont au centre de la définition d'une vitesse optimale d'agrégation. Elles constituent alors d'une part des outils mathématiques et d'autre part des résultats précis et non asymptotiques.<br />Les travaux faisant l'objet de cette thèse présentent différentes utilisations des inégalités d'oracle, d'abord dans un cadre général d'agrégation puis dans des modèles statistiques plus particuliers, comme l'estimation de densité et la classification. Les résultats obtenus sont une palette non exhaustive mais représentative de l'utilisation des inégalités d'oracle en statistique mathématique.
|
467 |
Traitement statistique du signal spectrométrique : étude du désempilement de spectre en énergie pour la spectrométrie gamma /Trigano, Thomas. January 1900 (has links)
Thèse de doctorat--Signal et images--Paris--ENST, 2005. / En appendice, choix de textes en français et en anglais. Bibliogr. p. 155-159. Résumé en français et en anglais.
|
468 |
Quelques contributions au traitement statistique du signal et applications au débruitage audio et à la localisation des mobiles /Triki, Mahdi. January 1900 (has links)
Thèse de doctorat--Signal et images--Paris--ENST, 2007. / Bibliogr. p. 251-273. Résumé en anglais et en français.
|
469 |
Segmentation de formes guidée par des modèles en neuro-imagerie intégration de la commande floue dans une méthode de segmentation par ensembles de niveau /Ciofolo, Cybèle Barillot, Christian January 2005 (has links) (PDF)
Thèse doctorat : Informatique : Rennes 1 : 2005. / Bibliogr. p. 185-198.
|
470 |
Métaheuristiques pour l'extraction de connaissances application à la génomique /Jourdan, Laetitia Talbi, El-Ghazali Dhaenens, Clarisse. January 2003 (has links) (PDF)
Thèse doctorat : Informatique : Lille 1 : 2003. / N° d'ordre (Lille 1) : 3368. Résumé en français et en anglais. Bibliogr. p. 167-186.
|
Page generated in 0.0932 seconds