• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Elaboration et validation de Critères Ergonomiques pour les Interactions Homme-Environnements Virtuels

BACH, Cédric 28 October 2004 (has links) (PDF)
Le manque d'utilisabilité des Environnements Virtuels (EVs) est un obstacle majeur à leur utilisation à grande échelle dans de nombreux domaines d'activités professionnels. Ces environnements informatisés présentent plusieurs spécificités (i.e., recours à la 3D, à la multimodalité, etc.) non prises en compte par les méthodes classiques d'évaluation de l'utilisabilité. Il est pourtant nécessaire de disposer de méthodes permettant d'apprécier leur qualité ergonomique. Cette thèse développe les différentes étapes d'élaboration et de validation des Critères Ergonomiques (C.E.) adaptés aux Interactions Homme-Environnements Virtuels. Une première étape a consisté à définir les C.E. à partir de l'élaboration et de la classification de recommandations ergonomiques, dédiées aux EVs, issues de la littérature du domaine. Sur la base de 170 recommandations, 20 critères élémentaires ont été identifiés, définis, justifiés et illustrés. Cette étape est le fondement de l'adaptation des C.E. aux EVs. Une seconde étape a permis de valider les C.E. lors d'une tâche d'affectation où 10 spécialistes de l'ergonomie des logiciels ont affecté correctement aux critères principaux 68% des difficultés d'interactions qui leur ont été présentées. Cette étape a également permis de mettre en lumière les C.E. bien compris et ceux qui nécessitent des améliorations. Une troisième étape a comparé expérimentalement les performances dans trois situations d'évaluations ergonomiques de 2 EVs : tests utilisateurs, inspection à l'aide des C.E. et inspection libre. Les résultats de cette expérimentation montrent que les C.E. offrent une performance d'évaluation significativement plus élevée que celle des inspections libres, ils montrent également que les C.E. et les tests utilisateurs permettent des performances d'évaluations équivalentes. D'autres aspects des méthodes tels que le type de problèmes identifiés, l'homogénéité interne et les recouvrements entre chaque méthode sont comparés.
2

Le transcriptome : un domaine d'application pour les<br />statistiques, de nouveaux horizons pour la biologie

Carpentier, Anne-Sophie 24 April 2006 (has links) (PDF)
Les mesures des niveaux d'expression de tous les gènes d'un génome requièrent une analyse<br />statistique afin d'obtenir des conclusions fiables. Les biologistes ont du mal à faire un choix dans la<br />foule de méthodes existantes. Afin de déterminer quelle méthode est la plus adéquate pour la<br />problématique abordée, des comparaisons de méthodes d'analyse disponibles sont nécessaires.<br />Actuellement les critères de comparaison se révèlent soit lacunaires ou soit non pertinents du point de<br />vue biologique.<br />Nous avons introduit un nouveau critère biologique de comparaison des méthodes d'analyse du<br />transcriptome fondé sur une structure des génomes bactériens : les opérons. Les gènes d'un opéron<br />sont généralement transcrits sur un même ARNm. Si un gène d'un opéron bactérien est identifié, les<br />autres gènes de l'opéron devraient l'être également. Nous avons ainsi comparé des méthodes<br />d'analyse appliquées au transcriptome : l'ACP et l'ACI, respectivement analyses en composantes<br />principales et indépendantes, l'ANOVA, analyse de variance, la régression des moindres carrés<br />partiels PLS et différents t-tests. Chaque méthode aborde le nuage de données d'un point de vue<br />différent ce qui donne des résultats complémentaires. Globalement, l'ACI a fourni les meilleurs<br />résultats tant en sensibilité qu'en terme de précision.<br />Un autre aspect, en plein développement, de l'analyse du transcriptome est la méta-analyse de<br />données d'origines diverses malgré les biais inhérents à cette technologie. Généralement ces métaanalyses<br />visent à préciser les résultats concernant des gènes différentiellement exprimés ou coexprimés.<br />Elles ouvrent également la possibilité d'étudier de nouveaux champs en biologie. Nous<br />avons utilisé des données de transcriptome indépendantes afin d'étudier l'organisation de l'expression<br />des gènes et, ainsi, celle du chromosome bactérien. L'étude du transcriptome de trois bactéries, B.<br />subtilis, E. coli et S. meliloti a révélé des corrélations d'expression à longue distance valables quel que<br />soit le gène étudié. Les structures en opéron se manifestent clairement au travers de cette étude, qui<br />a également permis de préciser que la co-expression de gènes proches s'étend au-delà des opérons<br />dans une région qui se répand jusqu'à une centaine de gènes.<br />Pour conclure, l'analyse du transcriptome n'a pas réellement nécessité la mise au point de méthodes<br />d'analyse statistiques spécifiques. Cependant, elle permet d'aborder de nouveaux horizons dans la<br />biologie, et notamment l'organisation chromosomique du génome bactérien.
3

La consommation énergétique du secteur tertiaire marchand : le cas de la France avec données d’enquête à plan de sondage complexe / Energy consumption in tertiary buildings : the French case with complex sample survey data

Madelenat, Jill 16 December 2016 (has links)
Cette thèse porte sur la consommation énergétique du secteur tertiaire marchand en France. Notre approche est empirique, et s’appuie sur l’Enquête sur les Consommations d’Énergie dans le Tertiaire (ECET). À partir d’une revue de littérature consacrée à l’étude économétrique des déterminants de la consommation énergétique des bâtiments (résidentiels ou tertiaires), nous mettons en évidence la coexistence de deux méthodes d’estimation, sur lesquelles nous revenons. Nous exposons également les consensus ou les débats portant sur les effets des déterminants étudiés. Dans la mesure où les données mobilisées dans cette thèse sont issues d’une enquête à plan de sondage complexe, nous présentons les outils statistiques adaptés à l’exploitation de données issues de ce type d’échantillonnage, puis nous analysons la controverse qui continue d’exister sur l’estimation de modèles économétriques sur données d’enquête. Nous mobilisons alors notre base de données pour fournir une première description statistique des consommations énergétiques du secteur tertiaire marchand en France. Cette description statistique s’appuie sur nomenclature que nous construisons afin d’obtenir des informations à l’échelle infra-sectorielle. Enfin, nous utilisons l’ensemble des méthodes et approches préalablement identifiées pour étudier les déterminants de la demande énergétique des établissements tertiaires sur la base d’une analyse économétrique des données de l’ECET. Cela nous conduit à effectuer une double lecture de nos résultats, à la fois comme éléments de réponse à la question de l’impact des variables étudiées sur la demande d’énergie des établissements, et comme éléments de comparaison des différentes méthodes. / This thesis deals with energy consumption in the French tertiary buildings. We adopt an empirical approach based on a French national survey, the Tertiary Buildings Energy Consumption Survey (l’Enquête sur les Consommations d’Énergie dans le Tertiaire (ECET)). From a literature review, we present the econometric analyses of the drivers of energy consumption in buildings (residential and tertiary). This review highlights the coexistence of two estimation methods. We discuss these methods, and then we detail consensus and debates on the effects of every driver that has already been analyzed in the literature. Because the data we use are complex sample survey data, we describe the statistical tools that must be used to analyze this type of data, and next present the still controversial issue of econometric modeling based on survey data. Then we use our database to produce a first statistical description of energy consumption in tertiary buildings. This description is based on a nomenclature that we establish to obtain information at the subsector level. Finally, we use all the methods and approaches identified previously to study the drivers of the tertiary buildings’ energy demand by implementing an econometric analysis on the ECET data. This lead to a double analysis of our results, both as elements of knowledge on the impact of each driver on energy consumption and as materials that help to compare the different methods to use.
4

La consanguinité à l'ère du génome haut-débit : estimations et applications / Consanguinity in the High-Throughput Genome Era : Estimations and Applications

Gazal, Steven 24 June 2014 (has links)
Un individu est dit consanguin si ses parents sont apparentés et s’il existe donc dans sa généalogie au moins une boucle de consanguinité aboutissant à un ancêtre commun. Le coefficient de consanguinité de l’individu est par définition la probabilité pour qu’à un point pris au hasard sur le génome, l’individu ait reçu deux allèles identiques par descendance qui proviennent d’un seul allèle présent chez un des ancêtres communs. Ce coefficient de consanguinité est un paramètre central de la génétique qui est utilisé en génétique des populations pour caractériser la structure des populations, mais également pour rechercher des facteurs génétiques impliqués dans les maladies. Le coefficient de consanguinité était classiquement estimé à partir des généalogies, mais des méthodes ont été développées pour s’affranchir des généalogies et l’estimer à partir de l’information apportée par des marqueurs génétiques répartis sur l’ensemble du génome.Grâce aux progrès des techniques de génotypage haut-débit, il est possible aujourd’hui d’obtenir les génotypes d’un individu sur des centaines de milliers de marqueurs et d’utiliser ces méthodes pour reconstruire les régions d’identité par descendance sur son génome et estimer un coefficient de consanguinité génomique. Il n’existe actuellement pas de consensus sur la meilleure stratégie à adopter sur ces cartes denses de marqueurs en particulier pour gérer les dépendances qui existent entre les allèles aux différents marqueurs (déséquilibre de liaison). Dans cette thèse, nous avons évalué les différentes méthodes disponibles à partir de simulations réalisées en utilisant de vraies données avec des schémas de déséquilibre de liaison réalistes. Nous avons montré qu’une approche intéressante consistait à générer plusieurs sous-cartes de marqueurs dans lesquelles le déséquilibre de liaison est minimal, d’estimer un coefficient de consanguinité sur chacune des sous-cartes par une méthode basée sur une chaîne de Markov cachée implémentée dans le logiciel FEstim et de prendre comme estimateur la médiane de ces différentes estimations. L’avantage de cette approche est qu’elle est utilisable sur n’importe quelle taille d’échantillon, voire sur un seul individu, puisqu’elle ne demande pas d’estimer les déséquilibres de liaison. L’estimateur donné par FEstim étant un estimateur du maximum de vraisemblance, il est également possible de tester si le coefficient de consanguinité est significativement différent de zéro et de déterminer la relation de parenté des parents la plus vraisemblable parmi un ensemble de relations. Enfin, en permettant l’identification de régions d’homozygoties communes à plusieurs malades consanguins, notre stratégie peut permettre l’identification des mutations récessives impliquées dans les maladies monogéniques ou multifactorielles.Pour que la méthode que nous proposons soit facilement utilisable, nous avons développé le pipeline, FSuite, permettant d’interpréter facilement les résultats d’études de génétique de populations et de génétique épidémiologique comme illustré sur le panel de référence HapMap III, et sur un jeu de données cas-témoins de la maladie d’Alzheimer. / An individual is said to be inbred if his parents are related and if his genealogy contains at least one inbreeding loop leading to a common ancestor. The inbreeding coefficient of an individual is defined as the probability that the individual has received two alleles identical by descent, coming from a single allele present in a common ancestor, at a random marker on the genome. The inbreeding coefficient is a central parameter in genetics, and is used in population genetics to characterize the population structure, and also in genetic epidemiology to search for genetic factors involved in recessive diseases.The inbreeding coefficient was traditionally estimated from genealogies, but methods have been developed to avoid genealogies and to estimate this coefficient from the information provided by genetic markers distributed along the genome.With the advances in high-throughput genotyping techniques, it is now possible to genotype hundreds of thousands of markers for one individual, and to use these methods to reconstruct the regions of identity by descent on his genome and estimate a genomic inbreeding coefficient. There is currently no consensus on the best strategy to adopt with these dense marker maps, in particular to take into account dependencies between alleles at different markers (linkage disequilibrium).In this thesis, we evaluated the different available methods through simulations using real data with realistic patterns of linkage disequilibrium. We highlighted an interesting approach that consists in generating several submaps to minimize linkage disequilibrium, estimating an inbreeding coefficient of each of the submaps based on a hidden Markov method implemented in FEstim software, and taking as estimator the median of these different estimates. The advantage of this approach is that it can be used on any sample size, even on an individual, since it requires no linkage disequilibrium estimate. FEstim is a maximum likelihood estimator, which allows testing whether the inbreeding coefficient is significantly different from zero and determining the most probable mating type of the parents. Finally, through the identification of homozygous regions shared by several consanguineous patients, our strategy permits the identification of recessive mutations involved in monogenic and multifactorial diseases.To facilitate the use of our method, we developed the pipeline FSuite, to interpret results of population genetics and genetic epidemiology studies, as shown on the HapMap III reference panel, and on a case-control Alzheimer's disease data.

Page generated in 0.1033 seconds