• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 99
  • 99
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modèles d'analyse simultanée et conditionnelle pour évaluer les associations entre les haplotypes des gènes de susceptibilité et les traits des maladies complexes : application aux gènes candidats de l'ostéoporose

Elfassihi, Latifa 17 April 2018 (has links)
Les maladies complexes sont des maladies multifactorielles dans lesquelles plusieurs gènes et facteurs environnementaux peuvent intervenir et interagir. De nombreuses études ont identifié des locus (gènes ou régions chromosomiques), avec ou sans effets marginaux, qui interagissent pour contribuer au risque de la maladie. Pour les études d'association par polymorphismes, plusieurs méthodes ont été développées récemment pour évaluer l'interaction gène-gène. Cependant, les études d'association par haplotypes donnent parfois une meilleure puissance pour détecter l'association. Mais, la majorité de ces dernières ne permet pas d'évaluer les interactions entre les haplotypes de deux gènes et celles qui le permettent présentent des restrictions, comme l'utilisation du phénotype de la maladie en dichotomique (présence ou absence de la maladie) ou encore n'ajustent pas pour les facteurs environnementaux. Cette thèse traite cette problématique en deux volets : méthodologique et appliqué. Au niveau méthodologique, cette thèse rapporte une nouvelle méthode statistique pour effectuer l'analyse simultanée et l'analyse conditionnelle de deux régions indépendantes (gènes ou régions chromosomiques) dans les études d'associations par haplotypes des maladies complexes. Une étude de simulation a été effectuée pour confirmer sa validité. En présence d'un effet d'interaction entre les haplotypes de deux gènes avec ou sans effets marginaux, les résultats de l'étude de simulation ont montré que notre modèle d'analyse conditionnelle a plus de puissance pour détecter l'association et donne une estimation plus précise des effets comparativement aux méthodes alternatives disponibles actuellement. Au niveau appliqué, l'approche de la cartographie fine dans un premier échantillon de Québec avec une réplication dans un échantillon indépendant de Toronto a été mise à profit pour raffiner l'étude de deux gènes candidats de l'ostéoporose : ESRRG (estrogen receptor-related gamma) et ESRRA (estrogen receptor-related alpha). Pour ESRRG, cette approche combinée aux deux méthodes d'analyse, par polymorphismes ou par haplotypes, confirma son implication dans l'étiologie de la maladie chez les femmes d'origine européenne, tandis que pour ESRRA, elle a constitué une investigation approfondie révélant une association dans un premier échantillon de femmes préménopausées de Québec, mais sans réplication dans un deuxième échantillon indépendant de femmes préménopausées de Toronto. Puisque les deux gènes étudiés appartiennent au même sentier métabolique, l'effet conditionnel de ESRRA sachant ESRRG a été évalué par notre méthode. Cette analyse a révélé une association dans un premier échantillon, mais, encore une fois, sans réplication dans le deuxième échantillon. Ces résultats suggèrent que le premier gène est un gène de susceptibilité de l'ostéoporose. Toutefois, notre étude n'était pas concluante en ce qui concerne l'effet du deuxième gène ainsi que son effet conditionnel sachant l'effet du premier. Ainsi, une réplication dans un échantillon indépendant, de même taille ou plus grande que celle de l'échantillon de Québec, s'avère nécessaire pour confirmer ou infirmer les résultats observés chez les femmes provenant de la région métropolitaine de Québec.
22

Méthode d'analyse de liaison génétique pour des familles dans lesquelles il y a de l'hétérogénéité non-allélique intra-familiale

Savard, Nathalie 11 April 2018 (has links)
Dans cet ouvrage, une méthode d'analyse de liaison génétique qui tient compte de l'hétérogénéité non-allélique est développée. Nous proposons une modification à l'analyse à un locus par le modèle de Smith qui tient compte de l'hétérogénéité inter-familiale afin de s'adapter à la présence d'hétérogénéité intra-familiale. Notre approche consiste d'abord à décomposer des familles tri-générationnelles en branches individuelles, soit en familles bi-générationnelles. Par cette décomposition, l'hétérogénéité intra-familiale est "transformée" en hétérogénéité inter-familiale. Les familles bi-générationnelles sont ensuite analysées à l'aide d'un locus et du modèle de Smith. La puissance de la méthode proposée est comparée à celle de plusieurs autres analyses, notamment à celle de l'analyse des familles tri-générationnelles lorsqu'il y a hétérogénéité intra-familiale. On vérifie également si le découpage des familles fait gonfler la proportion d'erreurs de type I. / This study presents a linkage analysis method for cases of recombination heterogeneity when it is located in bilineal pedigrees. We propose a modification of the single-locus analysis by Smith's admixture model - which is concerned with inter-familial heterogeneity - so it becomes more appropriate for cases of intra-familial heterogeneity. Our approach first consists in decomposing large pedigrees into nuclear pedigrees so that the intra-familial heterogeneity of the large pedigrees is transformed into inter-familial heterogeneity between the nuclear pedigrees. Then, the nuclear pedigrees are considered both with a single-locus analysis and Smith's admixture model. The power of the proposed method is compared to the power of other methods, including the power of the specific case where there is intra-familialheterogeneity in large pedigrees. We also verify if the decomposition of the pedigrees results in a bigger proportion of type I errors.
23

Estimation de la taille de la population dans les expériences de capture-recapture

Yauck, Mamadou 03 May 2019 (has links)
La thèse présentée ici traite du problème de l'estimation de la taille de la population dans les modèles de capture-recapture. Elle s'intéresse, en particulier, à la question de l'estimation de la taille de la population dans le cadre d'une expérience de capture-recapture à structure d'échantillonnage imbriquée, qui combine les méthodes de population fermée à l'intérieur des périodes primaires (PP) et de population ouverte d'une PP à une autre : le design robuste. Cette thèse propose une méthodologie d'estimation de la taille de la population et de l'incertitude associée aux estimateurs obtenus dans le contexte du design robuste. Dans un premier temps, on aborde le problème de l'estimation des paramètres du design robuste dans le cas d'un nombre suffisamment élevé d'occasions de capture. On généralise le papier fondamental de Jolly (1965) au design robuste en proposant une procédure séquentielle d'estimation des paramètres pour la classe des modèles de design robuste présentés dans Rivest and Daigle (2004) et un estimateur de la variance des paramètres par bootstrap paramétrique. Ces résultats théoriques ont été appliqués à des données d'activation d'applications sur les téléphones intelligents. Les données sont recueillies sur une période d'un an et demi et concernent des utilisateurs de téléphones intelligents qui ont visité un grand concessionnaire automobile basé aux États-Unis. Dans un deuxième temps, on s'intéresse à l'estimation de la taille de la population à partir de deux sources d'information du design robuste: les données à l'intérieur d'une PP (ou intra-période) et les données d'une PP à une autre (ou inter-période). On démontre que les estimateurs de la taille de la population obtenus avec les informations intra-période et inter-période sont asymptotiquement indépendants pour une large classe de modèles de population fermée à l'intérieur des PP. Ainsi, l'estimateur du maximum de vraisemblance pour la taille de la population dans le cas du design robuste est asymptotiquement équivalent à un estimateur pondéré pour le modèle de population ouverte et le modèle de population fermée. On montre que l'estimateur pondéré diffère de celui donné dans Kendall et al. (1995); on démontre que leur estimateur n'est pas efficace, puis on donne une formule explicite pour son efficacité comparativement à l'estimateur pondéré. La perte d'efficacité est ensuite évaluée dans une étude de simulation, puis à travers un exemple tiré de Santostasi et al. (2016) et qui traite de l'estimation de la taille de la population d'une espèce de dauphins vivant dans le Golfe de Corinthe (Grèce). Enfin, on se propose d'étendre les résultats du problème précédent aux modèles de design robuste présentés dans Kendall et al. (1995) et implémentés dans MARK (White and Burnham, 1999). Dans le contexte du design robuste, on dérive l'estimateur du maximum de vraisemblance pour la taille de la population; on propose également trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur. On démontre ensuite que l'estimateur du maximum de vraisemblance pour la taille de la population est plus efficace que l'estimateur des moments proposé par Kendall et al. (1995); la perte d'efficacité de l'estimateur de Kendall ainsi que la performance des trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur du maximum de vraisemblance sont évaluées via une étude de simulation. / This thesis deals with the capture-recapture estimation of population sizes under a hierarchical study design where a capture-recapture experiment, involving secondary capture occasions, is carried out within each sampling period (SP) of an open population model: the robust design. This thesis proposes a methodology for the estimation of population sizes under the robust design and the uncertainty associated with the estimators. The first problem deals with the estimation of the parameters of a robust design with an arbitrary large number of capture occasions. To do so, we generalize the seminal paper of Jolly (1965) to the robust design and propose a sequential estimation procedure for the class of robust design models presented in Rivest and Daigle (2004). A simple parametric bootstrap variance estimator for the model parameters is also proposed. These results are used to analyze a data set about the mobile devices that visited the auto-dealerships of a major auto brand in a US metropolitan area over a period of one year and a half. The second problem deals with the estimation of population sizes using two sources of information for the robust design: the within and the between primary period data. We prove that the population size estimators derived from the two sources are asymptotically independent for a large class of closed population models. In this context, the robust design maximum likelihood estimator of population size is shown to be asymptotically equivalent to a weighted sum of the estimators for the open population Jolly-Seber model (Jolly 1965; Seber 1965) and for the closed population model. This article shows that the weighted estimator is more efficient than the moment estimator of Kendall et al.(1995). A closed form expression for the efficiency associated with this estimator is given and the loss of precision is evaluated in a MonteCarlo study and in a numerical example about the estimation of the size of dolphin populations living in the Gulf of Corinth (Greece) and discussed by Santostasi et al. (2016). The third problem deals with the estimation of population sizes under the robust design models presented in Kendall et al. (1995) and implemented in MARK (White and Burnham, 1999). We derive the maximum likelihood estimator for the population size and propose three methods of estimation for its uncertainty. We prove that the derived maximum likelihood estimator is more efficient than the moment estimator provided in Kendall et al. (1995). The loss of precision associated with the Kendall estimator and the performance of the three methods of estimation for the variance of the maximum likelihood estimator are evaluated in a MonteCarlo study.
24

Modélisation asymétrique de titres financiers

Jbili, Walid 13 April 2018 (has links)
La théorie de Markowitz a toujours été au centre de la théorie de gestion de portefeuilles. Cependant, elle est l'objet de plusieurs critiques. Dans ce mémoire, on se propose de revoir certains postulats de la théorie de Markowitz. L'approche que préconise ce mémoire est de modéliser le portefeuille dans sa globalité au lieu des titres individuels. Cette approche vise à identifier une loi s'ajustant aux rendements (ou à une transformation puissance des rendements) des portefeuilles. L'identification de la loi s'appuiera sur des portefeuilles simulés et d'autres réels. Plusieurs méthodes seront exploitées pour identifier et vérifier l'adéquation de cette loi.
25

Critère de sélection de variables pour les modèles de régression logistique conditionnelle mixte lorsque la structure des effets aléatoires est inconnue

Benouari, Ouassima 23 September 2019 (has links)
Nous évaluons la perfomance du critère récemment proposé meanAIC comme critère de sélection de variables pour les modèles de régression logistique conditionnelle mixte. Il s’agit d’un critère basé sur l’information d’Akaike, calculable lorsque le modèle est ajusté à l’aide d’une méthode d’estimation en deux étapes. En outre, le calcul de meanAIC ne nécessite pas la spécification de la structure des effets aléatoires ; il est donc d’une grande utilité comme premier filtre pour les variables dans une première analyse où la structure des effets aléatoires est typiquement inconnue. Ce travail a été motivé par les applications en écologie, où la sélection de variables est traditionnellement basée sur les critères d’information plutôt que sur les méthodes de régularisation. Ces études utilisent les données télémétriques de déplacement animal collectées selon un plan d’échantillonnage cas-témoins apparié et analysées à l’aide d’un modèle de régression logistique conditionnelle mixte. Nous effectuons une étude de simulation pour évaluer la capacité de meanAIC à correctement identifier les covariables potentiellement importantes dans le modèle et nous illustrons son utilisation à l’aide de données de sélection d’habitat collectées sur des caribous / We assess the perfomance of the recently proposed criterion meanAIC as a variable selection criterion for mixed conditional logistic regression models. It is a criterion based on Akaike’s information, computable when the model is fitted with a two-step estimation method. In addition, the calculation of meanAIC does not require the specification of the random effects structure; it is thus of great use as a first covariates filter in the early stage of the analysis when the random effects structure is typically unknown. This work is motivated by applications in ecology where the model selection is traditionally based on information criteria rather than on regularization. These studies use animal movement telemetric data collected using a matched case-control sampling design that are analyzed with a mixed conditional logistic regression model. We conduct a simulation study to assess the ability of meanAIC to correctly identify potentially important covariates and illustrate its use by analyzing habitat selection data collected on caribou.
26

Comparaisons multidimensionnelles de bien-être et de pauvreté : méthodes, inférence et applications

Maweki Batana, Yélé 13 April 2018 (has links)
L'objectif de cette thèse est de proposer une démarche statistique adéquate pour réaliser des comparaisons robustes en bien-être lorsqu'on traite de distributions multivariées. Après une revue critique des inférences statistiques basées sur des hypothèses composites, la formulation de type intersection-union a été retenue pour établir des comparaisons robustes et univoques en termes de dominance stricte. Davidson et Duclos (2006) proposent dans ce sens, une méthode basée sur le ratio de vraisemblance empirique pour tester la dominance stochastique dans le contexte de distributions univariées. Cette méthode est étendue ici aux distributions multivariées, ce qui, dans le cadre de l'analyse de la pauvreté et du bien-être, concorde avec l'évolution récente de la littérature qui favorise l'usage de plusieurs dimensions pour étudier la répartition du bien-être. Un premier exercice consiste à analyser les performances de la démarche proposée dans le contexte bidimensionnel. La démarche, basée sur la maximisation d'une fonction de vraisemblance empirique, teste l'hypothèse nulle de non dominance contre l'alternative de dominance. La statistique de test est pivotale, ce qui permet de réaliser des tests de bootstrap. Des simulations de Monte Carlo permettent d'étudier le niveau et la puissance des tests. Une fois les performances du test jugées acceptables, des applications sont réalisées pour analyser* les relations de dominance stochastique en pauvreté entre quelques pays africains. Pour définir les distributions, les deux dimensions considérées sont le statut nutritionnel et un indice de richesse estimé par les méthodes d'analyse factorielle à partir de données EDS (Enquêtes démographie et santé). Un troisième volet consiste à considérer le cas où l'une des deux dimensions de la distribution est une variable discrète. L'on teste alors des relations de dominance stochastique séquentielle en bien-être et en pauvreté, en utilisant une démarche statistique analogue à celle du chapitre précédent. Enfin, un dernier exercice analyse le phénomène de la mobilité qui constitue un aspect dynamique de la distribution de bien-être. Des conditions de dominance stochastique en mobilité au premier et au second ordre sont dérivées et des tests sont à nouveau réalisés sous l'hypothèse nulle de non dominance contre l'alternative de dominance. L'application est faite à partir des données américaines du PSID (Panel Studies of Income Dynamics).
27

Évaluation de la validité des modèles de risque pour prédire l’incidence des gastroentérites d’origine hydrique au Québec

Shemilt, Michèle 23 April 2018 (has links)
Les analyses de risque microbiologique, dont l'ÉQRM (évaluation quantitative du risque microbien) proposent de nouvelles techniques pour évaluer les conséquences sanitaires liées à la contamination microbiologique de l'eau potable. Ces modèles intègrent les données physico-chimiques et microbiologiques des usines de traitement d'eau pour quantifier un risque à la santé. Le projet visait à évaluer le lien entre le risque estimé selon un modèle ÉQRM et l’incidence de giardiase observée. Les banques de données des maladies à déclaration obligatoire et d’INFO-SANTÉ ont été utilisées pour comparer le résultat de l’analyse de risque à celui des analyses épidémiologiques. Les municipalités considérées les plus à risque par l'ÉQRM ont une incidence de gastroentérite et de parasitoses plus élevée. Cependant, l'ampleur du risque prédit ne correspond pas à celui observé. Il est souhaitable que les modèles d’ÉQRM incorporent des données populationnelles pour prédire avec une plus grande exactitude le risque épidémiologique.
28

Précision d'extrapolation des éphémérides des objets du système solaire. Application aux satellites de Saturne.

Desmars, Josselin 26 June 2009 (has links) (PDF)
La précision globale des éphémérides est déterminée à la fois par la précision du modèle dynamique (précision interne) et par la qualité (précision et distribution) des observations utilisées pour l'ajustement du modèle (précision externe). La précision interne est bien estimée et de bonne qualité. En revanche, la précision externe est mal connue et tend à dégrader la qualité globale de l'éphéméride. L'un des moyens d'estimer la précision d'une éphéméride est la comparaison aux observations (O-C) qui n'est toutefois valable que pendant une période d'observations. En dehors de ces périodes, l'estimation de la précision reste difficile. L'objectif de ce travail est donc de mettre en lumière des méthodes statistiques qui permettent d'estimer la précision d'une éphéméride au cours du temps. Notre étude porte en particulier sur deux des huit satellites principaux de Saturne mais le cas d'un astéroîde est également étudié. Nous montrons que l'une des méthodes, le bootstrap, possède une implémentation simple et permet cette estimation en utilisant des hypothèses minimales sur la distribution des erreurs d'observations. La détermination de cette précision permet de mieux appréhender la manière d'utiliser les observations pour ajuster des théories. L'impact de la mission Gaia sur la précision des éphémérides peut également être mesurée. Un catalogue d'observations des satellites de Saturne, dont l'utilisation ne s'est pas limitée à l'ajustement du modèle, a été compilé. La longue période couverte par cette base de données autorise ainsi une mesure des forces de marées de Saturne, à travers la détection de l'accélération séculaire de la longitude moyenne de certains satellites.
29

Un modèle hybride pour le calcul de propriétés radiatives des plasmas chauds combinant niveaux, configurations et supraconfigurations à l'équilibre thermodynamique local.

Porcherot, Quentin 17 January 2012 (has links) (PDF)
Dans les plasmas chauds et denses, la contribution des phénomènes radiatifs au transfert d'énergie est souvent prédominante. L'opacité de ces plasmas a donc une incidence majeure sur leur structure et leur évolution. En principe, le calcul raie par raie de l'opacité spectrale permet d'obtenir les résultats les plus précis, mais il nécessite souvent une grande quantité de ressources. À l'inverse, les méthodes statistiques de calcul d'opacité sont capables de prendre en compte un très grand nombre d'états excités, mais elles ne restituent pas les raies détaillées et ne sont pas toujours adaptées à des calculs destinés à la spectroscopie. L'objectif de la thèse est de calculer l'opacité de plasmas chauds en combinant ces deux approches. La méthode présentée a rendu possible le couplage d'un code de calcul d'opacités avec un code de structure atomique. Le modèle développé a été utilisé pour l'interprétation de spectres expérimentaux (laser, Z-pinch) et des pistes d'optimisation sont envisagées.
30

Les anisotropies du fond diffus infrarouge : un nouvel outil pour sonder l'évolution des structures

Pénin, Aurélie 26 September 2011 (has links) (PDF)
Le fond diffus infrarouge est la contribution de toutes les galaxies infrarouges intégrée sur toute l'histoire de l'Univers. Il émet entre 8 et 1000 µm et à un pic vers 200 µm. On résout une large fraction de ce fond dans l'infrarouge proche mais seule une petite fraction l'est dans l'infrarouge moyen et lointain à cause de la confusion. Les sources les plus faibles sont perdues dans le bruit de confusion. Cela forme des fluctuations de brillance, les anisotropies du fond diffus infrarouge. L'étude de ces fluctuations permet l'étude des galaxies sous le seuil de détection, donc des galaxies les plus faibles. Grâce au spectre de puissance on peut mesurer la puissance conte- nue dans ces fluctuations en fonction de l'échelle spatiale. Cette mesure contient, entre autre, le regroupement des galaxies infrarouges. Dans un premier temps, j'ai isolé du spectre de puissance d'une carte infrarouge, le spectre de puissance dû uniquement aux galaxies infrarouges. En effet, aux grandes échelles spatiales, il est contaminé par l'émission des cirrus Galactiques. Ces cirrus sont des nuages d'hydrogène neutre, tracés par la raie à 21 cm. J'ai donc utilisé des données à 21 cm pour estimer l'émission infrarouge de ces cirrus pour ensuite la soustraire aux cartes infrarouge à 100 et 160 µm. Cela m'a aussi permis de faire une mesure précise du niveau absolu du fond diffus infrarouge à ces longueurs d'onde. Afin d'analyser ces spectres de puissances, j'ai mis en place un modèle de regroupement des galaxies infrarouges reliant un modèle d'évolution des galaxies infrarouge reproduisant les données existantes dont celles d'Herschel et un modèle de halo. C'est un modèle complétement paramétré ce qui permet l'étude des dégénérescences de ces paramètres. J'en ai aussi tiré des mesures physiques et leur évolution avec la longueur d'onde. De plus, j'ai ajusté les données existantes de 100 à 1380 µm. Grâce au modèle on peut déterminer les contributions en redshift à chaque longueur d'onde. Les courtes longueurs d'onde tracent les bas redshifts alors que les grandes longueurs d'onde tracent les hauts redshifts. Cependant la contribution des bas redshifts est loin d'être négligeable à ces longueurs d'onde. Afin de déterminer l'évolution du regroupement avec le redshift des cartes des anisotropies du fond diffus infrarouge sont nécessaires. Je vais expliciter une méthode de séparation de composantes dédiée à cela.

Page generated in 0.1426 seconds