• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 503
  • 220
  • 97
  • 4
  • 3
  • 1
  • Tagged with
  • 825
  • 342
  • 198
  • 126
  • 121
  • 120
  • 109
  • 95
  • 91
  • 90
  • 87
  • 83
  • 80
  • 76
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Prévalence du VIH et facteurs associés chez les travailleuses du sexe de la région sanitaire de l'artibonite à Haïti

Ouedraogo, Mahamadou Lamine 12 April 2018 (has links)
Dans le cadre du projet d'appui à la lutte contre les IST/VIH/SIDA en Haïti (PALIH) visant les travailleuses du sexe (TS), une étude descriptive transversale a été réalisée en 2006 dans quatre villes de la région sanitaire de l’Artibonite (St Marc, Gonaïves, Montrouis, Pontsondé) auprès de 521 TS, afin de connaître la prévalence du VIH, ainsi que les caractéristiques sociodémographiques et comportementales qui y sont associées. La prévalence globale était de 11,8%, soit cinq fois plus élevée que dans la population générale. Les prévalences observées dans les différentes villes, quoi qu'élevées n'étaient pas différentes significativement. Il s'agit principalement d'une prostitution affichée et visible, à couleur nationale, pratiquée majoritairement par des femmes jeunes, peu ou pas scolarisées, exerçant sur plusieurs sites et vivant exclusivement des revenus de leur métier. L'étude montre une utilisation insuffisante du condom lors des rapports sexuels payants (67,9%) et non payants (45,7%) et une forte proportion de TS non dépistées pour le VIH (64,0%). En analyse multivariée par régression logistique, la prévalence du VIH était significativement associée à l'âge plus avancé (p= 0,04; test de tendance), à une faible scolarité [Rapport de cote de prévalence (RCP)= 3,5 ; Intervalle de confiance à 95% (IC9s%): 1,55-8,00), au nombre de clients durant les sept derniers jours (>5) (RCP= 2,5; IC95o/o : 1,07-5,76) et au fait de se croire à risque d'infection (RCP= 3,6; IG^ , : 1,27- 10,02). L'étude confirme les TS de la région sanitaire de l’Artibonite comme des groupes vulnérables et à haut risque d'infection, nécessitant des interventions ciblées afin de limiter la propagation de l'infection.
92

Modélisation asymétrique de titres financiers

Jbili, Walid 13 April 2018 (has links)
La théorie de Markowitz a toujours été au centre de la théorie de gestion de portefeuilles. Cependant, elle est l'objet de plusieurs critiques. Dans ce mémoire, on se propose de revoir certains postulats de la théorie de Markowitz. L'approche que préconise ce mémoire est de modéliser le portefeuille dans sa globalité au lieu des titres individuels. Cette approche vise à identifier une loi s'ajustant aux rendements (ou à une transformation puissance des rendements) des portefeuilles. L'identification de la loi s'appuiera sur des portefeuilles simulés et d'autres réels. Plusieurs méthodes seront exploitées pour identifier et vérifier l'adéquation de cette loi.
93

Comparaisons multidimensionnelles de bien-être et de pauvreté : méthodes, inférence et applications

Maweki Batana, Yélé 13 April 2018 (has links)
L'objectif de cette thèse est de proposer une démarche statistique adéquate pour réaliser des comparaisons robustes en bien-être lorsqu'on traite de distributions multivariées. Après une revue critique des inférences statistiques basées sur des hypothèses composites, la formulation de type intersection-union a été retenue pour établir des comparaisons robustes et univoques en termes de dominance stricte. Davidson et Duclos (2006) proposent dans ce sens, une méthode basée sur le ratio de vraisemblance empirique pour tester la dominance stochastique dans le contexte de distributions univariées. Cette méthode est étendue ici aux distributions multivariées, ce qui, dans le cadre de l'analyse de la pauvreté et du bien-être, concorde avec l'évolution récente de la littérature qui favorise l'usage de plusieurs dimensions pour étudier la répartition du bien-être. Un premier exercice consiste à analyser les performances de la démarche proposée dans le contexte bidimensionnel. La démarche, basée sur la maximisation d'une fonction de vraisemblance empirique, teste l'hypothèse nulle de non dominance contre l'alternative de dominance. La statistique de test est pivotale, ce qui permet de réaliser des tests de bootstrap. Des simulations de Monte Carlo permettent d'étudier le niveau et la puissance des tests. Une fois les performances du test jugées acceptables, des applications sont réalisées pour analyser* les relations de dominance stochastique en pauvreté entre quelques pays africains. Pour définir les distributions, les deux dimensions considérées sont le statut nutritionnel et un indice de richesse estimé par les méthodes d'analyse factorielle à partir de données EDS (Enquêtes démographie et santé). Un troisième volet consiste à considérer le cas où l'une des deux dimensions de la distribution est une variable discrète. L'on teste alors des relations de dominance stochastique séquentielle en bien-être et en pauvreté, en utilisant une démarche statistique analogue à celle du chapitre précédent. Enfin, un dernier exercice analyse le phénomène de la mobilité qui constitue un aspect dynamique de la distribution de bien-être. Des conditions de dominance stochastique en mobilité au premier et au second ordre sont dérivées et des tests sont à nouveau réalisés sous l'hypothèse nulle de non dominance contre l'alternative de dominance. L'application est faite à partir des données américaines du PSID (Panel Studies of Income Dynamics).
94

The evolution of hourly compensation in Canada between 1980 and 2010

Pellerin, Mathieu 23 April 2018 (has links)
Nous étudions l’évolution des salaires horaires au Canada au cours des trois dernières décennies à l’aide de données confidentielles du recensement et de l’Enquête nationale sur les ménages. Nous trouvons que le coefficient de variation des salaires chez les travailleurs à temps plein a presque doublé entre 1980 et 2010. La croissance rapide du 99,9e centile est le principal facteur expliquant cette hausse. Les changements dans la composition de la population active expliquent moins de 25% de la hausse de l’inégalité. Toutefois, des effets de composition expliquent la majorité de la hausse du salaire horaire moyen sur la période, alors que les salaires stagnent pour un niveau de compétence donné. / We consider changes in the distribution of hourly compensation in Canada over the last three decades using confidential census data and the recent National Household Survey. We find that the coefficient of variation of wages among full-time workers has almost doubled between 1980 and 2010. The rapid growth of the 99.9th percentile is the main driver of that increase. Changes in the composition of the workforce explain less than 25% of the rise in wage inequality. However, composition changes explain most of the increase in average hourly compensation over those three decades, while wages stagnate within skill groups.
95

Critère de sélection de variables pour les modèles de régression logistique conditionnelle mixte lorsque la structure des effets aléatoires est inconnue

Benouari, Ouassima 23 September 2019 (has links)
Nous évaluons la perfomance du critère récemment proposé meanAIC comme critère de sélection de variables pour les modèles de régression logistique conditionnelle mixte. Il s’agit d’un critère basé sur l’information d’Akaike, calculable lorsque le modèle est ajusté à l’aide d’une méthode d’estimation en deux étapes. En outre, le calcul de meanAIC ne nécessite pas la spécification de la structure des effets aléatoires ; il est donc d’une grande utilité comme premier filtre pour les variables dans une première analyse où la structure des effets aléatoires est typiquement inconnue. Ce travail a été motivé par les applications en écologie, où la sélection de variables est traditionnellement basée sur les critères d’information plutôt que sur les méthodes de régularisation. Ces études utilisent les données télémétriques de déplacement animal collectées selon un plan d’échantillonnage cas-témoins apparié et analysées à l’aide d’un modèle de régression logistique conditionnelle mixte. Nous effectuons une étude de simulation pour évaluer la capacité de meanAIC à correctement identifier les covariables potentiellement importantes dans le modèle et nous illustrons son utilisation à l’aide de données de sélection d’habitat collectées sur des caribous / We assess the perfomance of the recently proposed criterion meanAIC as a variable selection criterion for mixed conditional logistic regression models. It is a criterion based on Akaike’s information, computable when the model is fitted with a two-step estimation method. In addition, the calculation of meanAIC does not require the specification of the random effects structure; it is thus of great use as a first covariates filter in the early stage of the analysis when the random effects structure is typically unknown. This work is motivated by applications in ecology where the model selection is traditionally based on information criteria rather than on regularization. These studies use animal movement telemetric data collected using a matched case-control sampling design that are analyzed with a mixed conditional logistic regression model. We conduct a simulation study to assess the ability of meanAIC to correctly identify potentially important covariates and illustrate its use by analyzing habitat selection data collected on caribou.
96

Analyse de sensibilité et réduction de dimension. Application à l'océanographie

Janon, Alexandre 15 November 2012 (has links) (PDF)
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique.
97

Agrégation d'estimateurs et de classificateurs : théorie et méthodes

Guedj, Benjamin 04 December 2013 (has links) (PDF)
Ce manuscrit de thèse est consacré à l'étude des propriétés théoriques et méthodologiques de différentes procédures d'agrégation d'estimateurs. Un premier ensemble de résultats vise à étendre la théorie PAC-bayésienne au contexte de la grande dimension, dans les modèles de régression additive et logistique. Nous prouvons dans ce contexte l'optimalité, au sens minimax et à un terme logarithmique près, de nos estimateurs. La mise en \oe uvre pratique de cette stratégie, par des techniques MCMC, est étayée par des simulations numériques. Dans un second temps, nous introduisons une stratégie originale d'agrégation non linéaire d'estimateurs de la fonction de régression. Les qualités théoriques et pratiques de cette approche --- dénommée COBRA --- sont étudiées, et illustrées sur données simulées et réelles. Enfin, nous présentons une modélisation bayésienne --- et l'implémentation MCMC correspondante --- d'un problème de génétique des populations. Les différentes approches développées dans ce document sont toutes librement téléchargeables depuis le site de l'auteur.
98

Apprentissage statistique multi-tâches

Solnon, Matthieu 25 November 2013 (has links) (PDF)
Cette thèse a pour objet la construction, la calibration et l'étude d'estimateurs multi-tâches, dans un cadre fréquentiste non paramétrique et non asymptotique. Nous nous plaçons dans le cadre de la régression ridge à noyau et y étendons les méthodes existantes de régression multi-tâches. La question clef est la calibration d'un paramètre de régularisation matriciel, qui encode la similarité entre les tâches. Nous proposons une méthode de calibration de ce paramètre, fondée sur l'estimation de la matrice de covariance du bruit entre les tâches. Nous donnons ensuite pour l'estimateur obtenu des garanties d'optimalité, via une inégalité oracle, puis vérifions son comportement sur des exemples simulés. Nous obtenons par ailleurs un encadrement précis des risques des estimateurs oracles multi-tâches et mono-tâche dans certains cas. Cela nous permet de dégager plusieurs situations intéressantes, où l'oracle multi-tâches est plus efficace que l'oracle mono-tâche, ou vice versa. Cela nous permet aussi de nous assurer que l'inégalité oracle force l'estimateur multi-tâches à avoir un risque inférieur à l'estimateur mono-tâche dans les cas étudiés. Le comportement des oracles multi-tâches et mono-tâche est vérifié sur des exemples simulés.
99

Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire.

Giacofci, Madison 22 October 2013 (has links) (PDF)
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte.
100

Modèles hiérarchiques et processus ponctuels spatio-temporels - Applications en épidémiologie et en sismologie

Valmy, Larissa 05 November 2012 (has links) (PDF)
Les processus ponctuels sont souvent utilisés comme modèles de répartitions spatiales ou spatio-temporelles d'occurrences. Dans cette thèse, nous nous intéressons tout d'abord à des processus de Cox dirigés par un processus caché associé à un processus de Dirichlet. Ce modèle correspond à des occurrences cachées influençant l'intensité stochastique des occurrences observées. Nous généralisons la notion de " Shot noise Cox process " introduite par Moller et développons le traitement bayésien par un échantillonneur de Gibbs combiné à un algorithme de Metropolis-Hastings. Nous montrons que cette méthode MCMC est à sauts réversibles. Le modèle prend en compte, en effet, un nombre aléatoire de contributions cachées influençant l'intensité du processus ponctuel observé donc a un espace paramétrique de dimension variable. Nous focalisons l'inférence statistique sur l'estimation de la valeur espérée de chaque contribution cachée, le nombre espéré de contributions cachées, le degré d'influence spatiale de ces contributions et leur degré de corrélation. Le test d'égalité des contributions et celui de leur indépendance sont ainsi développés. L'utilité en épidémiologie et en écologie est alors démontrée à partir de données de Rubus fruticosa, Ibicella lutea et de mortalité dans les cantons de Georgia, USA. En termes de données observées, deux situations sont considérées: premièrement, les positions spatiales des occurrences sont observées entre plusieurs paires de dates consécutives; deuxièmement, des comptages sont effectués, au cours d'une période fixée, dans des unités d'échantillonnage spatiales. D'autre part, nous nous intéressons aux processus ponctuels à mémoire introduits par Kagan, Ogata et Vere-Jones, précurseurs de la statistique sismologique. En effet, les processus ponctuels spatio-temporels ont une place importante dans l'étude des catalogues sismiques puisque ces derniers sont généralement constitués d'événements sismiques datés et géo-référencés. Nous avons étudié un modèle ETAS (Epidemic Type Aftershock Sequence) avec une intensité d'arrière-plan indépendante du temps et plusieurs fonctions déclenchantes permettant d'intégrer les événements antérieurs récents. Cette approche est utilisée pour étudier la sismicité de l'arc des Petites Antilles. Une étude comparative des modèles Gamma, Weibull, Log-Normal et loi d'Omori modifiée pour les fonctions déclenchantes est menée. Nous montrons que la loi d'Omori modifiée ne s'ajuste pas aux données sismiques des Petites Antilles et la fonction déclenchante la plus adaptée est le modèle de Weibull. Cela implique que le temps d'attente entre répliques dans la zone des Petites Antilles est plus faible que celui des régions à sismicité décrite par la loi d'Omori modifiée. Autrement dit, l'agrégation des répliques après un événement majeur est plus prononcée dans la zone des Petites Antilles. La possibilité d'inclure une intensité d'arrière-plan suivant un processus de Dirichlet centré sur un processus spatial log-gaussien est discutée.

Page generated in 0.0307 seconds