• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 11
  • 2
  • Tagged with
  • 33
  • 33
  • 12
  • 11
  • 10
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Les modèles de régression angulaire

Bach, Jessica 20 April 2018 (has links)
En statistique directionnelle, on utilise trois types de régression : des modèles angle-linéaire, linéaire-angle et angle-angle, selon la nature des données. Ainsi, si la variable explicative et la variable réponse sont des angles, la régression angle-angle permet d’expliquer la relation entre ces variables. Plusieurs modèles de régression ont été développés en statistique directionnelle. Trois d’entre eux font l’objet de ce mémoire : le prédicteur décentré de Rivest (1997), le modèle de Möbius de Downs & Mardia (2002) et la régression non paramétrique de Di Marzio et al. (2012). Des méthodes d’estimation sont mises de l’avant pour les paramètres de chacun de ces modèles. On compare les modèles entre eux à l’aide de simulations et d’exemples utilisant des données réelles. / For the analysis of directional data, there are three types of regression models: angular-linear, linear-angular and angular-angular. The type of regression depends on the nature of the data. Hence, if the explanatory variable and the response variable are angles, the angular-angular regression model can explain the relationship between these variables. Several models have been developed for this purpose and in this paper, three of these directional models are discussed: the decentred predictor of Rivest (1997), the Mobius model Downs & Mardia (2002) and the nonparametric regression of Di Marzio et al. (2012). Estimation procedures are highlighted for the parameters of each of these models. We compare the models together with simulations and examples using real data.
2

Critère de validation croisée pour le choix des modèles des petits domaines au niveau des unités

Pieugueu, Romanic 24 April 2018 (has links)
Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet. / This thesis focuses on the study of a cross-validation criterion for the choice of models for small areas. The study is limited to models of small areas at the unit level. The standard model for this problem has been introduced by Battese, Harter and Fuller in 1988. It is a mixed linear regression model with random intercepts. Its consists of a number of parameters: β a regression parameter for the fixed part, the random component and the variances for the residual error. The model of Battese et al. is used to predict in the average of a study variable y in each small area using an administrative auxiliary variable x known throughout the population. The standard estimation method consists of using a normal distribution for modelling the experimental errors. The consideration of a non normal dependence gives more accurate estimates. This new model might lead to better prediction of the mean of y within small areas. Indeed, the generalization lies in modelling the residual dependency with a non normal exchangeable model. The model selection is an issue and this work investigates crossvalidationas a method to choose a model.
3

Régression non paramétrique des percentiles pour données censurées

Roy, Valérie 12 April 2018 (has links)
L'utilisation de la régression non paramétrique est fréquente en analyse de données, puisque les postulats associés à la régression paramétrique ne sont pas toujours vérifiés, mais également parce qu'elle laisse aux données la décision de la forme de la relation entre une variable dépendante Y et une variable explicative X. Dans ce mémoire, l'intérêt est porté sur l'estimation de percentiles conditionnels. Plus précisément, comme il arrive parfois que la variable réponse soit censurée, les méthodes d'estimation non paramétrique lisse de régression des percentiles dans le cas où la variable réponse est censurée à droite sont abordées. Ainsi, trois estimateurs sont considérés : un employant l'estimateur de Kaplan-Meier généralisé, un utilisant une optimisation pondérée par les poids Stute et un employant l'estimateur de Bowman et Wright. Ces méthodes sont appliquées à un jeu de données et leurs propriétés sont étudiées par voie de simulations.
4

Étude comparative de trois modèles de prédiction en éducation

Thibault, Jacques 25 April 2018 (has links)
Nous avons présenté dans le premier chapitre de cette recherche méthodologique plusieurs modèles de prédiction qui s'inscrivent dans le cadre plus général des modèles linéaires et qui se différencient les uns des autres par le type de variables rencontrées. Ces variables sont, selon le cas, aléatoires ou fixes et peuvent être mesurées exactement, c'est-à-dire avec ou sans erreurs de mesure. Parmi ces modèles de prédiction, trois d'entre eux ont particulièrement attiré notre attention: ce sont le modèle classique de la régression, le modèle stochastique et le modèle stochastique avec erreurs de mesure. Dans le premier modèle que nous avons étudié, le modèle classique de la régression, les variables indépendantes sont dites fixes ou mathématiques, c'est-à-dire qu'elles peuvent être contrôlées ou déterminées à l'avance par l'expérimentateur. Dans ce cas particulier, il est théoriquement impossible d'assigner une quelconque densité de probabilité puisque ces variables sont considérées comme des valeurs constantes. Dans les deuxième et troisième modèles de prédiction que nous avons présentés, soit les modèles stochastiques sans ou avec erreurs de mesure, les variables indépendantes, au même titre que la variable dépendante, sont plutôt considérées comme aléatoires auxquelles nous pouvons généralement assigner une certaine densité de probabilité. Nous avons donc supposé dans cette étude, comme bien d'autres auteurs d'ailleurs, que ces variables, la variable dépendante et l'ensemble des variables indépendantes, suivaient la loi multinormale. De plus, dans le troisième modèle, le modèle stochastique avec erreurs de mesure, les variables ne peuvent être mesurées exactement puisqu'elles sont affectées par la présence d'erreurs de mesure. Ces erreurs peuvent être, selon le cas, positives ou négatives et, de plus, sont généralement différentes d'un sujet à l'autre dans l'échantillon. Les objectifs de cette recherche consistaient brièvement â présenter les développements théoriques de chacun de ces modèles, à les comparer de façon systématique tant sur le plan théorique que pratique et enfin, à justifier l'utilisation du modèle classique de la régression, par rapport aux deux autres, dans le cas particulier où nous avons affaire à des variables aléatoires et sujettes à l'erreur de mesure, c'est-à-dire des variables telles que nous rencontrons généralement dans le domaine de l'éducation. Nous concluons qu'il est préférable, dans certains cas, d'utiliser le modèle classique de la régression puisque ce modèle nous permet d'une part d'accepter plus facilement le degré de signification des coefficients de régression et d'autre part de respecter davantage les postulats inhérents à ce modèle, par rapport à ceux du troisième modèle. Par contre, si nous assumons qu'aucun postulat n'est violé, le modèle stochastique avec erreurs de mesure s'avère préférable puisqu'il permet d'augmenter de façon substantielle, semble-t-il, le pourcentage de variabilité de la variable dépendante expliqué ou prédit par l'ensemble des variables indépendantes dans l'équation de régression. / Québec Université Laval, Bibliothèque 2014
5

Tensor-based regression models and applications

Hou, Ming 24 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2017-2018 / Avec l’avancement des technologies modernes, les tenseurs d’ordre élevé sont assez répandus et abondent dans un large éventail d’applications telles que la neuroscience informatique, la vision par ordinateur, le traitement du signal et ainsi de suite. La principale raison pour laquelle les méthodes de régression classiques ne parviennent pas à traiter de façon appropriée des tenseurs d’ordre élevé est due au fait que ces données contiennent des informations structurelles multi-voies qui ne peuvent pas être capturées directement par les modèles conventionnels de régression vectorielle ou matricielle. En outre, la très grande dimensionnalité de l’entrée tensorielle produit une énorme quantité de paramètres, ce qui rompt les garanties théoriques des approches de régression classique. De plus, les modèles classiques de régression se sont avérés limités en termes de difficulté d’interprétation, de sensibilité au bruit et d’absence d’unicité. Pour faire face à ces défis, nous étudions une nouvelle classe de modèles de régression, appelés modèles de régression tensor-variable, où les prédicteurs indépendants et (ou) les réponses dépendantes prennent la forme de représentations tensorielles d’ordre élevé. Nous les appliquons également dans de nombreuses applications du monde réel pour vérifier leur efficacité et leur efficacité. / With the advancement of modern technologies, high-order tensors are quite widespread and abound in a broad range of applications such as computational neuroscience, computer vision, signal processing and so on. The primary reason that classical regression methods fail to appropriately handle high-order tensors is due to the fact that those data contain multiway structural information which cannot be directly captured by the conventional vector-based or matrix-based regression models, causing substantial information loss during the regression. Furthermore, the ultrahigh dimensionality of tensorial input produces huge amount of parameters, which breaks the theoretical guarantees of classical regression approaches. Additionally, the classical regression models have also been shown to be limited in terms of difficulty of interpretation, sensitivity to noise and absence of uniqueness. To deal with these challenges, we investigate a novel class of regression models, called tensorvariate regression models, where the independent predictors and (or) dependent responses take the form of high-order tensorial representations. We also apply them in numerous real-world applications to verify their efficiency and effectiveness. Concretely, we first introduce hierarchical Tucker tensor regression, a generalized linear tensor regression model that is able to handle potentially much higher order tensor input. Then, we work on online local Gaussian process for tensor-variate regression, an efficient nonlinear GPbased approach that can process large data sets at constant time in a sequential way. Next, we present a computationally efficient online tensor regression algorithm with general tensorial input and output, called incremental higher-order partial least squares, for the setting of infinite time-dependent tensor streams. Thereafter, we propose a super-fast sequential tensor regression framework for general tensor sequences, namely recursive higher-order partial least squares, which addresses issues of limited storage space and fast processing time allowed by dynamic environments. Finally, we introduce kernel-based multiblock tensor partial least squares, a new generalized nonlinear framework that is capable of predicting a set of tensor blocks by merging a set of tensor blocks from different sources with a boosted predictive power.
6

Méthodes d'estimation statistique pour le suivi de cibles à l'aide d'un réseau de capteurs

Ickowicz, Adrien 06 May 2010 (has links) (PDF)
Cette thèse s'intéresse à l'estimation des paramètres du mouvement d'une ou plusieurs cibles évoluant au sein d'une zone surveillée par un réseau de capteurs. Dans une première partie nous proposons de déterminer de façon exacte l'influence de paramètres d'influence du pistage à l'aide de la détermination d'une expression explicite d'une probabilité de bonne association. Nous parvenons à extraire l'influence de ces variables à l'aide de l'utilisation de méthodes numériques. Dans un deuxième temps nous nous intéressons à un type de capteurs bien particuliers. Nous supposons en effet que nous disposons de l'instant de plus grande proximité entre la cible et chaque capteur du réseau. A partir de ces données partielles, nous nous proposons de reconstruire la trajectoire de la cible. Après avoir montré que nous ne pouvions estimer conjointement la position et la vitesse de la cible, nous proposons des méthodes d'estimation du vecteur vitesse dans divers cas de trajectoire envisagés. Enfin, nous étudions dans la troisième partie de ce document le cas d'un réseau de capteurs binaires directionnels. Après une étude rapide sur l'estimation du vecteur vitesse dans le cas d'un mouvement rectiligne uniforme, nous étendons notre approche au cas ou le mouvement de la cible suivrait une marche aléatoire gaussienne, et nous proposons un nouvel algorithme permettant d'estimer conjointement les vecteurs vitesse et position. Nous proposons enfin une solution d'extension de notre algorithme au suivi multicible. Nous présentons dans chacun des scénarios des résultats de simulation illustrant les performances des méthodes proposées.
7

Introduction des effets fixes dans un modèle binomial négatif : application à la consommation de médicaments au Canada

Ammour, Boubekeur Seddik January 2010 (has links) (PDF)
Dans ce travail, nous modélisons le nombre de médicaments consommés par les Canadiens en estimant deux modèles de données de comptage en panel. Les données incluent des observations effectuées sur 17 276 individus entre 1994 et 2007. Les modèles de Poisson et binomial négatif à effets fixes sont donc estimés afin de contrôler pour les effets individuels non observés. Allison et Waterman (2002) ont démontré que le modèle binomial négatif conditionnel à effets fixes proposé par Hausman, Hall and Griliches (1984) ne contrôle pas vraiment pour les effets fixes étant donné que le modèle inclut des régresseurs individuels fixes. Malgré cette argumentation, l'estimation de ce modèle, effectuée avec le progiciel Stata en utilisant les données de l'enquête nationale sur la santé de la population au Canada (ENSP), fournit des résultats presque identiques à ceux obtenus avec l'estimation du modèle de Poisson à effets fixes. En effet, une partie de la corrélation de certaines variables explicatives avec l'hétérogénéité inobservée n'existe plus lorsque nous estimons le modèle à effets fixes, comparativement aux modèles à effets aléatoires. Cela fait radicalement changer les effets individuels et prouve alors l'importance de contrôler pour les effets fixes. Wooldridge propose un modèle similaire au modèle binomial négatif à effets fixes. Celui-ci permet de contrôler et d'interpréter les effets du modèle binomial négatif à effets fixes en estimant les effets fixes à l'aide des moyennes des variables explicatives, qui seront introduites dans le modèle binomial négatif. Nous n'aurons donc plus besoin d'utiliser la commande Xtnbreg avec l'option FE (qui s'est révélée non performante) car le modèle alternatif de Wooldridge s'estime en utilisant les options RE ou GEE. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Régression de Poisson, Binomial négatif, Effets fixes, Effets aléatoires.
8

L'effet du prix de l'essence sur l'étalement urbain dans 12 régions métropolitaines canadiennes : une analyse de régression de panel

Gingras, Ian 11 1900 (has links) (PDF)
Les régions métropolitaines canadiennes n'échappent pas à l'étalement urbain et plusieurs facteurs récurrents existent dans la littérature scientifique afin d'expliquer ce phénomène. L'un de ces facteurs est la diminution du coût de transport, une diminution reflétée par l'omniprésence de l'automobile. Dans l'optique où le prix de l'essence augmenterait substantiellement, forçant ainsi les agents économiques à changer leur comportement envers les transports urbains, l'un des objectifs de notre étude est de déterminer si une éventuelle hausse du prix de l'essence pourra ralentir l'étalement urbain. À l'aide de données de 12 régions métropolitaines canadiennes échelonnées sur 20 ans, notre analyse de régression de panel révèle qu'une augmentation de 10 % du prix de l'essence: 1) hausserait la proportion de la population d'une région métropolitaine vivant dans la ville centrale de 1,76 %; (2) diminuerait de 6,78 % la proportion de logements à faible densité et (3) diminuerait de 0,15 km la distance médiane de navettage. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Étalement urbain, prix de l'essence, régions métropolitaines canadiennes.
9

Caractéristiques et déterminants des taux de croissance des firmes : Investigations empiriques

Coad, Alex 23 April 2007 (has links) (PDF)
Cette thèse se concentre sur les investigations empiriques de la croissance des firmes, en utilisant des bases de données des firmes manufacturières françaises et américaines. Nous commençons avec une revue de la littérature afin d'identifier les lacunes dans la littérature actuelle. Nous regardons ensuite la loi de Gibrat et la distribution des taux de croissance. Puis nous observons des effets d'autocorrélation dans la croissance des firmes. Dans un discussion théorique nous contrastons la théorie des 'contraintes financières' à la théorie évolutionniste, et nous concluons que la recherche néoclassique a peut-être exagéré le problème des contraintes financières. Dans notre base de données, nous observons que la croissance est plus ou moins indépendant de la performance financière, et nous concluons que la sélection est assez faible.<br />Dans la dernière partie nous étudions la relation entre<br />l'innovation et la performance des firmes. Des régressions par quantile indiquent que l'innovation a des effets spectaculaires dans une minorité des cas, mais pour 'la firme moyenne' elle n'a que peu d'influence.
10

Design d'expérimentation interactif : aide à la compréhension de systèmes complexes

De Rainville, François-Michel January 2010 (has links)
Ce mémoire propose des outils de design d'expérimentations ayant pour but d'aider un analyste dans son investigation d'un système complexe. Les méthodes présentées se divisent en trois groupes, l'exploration, l'optimisation et l'approximation. Les trois ensembles répondent chacun à un besoin particulier lors de l'analyse de système complexe. L'exploration permet de disperser uniformément une collection d'expériences dans l'espace des paramètres du problème. L'optimisation, pour sa part, donne la possibilité de trouver les combinaisons de paramètres optimales du problème. L'approximation, quant à elle, octroie la possibilité d'estimer le résultat de combinaisons de facteurs dont la réponse est inconnue ou difficile à obtenir. Mises ensemble, ces méthodes forment le design d'expérimentation interactif. Elles permettent à un analyste d'obtenir, par le biais de méthodes éprouvées, une information détaillée sur le système étudié.

Page generated in 0.1288 seconds