Spelling suggestions: "subject:"régression"" "subject:"régressions""
31 |
Conservation, écotourisme et bien-être : perspectives théoriques et empiriquesYergeau, Marie-Eve January 2017 (has links)
La conservation environnementale et la réduction de la pauvreté dans les pays en développement sont deux objectifs prioritaires reconnus par la communauté internationale. Cependant, la nature de la relation entre ces enjeux demeure l'objet de débats. En effet, alors que certains considèrent ces objectifs comme étant conflictuels, d'autres soutiennent qu'ils ne seront atteints que simultanément. Cette thèse vise à améliorer la compréhension de la relation entre conservation environnementale et bien-être ainsi que des mécanismes qui modèrent cette relation. Plus précisément, les analyses réalisées se concentrent sur l'étude des relations entre la mise en place de zones protégées, le développement du secteur de l'écotourisme et le bien-être des ménages au Népal.
Dans le premier chapitre, nous explorons les liens existant entre les variables qui seront d'intérêt tout au long de la thèse. Ainsi, nous mesurons la nature et la force de la relation entre (1) les zones protégées et le bien-être, (2) l'écotourisme et le bien-être et (3) l'interaction entre les zones protégées et l'écotourisme, et le bien-être. Nous utilisons la méthode de la régression PLS, qui est appropriée considérant la connaissance théorique limitée sur la relation entre conservation et bien-être, ainsi que la corrélation forte entre certaines variables explicatives. Les résultats indiquent que la mise en place de zones protégées, le développement de l'écotourisme et le bien-être sont positivement liés. De plus, l'écotourisme semble constituer un mécanisme qui modère la relation entre la conservation et le bien-être. Ces résultats exploratoires justifient la pertinence de préciser davantage la structure des relations entre les variables, ce que nous effectuons dans les chapitres suivants.
Dans le deuxième chapitre, nous développons un modèle théorique sur la relation entre conservation environnementale et bien-être. Dans la littérature, les analyses théoriques concluent généralement sur l'existence d'une relation négative entre la conservation et le bien-être, alors que les applications indiquent que les zones protégées peuvent améliorer le bien-être local et réduire la pauvreté. La plupart des modèles théoriques s'appuient sur l'hypothèse que la terre protégée demeure inutilisée, ce qui ne semble toutefois pas être vérifié empiriquement. Puisqu'en plus, dans le chapitre 1, nous observons que l'interaction entre la conservation et l'écotourisme affecte le bien-être, nous intégrons dans notre modèle théorique un secteur productif qui se développe avec les efforts de conservation. Les résultats indiquent que, lorsque la conservation est combinée au développement d'un secteur alternatif, elle peut générer une hausse du bien-être, ce qui est cohérent avec les applications publiées. Nous validons cette conclusion théorique à l'aide de différentes méthodes économétriques.
Les données utilisées dans les chapitres 1 et 2 ont toutefois certaines limites. En effet, elles ne permettent pas de distinguer les ménages résidant à l'intérieur d'une zone protégée, ainsi que ceux impliqués dans le secteur de l'écotourisme. Des variables mesurées au niveau du district doivent donc être utilisées pour capter l'effet de l'écotourisme et de la conservation. De plus, les ménages localisés en région éloignée sont peu représentés dans l'échantillon. Ainsi, dans le troisième chapitre, nous présentons un rapport méthodologique et statistique de l'enquête sur les ménages, que nous avons réalisée au Népal en 2013. L'objectif de l'enquête est de collecter l'information nécessaire pour mesurer l'impact du développement de l'écotourisme et de la conservation environnementale sur le bien-être à partir de données représentatives et désagrégées au niveau du ménage, pour ainsi préciser l'analyse. Nous détaillons dans ce chapitre la méthodologie d'enquête et présentons les résultats descriptifs obtenus.
Enfin, dans le quatrième chapitre, nous utilisons les données collectées pour mesurer l'impact de l'écotourisme et des restrictions environnementales sur le bien-être des ménages dans les zones protégées du Népal. Nous développons un modèle hiérarchique linéaire à deux niveaux, afin de tenir compte de la structure hiérarchique et clustérisée de la base de données. Nous montrons que de s'impliquer dans une occupation directement liée à l'écotourisme, en tant que travailleur autonome, augmente les dépenses de consommation du ménage. De plus, cette implication produit une externalité positive sur le bien-être des ménages localisés à proximité. Ce chapitre est complémentaire aux précédents puisque les résultats obtenus permettent de conclure sur les liens de causalité entre le développement de l'écotourisme, les restrictions environnementales et le bien-être, et ainsi de formuler des recommandations de politiques environnementales et de développement. Aussi, nous concluons notamment que le développement d'entreprises écotouristiques locales devrait être encouragé, et que la consolidation de l'offre touristique autour d'une stratégie de développement local est susceptible d'augmenter les retombées pour l'ensemble de la communauté.
|
32 |
Amplification automatique de tests unitaires pour DevOps / Automatic unit test amplification for DevOpsDanglot, Benjamin 14 November 2019 (has links)
Au cours des dernières années, les tests unitaires sont devenus un élément essentiel de tout projetlogiciel sérieux afin de vérifier son bon fonctionnement.Cependant, les tests sont fastidieux et coûteux pour l'industrie: il est difficile d'évaluer le retour surinvestissement.Pour surmonter ce problème, la recherche étudie l'automatisation de la création de tests.Même si ces suites de tests générées automatiquement ont une très bonne qualité, il existe toujours desobstacles à l'adoption de telles techniques par l'industrie.Cela s'explique par les difficultés à comprendre, intégrer et gérer la suite de tests générée.L'objectif de cette thèse est de remédier à ces difficultés en proposant une nouvelle technique quiproduit des nouveaux tests basés sur les tests existants. Cette technique s'appelle "amplification detests". Par construction, ces nouveaux tests sont donc proches des tests écrits par des humains, et doncsont faciles à comprendre, à intégrer et à gérer. Cette approche est implémentée sous forme d'un outilappelé DSpot. / In recent years, unit testing has become an essential part of any serious software project to verify itsproper functioning.However, the tests are tedious and expensive for the industry: it is difficult to evaluate the return oninvestment.To overcome this problem, the research is investigating the automation of test creation.Although these automatically generated test suites are of high quality, there are still barriers to theindustry adoption of such techniques.This is because of the difficulty in understanding, integrating, and managing the generated test suite.The objective of this thesis is to overcome these difficulties by proposing a new technique thatproduces new tests based on existing tests. This technique is called "test amplification". Byconstruction, these new tests are close to the tests written by humans, and therefore are easy tounderstand, integrate and manage. This approach is implemented as a tool called DSpot.
|
33 |
L'évaluation des composantes d'un traitement cognitif-béhavioral comme prédicteurs de la récidive chez un échantillon d'agresseurs sexuelsWilkins, Jo-Ann January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
34 |
Utilisation des services par les personnes itinérantes atteintes de troubles mentauxBonin, Jean-Pierre January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
35 |
Régression non paramétrique des percentiles pour données censuréesRoy, Valérie 12 April 2018 (has links)
L'utilisation de la régression non paramétrique est fréquente en analyse de données, puisque les postulats associés à la régression paramétrique ne sont pas toujours vérifiés, mais également parce qu'elle laisse aux données la décision de la forme de la relation entre une variable dépendante Y et une variable explicative X. Dans ce mémoire, l'intérêt est porté sur l'estimation de percentiles conditionnels. Plus précisément, comme il arrive parfois que la variable réponse soit censurée, les méthodes d'estimation non paramétrique lisse de régression des percentiles dans le cas où la variable réponse est censurée à droite sont abordées. Ainsi, trois estimateurs sont considérés : un employant l'estimateur de Kaplan-Meier généralisé, un utilisant une optimisation pondérée par les poids Stute et un employant l'estimateur de Bowman et Wright. Ces méthodes sont appliquées à un jeu de données et leurs propriétés sont étudiées par voie de simulations.
|
36 |
Étude comparative de trois modèles de prédiction en éducationThibault, Jacques 25 April 2018 (has links)
Nous avons présenté dans le premier chapitre de cette recherche méthodologique plusieurs modèles de prédiction qui s'inscrivent dans le cadre plus général des modèles linéaires et qui se différencient les uns des autres par le type de variables rencontrées. Ces variables sont, selon le cas, aléatoires ou fixes et peuvent être mesurées exactement, c'est-à-dire avec ou sans erreurs de mesure. Parmi ces modèles de prédiction, trois d'entre eux ont particulièrement attiré notre attention: ce sont le modèle classique de la régression, le modèle stochastique et le modèle stochastique avec erreurs de mesure. Dans le premier modèle que nous avons étudié, le modèle classique de la régression, les variables indépendantes sont dites fixes ou mathématiques, c'est-à-dire qu'elles peuvent être contrôlées ou déterminées à l'avance par l'expérimentateur. Dans ce cas particulier, il est théoriquement impossible d'assigner une quelconque densité de probabilité puisque ces variables sont considérées comme des valeurs constantes. Dans les deuxième et troisième modèles de prédiction que nous avons présentés, soit les modèles stochastiques sans ou avec erreurs de mesure, les variables indépendantes, au même titre que la variable dépendante, sont plutôt considérées comme aléatoires auxquelles nous pouvons généralement assigner une certaine densité de probabilité. Nous avons donc supposé dans cette étude, comme bien d'autres auteurs d'ailleurs, que ces variables, la variable dépendante et l'ensemble des variables indépendantes, suivaient la loi multinormale. De plus, dans le troisième modèle, le modèle stochastique avec erreurs de mesure, les variables ne peuvent être mesurées exactement puisqu'elles sont affectées par la présence d'erreurs de mesure. Ces erreurs peuvent être, selon le cas, positives ou négatives et, de plus, sont généralement différentes d'un sujet à l'autre dans l'échantillon. Les objectifs de cette recherche consistaient brièvement â présenter les développements théoriques de chacun de ces modèles, à les comparer de façon systématique tant sur le plan théorique que pratique et enfin, à justifier l'utilisation du modèle classique de la régression, par rapport aux deux autres, dans le cas particulier où nous avons affaire à des variables aléatoires et sujettes à l'erreur de mesure, c'est-à-dire des variables telles que nous rencontrons généralement dans le domaine de l'éducation. Nous concluons qu'il est préférable, dans certains cas, d'utiliser le modèle classique de la régression puisque ce modèle nous permet d'une part d'accepter plus facilement le degré de signification des coefficients de régression et d'autre part de respecter davantage les postulats inhérents à ce modèle, par rapport à ceux du troisième modèle. Par contre, si nous assumons qu'aucun postulat n'est violé, le modèle stochastique avec erreurs de mesure s'avère préférable puisqu'il permet d'augmenter de façon substantielle, semble-t-il, le pourcentage de variabilité de la variable dépendante expliqué ou prédit par l'ensemble des variables indépendantes dans l'équation de régression. / Québec Université Laval, Bibliothèque 2014
|
37 |
Tensor-based regression models and applicationsHou, Ming 19 July 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2017-2018 / Avec l’avancement des technologies modernes, les tenseurs d’ordre élevé sont assez répandus et abondent dans un large éventail d’applications telles que la neuroscience informatique, la vision par ordinateur, le traitement du signal et ainsi de suite. La principale raison pour laquelle les méthodes de régression classiques ne parviennent pas à traiter de façon appropriée des tenseurs d’ordre élevé est due au fait que ces données contiennent des informations structurelles multi-voies qui ne peuvent pas être capturées directement par les modèles conventionnels de régression vectorielle ou matricielle. En outre, la très grande dimensionnalité de l’entrée tensorielle produit une énorme quantité de paramètres, ce qui rompt les garanties théoriques des approches de régression classique. De plus, les modèles classiques de régression se sont avérés limités en termes de difficulté d’interprétation, de sensibilité au bruit et d’absence d’unicité. Pour faire face à ces défis, nous étudions une nouvelle classe de modèles de régression, appelés modèles de régression tensor-variable, où les prédicteurs indépendants et (ou) les réponses dépendantes prennent la forme de représentations tensorielles d’ordre élevé. Nous les appliquons également dans de nombreuses applications du monde réel pour vérifier leur efficacité et leur efficacité. / With the advancement of modern technologies, high-order tensors are quite widespread and abound in a broad range of applications such as computational neuroscience, computer vision, signal processing and so on. The primary reason that classical regression methods fail to appropriately handle high-order tensors is due to the fact that those data contain multiway structural information which cannot be directly captured by the conventional vector-based or matrix-based regression models, causing substantial information loss during the regression. Furthermore, the ultrahigh dimensionality of tensorial input produces huge amount of parameters, which breaks the theoretical guarantees of classical regression approaches. Additionally, the classical regression models have also been shown to be limited in terms of difficulty of interpretation, sensitivity to noise and absence of uniqueness. To deal with these challenges, we investigate a novel class of regression models, called tensorvariate regression models, where the independent predictors and (or) dependent responses take the form of high-order tensorial representations. We also apply them in numerous real-world applications to verify their efficiency and effectiveness. Concretely, we first introduce hierarchical Tucker tensor regression, a generalized linear tensor regression model that is able to handle potentially much higher order tensor input. Then, we work on online local Gaussian process for tensor-variate regression, an efficient nonlinear GPbased approach that can process large data sets at constant time in a sequential way. Next, we present a computationally efficient online tensor regression algorithm with general tensorial input and output, called incremental higher-order partial least squares, for the setting of infinite time-dependent tensor streams. Thereafter, we propose a super-fast sequential tensor regression framework for general tensor sequences, namely recursive higher-order partial least squares, which addresses issues of limited storage space and fast processing time allowed by dynamic environments. Finally, we introduce kernel-based multiblock tensor partial least squares, a new generalized nonlinear framework that is capable of predicting a set of tensor blocks by merging a set of tensor blocks from different sources with a boosted predictive power.
|
38 |
Simulations Monte Carlo et tests de score sur les matrices nulles : approche par inférence exacteLy, Boucar 28 March 2024 (has links)
Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée. / This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix.
|
39 |
Comparaison de la performance relative de l'analyse discriminante prédictive linéaire polytomique et de la régression logistique polytomique nominale en contexte de quasi-multinormalité et d'erreur de mesureBrière, Luc 13 April 2018 (has links)
Cette recherche, de type méthodologique, envisage d'étudier la prédiction ou la classification portant sur une variable dépendante polytomique et nominale (VDPN) à partir d'un ensemble de variables indépendantes continues. Plus exactement, deux modèles sont privilégiés, dans la littérature comme dans notre étude, pour le cas d'une VDPN, soit : 1) l'analyse discriminante prédictive linéaire polytomique (ADPLP); 2) la régression logistique polytomique nominale (RLPN). Bref, en situation de classification, la procédure statistique de ces méthodes, basée sur l'estimation des probabilités a posteriori, P\k\x.i), cherche principalement à construire une règle de classification permettant d'affecter un individu i décrit par un vecteur x de p variables prédictrices à l'un des K groupes nominaux (K>2) d'une partition définie a priori et aléatoirement (i.e. où chaque sujet possède une chance égale de faire partie de l'échantillon) sur la population à l'étude, et ce, de façon à minimiser le risque de classements erronés. Avant de choisir entre l'ADPLP et la RLPN, il est nécessaire, en regard des conditions imposées par chacun des modèles et certaines contraintes de mesure, de voir comment se comparent les deux modèles en termes de performance relative, de voir si la décision d'opter pour l'une ou l'autre de ces méthodes porte à conséquence. En regard de la littérature recensée sur le sujet, aucune étude, du moins à notre connaissance, ne compare systématiquement l'efficacité relative de l'ADPLP et de la RLPN en contexte de quasi-multinormalité (i.e. lorsque, par exemple, une ou des variables prédictrices possèdent un degré faible, mais non nul de dissymétrie et/ou de kurtose de la distribution) et d'erreur de mesure (i.e. à partir du niveau pxx de fidélité associé à chacune des variables indépendantes). L'effet de trois autres conditions est également mis à contribution dans l'étude, soit la taille échantillonnale (n), les probabilités a priori égales ou inégales (n) des groupes ainsi que le degré de séparation des groupes (à partir de D2, la distance généralisée de Mahalanobis). Pour vérifier les effets qui nous intéressent, les comparaisons sont effectuées de manière à refléter le plus possible les conditions susceptibles d'être rencontrées dans le domaine de la recherche en sciences humaines. Afin de réaliser ce travail au mieux qu'il se peut, les échantillons sont modelés par l'approche de simulation Monte Carlo en fonction d'un devis expérimental reproduisant des situations typiques de recherche. Enfin, nous adoptons une définition de la performance relative de l'ADPLP et de la RLPN qui se restreint à Xefficacité prédictive, et plus particulièrement, au critère ^inexactitude de la règle de classification de chacun des modèles. Spécifiquement, trois mesures sont considérées sur les données validées pour rendre compte de l'inexactitude de la règle de classification, soit : 1) le taux global d'erreur de classifications (TGEC); 2) le score quadratique de Brier (SQB); 3) le score logarithmique (SL). Globalement, des deux méthodes mises à l'essai, même s'il existe souvent d'infimes différences entre leurs performances respectives, les résultats portent à croire que l'ADPLP performe mieux. En effet, compte tenu de notre contexte de recherche, les analyses générales et spécifiques des résultats de l'expérimentation laissent plus fréquemment apparaître, en regard des critères de performance de classification TGEC, SQB et SL, la supériorité de l'ADPLP à classer des observations. Aussi, et surtout, une analyse supplémentaire a permis de constater que la classification des deux méthodes gagne en efficacité à mesure que les paramètres de non-multinormalité de la distribution des variables prédictrices augmentent, mais que l'ADPLP devient moins efficace par rapport à la RLPN au fur et à mesure de cette augmentation.
|
40 |
Prédire l'âge de personnes à partir de photos du visage : une étude fondée sur la caractérisation et l'analyse de signes du vieillissementNkengne, Alex A. 13 June 2008 (has links) (PDF)
L'âge a de tout temps constitué un attribut identitaire important. Nous avons développé au fil de l'évolution une aptitude innée à classer les individus en fonction de leur âge. Cette classification s'appuie en grande partie sur le visage et sur les transformations anatomiques qu'il subit au cours du temps. De plus en plus de traitements cosmétiques, dermatologiques et d'interventions chirurgicales s'attaquant à un signe ou un groupe de signes spécifiques du vieillissement sont mis en oeuvre pour annuler, ou tout au moins masquer partiellement l'effet du temps sur le visage. On peut dès lors s'interroger sur l'influence de chacun des signes sur notre capacité à prédire l'âge d'un individu en observant son visage. Afin de construire un algorithme capable de déterminer l'âge d'individus à partir de leurs photos, nous nous sommes intéressés aux signes du vieillissement et à leur impact sur l'âge apparent. Dans un premier temps, nous avons déterminé et analysé les transformations anatomiques qui altèrent le visage à partir de l'âge adulte (au-delà de 20 ans). Puis nous avons étudié les signes sur lequel on se base pour prédire l'âge d'une personne. Enfin, nous avons construit et validé un modèle prédictif de l'âge en s'appuyant sur les observations précédentes. Transformations anatomiques du visage avec l'âge : La prévalence d'un certain nombre de signes de vieillissement (rides, tâches brunes, forme du visage...) a été mesurée sur un panel représentatif de femmes volontaires âgées de 20 à 74 ans. Ces données ont permis d'établir la cinétique d'apparition de ces signes. Appréciation subjective de l'âge: Il s'agissait de déterminer les signes sur lesquels un observateur s'appuie lorsqu'il évalue l'âge d'un sujet. Pour ce faire, nous avons demandé à un panel constitué de 48 observateurs d'attribuer un âge aux volontaires sur lesquelles nous avions précédemment mesuré les signes du vieillissement. Nous avons confirmé avec ce groupe d'observateurs que la perception de l'âge est liée au sexe et à l'âge de l'observateur. De plus, à l'aide d'une régression PLS (Partial Least Square régression), nous avons établi des relations entre les signes du vieillissement et l'âge observé et démontré que selon que l'on soit jeune ou âgé, un homme ou une femme, on n'exploite pas les mêmes signes de vieillissement pour prédire l'âge.Modèle de prédiction : Enfin, nous avons proposé un modèle s'appuyant sur la régression PLS pour prédire automatiquement l'âge à partir des photos du visage. Ce modèle présente la particularité d'associer, dans une approche unifiée, les signes relatifs à la couleur, à la forme et à la texture du visage, à l'âge des sujets. A l'instar des Modèles Actifs D'apparence (AAM), le modèle construit vise à réduire fortement l'information portée par l'ensemble des pixels du visage. Toutefois, ce dernier est supervisé : Il est donc très approprié dans notre contexte puisque que l'on peut mettre en oeuvre une procédure d'apprentissage pilotée par le but. Les performances sont de fait comparables à celles des humains.
|
Page generated in 0.0543 seconds