• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 142
  • 32
  • 5
  • 4
  • 1
  • 1
  • Tagged with
  • 191
  • 98
  • 27
  • 25
  • 19
  • 17
  • 17
  • 17
  • 17
  • 17
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Causality, endogeneity and nonparametric estimation / Causalité, endogénéité et estimation nonparamétrique

Centorrino, Samuele 05 July 2013 (has links)
Cette thèse porte sur les problèmes de causalité et d'endogénéité avec estimation non-paramétrique de la fonction d’intérêt. On explore ces problèmes dans deux modèles différents. Dans le cas de données en coupe transversale et iid, on considère l'estimation d'un modèle additif séparable, dans lequel la fonction de régression dépend d'une variable endogène. L'endogénéité est définie, dans ce cas, de manière très générale : elle peut être liée à une causalité inverse (la variable dépendante peut aussi intervenir dans la réalisation des régresseurs), ou à la simultanéité (les résidus contiennent de l'information qui peut influencer la variable indépendante). L'identification et l'estimation de la fonction de régression se font par variables instrumentales. Dans le cas de séries temporelles, on étudie les effets de l'hypothèse d'exogénéité dans un modèle de régression en temps continu. Dans un tel modèle, la variable d'état est fonction de son passé, mais aussi du passé d'autres variables et on s'intéresse à l'estimation nonparamétrique de la moyenne et de la variance conditionnelle. Le premier chapitre traite de ce dernier cas. En particulier, on donne des conditions suffisantes pour qu'on puisse faire de l'inférence statistique dans un tel modèle. On montre que la non-causalité est une condition suffisante pour l'exogénéité, quand on ne veut pas faire d'hypothèses sur les dynamiques du processus des covariables. Cependant, si on est prêt à supposer que le processus des covariables suit une simple équation différentielle stochastique, l'hypothèse de non-causalité devient immatérielle. Les chapitres de deux à quatre se concentrent sur le modèle iid simple. Etant donné que la fonction de régression est solution d'un problème mal-posé, on s'intéresse aux méthodes d'estimation par régularisation. Dans le deuxième chapitre, on considère ce modèle dans le cas d'un régularisation sur la norme L2 de la fonction (régularisation de type Tikhonov). On dérive les propriétés d'un critère de validation croisée pour définir le choix du paramètre de régularisation. Dans le chapitre trois, coécrit avec Jean-Pierre Florens, on étend ce modèle au cas où la variable dépendante n'est pas directement observée mais où on observe seulement une transformation binaire de cette dernière. On montre que le modèle peut être identifié en utilisant la décomposition de la variable dépendante dans l'espace des variables instrumentales et en supposant que les résidus de ce modèle réduit ont une distribution connue. On démontre alors, sous ces hypothèses, qu'on préserve les propriétés de convergence de l'estimateur non-paramétrique. Enfin, le chapitre quatre, coécrit avec Frédérique Fève et Jean-Pierre Florens, décrit une étude numérique, qui compare les propriétés de diverses méthodes de régularisation. En particulier, on discute des critères pour le choix adaptatif des paramètres de lissage et de régularisation et on teste la validité du bootstrap sauvage dans le cas des modèles de régression non-paramétrique avec variables instrumentales. / This thesis deals with the broad problem of causality and endogeneity in econometrics when the function of interest is estimated nonparametrically. It explores this problem in two separate frameworks. In the cross sectional, iid setting, it considers the estimation of a nonlinear additively separable model, in which the regression function depends on an endogenous explanatory variable. Endogeneity is, in this case, broadly denned. It can relate to reverse causality (the dependent variable can also affects the independent regressor) or to simultaneity (the error term contains information that can be related to the explanatory variable). Identification and estimation of the regression function is performed using the method of instrumental variables. In the time series context, it studies the implications of the assumption of exogeneity in a regression type model in continuous time. In this model, the state variable depends on its past values, but also on some external covariates and the researcher is interested in the nonparametric estimation of both the conditional mean and the conditional variance functions. This first chapter deals with the latter topic. In particular, we give sufficient conditions under which the researcher can make meaningful inference in such a model. It shows that noncausality is a sufficient condition for exogeneity if the researcher is not willing to make any assumption on the dynamics of the covariate process. However, if the researcher is willing to assume that the covariate process follows a simple stochastic differential equation, then the assumption of noncausality becomes irrelevant. Chapters two to four are instead completely devoted to the simple iid model. The function of interest is known to be the solution of an inverse problem. In the second chapter, this estimation problem is considered when the regularization is achieved using a penalization on the L2-norm of the function of interest (so-called Tikhonov regularization). We derive the properties of a leave-one-out cross validation criterion in order to choose the regularization parameter. In the third chapter, coauthored with Jean-Pierre Florens, we extend this model to the case in which the dependent variable is not directly observed, but only a binary transformation of it. We show that identification can be obtained via the decomposition of the dependent variable on the space spanned by the instruments, when the residuals in this reduced form model are taken to have a known distribution. We finally show that, under these assumptions, the consistency properties of the estimator are preserved. Finally, chapter four, coauthored with Frédérique Fève and Jean-Pierre Florens, performs a numerical study, in which the properties of several regularization techniques are investigated. In particular, we gather data-driven techniques for the sequential choice of the smoothing and the regularization parameters and we assess the validity of wild bootstrap in nonparametric instrumental regressions.
2

La théorie des tropes comme solution au problème de l'exclusion causale

Giorgis, Rodolphe 04 April 2022 (has links)
Dans ce mémoire il est question d'une position ontologique, la théorie des tropes, et de son application à une question centrale en philosophie de l'esprit : l'efficacité causale du mental. Nous présentons d'abord le problème de l'exclusion causale formulé par Jaegwon Kim afin de mettre en évidence les enjeux liés à cette question. L'argument a la forme d'un ensemble de thèses jugé inconsistant, et l'idée est de comprendre et de résoudre cette inconsistance, en rejetant l'une ou l'autre des thèses ou encore en clarifiant certains concepts mobilisés dans celles-ci. Une fois les thèses présentées et la contradiction expliquée, nous procédons à un tour d'horizon des solutions possibles, et nous nous arrêtons particulièrement sur la famille de solutions qui nous intéresse : le réductionnisme. Dans le second chapitre, nous présentons la théorie de tropes, position ontologique qui propose de désambiguïser le terme « propriété » afin de montrer qu'il est fréquemment utilisé pour désigner deux concepts différents. La propriété comme particulier d'une part, vue comme une entité unique, caractérisant une chose (la forme de cette pomme) ; et la propriété comme universel d'autre part, c'est-à-dire comme élément faisant le lien entre plusieurs choses semblant partager une même caractéristique (la couleur de ces deux livres, par exemple). La théorie des tropes affirme que le premier concept réfère aux tropes, des particuliers abstraits qui constitueraient l'ensemble de la réalité, et le second aux classes de ressemblance - des ensembles de tropes remplissant des rôles causaux identiques. Nous présentons donc ces deux concepts en détail. Enfin, dans le dernier chapitre, nous discutons les succès et les limites de cette approche. Nous commençons par montrer qu'il s'agit d'une position ontologique pertinente et légitime, puisqu'elle répond aux critiques métaphysiques qui lui sont adressées, et qu'elle est compatible avec une position cohérente en philosophie des sciences. Nous montrons ensuite comment David Robb et John Heil proposent d'utiliser la théorie des tropes pour formuler une position réductionniste en philosophie de l'esprit. Il s'agit de clarifier l'utilisation du terme « propriété » au fil de l'argument de l'exclusion, afin de résoudre la contradiction à laquelle il mène. Nous voyons ensuite que la théorie des tropes permet au réductionnisme d'échapper à l'une de ses plus vives critiques (l'argument de la réalisabilité multiple). Finalement, nous répondons à une critique de cette solution, qui suggère un retour du problème de l'exclusion au niveau des classes de ressemblance.
3

Infini divin et causalité du premier principe chez Proclus

Graveline, Pascal January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
4

Une lecture transcendantale du problème de la causalité en mécanique quantique

Damarsing, Karine R. January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
5

Infini divin et causalité du premier principe chez Proclus

Graveline, Pascal January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
6

La moyenne bayésienne pour les modèles basés sur les graphes acycliques orientés

Bouzite, Fatima Ezzahraa 08 April 2022 (has links)
Les méthodes d'inférence causale sont utiles pour répondre à plusieurs questions de recherche dans différents domaines, notamment en épidémiologie. Les graphes acycliques orientés sont des outils importants pour l'inférence causale. Entre autres, ils peuvent être utilisés pour identifier les variables confondantes utilisées dans l'ajustement de modèles statistiques afin d'estimer sans biais l'effet d'un traitement. Ces graphes sont construits à partir des connaissances du domaine d'application. Pourtant, ces connaissances sont parfois insuffisantes pour supposer que le graphe construit est correct. Souvent, un chercheur peut proposer divers graphiques correspondants à une même problématique. Dans ce projet, on développe une alternative au modèle moyen bayésien traditionnel qui se base sur un ensemble de graphes proposés par un utilisateur. Pour sa mise en œuvre, on estime d'abord la vraisemblance des données sous les modèles impliqués par chacun des graphes afin de déterminer la probabilité a posteriori de chaque graphe. On identifie, pour chaque graphe, un ensemble de covariables d'ajustement suffisant pour éviter le biais de confusion et on estime l'effet causal à partir d'approches appropriées en ajustant pour ces covariables. Finalement, l'effet causal global est estimé comme une moyenne pondérée des estimations correspondantes à chacun des graphes. La performance de cette approche est étudiée à l'aide d'une étude de simulation où le mécanisme de génération des données est inspiré de l'étude Study of Osteoporotic Fractures (SOF). Différents scénarios sont présentés selon les liens considérés entre les variables. L'étude de simulation démontre une bonne performance générale de notre méthode par comparaison au modèle moyen bayésien traditionnel. L'application de cette approche est illustrée à l'aide de données de l'étude SOF dont l'objectif est l'estimation de l'effet de l'activité physique sur le risque de fractures de la hanche. / Causal inference methods are useful for answering several research questions in different fields, including epidemiology. Directed acyclic graphs are important tools for causal inference. Among other things, they can be used to identify confounding variables used in fitting statistical models to unbiasedly estimate the effect of a treatment. These graphs are built from the knowledge of the domain of application. However, this knowledge is sometimes insufficient to assume that the constructed graph is correct. Often, a researcher can propose various graphs corresponding to the same problem. In this project, we develop an alternative to the traditional Bayesian model averaging which is based on a set of graphs proposed by a user. For its implementation, we first estimate the likelihood of the data under the models implied by each graph to determine the posterior probability of each graph. A set of adjustment covariates sufficient to control for confounding bias is identified for each graph and the causal effect is estimated using appropriate approaches by adjusting for these covariates. Finally, the overall causal effect is estimated as a weighted average of the graph-specific estimates. The performance of this approach is studied using a simulation study in which the data generation mechanism is inspired by the Study of Osteoporotic Fractures (SOF). Different scenarios varying in their relationships between the variables are presented. The simulation study shows a good overall performance of our method compared to the traditional Bayesian model averaging. The application of this approach is illustrated using data from the SOF, whose objective is to estimate the effect of physical activity on the risk of hip fractures.
7

Moyennage de modèles pour l'estimation d'effets causaux avec la méthode de pondération par les probabilités inversées

Chabot-Blanchet, Malorie 03 1900 (has links) (PDF)
Pour estimer un effet causal dans les études d'observation en épidémiologie, les méthodes de pondération par les probabilités inversées et les méthodes doublement robustes sont couramment utilisées. Il n'est toutefois pas facile de spécifier correctement le modèle de traitement et les estimateurs associés sont particulièrement sensibles à un choix de modèle incorrect. Le but principal de ce projet est de déterminer si le fait de prendre une moyenne sur plusieurs modèles pourrait améliorer la performance des estimateurs par pondération par les probabilités inversées, en comparaison à une estimation basée sur un seul modèle. Pour ce faire, nous utilisons les critères d'ajustement AIC et BIC pour associer un poids (probabilité) à chacun des modèles. Nous nous intéressons plus particulièrement à deux façons d'utiliser ces poids 1) soit la pondération externe qui considère une moyenne des estimations obtenues sous chacun des modèles de l'ensemble des modèles considérés, et 2) la pondération interne qui effectue une moyenne des scores de propension obtenus sous chacun des modèles pour ensuite obtenir l'estimation correspondante. Nous comparons les résultats obtenus sons chacun des modèles individuellement, puis sous les différentes façons proposées de considérer un ensemble de modèles. Nous regardons la performance des techniques lorsque le vrai modèle fait ou ne fait pas partie des modèles considérés. Nous obtenons que la pondération apporte un compromis intéressant pour pallier l'incertitude reliée à la sélection du modèle de traitement. Nous observons que l'estimateur basé sur la pondération interne semble avoir une variance plus petite que l'estimateur basé sur la pondération externe et que l'estimateur par pondération par les probabilités inversées employé sur les modèles individuellement, surtout lorsqu'ils sont appliqués sur des échantillons de petite taille. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : estimation causale, sélection de modèle, moyennage de modèles, étude d'observation, pondération par probabilités inversées.
8

Causa causarum

Hollencamp, Charles 09 March 2019 (has links)
Montréal Trigonix inc. 2018
9

La critique fichtéenne du dogmatisme dans l'essai d'une nouvelle présentation de la doctrine de la science (1797-1798) : cinq arguments antidogmatiques

Khoury, Xavier January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
10

Causal modeling under a belief function framework / Modélisation du raisonnement causal avec la théorie des fonctions de croyance

Boukhris, Imen 17 January 2013 (has links)
La présente thèse s'intéresse à modéliser la causalité dans le cadre de la théorie des fonctions de croyance. Dans un premier temps, nous avons analysé et révisé les fondements théoriques des différents modèles associationnels crédibilistes existants. Nous avons proposé une structure graphique qui sert de base pour le réseau causal crédibiliste. Dans ce dernier, l'incertitude au niveau des nœuds est donnée en termes de distributions de masses conditionnelles. Comme la notion d'intervention est d'une importance capitale pour une analyse causale efficiente, nous avons introduit la contrepartie de l'opérateur \do" pour la représentation des interventions dans les réseaux causaux crédibilistes. Le modèle proposé permet ainsi de calculer l'effet simultané des observations et des interventions. Il est admis que considérer l'intervention comme une action qui réussit toujours à mettre sa cible à une valeur précise en la rendant complètement indépendante de ses causes originales est une condition rarement réalisée dans les applications réelles. De ce fait, nous avons examiné le traitement des interventions dont l'occurrence et/ou les conséquences sont imparfaites. Dans la dernière partie de la thèse, nous avons proposé un modèle d'attribution de causalité permettant d'interpréter les relations d'influence qui existent entre les différents attributs du système à savoir la causalité, la facilitation ou encore la justification en présence de données observationnelles et interventionnelles. Motivé par le fait que les preneurs de décision ne sont pas uniquement intéressés par l'attribution de la causalité, ce modèle permet de définir différentes forces d'une cause. / This thesis focuses on the modeling of causality under the belief function framework. We have first analyzed and revised the theoretical foundations of existing associational belief models. Then, we have proposed a graphical structure that serves as a basis for the causal belief network. In this latter, uncertainty at the nodes is given in terms of conditional mass distributions. Since intervention is a crucial concept for an efficient causal analysis, we have introduced a counterpart of the do operator as a tool to represent interventions on causal belief networks. The proposed model allows computing the simultaneous effect of observations and interventions. It is assumed that considering an intervention as an action that always succeeds to force its target variable to have a precise value, by making it completely independent of its original causes, is a condition rarely achieved in real-world applications. Therefore, we have examined the treatment of interventions whose occurrence is imperfect and/or have imperfect consequences. In the last part of the thesis, we have proposed a model for causality ascription to interpret influential relationships between different attributes of the system namely causality, facilitation or justification in the presence observational and interventional data. Since decision makers are not only interested in ascribing causes, this model allows to define different strengths of a cause.

Page generated in 0.0559 seconds