• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 8
  • 5
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 93
  • 93
  • 46
  • 29
  • 26
  • 16
  • 16
  • 15
  • 15
  • 12
  • 11
  • 10
  • 9
  • 9
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

The nexus of control : intentional activity and moral accountability

Conradie, Niël January 2018 (has links)
There is a conceptual knot at the intersection of moral responsibility and action theory. This knot can be expressed as the following question: What is the relationship between an agent's openness to moral responsibility and the intentional status of her behaviour? My answer to this question is developed in three steps. I first develop a control-backed account of intentional agency, one that borrows vital insights from the cognitive sciences – in the form of Dual Process Theory – in understanding the control condition central to the account, and demonstrate that this account fares at least as well as its rivals in the field. Secondly, I investigate the dominant positions in the discussion surrounding the role of control in moral responsibility. After consideration of some shortcomings of these positions – especially the inability to properly account for so-called ambivalence cases – I defend an alternative pluralist account of moral responsibility, in which there are two co-extant variants of such responsibility: attributability and accountability. The latter of these will be shown to have a necessary control condition, also best understood in terms of a requirement for oversight (rather than conscious or online control), and in terms of the workings of the dual system mechanism. I then demonstrate how these two accounts are necessarily related through the shared role of this kind of control, leading to my answer to the original question: if an agent is open to moral accountability based on some activity or outcome, this activity or outcome must necessarily have positive intentional status. I then apply this answer in a consideration of certain cases of the use of the Doctrine of Double Effect.
92

L’intuitionnisme de Huemer : une solution au scepticisme moral?

Pelchat, Karl-Antoine 08 1900 (has links)
Situé à l’intersection de grands mouvements en philosophie morale, comme la renaissance du réalisme non naturaliste et l’affirmation d’un scepticisme épistémologique moral, ce mémoire se propose d’interroger la fiabilité des intuitions morales à la lumière des récentes découvertes effectuées en neuroscience, psychologie morale et théorie de l’évolution. Ne pouvant recouvrir l’intégralité des conceptions de l’intuition et de la justification morales, ce mémoire se penchera prioritairement sur l’intuitionnisme éthique prôné par Michael Huemer. Solution alléguée au scepticisme épistémologique moral, l’intuitionnisme de Huemer garantit une justification prima facie aux énoncés moraux, une propriété conférée par le principe du conservatisme phénoménal. Profitant aux intuitions morales de tous niveaux de généralité, cette justification prima facie peut toutefois être défaite, comme le supposent les arguments étiologiques proximaux et distaux. Au cours de ce mémoire, je défendrai l’idée qu’une majorité d’intuitions morales, telles que conçues par Huemer, sont effectivement défaites par la voie étiologique. D’une part, je tenterai de montrer que l’hypothèse du double système, bénéficiant désormais d’un vaste soutien empirique, n’est pas compatible avec la conception huemérienne des intuitions morales. En l’occurrence, la « trolleyologie » de Joshua Greene, le « Modèle intuitionniste social » de Jonathan Haidt ainsi que les procédés heuristiques seront mobilisés à des fins argumentaires. D’autre part, je tenterai de montrer que la critique généalogique évolutionnaire de Street jette le doute sur une grande partie des intuitions morales, principalement les intuitions morales substantives (non formelles). Comme le soutient Street, l’incapacité du réaliste à rendre compte de la relation entre les vérités évaluatives postulées et les pressions évolutives constitue une raison convaincante d’abandonner le réalisme moral. Ayant présenté deux types d’arguments étiologiques, l’un psychologique et l’autre évolutionnaire, je conclus que seules les intuitions morales formelles et métadiscursives sont réellement susceptibles d’éviter la charge du sceptique épistémologique. / Located at the intersection of a great many philosophical movements, such as the rebirth of non-naturalist realism and the affirmation of moral epistemological skepticism, this master’s thesis interrogates the reliability of moral intuitions in light of recent advancements in neuroscience, moral psychology and evolutionary theory. While there are various ways to conceive of moral intuition and justification, this thesis will prioritize a version of ethical intuitionism defended by Michael Huemer. Put forward as a solution to moral epistemological skepticism, Huemer’s intuitionism guarantees prima facie justification to moral propositions, a property conferred by the principle of phenomenal conservatism. While intuitions of every level of generality can benefit from such prima facie justification, this very type of justification is susceptible to defeat, as suggested by proximal and distal debunking arguments. Throughout this master’s thesis, I will defend the claim that a majority of moral intuitions, as conceived by Huemer, are effectively defeated by means of debunking arguments. On the one hand, I will try to demonstrate that the dual-process hypothesis, which is widely supported, is not compatible with Huemer’s conception of moral intuitions. In order to substantiate this view, I will draw from Joshua Greene’s “trolleyology”, Jonathan Haidt’s “Social Intuitionist Model” and recent work on moral heuristics. On the other hand, I will attempt to show that Street’s evolutionary debunking argument throws significant doubt on a large portion of moral intuitions, mostly the ones which are substantial (non-formal). As Street purports, the realist’s incapacity to explain the relation between posited evaluative truths and evolutionary pressures constitutes a strong reason to reject moral realism. Having presented two types of debunking arguments, one psychological and the other evolutionary, I conclude that only formal and metadiscursive moral intuitions are really susceptible to avoid the charge of the epistemological sceptic.
93

Apprentissage de stratégies de calcul adaptatives pour les réseaux neuronaux profonds

Kamanda, Aton 07 1900 (has links)
La théorie du processus dual stipule que la cognition humaine fonctionne selon deux modes distincts : l’un pour le traitement rapide, habituel et associatif, appelé communément "système 1" et le second, ayant un traitement plus lent, délibéré et contrôlé, que l’on nomme "système 2". Cette distinction indique une caractéristique sous-jacente importante de la cognition humaine : la possibilité de passer de manière adaptative à différentes stratégies de calcul selon la situation. Cette capacité est étudiée depuis longtemps dans différents domaines et de nombreux bénéfices hypothétiques semblent y être liés. Cependant, les réseaux neuronaux profonds sont souvent construits sans cette capacité à gérer leurs ressources calculatoires de manière optimale. Cette limitation des modèles actuels est d’autant plus préoccupante que de plus en plus de travaux récents semblent montrer une relation linéaire entre la capacité de calcul utilisé et les performances du modèle lors de la phase d’évaluation. Pour résoudre ce problème, ce mémoire propose différentes approches et étudie leurs impacts sur les modèles, tout d’abord, nous étudions un agent d’apprentissage par renforcement profond qui est capable d’allouer plus de calcul aux situations plus difficiles. Notre approche permet à l’agent d’adapter ses ressources computationnelles en fonction des exigences de la situation dans laquelle il se trouve, ce qui permet en plus d’améliorer le temps de calcul, améliore le transfert entre des tâches connexes et la capacité de généralisation. L’idée centrale commune à toutes nos approches est basée sur les théories du coût de l’effort venant de la littérature sur le contrôle cognitif qui stipule qu’en rendant l’utilisation de ressource cognitive couteuse pour l’agent et en lui laissant la possibilité de les allouer lors de ses décisions il va lui-même apprendre à déployer sa capacité de calcul de façon optimale. Ensuite, nous étudions des variations de la méthode sur une tâche référence d’apprentissage profond afin d’analyser précisément le comportement du modèle et quels sont précisément les bénéfices d’adopter une telle approche. Nous créons aussi notre propre tâche "Stroop MNIST" inspiré par le test de Stroop utilisé en psychologie afin de valider certaines hypothèses sur le comportement des réseaux neuronaux employant notre méthode. Nous finissons par mettre en lumière les liens forts qui existent entre apprentissage dual et les méthodes de distillation des connaissances. Notre approche a la particularité d’économiser des ressources computationnelles lors de la phase d’inférence. Enfin, dans la partie finale, nous concluons en mettant en lumière les contributions du mémoire, nous détaillons aussi des travaux futurs, nous approchons le problème avec les modèles basés sur l’énergie, en apprenant un paysage d’énergie lors de l’entrainement, le modèle peut ensuite lors de l’inférence employer une capacité de calcul dépendant de la difficulté de l’exemple auquel il fait face plutôt qu’une simple propagation avant fixe ayant systématiquement le même coût calculatoire. Bien qu’ayant eu des résultats expérimentaux infructueux, nous analysons les promesses que peuvent tenir une telle approche et nous émettons des hypothèses sur les améliorations potentielles à effectuer. Nous espérons, avec nos contributions, ouvrir la voie vers des algorithmes faisant un meilleur usage de leurs ressources computationnelles et devenant par conséquent plus efficace en termes de coût et de performance, ainsi que permettre une compréhension plus intime des liens qui existent entre certaines méthodes en apprentissage machine et la théorie du processus dual. / The dual-process theory states that human cognition operates in two distinct modes: one for rapid, habitual and associative processing, commonly referred to as "system 1", and the second, with slower, deliberate and controlled processing, which we call "system 2". This distinction points to an important underlying feature of human cognition: the ability to switch adaptively to different computational strategies depending on the situation. This ability has long been studied in various fields, and many hypothetical benefits seem to be linked to it. However, deep neural networks are often built without this ability to optimally manage their computational resources. This limitation of current models is all the more worrying as more and more recent work seems to show a linear relationship between the computational capacity used and model performance during the evaluation phase. To solve this problem, this thesis proposes different approaches and studies their impact on models. First, we study a deep reinforcement learning agent that is able to allocate more computation to more difficult situations. Our approach allows the agent to adapt its computational resources according to the demands of the situation in which it finds itself, which in addition to improving computation time, enhances transfer between related tasks and generalization capacity. The central idea common to all our approaches is based on cost-of-effort theories from the cognitive control literature, which stipulate that by making the use of cognitive resources costly for the agent, and allowing it to allocate them when making decisions, it will itself learn to deploy its computational capacity optimally. We then study variations of the method on a reference deep learning task, to analyze precisely how the model behaves and what the benefits of adopting such an approach are. We also create our own task "Stroop MNIST" inspired by the Stroop test used in psychology to validate certain hypotheses about the behavior of neural networks employing our method. We end by highlighting the strong links between dual learning and knowledge distillation methods. Finally, we approach the problem with energy-based models, by learning an energy landscape during training, the model can then during inference employ a computational capacity dependent on the difficulty of the example it is dealing with rather than a simple fixed forward propagation having systematically the same computational cost. Despite unsuccessful experimental results, we analyze the promise of such an approach and speculate on potential improvements. With our contributions, we hope to pave the way for algorithms that make better use of their computational resources, and thus become more efficient in terms of cost and performance, as well as providing a more intimate understanding of the links that exist between certain machine learning methods and dual process theory.

Page generated in 0.0572 seconds