• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2002
  • 592
  • 221
  • 54
  • 8
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2890
  • 947
  • 506
  • 485
  • 300
  • 266
  • 262
  • 255
  • 230
  • 227
  • 218
  • 205
  • 205
  • 185
  • 181
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Estimation statistique des paramètres pour les processus de Cox-Ingersoll-Ross et de Heston / Statistical inference for the parameters of the Cox-Ingersoll-Ross process and the Heston process

Du Roy de Chaumaray, Marie 02 December 2016 (has links)
Les processus de Cox-Ingersoll-Ross et de Heston jouent un rôle prépondérant dans la modélisation mathématique des cours d’actifs financiers ou des taux d’intérêts. Dans cette thèse, on s’intéresse à l’estimation de leurs paramètres à partir de l’observation en temps continu d’une de leurs trajectoires. Dans un premier temps, on se place dans le cas où le processus CIR est géométriquement ergodique et ne s’annule pas. On établit alors un principe de grandes déviationspour l’estimateur du maximum de vraisemblance du couple des paramètres de dimension et de dérive d’un processus CIR. On établit ensuite un principe de déviations modérées pour l’estimateur du maximum de vraisemblance des quatre paramètres d’un processus de Heston, ainsi que pour l’estimateur du maximum de vraisemblance du couple des paramètres d’un processus CIR. Contrairement à ce qui a été fait jusqu’ici dans la littérature,les paramètres sont estimés simultanément. Dans un second temps, on ne se restreint plus au cas où le processus CIR n’atteint jamais zéro et on propose un nouvel estimateur des moindres carrés pondérés pour le quadruplet des paramètres d’un processus de Heston.On établit sa consistance forte et sa normalité asymptotique, et on illustre numériquement ses bonnes performances. / The Cox-Ingersoll-Ross process and the Heston process are widely used in financial mathematics for pricing and hedging or to model interest rates. In this thesis, we focus on estimating their parameters using continuous-time observations. Firstly, we restrict ourselves to the most tractable situation where the CIR processis geometrically ergodic and does not vanish. We establish a large deviations principle for the maximum likelihood estimator of the couple of dimensionnal and drift parameters of a CIR process. Then we establish a moderate deviations principle for the maximum likelihood estimator of the four parameters of an Heston process, as well as for the maximum likelihood estimator of the couple of parameters of a CIR process. In contrast to the previous literature, parameters are estimated simultaneously. Secondly, we do not restrict ourselves anymore to the case where the CIR process never reaches zero and we introduce a new weighted least squares estimator for the quadruplet of parameters of an Heston process. We establish its strong consitency and asymptotic normality, and we illustrate numerically its good performances.
432

Méthodes d'analyse de la survie nette : utilisation des tables de mortalité, test de comparaison et détection d'agrégats spatiaux / Methods to analyze net survival : use of life tables, comparison test and spatial cluster detection

Graffeo, Nathalie 12 December 2014 (has links)
La survie nette, indicateur clé de l'efficacité des systèmes de soin dans la lutte contre le cancer, est un concept théorique représentant la survie que l'on observerait dans un monde hypothétique où le cancer étudié serait la seule cause de décès. En s'affranchissant de la mortalité due aux causes autres que ce cancer, elle permet des comparaisons entre populations. Dans cette thèse, après présentation du concept et des méthodes d'estimation de la survie nette quand la cause de décès est inconnue, nous étudions trois problématiques. La première porte sur les tables de mortalité utilisées pour estimer la survie nette. En France, ces tables sont stratifiées sur âge, sexe, année et département. Il serait intéressant d'utiliser des tables stratifiées sur d'autres facteurs impactant la mortalité. Nous étudions l'impact du manque de stratification sur les estimations des effets des facteurs pronostiques sur la mortalité en excès (celle due au cancer en l'absence des autres causes de décès) par des études de simulations et sur données réelles. La deuxième problématique porte sur la construction d'un test de type log-rank pour comparer des distributions de survie nette estimées par l'estimateur Pohar-Perme, estimateur non paramétrique consistant de la survie nette. Notre troisième problématique est de déterminer dans une aire géographique des zones différentes en termes de survie nette. Nous adaptons une méthode de détection de clusters à la survie nette en utilisant le test précédemment développé comme critère de découpage. Ce travail propose ainsi des développements et outils nouveaux pour étudier et améliorer la qualité de la prise en charge des patients atteints d'un cancer. / In cancer research, net survival is a key indicator of health care efficiency. This theoretical concept is the survival that would be observed in an hypothetical world where the disease under study would be the only possible cause of death. In population-based studies, where cause of death is unknown, net survival allows to compare net cancer survival between different groups by removing the effect of death from causes other than cancer. In this work, after presenting the concept and the estimation methods of net survival, we focus on three complementary issues. The first one is about the life tables used in the estimates of net survival. In France, these tables are stratified by age, sex, year and département. Other prognostic factors impact on mortality. So it would be interesting to use life tables stratified by some of these factors. We study the impact of the lack of stratification in life tables on the estimates of the effects of prognostic factors on excess mortality by simulations and real data studies. In 2012, the Pohar-Perme estimator was proposed. It is a consistent non parametric estimator of net survival. The second issue involves the building of a log-rank type test to compare distributions of net survival (estimated by the Pohar-Perme estimator) between several groups. Our third issue is to propose a method providing potential spatial clusters which could contain patients with similar net cancer survival rates. We adapt a clustering method using the test we have built as a splitting criterion. This work proposes new developments and new tools to study and improve the quality of care for cancer patients. These methods are suitable to other chronic diseases.
433

V-BPMI : une approche pour la conception, l'organisation et l'adaptation de processus flexibles : Cas d'application : la sécurisation du circuit du médicament au sein de l'AP-HM / V-BPMI : Approach to conception, organization and Fit flexible processes. : Practice case : Medecine circuit securing in AP-HM

Angles, Renaud 23 October 2015 (has links)
La modélisation de processus est, depuis plusieurs années, utilisée en entreprise pour représenter et maîtriser l’organisation et les flux d’informations. Parallèlement, la structure et les besoins des entreprises ont évolué : de plus en plus souvent, les mêmes processus métier sont déployés pour une entreprise donnée mais dans des environnements différents.Les organisations ont donc besoin de modéliser et déployer un même ensemble de processus métier dans des environnements divers tout en les adaptant le mieux possible aux spécificités de chacun de ces environnements.La méthode V BPMI s’inscrit dans cette problématique de la flexibilité des processus. Elle préconise notamment d’adopter une double orientation intentionnelle (en caractérisant formellement un processus par l’objectif qu’il permet d’atteindre) et contextuelle (en décrivant formellement les divers environnements dans lesquels un processus peut être déployé et mis en œuvre de façon pertinente). Cette méthode introduit principalement les concepts de lignes de processus, identifiées par des buts, et de variantes de processus, discriminées par des contextes, afin de supporter la flexibilité. Des opérateurs et un langage de modélisation et d'adaptation de processus, V BPMN, sont également proposés. Par ailleurs deux démarches sont définies pour guider la définition et l'adaptation de processus flexibles. De plus, la méthode s’appuie sur un modèle de connaissances et est supportée par une architecture, V BPME et un prototype.Pratiquement, cette méthode, élaborée dans le cadre d’un partenariat avec l’AP HM au sein du projet PERICLES, a été présentée et testée en collaboration avec des pharmaciens de l’AP HM. / Modeling business processes allows enterprises to abstract and understand business workflows from many years. In the same time, business requirements and enterprise behaviors evolved: more and more, business processes are deployed for an organization but in several different environments. Thus, such structures need to model and deploy their business processes in several specific environments and in an adaptive way to care about these specificities. This issue concerns the flexibility of the business processes and their adaptation to the variability of environment in which they are deployed.The V BPMI method considers this purpose of the process flexibility by considering an intentional orientation (with a formal description of the goal a business process reaches) and a contextual orientation (with a formal description of the environment in which it is relevant to deploy and execute an adapted business process). This method introduces the process lines, identified with a business goal, and process variants, discriminated with a formal context, as major concepts for the flexibility support. It introduces too some operators and a process modeling and adaptation language, V BPMN. In addition, two approaches for flexible processes definition and adaptation are proposed. Moreover, the V BPMI method relies on a knowledge model and is supported by an architecture, V BPME, and a software prototype.In fact, this method, developed in collaboration with the AP HM within the PERCILES project, has been introduced and tested with pharmacists, with a focus on the drug circulation process.
434

Processus de risque : modélisation de la dépendance et évaluation du risque sous des contraintes de convexité / Risk process : dependence modeling and risk evaluation under convexity constraints

Kacem, Manel 20 March 2013 (has links)
Ce travail de thèse porte principalement sur deux problématiques différentes mais qui ont pour point commun, la contribution à la modélisation et à la gestion du risque en actuariat. Dans le premier thème de recherche abordé dans cette thèse, on s'intéresse à la modélisation de la dépendance en assurance et en particulier, on propose une extension des modèles à facteurs communs qui sont utilisés en assurance. Dans le deuxième thème de recherche, on considère les distributions discrètes décroissantes et on s'intéresse à l'étude de l'effet de l'ajout de la contrainte de convexité sur les extrema convexes. Des applications en liaison avec la théorie de la ruine motivent notre intérêt pour ce sujet. Dans la première partie de la thèse, on considère un modèle de risque en temps discret dans lequel les variables aléatoires sont dépendantes mais conditionnellement indépendantes par rapport à un facteur commun. Dans ce cadre de dépendance on introduit un nouveau concept pour la modélisation de la dépendance temporelle entre les risques d'un portefeuille d'assurance. En effet, notre modélisation inclut des processus de mémoire non bornée. Plus précisément, le conditionnement se fait par rapport à un vecteur aléatoire de longueur variable au cours du temps. Sous des conditions de mélange du facteur et d'une structure de mélange conditionnel, nous avons obtenu des propriétés de mélanges pour les processus non conditionnels. Avec ces résultats on peut obtenir des propriétés asymptotiques intéressantes. On note que dans notre étude asymptotique c'est plutôt le temps qui tend vers l'infini que le nombre de risques. On donne des résultats asymptotiques pour le processus agrégé, ce qui permet de donner une approximation du risque d'une compagnie d'assurance lorsque le temps tend vers l'infini. La deuxième partie de la thèse porte sur l'effet de la contrainte de convexité sur les extrema convexes dans la classe des distributions discrètes dont les fonctions de masse de probabilité (f.m.p.) sont décroissantes sur un support fini. Les extrema convexes dans cette classe de distributions sont bien connus. Notre but est de souligner comment les contraintes de forme supplémentaires de type convexité modifient ces extrema. Deux cas sont considérés : la f.m.p. est globalement convexe sur N et la f.m.p. est convexe seulement à partir d'un point positif donné. Les extrema convexes correspondants sont calculés en utilisant de simples propriétés de croisement entre deux distributions. Plusieurs illustrations en théorie de la ruine sont présentées / In this thesis we focus on two different problems which have as common point the contribution to the modeling and to the risk management in insurance. In the first research theme, we are interested by the modeling of the dependence in insurance. In particular we propose an extension to model with common factor. In the second research theme we consider the class of nonincreasing discrete distributions and we are interested in studying the effect of additional constraint of convexity on the convex extrema. Some applications in ruin theory motivate our interest to this subject. The first part of this thesis is concerned with factor models for the modeling of the dependency in insurance. An interesting property of these models is that the random variables are conditionally independent with respect to a factor. We propose a new model in which the conditioning is with respect to the entire memory of the factor. In this case we give some mixing properties of risk process under conditions related to the mixing properties of the factor process and to the conditional mixing risk process. The law of the sum of random variables has a great interest in actuarial science. Therefore we give some conditions under which the law of the aggregated process converges to a normal distribution. In the second part of the thesis we consider the class of discrete distributions whose probability mass functions (p.m.f.) are nonincreasing on a finite support. Convex extrema in that class of distributions are well-known. Our purpose is to point out how additional shape constraints of convexity type modify these extrema. Two cases are considered : the p.m.f. is globally convex on N or it is convex only from a given positive point. The corresponding convex extrema are derived by using a simple crossing property between two distributions. Several applications to some ruin problems are presented for illustration
435

Contrôle optimal de modèles de neurones déterministes et stochastiques, en dimension finie et infinie. Application au contrôle de la dynamique neuronale par l'Optogénétique / Optimal control of deterministic and stochastic neuron models, in finite and infinite dimension. Application to the control of neuronal dynamics via Optogenetics

Renault, Vincent 20 September 2016 (has links)
Let but de cette thèse est de proposer différents modèles mathématiques de neurones pour l'Optogénétique et d'étudier leur contrôle optimal. Nous définissons d'abord une version contrôlée des modèles déterministes de dimension finie, dits à conductances. Nous étudions un problème de temps minimal pour un système affine mono-entrée dont nous étudions les singulières. Nous appliquons une méthode numérique directe pour observer les trajectoires et contrôles optimaux. Le contrôle optogénétique apparaît comme une nouvelle façon de juger de la capacité des modèles à conductances de reproduire les caractéristiques de la dynamique du potentiel de membrane, observées expérimentalement. Nous définissons ensuite un modèle stochastique en dimension infinie pour prendre en compte le caractère aléatoire des mécanismes des canaux ioniques et la propagation des potentiels d'action. Il s'agit d'un processus de Markov déterministe par morceaux (PDMP) contrôlé, à valeurs dans un espace de Hilbert. Nous définissons une large classe de PDMPs contrôlés en dimension infinie et prouvons le caractère fortement Markovien de ces processus. Nous traitons un problème de contrôle optimal à horizon de temps fini. Nous étudions le processus de décision Markovien (MDP) inclus dans le PDMP et montrons l'équivalence des deux problèmes. Nous donnons des conditions suffisantes pour l'existence de contrôles optimaux pour le MDP, et donc le PDMP. Nous discutons des variantes pour le modèle d'Optogénétique stochastique en dimension infinie. Enfin, nous étudions l'extension du modèle à un espace de Banach réflexif, puis, dans un cas particulier, à un espace de Banach non réflexif. / The aim of this thesis is to propose different mathematical neuron models that take into account Optogenetics, and study their optimal control. We first define a controlled version of finite-dimensional, deterministic, conductance based neuron models. We study a minimal time problem for a single-input affine control system and we study its singular extremals. We implement a direct method to observe the optimal trajectories and controls. The optogenetic control appears as a new way to assess the capability of conductance-based models to reproduce the characteristics of the membrane potential dynamics experimentally observed. We then define an infinite-dimensional stochastic model to take into account the stochastic nature of the ion channel mechanisms and the action potential propagation along the axon. It is a controlled piecewise deterministic Markov process (PDMP), taking values in an Hilbert space. We define a large class of infinite-dimensional controlled PDMPs and we prove that these processes are strongly Markovian. We address a finite time optimal control problem. We study the Markov decision process (MDP) embedded in the PDMP. We show the equivalence of the two control problems. We give sufficient conditions for the existence of an optimal control for the MDP, and thus, for the initial PDMP as well. The theoretical framework is large enough to consider several modifications of the infinite-dimensional stochastic optogenetic model. Finally, we study the extension of the model to a reflexive Banach space, and then, on a particular case, to a nonreflexive Banach space.
436

Analyse probabiliste de processus distribués axés sur les processus de consensus / Probabilistic analysis of distributed processes with focus on consensus

Mallmann-Trenn, Frederik 22 September 2017 (has links)
Cette thèse est consacrée à l'étude des processus stochastiques décentralisés. Parmi les exemples typiques de ces processus figurent la dynamique météorologique, la circulation automobile, la façon dont nous rencontrons nos amis, etc. Dans cette thèse, nous exploitons une large palette d'outils probabilistes permettant d'analyser des chaînes de Markov afin d'étudier un large éventail de ces processus distribués : modèle des feux de forêt (réseaux sociaux), balls-into-bins avec suppression, et des dynamiques et protocoles de consensus fondamentaux tels que Voter Model, 2-Choices, et 3-Majority. / This thesis is devoted to the study of stochastic decentralized processes. Typical examples in the real world include the dynamics of weather and temperature, of traffic, the way we meet our friends, etc. We take the rich tool set from probability theoryfor the analysis of Markov Chains and employ it to study a wide range of such distributed processes: Forest Fire Model (social networks), Balls-into-Bins with Deleting Bins, and fundamental consensus dynamics and protocols such as the Voter Model, 2-Choices, and 3-Majority.
437

Sequential stopping under different environments of weak information

Dendievel, Rémi 10 November 2016 (has links) (PDF)
Notre thèse s’articule autour du thème de l’utilisation optimale de l’information contenue dans un modèle probabiliste flexible. Dans le premier chapitre, nous couvrons des résultats bien connus des martingales comme le théorème de convergence dit L1 des martingales et le théorème d’arrêt. Nous discutons de problèmes ouverts similaires au «last arrival problem» (Bruss et Yor, 2012) qui sont des vrais défis du point de vue théorique et nous ne pouvons que conjecturer la stratégie optimale.Dans les chapitres suivants, nous résolvons des extensions de problèmes d’arrêt optimal proposés par R. R. Weber (U. Cambridge), basés sur le «théorème des odds» (Bruss, 2000). En résumé, il s’agit d’effectuer une seule action (un seul arrêt) lorsque deux suites d’observations indépendantes sont observées simultanément. Nous donnons la solution à ces problèmes pour un nombre (fixé) choisi de processus.Le chapitre suivant passe en revue la plupart des développements récents (depuis 2000) réalisés autour du «théorème des odds» (Bruss, 2000). Le matériel présenté fut publié (2013), il a donc été mis à jour dans cette thèse pour inclure les derniers résultats depuis cette date.Puis nous réservons un chapitre pour une solution explicite pour un cas particulier du Problème d’arrêt optimal de Robbins. Ce chapitre est basé sur un article publié par l’auteur en collaboration avec le professeur Swan (Université de Liège). Ce chapitre offre une belle illustration des difficultés rencontrées lorsque trop d’information sur les variables est contenue dans le modèle. La solution optimale de ce problème dans le cas général n’est pas connue. Par contre, contre-intuitivement, dans le «last arrival problem» mentionné plus haut, moins d’information permet, comme nous le montrons, de trouver en effet la solution optimale.La thèse contient un dernier chapitre sur un problème de nature plus combinatoire que nous pouvons lier à la théorie des graphes dans une certaine mesure. Nous étudions le processus de création d’un graphe aléatoire particulier et les propriétés des cycles créés par celui-ci. Le problème est séquentiel et permet d’envisager des problèmes d’arrêt intéressants. Cette étude a des conséquences en théorie des graphes, en analyse combinatoire ainsi qu’en science de la chimie combinatoire pour les applications. Un de nos résultats est analogue au résultat de Janson (1987) relatif au premier cycle créé pendant la création de graphes aléatoires. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
438

Les processus métiers en tant que services - BPaaS : sécurisation des données et des services / Business process as a service - BPaaS : securing data and services

Bentounsi, Mohamed el Mehdi 14 September 2015 (has links)
Malgré les avantages économiques de l’informatique en nuage (ou cloud computing) pour les entreprises et ses multiples applications envisagées, il subsiste encore des obstacles pour son adoption à grande échelle. La sécurité des données sauvegardées et traitées dans le nuage arrive en tête des préoccupations des décideurs des directions des systèmes d'information. De ce fait, l'objectif principal de nos travaux de recherche lors de cette thèse de doctorat est de poser des bases solides pour une utilisation sûre et sécurisée du nuage. Dans un premier lieu, l’externalisation des processus métiers vers le nuage permet aux entreprises de réduire les couts d’investissement et de maitriser les couts d’exploitation de leurs systèmes d’information ; Elle permet aussi de promouvoir la réutilisation des parties (ou fragments) de ses processus métiers en tant que service cloud, éventuellement par des concurrents directs, afin de faciliter le développement de nouvelles applications orientés services ‘SOA’, ainsi la collaboration à l’échelle du nuage. Néanmoins, le fait de révéler la provenance d’un fragment réutilisé est considérée comme une brèche dans la vie privée et risque d’être dommageable pour l’entreprise propriétaire de ce fragment. Les techniques d’anonymisation des données ont fait leurs preuves dans le domaine des bases de données. Notre principale contribution dans cette partie est la proposition d’un protocole basée sur l’anonymisation des fragments de processus métiers afin de garantir à la fois, la vie privée de leurs propriétaires et la disponibilité de ces fragments pouvant être réutilisés dans le nuage. Les systèmes d’authentification biométriques permettent une authentification des individus avec une garantit suffisante. Néanmoins, le besoin en ressources informatiques ‘calcul et stockage’ de ces systèmes et le manque de compétences au sein des organismes freinent considérablement leurs utilisations à grande échelle. Le nuage offre la possibilité d’externaliser à la fois le calcul et le stockage des données biométriques à moindre cout et de proposer une authentification biométrique en tant que service. Aussi, l’élasticité du nuage permet de répondre aux pics des demandes d’authentifications aux heures de pointes. Cependant, des problèmes de sécurité et de confidentialité des données biométriques sensibles se posent, et par conséquent doivent être traité afin de convaincre les institutions et organismes à utiliser des fragments externes d'authentification biométriques dans leurs processus métiers. Notre principale contribution dans cette partie est un protocole léger ‘coté client’ pour une externalisation (sur un server distant) de la comparaison des données biométriques sans révéler des informations qui faciliteraient une usurpation d’identité par des adversaires. Le protocole utilise une cryptographie légère basée sur des algorithmes de hachage et la méthode de 'groupe de tests combinatoires', permettant une comparaison approximative entre deux données biométriques. Dans la dernière partie, nous avons proposé un protocole sécurisé permettant la mutualisation d’un Hyperviseur (Outil permettant la corrélation et la gestion des événements issus du SI) hébergé dans le nuage entre plusieurs utilisateurs. La solution proposée utilise à la fois, le chiffrement homomorphique et la réécriture de règles de corrélation afin de garantir la confidentialité les évènements provenant des SI des différents utilisateurs. Cette thèse a été réalisée à l'Université Paris Descartes (groupe de recherche diNo du LIPADE) avec le soutien de la société SOMONE et l'ANRT dans le cadre d'une convention CIFRE. / Cloud computing has become one of the fastest growing segments of the IT industry. In such open distributed computing environments, security is of paramount concern. This thesis aims at developing protocols and techniques for private and reliable outsourcing of design and compute-intensive tasks on cloud computing infrastructures. The thesis enables clients with limited processing capabilities to use the dynamic, cost-effective and powerful cloud computing resources, while having guarantees that their confidential data and services, and the results of their computations, will not be compromised by untrusted cloud service providers. The thesis contributes to the general area of cloud computing security by working in three directions. First, the design by selection is a new capability that permits the design of business processes by reusing some fragments in the cloud. For this purpose, we propose an anonymization-based protocol to secure the design of business processes by hiding the provenance of reused fragments. Second, we study two di_erent cases of fragments' sharing : biometric authentication and complex event processing. For this purpose, we propose techniques where the client would only do work which is linear in the size of its inputs, and the cloud bears all of the super-linear computational burden. Moreover, the cloud computational burden would have the same time complexity as the best known solution to the problem being outsourced. This prevents achieving secure outsourcing by placing a huge additional overhead on the cloud servers. This thesis has been carried out in Université Paris Descartes (LIPADE - diNo research group) and in collaboration with SOMONE under a Cifre contract. The convergence of the research fields of those teams led to the development of this manuscrit.
439

Processus émotionnels et cognitifs dans le développement des capacités de prise de décision sous ambiguïté / Emotional and cognitive processes in the development of decision-making under ambiguity

Aïte, Ania Alexandra 20 November 2013 (has links)
La prise de décision sous ambiguïté est au cœur de notre existence. En effet, nous devons sans cesse effectuer des choix sans pour autant en connaître les conséquences potentielles, ni les probabilités qui régissent ces conséquences. Afin de mieux définir les processus en jeu dans le développement de ces capacités décisionnelles sous ambiguïté, nous avons choisi de tester la théorie incontournable dans ce domaine, à savoir : L’Hypothèse des Marqueurs Somatiques (HMS). Cette hypothèse accorde un rôle adaptatif aux émotions et suppose que l’individu réalise au cours de sa vie un apprentissage de nature émotionnelle qui guiderait ses choix dans des conditions d’ambiguïté. Nous avons réalisé trois études expérimentales issues de l’association des approches de la psychopathologie, de la psychologie cognitive et de la psychologie du développement. Dans une première étude nous avons ainsi vérifié l’implication de l’alexithymie, un trouble spécifique de l’identification et de la régulation des émotions, dans le déficit décisionnel observé chez les joueurs pathologiques. En étudiant le cas particulier du jeu pathologique, nous avons pu étayer indirectement l’HMS, en démontrant que l’alexithymie pouvait être à la source du déficit décisionnel observé au sein de cette population. Dans une deuxième étude réalisée chez le sujet sain, nous avons développé un nouveau paradigme expérimental d’amorçage émotionnel afin de répondre aux critiques persistantes quant au rôle des processus émotionnels dans la décision sous ambiguïté. Nos données conduisent à penser que la prise de décision sous ambiguïté reposerait bien sur le développement d’un signal émotionnel intégral (i.e., en réponse aux feedbacks), en montrant pour la première fois la possibilité de renforcer ce signal pour une meilleure prise de décision. Dans une troisième étude nous avons examiné le développement, de l’enfance à l’âge adulte, des capacités de prise de décision sous ambiguïté sous l’angle des processus émotionnels mais également des processus cognitifs, et en particulier les stratégies d’ajustement suite aux feedbacks. Cette perspective développementale nous a permis de mieux définir les processus cognitifs essentiels à cette prise de décision sous ambiguïté en suggérant la nécessité d’inhiber une tendance spontanée à modifier son choix après une perte afin de permettre l’apprentissage émotionnel au cœur de la prise de décision sous ambiguïté. En conclusion, les résultats de cette thèse nous ont permis d’enrichir l’HMS, en soulignant la nécessité de prendre en compte les processus émotionnels et cognitifs dans le cadre de la prise de décision sous ambiguïté. / Decision-making under ambiguity is critical in our everyday life. Indeed, we make most of our choices with no information on the potential consequences of these choices or on the probabilities that govern these consequences. To better characterize the underlying mechanisms engaged in this complex ability, we tested the Somatic Marker Hypothesis (SMH), a key theory in this field. This theory posits that decision-making under ambiguity relies on the development of emotional responses to the world (i.e., an integral emotional signal) that bias people toward advantageous choices in ambiguous circumstances. Thus, the goal of this thesis was to test (i) the role of emotional processes and (ii) the possible implication of cognitive processes in our ability to choose advantageously in ambiguous context. In our first study, we investigated the factors at the root of the decision-making deficit of pathological gamblers by assessing the impact of alexithymia – a recurrent emotional disorder in this population – on their decision-making skills. In line with the SMH, we found that alexithymia was a key factor to understand pathological gamblers’ decision-making deficit. In a second study, we designed an emotional priming paradigm to provide direct evidence that decision making relies on the creation of an integral emotional signal in healthy adults. Our data supports the SMH by evidencing that decision-making can be improved when the integral emotional signal is reinforced. Finally, in our third study, we investigated the development of decision-making abilities by focusing on the strategic adjustments in children, adolescents and adults. Our data suggest that the inhibition of a spontaneous tendency to shift after a loss might be critical to choose advantageously. In conclusion, the results of this thesis broadened the scope of the HMS by emphasizing the need to study both emotional and cognitive processes to better understand decision making under ambiguity. Keywords: Decision-making under ambiguity; Emotional processes; Cognitive processes; Cognitive development the SMH by evidencing that decision-making can be improved when the integral emotional signal is reinforced. Finally, in our third study, we investigated the development of decision-making abilities by focusing on the strategic adjustments in children, adolescents and adults. Our data suggest that the inhibition of a spontaneous tendency to shift after a loss might be critical to choose advantageously. In conclusion, the results of this thesis broadened the scope of the HMS by emphasizing the need to study both emotional and cognitive processes to better understand decision making under ambiguity.
440

Vers un nouveau modèle théorique du déroulement des programmes : étude de la routinisation des programmes en promotion de la santé

Pluye, Pierre 05 1900 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal. / Le modèle étapiste est le plus couramment utilisé pour représenter le déroulement des programmes en promotion de la santé. Le type idéal de ce modèle repose sur la succession de quatre étapes dont l'ordre est immuable et qui surviennent d'un seul tenant: planification, implantation, évaluation et pérennisation. Cependant, ce modèle est décevant sur le plan théorique et trompeur sur le plan pratique, notamment concernant la pérennisation. En promotion de la santé, la pérennisation constitue une notion générale pour étudier la continuation des programmes. Ce travail conceptualise la pérennisation et il examine en particulier le processus primaire ou fondamental de la pérennisation, lequel consiste en une routinisation des programmes dans les organisations qui conduit à des activités routinisées. Il propose un moyen d'apprécier la présence ou l'absence de ces activités à tout moment. Il propose également que la routinisation constitue un processus concomitant de l'implantation. Les résultats empiriques de ce travail soutiennent ces deux propositions. Pour examiner la première, nous avons étudié en 2000 les activités qui découlaient d'un projet pilote dans cinq centres locaux de services communautaires (CLSC). Les résultats suggèrent que les activités issues du projet étaient routinisées dans trois des cinq centres. Pour examiner la seconde, nous avons étudié les événements qui ont jalonné le déroulement des activités relatives au projet pilote entre 1987 et 1997. Les résultats suggèrent que ces activités étaient routinisées en 2000 lorsque le processus de routinisation incluait des événements spécifiques de la routinisation, notamment la stabilisation des ressources, et ce dès les premières années de d'implantation des programmes. Ensemble, ces résultats permettent de raffiner notre conceptualisation de la pérennisation des programmes en promotion de la santé. Selon une théorie du temps, tout ceci indique deux configurations, deux type idéaux diachroniques, qui nous conduisent vers un nouveau modèle théorique de ce déroulement. Ce modèle rend compte des écrits empiriques sur la pérennisation des programmes en promotion de la santé. Finalement, ce travail suggère des nouvelles questions pour évaluer ces programmes, et il indique une nouvelle approche longitudinale pour étudier les processus organisationnels qui conduisent ces programmes à se pérenniser.

Page generated in 0.0613 seconds