• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 8
  • 1
  • Tagged with
  • 22
  • 13
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approche développementale du raisonnement bayésien : analyse quantitative et qualitative selon le format de présentation et le niveau scolaire / Developmental approach of bayesian reasoning : a qualitative and quantitative analyse study

Sorel, Olivier 04 December 2009 (has links)
Emettre des inférences bayésiennes, c’est-à-dire réviser son jugement quant à l’apparition d’un événement, et passer d’une probabilité a priori à une probabilité a posteriori est une activité quotidienne qui, en théorie requiert la formule de Bayes. Toutefois, en pratique, l’être humain est sensible à différents biais et n’utilise pas toujours à bon escient les informations dont il dispose. Zhu & Gigerenzer (2006) ont montré qu’un contexte en fréquences naturelles favorisait davantage une révision de jugement qu’un contexte présenté en probabilités conditionnelles, les fréquences rendant explicite le taux de base (Hoffrage, Gigerenzer, Krauss & Martignon, 2002). Le but de ce travail est de préciser dans quelle mesure le format de présentation et les exigences quant au jugement attendu influencent les performances bayésiennes de collégiens et lycéens français. Des cohortes de 20 participants de classe de sixième à première ont été soumises à des problèmes bayésiens. Les trois premières expériences font de façon progressive abstraction du nombre. Les résultats confirment l’effet facilitateur des fréquences sur les probabilités. L’analyse des stratégies utilisées par les participants suggère qu’il ne faut pas se contenter d’une cotation dichotomique : réponse bayésienne versus non bayésienne. En effet, nos résultats précisent qu’avec l’avancée scolaire les participants commettent des erreurs quantitatives de moins en moins éloignées de la réponse théorique, et estiment qualitativement de plus en plus finement l’occurrence du dit événement. La quatrième expérience tente de faire le lien entre les fonctions exécutives de bas niveau, la vitesse de traitement et le niveau scolaire en mathématiques, d’une part, et les performances bayésiennes, d’autre part. Les résultats montrent que la vitesse de traitement et l’inhibition prédisent modérément les performances bayésiennes des collégiens, mais pas celles des lycéens. La dernière expérience est une analyse longitudinale des performances des participants testés à dix-neuf mois d’intervalle. Les résultats étayent ceux de l’analyse transversale, puisque la majorité des participants présente des performances accrues. / Emit bayesian inferences, in other words revise his judgment about the appearance of an event, and change from prior probability to posterior probability, is a daily activity which, in theory, requires the Bayes’ rule. However, in practice, human is sensible to different bias and he doesn’t use systematically wisely all information at his disposal. Zhu & Gigerenzer (2006) showed that when data are presented in natural frequencies, bayesian performances increase. The reason is that base rate information is contained in natural frequencies (Hoffrage, Gigerenzer, Krauss, & Martignon, 2002). The aim of this work is to specify in what measure the format of presentation and the experimenter’s request about the judgment to product influence the bayesian performances of French schoolchild from the beginning to the end of secondary school. Groups of 20 participants from sixth grader to eleventh grade were tested on bayesian problems. The first three experiments progressively disregard number. Results confirm the easier effect of frequencies on the probabilities. The analyse of strategies used by participants indicates that we don’t have to be content with dichotomous quotation: bayesian versus no bayesian answer. In fact, our results specify that with the school advance participants make quantitative mistakes which are less and less distant of the theoretic answer, and estimate qualitatively more and more precisely the event occurrence. The fourth experience tries to make the link between the executive functions of low level, the processing speed and the school level in mathematical, on the one hand, and the bayesian performances, on the other hand. Results show that processing speed and inhibition predict moderately bayesian performances during the first middle of secondary school, but don’t during the second. The last experience is a longitudinal analyse of participants’ performances tested nineteen months later. Results support the transversal analyse ones, since the majority of participants produce better performances.
2

Les décisions de la CLCC dans les infractions liées au terrorisme : une instrumentalisation du risque

Bussière, Molly 30 April 2024 (has links)
La CLCC possède différents pouvoirs, notamment d'évaluer la possibilité de libération anticipée à tous les délinquants qui en font la demande. Ainsi, celle-ci joue un rôle important dans la réinsertion sociale des détenus tout en s'assurant de la sécurité du public. Pour en venir à une décision, la Commission doit alors déterminer si le risque que représentent les délinquants est indu ou non pour la société. Bien que peu de délinquants soient condamnés pour des crimes terroristes au pays, ces derniers devront potentiellement se présenter devant la Commission. Or, la littérature scientifique portant sur le sujet de la mise en liberté sous conditions chez les délinquants radicalisés se fait rare, et ce, autant au Canada qu'à l'international. Considérant ce qui précède, nous avons jugé pertinent de nous pencher sur la façon dont les commissaires de la CLCC utilisent la notion du risque dans leurs décisions chez les délinquants condamnés pour des infractions liées au terrorisme. Au total, nous avons analysé 39 rapports, datant de 2001 à 2022, issus du registre de décisions et qui concernaient des délinquants incarcérés pour des crimes liés au terrorisme. De notre analyse thématique, nous constatons que la Commission base son évaluation du risque sur divers facteurs tels que la responsabilisation du délinquant, mais que l'idéologie extrémiste semble être un élément prépondérant. Par ailleurs, les outils actuariels du risque ne peuvent être des instruments fiables selon la Commission et le SCC. Il s'avère également que la Commission, à des fins de gestion du risque, veille à ce qu'un processus dit de « déradicalisation » ait eu lieu. De plus, le refus ou le maintien en incarcération deviennent des méthodes de gestion du risque en soi. Les résultats suggèrent que la Commission se base sur des critères à géométrie variable afin de juger du risque de récidive et d'appuyer ses décisions. Par ailleurs, la gestion des risques en matière de libération conditionnelle est également liée à la conception du détenu en tant qu'acteur responsable. L'enjeu dans ce contexte est l'absence de ressources mises à disposition des délinquants présentant des idéologies extrémistes. Nos résultats ont également révélé que la notion du risque est instrumentalisée à travers l'argumentaire des commissaires. Elle est mobilisée à des fins de désapprobation des crimes terroristes, de rétribution, de protection institutionnelle et de satisfaction de l'opinion publique. / The PBC has a number of powers, including assessing the possibility of early release for all offenders who request it. In this way, the Board plays an important role in the social reintegration of inmates, while ensuring public safety. To reach a decision, the Board must then determine whether or not the risk posed by the offenders is undue to society. Although few offenders are charged with terrorist crimes in this country, they will potentially have to appear before the Board. However, scientific literature on the subject of conditional release for radicalized offenders is scarce, both in Canada and internationally. With this in mind, we thought it would be useful to examine the way in which PBC members use the notion of risk in their decisions concerning offenders accused of terrorism-related offences. We analyzed 39 reports, dating from 2001 to 2022, from the decision registry concerning offenders incarcerated for terrorism-related crimes. From our thematic analysis, we note that the Board bases its risk assessment on various factors such as offender accountability, but that extremist ideology seems to be a predominant element. Furthermore, actuarial risk tools cannot be reliable instruments, according to the Board and CSC. It also turns out that the Board, for risk management purposes, ensures that a so-called "deradicalization" process has taken place. In addition, refusal or continued incarceration become risk management methods in themselves. The results suggest that the Commission uses variable-geometry criteria to judge the risk of recidivism and to support its decisions. Parole risk management is also linked to the conception of the prisoner as a responsible actor. At stake here is the lack of resources available to offenders with extremist ideologies. Our results also revealed that the notion of risk is instrumentalized in the commissioners' arguments. It is mobilized for the purposes of disapproval of terrorist crimes, retribution, institutional protection and the satisfaction of public opinion.
3

Sur les solutions invariantes et conditionnellement invariantes des équations de la magnétohydrodynamique

Picard, Philippe January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
4

Sur le conditionnement des 
modèles génétiques de réservoirs chenalisés méandriformes à des données de puits / On the conditioning of 
process-based channelized meandering reservoir models on well data

Bubnova, Anna 11 December 2018 (has links)
Les modèles génétiques de réservoirs sont construits par la simulation des principaux processus de sédimentation dans le temps. En particulier, les modèles tridimensionnels de systèmes chenalisés méandriformes peuvent être construits à partir de trois processus principaux : la migration du chenal, l’aggradation du système et les avulsions, comme c’est réalisé dans le logiciel Flumy pour les environnements fluviatiles. Pour une utilisation opérationnelle, par exemple la simulation d'écoulements, ces simulations doivent être conditionnées aux données d'exploration disponibles (diagraphie de puits, sismique, …). Le travail présenté ici, basé largement sur des développements antérieurs, se concentre sur le conditionnement du modèle Flumy aux données de puits.Deux questions principales ont été examinées au cours de cette thèse. La première concerne la reproduction des données connues aux emplacements des puits. Cela se fait actuellement par une procédure de "conditionnement dynamique" qui consiste à adapter les processus du modèle pendant le déroulement de la simulation. Par exemple, le dépôt de sable aux emplacements de puits est favorisé, lorsque cela est souhaité, par une adaptation des processus de migration ou d'avulsion. Cependant, la manière dont les processus sont adaptés peut générer des effets indésirables et réduire le réalisme du modèle. Une étude approfondie a été réalisée afin d'identifier et d'analyser les impacts indésirables du conditionnement dynamique. Les impacts ont été observés à la fois à l'emplacement des puits et dans tout le modèle de blocs. Des développements ont été réalisés pour améliorer les algorithmes existants.La deuxième question concerne la détermination des paramètres d’entrée du modèle, qui doivent être cohérents avec les données de puits. Un outil spécial est intégré à Flumy - le "Non-Expert User Calculator" (Nexus) - qui permet de définir les paramètres de simulation à partir de trois paramètres clés : la proportion de sable, la profondeur maximale du chenal et l’extension latérale des corps sableux. Cependant, les réservoirs naturels comprennent souvent plusieurs unités stratigraphiques ayant leurs propres caractéristiques géologiques. L'identification de telles unités dans le domaine étudié est d'une importance primordiale avant de lancer une simulation conditionnelle avec des paramètres cohérents pour chaque unité. Une nouvelle méthode de détermination des unités stratigraphiques optimales à partir des données de puits est proposée. Elle est basée sur la Classification géostatistique hiérarchique appliquée à la courbe de proportion verticale (VPC) globale des puits. Les unités stratigraphiques ont pu être détectées à partir d'exemples de données synthétiques et de données de terrain, même lorsque la VPC globale des puits n'était pas visuellement représentative. / Process-based reservoir models are generated by the simulation of the main sedimentation processes in time. In particular, three-dimensional models of meandering channelized systems can be constructed from three main processes: migration of the channel, aggradation of the system and avulsions, as it is performed in Flumy software for fluvial environments. For an operational use, for instance flow simulation, these simulations need to be conditioned to available exploration data (well logging, seismic, …). The work presented here, largely based on previous developments, focuses on the conditioning of the Flumy model to well data.Two main questions have been considered during this thesis. The major one concerns the reproduction of known data at well locations. This is currently done by a "dynamic conditioning" procedure which consists in adapting the model processes while the simulation is running. For instance, the deposition of sand at well locations is favored, when desired, by an adaptation of migration or avulsion processes. However, the way the processes are adapted may generate undesirable effects and could reduce the model realism. A thorough study has been conducted in order to identify and analyze undesirable impacts of the dynamic conditioning. Such impacts were observed to be present both at the location of wells and throughout the block model. Developments have been made in order to improve the existing algorithms.The second question is related to the determination of the input model parameters, which should be consistent with the well data. A special tool is integrated in Flumy – the Non Expert User calculator (Nexus) – which permits to define the simulation parameters set from three key parameters: the sand proportion, the channel maximum depth and the sandbodies lateral extension. However, natural reservoirs often consist in several stratigraphic units with their own geological characteristics. The identification of such units within the studied domain is of prime importance before running a conditional simulation, with consistent parameters for each unit. A new method for determining optimal stratigraphic units from well data is proposed. It is based on the Hierarchical Geostatistical Clustering applied to the well global Vertical Proportion Curve (VPC). Stratigraphic units could be detected from synthetic and field data cases, even when the global well VPC was not visually representative.
5

Estimation non paramétrique adaptative dans la théorie des valeurs extrêmes : application en environnement / Nonparametric adaptive estimation in the extreme value theory : application in ecology

Pham, Quang Khoai 09 January 2015 (has links)
L'objectif de cette thèse est de développer des méthodes statistiques basées sur la théorie des valeurs extrêmes pour estimer des probabilités d'évènements rares et des quantiles extrêmes conditionnelles. Nous considérons une suite de variables aléatoires indépendantes X_{t_1}$, $X_{t_2}$,...$,$X_{t_n}$ associées aux temps $0≤t_{1}< … <t_{n}≤T_{\max}$ où $X_{t_i}$ a la fonction de répartition $F_{t_i}$ et $F_t$ est la loi conditionnelle de $X$ sachant $T=t \in [0,T_{\max}]$. Pour chaque $t \in [0,T_{\max}]$, nous proposons un estimateur non paramétrique de quantiles extrêmes de $F_t$. L'idée de notre approche consiste à ajuster pour chaque $t \in [0,T_{\max}]$ la queue de la distribution $F_{t}$, par une distribution de Pareto de paramètre $\theta_{t,\tau}$ à partir d'un seuil $\tau.$ Le paramètre $\theta_{t,\tau}$ est estimé en utilisant un estimateur non paramétrique à noyau de taille de fenêtre $h$ basé sur les observations plus grandes que $\tau$. Sous certaines hypothèses de régularité, nous montrons que l'estimateur adaptatif proposé de $\theta_{t,\tau} $ est consistant et nous donnons sa vitesse de convergence. Nous proposons une procédure de tests séquentiels pour déterminer le seuil $\tau$ et nous obtenons le paramètre $h$ suivant deux méthodes : la validation croisée et une approche adaptative. Nous proposons également une méthode pour choisir simultanément le seuil $\tau$ et la taille de la fenêtre $h$. Finalement, les procédures proposées sont étudiées sur des données simulées et sur des données réelles dans le but d'aider à la surveillance de systèmes aquatiques. / The objective of this PhD thesis is to develop statistical methods based on the theory of extreme values to estimate the probabilities of rare events and conditional extreme quantiles. We consider independent random variables $X_{t_1},…,X_{t_n}$ associated to a sequence of times $0 ≤t_1 <… < t_n ≤ T_{\max}$ where $X_{t_i}$ has distribution function $F_{t_i}$ and $F_t$ is the conditional distribution of $X$ given $T = t \in [0,T_{\max}]$. For each $ t \in [0, T {\max}]$, we propose a nonparametric adaptive estimator for extreme quantiles of $F_t$. The idea of our approach is to adjust the tail of the distribution function $F_t$ with a Pareto distribution of parameter $\theta {t,\tau}$ starting from a threshold $\tau$. The parameter $\theta {t,\tau}$ is estimated using a nonparametric kernel estimator of bandwidth $h$ based on the observations larger than $\tau$. We propose a sequence testing based procedure for the choice of the threshold $\tau$ and we determine the bandwidth $h$ by two methods: cross validation and an adaptive procedure. Under some regularity assumptions, we prove that the adaptive estimator of $\theta {t, \tau}$ is consistent and we determine its rate of convergence. We also propose a method to choose simultaneously the threshold $\tau$ and the bandwidth $h$. Finally, we study the proposed procedures by simulation and on real data set to contribute to the survey of aquatic systems.
6

Structures Markoviennes cachées et modèles à corrélations conditionnelles dynamiques : extensions et applications aux corrélations d'actifs financiers / Hidden Markov Models and dynamic conditional correlations models : extensions et application to stock market time series

Charlot, Philippe 25 November 2010 (has links)
L'objectif de cette thèse est d'étudier le problème de la modélisation des changements de régime dans les modèles a corrélations conditionnelles dynamiques en nous intéressant plus particulièrement a l'approche Markov-switching. A la différence de l'approche standard basée sur le modèle à chaîne de Markov caché (HMM) de base, nous utilisons des extensions du modèle HMM provenant des modèles graphiques probabilistes. Cette discipline a en effet proposé de nombreuses dérivations du modèle de base permettant de modéliser des structures complexes. Cette thèse se situe donc a l'interface de deux disciplines: l'économétrie financière et les modèles graphiques probabilistes.Le premier essai présente un modèle construit a partir d'une structure hiérarchique cachée markovienne qui permet de définir différents niveaux de granularité pour les régimes. Il peut être vu comme un cas particulier du modèle RSDC (Regime Switching for Dynamic Correlations). Basé sur le HMM hiérarchique, notre modèle permet de capter des nuances de régimes qui sont ignorées par l'approche Markov-Switching classique.La seconde contribution propose une version Markov-switching du modèle DCC construite a partir du modèle HMM factorise. Alors que l'approche Markov-switching classique suppose que les tous les éléments de la matrice de corrélation suivent la même dynamique, notre modèle permet à tous les éléments de la matrice de corrélation d'avoir leur propre dynamique de saut. Markov-switching. A la différence de l'approche standard basée sur le modèle à chaîne de Markov caché (HMM) de base, nous utilisons des extensions du modèle HMM provenant des modèles graphiques probabilistes. Cette discipline a en effet propose de nombreuses dérivations du modèle de base permettant de modéliser des structures complexes. Cette thèse se situe donc a l'interface de deux disciplines: l'économétrie financière et les modèles graphiques probabilistes.Le premier essai présente un modèle construit a partir d'une structure hiérarchique cachée markovienne qui permet de définir différents niveaux de granularité pour les régimes. Il peut ^etre vu commeun cas particulier du modele RSDC (Regime Switching for Dynamic Correlations). Base sur le HMMhierarchique, notre modele permet de capter des nuances de regimes qui sont ignorees par l'approcheMarkov-Switching classique.La seconde contribution propose une version Markov-switching du modele DCC construite a partir dumodele HMM factorise. Alors que l'approche Markov-switching classique suppose que les tous les elementsde la matrice de correlation suivent la m^eme dynamique, notre modele permet a tous les elements de lamatrice de correlation d'avoir leur propre dynamique de saut.Dans la derniere contribution, nous proposons un modele DCC construit a partir d'un arbre dedecision. L'objectif de cet arbre est de relier le niveau des volatilites individuelles avec le niveau descorrelations. Pour cela, nous utilisons un arbre de decision Markovien cache, qui est une extension de HMM. / The objective of this thesis is to study the modelling of change in regime in the dynamic conditional correlation models. We focus particularly on the Markov-switching approach. Unlike the standard approach based on the Hidden Markov Model (HMM), we use extensions of HMM coming from probabilistic graphical models theory. This discipline has in fact proposed many derivations of the basic model to model complex structures. Thus, this thesis can be view at the interface of twodisciplines: financial econometrics and probabilistic graphical models.The first essay presents a model constructed from a hierarchical hidden Markov which allows to increase the granularity of the regimes. It can be seen as a special case of RSDC model (Regime Switching for Dynamic Correlations). Based on the hierarchical HMM, our model can capture nuances of regimes that are ignored by the classical Markov-Switching approach.The second contribution proposes a Markov-switching version of the DCC model that is built from the factorial HMM. While the classical Markov-switching approach assumes that all elements of the correlation matrix follow the same switching dynamic, our model allows all elements of the correlation matrix to have their own switching dynamic.In the final contribution, we propose a model DCC constructed based on a decision tree. The objective of this tree is to link the level of volatility with the level of individual correlations. For this, we use a hidden Markov decision tree, which is an extension of HMM.
7

Modeling and Querying Evidential Databases / Modélisation et exploitation des bases de données évidentielles

Bousnina, Fatma Ezzahra 11 June 2019 (has links)
La théorie des fonctions des croyances offre des outils puissants pour modéliser et traiter les informations imparfaites. En effet, cette théorie peut représenter l'incertitude,l'imprécision et l'ignorance. Dans ce contexte, les données sont stockées dans des bases de données spécifiques qu'on appelle les bases de données crédibilistes. Une base de donnée crédibiliste a deux niveaux d'incertitudes: (i) l'incertitude au niveau des attributs qui se manifeste à travers des degrés de véracité sur les hypothèses des attributs; (ii) l'incertitude au niveau des tuples représentée par des intervalles de confiance sur l'existence des tuples au sein de la table en question. D'autre part, la base de donnée crédibiliste peut être modélisée sous deux formes: (i) la forme compacte caractérisée par un ensemble d'attributs et un ensemble de tuples; (ii) la forme des mondes possibles représentée par un ensemble de base de données candidates où chaque base candidate est une représentation possible de la base de donnée compacte. Interroger la représentation des mondes possibles est une étape fondamentale pour valider les méthodes d'interrogation sur la base compacte crédibiliste. En effet, un modèle de base de donnée est dit système fort si le résultat de l'interrogation de sa représentation compacte est équivalent au résultat de l'interrogation de sa représentation des mondes possibles.Cette thèse est une étude sur les fondements des bases de données crédibilistes. Les contributions sont résumées comme suit:(i) La modélisation et l'interrogation de la base crédibiliste (EDB): Nous mettons en pratique le modèle compacte de la base de données (EDB) en proposant une implémentation objet-relationnelle, ce qui permet d'introduire l'interrogation de ce modèle avec les opérateurs relationnels. D'autres part, nous présentons le formalisme, les algorithmes et les expérimentations d'autres types de requêtes :les top-k évidentiel et le skyline évidentiel que nous appliquons sur des données réelles extraites de la plateforme Tripadvisor.(ii) La modélisation de la base de données sous sa forme des mondes possibles: Nous modélisons la forme de mondes possibles de la base de données (EDB) en traitant les deux niveaux d'incertitudes (niveau attributs et niveau tuples).(iii) La modélisation et l'interrogation de la base de données crédibiliste (ECD): Après avoir prouvé que le modèle des bases de données (ED B) n'est pas un système de représentation fort, nous développons le modèle de la base de données crédibiliste conditionnelle nommée (ECD). Nous présentons le formalisme de l’interrogation sur les deux formes (compacte et mondes possibles) de la base de données (ECD). Finalement, nous discutons les résultats de ces méthodes d'interrogation et les spécificités du modèle (ECD). / The theory of belief functions (a.k.a, the Evidence Theory) offers powerful tools to mode! and handle imperfect pieces of information. Thus, it provides an adequate framework able to represent conjointly uncertainty, imprecision and ignorance. In this context, data are stored in a specific database model called evidential databases. An evidential database includes two levels of uncertainty: (i) the attribute level uncertainty expressed via some degrees of truthfulness about the hypotheses in attributes; (ii) the tuple level uncertainty expressed through an interval of confidence about the existenceof the tuple in the table. An evidential database itself can be modeled in two forms:(i) the compact form represented as a set of attributes and a set of tuples; (ii) the possible worlds' form represented as a set of candidate databases where each candidate is a possible representation of the imperfect compact database. Querying the possible worlds' form is a fundamental step in order to check the querying methods over the compact one. In fact, a model is said to be a strong representation system when results of querying its compact form are equivalent to results of querying its non compact form.This thesis focuses on foundations of evidential databases in both modeling and querying. The main contributions are summarized as follows:(i) Modeling and querying the compact evidential database (EDB): We implement the compact evidential database (EDB) using the object-relational design which allows to introduce the querying of the database model under relational operators. We also propose the formalism, the algorithms and the experiments of other typesof queries: the evidential top-k and the evidential skyline that we apply over a real dataset extracted from TripAdvisor.(ii) Modeling the possible worlds' form of (EDB): We model the possible worlds' form of the evidential database (EDB) by treating both levels of uncertainty (the tuple leve! and the attribute level).(iii) Modeling and querying the evidential conditional database (ECD): After provingt hat the evidential database (EDB) is not a strong representation system, we develop a new evidential conditional database model named (ECD). Thus, we present the formalism of querying the compact and the possible worlds' forms of the (ECD) to evaluate the querying methods under relational operators. Finally, we discuss the results of these querying methods and the specificities of the (ECD)model.
8

Propriétés des processus max-stables : théorèmes limites, lois conditionnelles et mélange fort / Property of max-stable processes : limit theorem, regular conditional distributions and strong mining

Eyi-Minko, Frédéric 11 October 2013 (has links)
Le thème de cette thèse est la théorie spatiale des valeurs extrêmes, et les objets principalement étudiés sont les processus max-stables à trajectoires continues. Nous commençons par déterminer la convergence des maximums de processus stochastiques indépendants, en utilisant la convergence de mesures empiriques vers des processus ponctuels de Poisson. Ensuite, nous déterminons les lois conditionnelles des processus max infiniment divisibles (max-i.d). La représentation des processus max-i.d par des processus ponctuels de Poisson permet l'introduction de notions telles que les fonctions extrémales et le hitting scénario qui permettent d'aboutir au résultat. Les processus max-stables étant des processus max-i.d, nous proposons un algorithme de simulation conditionnelle pour les champs max-stables puis nous l'utilisons pour des applications avec des données de précipitations autour de Zurich et de températures en Suisse. Nous trouvons aussi, une majoration du coefficient de β-mélange entre les restrictions d'un processus max-i.d sur deux sous-ensembles fermés et disjoints d'un espace métrique localement compact. Cette majoration permet d'obtenir de nouveaux critères pour le théorème de la limite central des processus stationnaires mélangeant. Enfin, nous terminons en démontrant qu'un processus stationnaire max-stable vérifiant la propriété de Markov est, quitte à renverser le temps, un processus max-autorégressif d’ordre 1. / The theme of this thesis is spatial extreme value theory and we focus on continuous max-stable processes. We begin with the convergence of the maximum of independent stochastic processes, by using the convergence of empirical measures to Poisson point processes. After that, we determine the regular conditional distributions of max infinitely divisible (max-i.d) processes. The representation of max-i.d. processes by Poisson point processes allows us to introduce the notions of extremal functions and hitting scenario. Our result relies on these new notions. Max-stable processes are max-i.d. processes, so we give an algorithm for conditional sampling and give an application to extreme precipitations around Zurich and extreme temperatures in Switzerland. We also find a upper bound for the β-mixing coefficient between the restrictions of a max-i.d. process on two disjoint closed subsets of a locally compact metric space. This entails a central limit theorem for stationary max-i.d processes. Finally, we prove that the class of stationary maxstable processes with the Markov property is equal, up to time reversal, to the class of stationary max-autoregressive processes of order 1.
9

Mu opioid receptors in the habenula : dissecting reward and aversion in addiction / Récepteurs Mu aux opioïdes dans l'habénula : récompense et/ou aversion dans l'addiction

Boulos, Laura-Joy 19 December 2017 (has links)
Les récepteurs mu aux opioïdes (MORs) jouent un rôle central dans l’addiction et ce majoritairement via le contrôle qu’ils exercent sur les phénomènes de récompense. Les effets des MORs sur le système de récompense sont généralement attribués à leur expression dans le circuit mésocorticolimbique. Les MORs sont toutefois exprimés dans d’autres régions du cerveau, notamment dans une petite structure cérébrale épithalamique qui exprime la plus forte densité de MORs : l’habénula médiane (MHb). Le rôle de cette population spécifique de récepteurs n’a jamais été exploré, malgré l’implication fortement suggérée dans la littérature de l’habénula dans l’addiction et les processus de récompense/aversion sous-jacents. Nous avons donc généré un modèle de souris knockout conditionnel chez lesquelles nous supprimons les MORs uniquement dans l’habénula et nous les avons soumis à des tests comportementaux dans le but d’évaluer les fonctions de ces récepteurs et leur impact sur le comportement avec un focus sur les processus aversifs, cognitifs et récompensant. Nos résultats révèlent que les récepteurs mu que nous supprimons dans l’habénula limitent l’aversion somatique et affective mais ne modulent ni les réponses locomotrices, analgésiques et de récompense à la morphine, ni les fonctions cognitives que nous avons testées. Nous identifions donc pour la première fois une population de MORs dans l’habénula qui freinent l’aversion et nous suggérons par là-même que les récepteurs mu de l’habénula pourraient être cruciaux dans le stage «sevrage aversif» des cycles d’addiction. / Mu opioid receptors (MORs) have been extensively studied for their addictive properties that are thought to operate through the control of reward processes. While the importance of MORs in reward is generally attributed to their presence in the mesocorticolimbic circuitry, their role in the medial habenula (MHb), the structure in which MORs are most densely expressed, remains unexplored to date. This is quite surprising given the increasing literature on the habenula’s role in addiction as well as reward/aversion processes. Here we generated a conditional knockout mouse model that lacks MORs solely in the MH band we investigated the contribution of habenular MORs in brain functions and behavioural out comes with emphasis on reward, aversion and cognition. While the performance of our mutant model did not differ in locomotor, analgesic and reward responses to morphine norincognitive tasks compared to control mice, we uncovered a novel role for MORs in aversive states.This is the first report demonstrating that MORs control both somatic and affective aversion specifically at the level of the MHb. Habenular MORs could thus be crucial to the aversive with drawal stage of addiction cycles that is thought to increase craving and prevent success in quitting.
10

Structures Markoviennes cachées et modèles à corrélations conditionnelles dynamiques: extensions et applications aux corrélations d'actifs financiers.

Charlot, Philippe 25 November 2010 (has links) (PDF)
L'objectif de cette thèse est d'étudier le problème de la modélisation des changements de régime dans les modèles à corrélations conditionnelles dynamiques en nous intéressant plus particulièrement à l'approche Markov-switching. A la différence de l'approche standard basée sur le modèle à chaîne de Markov caché (HMM) de base, nous utilisons des extensions du modèle HMM provenant des modèles graphiques probabilistes. Cette discipline a en effet proposé de nombreuses dérivations du modèle de base permettant de modéliser des structures complexes. Cette thèse se situe donc à l'interface de deux disciplines: l'économétrie financière et les modèles graphiques probabilistes. Le premier essai présente un modèle construit à partir d'une structure hiérarchique cachée markovienne qui permet de définir différents niveaux de granularité pour les régimes. Il peut être vu comme un cas particulier du modèle RSDC (Regime Switching for Dynamic Correlations). Basé sur le HMM hiérarchique, notre modèle permet de capter des nuances de régimes qui sont ignorées par l'approche Markov-Switching classique. La seconde contribution propose une version Markov-switching du modèle DCC construite à partir du modèle HMM factorisé. Alors que l'approche Markov-switching classique suppose que les tous les éléments de la matrice de corrélation suivent la même dynamique, notre modèle permet à tous les éléments de la matrice de corrélation d'avoir leur propre dynamique de saut. Dans la dernière contribution, nous proposons un modèle DCC construit à partir d'un arbre de décision. L'objectif de cet arbre est de relier le niveau des volatilités individuelles avec le niveau des corrélations. Pour cela, nous utilisons un arbre de décision Markovien caché, qui est une extension de HMM.

Page generated in 0.1354 seconds