• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 91
  • 53
  • Tagged with
  • 268
  • 147
  • 116
  • 101
  • 82
  • 60
  • 52
  • 45
  • 45
  • 40
  • 37
  • 36
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approche développementale du raisonnement bayésien : analyse quantitative et qualitative selon le format de présentation et le niveau scolaire / Developmental approach of bayesian reasoning : a qualitative and quantitative analyse study

Sorel, Olivier 04 December 2009 (has links)
Emettre des inférences bayésiennes, c’est-à-dire réviser son jugement quant à l’apparition d’un événement, et passer d’une probabilité a priori à une probabilité a posteriori est une activité quotidienne qui, en théorie requiert la formule de Bayes. Toutefois, en pratique, l’être humain est sensible à différents biais et n’utilise pas toujours à bon escient les informations dont il dispose. Zhu & Gigerenzer (2006) ont montré qu’un contexte en fréquences naturelles favorisait davantage une révision de jugement qu’un contexte présenté en probabilités conditionnelles, les fréquences rendant explicite le taux de base (Hoffrage, Gigerenzer, Krauss & Martignon, 2002). Le but de ce travail est de préciser dans quelle mesure le format de présentation et les exigences quant au jugement attendu influencent les performances bayésiennes de collégiens et lycéens français. Des cohortes de 20 participants de classe de sixième à première ont été soumises à des problèmes bayésiens. Les trois premières expériences font de façon progressive abstraction du nombre. Les résultats confirment l’effet facilitateur des fréquences sur les probabilités. L’analyse des stratégies utilisées par les participants suggère qu’il ne faut pas se contenter d’une cotation dichotomique : réponse bayésienne versus non bayésienne. En effet, nos résultats précisent qu’avec l’avancée scolaire les participants commettent des erreurs quantitatives de moins en moins éloignées de la réponse théorique, et estiment qualitativement de plus en plus finement l’occurrence du dit événement. La quatrième expérience tente de faire le lien entre les fonctions exécutives de bas niveau, la vitesse de traitement et le niveau scolaire en mathématiques, d’une part, et les performances bayésiennes, d’autre part. Les résultats montrent que la vitesse de traitement et l’inhibition prédisent modérément les performances bayésiennes des collégiens, mais pas celles des lycéens. La dernière expérience est une analyse longitudinale des performances des participants testés à dix-neuf mois d’intervalle. Les résultats étayent ceux de l’analyse transversale, puisque la majorité des participants présente des performances accrues. / Emit bayesian inferences, in other words revise his judgment about the appearance of an event, and change from prior probability to posterior probability, is a daily activity which, in theory, requires the Bayes’ rule. However, in practice, human is sensible to different bias and he doesn’t use systematically wisely all information at his disposal. Zhu & Gigerenzer (2006) showed that when data are presented in natural frequencies, bayesian performances increase. The reason is that base rate information is contained in natural frequencies (Hoffrage, Gigerenzer, Krauss, & Martignon, 2002). The aim of this work is to specify in what measure the format of presentation and the experimenter’s request about the judgment to product influence the bayesian performances of French schoolchild from the beginning to the end of secondary school. Groups of 20 participants from sixth grader to eleventh grade were tested on bayesian problems. The first three experiments progressively disregard number. Results confirm the easier effect of frequencies on the probabilities. The analyse of strategies used by participants indicates that we don’t have to be content with dichotomous quotation: bayesian versus no bayesian answer. In fact, our results specify that with the school advance participants make quantitative mistakes which are less and less distant of the theoretic answer, and estimate qualitatively more and more precisely the event occurrence. The fourth experience tries to make the link between the executive functions of low level, the processing speed and the school level in mathematical, on the one hand, and the bayesian performances, on the other hand. Results show that processing speed and inhibition predict moderately bayesian performances during the first middle of secondary school, but don’t during the second. The last experience is a longitudinal analyse of participants’ performances tested nineteen months later. Results support the transversal analyse ones, since the majority of participants produce better performances.
2

Analyse de diverses distances en vérification formelle probabiliste

Zhioua, Abir 18 April 2018 (has links)
Dans ce mémoire nous nous intéressons à une branche de la vérification qui consiste à comparer une spécification (fonctionnement idéal) à son implémentation (système réel). Tous les deux sont sous forme de systèmes probabilistes, c’est-à-dire des systèmes dont le comportement est incertain mais quantifié par des distributions de probabilité. Il y a plusieurs méthodes disponibles pour comparer les systèmes : la bisimulation, la simulation, l’équivalence de traces, ou bien les distances qui s’adaptent au comportement probabiliste auquel nous nous intéressons. En effet, plutôt que de dire si oui ou non les deux systèmes à comparer sont « équivalents » une distance nous donne une valeur qui quantifie leur différence. Si la distance est 0 les deux systèmes sont équivalents. Il y a plusieurs notions de distances pour les systèmes probabilistes, le but de ce mémoire est de comparer trois d’entre elles : -distance, K-moment et Desharnais et al. Le principal résultat de cette comparaison est que les trois méthodes ont des résultats qui ne sont pas fondamentalement différents, bien qu’elles soient conçues de façon difficilement comparable. Il arrive souvent que les distances se suivent. Les principales différences se manifestent dans le temps de calcul, la capacité de traitement et l’atténuation du futur. Nous démontrons que les performances de chaque distance varient selon le type de système traité. Cela signifie que pour choisir la meilleure méthode, il faut déterminer le type de système que nous avons. En prenant par exemple un système dont nous n’avons pas le modèle, c’est la famille K-moment qui sera la seule capable de calculer une distance. Par ailleurs, nous avons pu intégrer dans la -distance un facteur qui atténue les différences les plus lointaines par rapport à celles plus proches. Cela nous a amené à définir une nouvelle distance : -distance atténuée.
3

Dynamique de diffusions inhomogènes sous des conditions d'invariance d'échelle

Offret, Yoann 25 June 2012 (has links) (PDF)
Nous étudions le comportement en temps long de certains processus stochastiques dont la dynamique dépend non seulement de la position, mais aussi du temps, et dont le terme de diffusion et le potentiel satisfont des conditions d'invariance d'échelle. Nous mettons en lumière un phénomène de transition de phase générale, entièrement déterminé par les différents indices d'auto-similarité en jeu. La principale idée mise en exergue est de considérer une transformation d'échelle adéquate, tirant pleinement parti des nombreuses invariances de notre problème.Dans une première partie, nous étudions une famille de processus de diffusion unidimensionnels, dirigés par un mouvement brownien, dont la dérive est polynomiale en temps et en espace. Ces diffusions généralisent les marches aléatoires, en lien avec le modèle d'urne de Friedman, étudiées par Menshikov et Volkov (2008). Nous donnons, de manière exhaustive, les lois du type logarithme itéré, les limites d'échelle ainsi que les temps de survie de ces processus. La seconde partie est, quant à elle, consacrée à l'étude d'une famille de processus de diffusion en environnement aléatoire, dirigés par un mouvement brownien unidimensionnel, dont le potentiel est brownien en espace et polynomial en temps. Ces diffusions sont une extensiondu modèle amplement étudié de Brox (86) et, en un sens randomisé, du modèle précédent. La différence notable avec le modèle déterministe est que nous obtenons, dans le cas critique, une mesure aléatoire quasi-invariante et quasi-stationnaire pour le semi-groupe, déduite de l'étude d'un système dynamique aléatoire sous-jacent.
4

La vérification formelle de systèmes réactifs probabilistes finis / La vérification formelle de systèmes réactifs probabilistes finis

Nafa, Thouria, Nafa, Thouria January 2005 (has links)
Le champ de notre projet de recherche est la vérification des systèmes probabilistes interactifs. Étant donnée une formule de la logique PCTL, qui décrit les spécifications d'un système probabiliste, et un modèle, nous nous intéressons à vérifier si celui-ci satisfait la formule donnée. Ceci est fait à l'aide d'une méthode formelle appelée le model-checking. Nous nous restreindrons dans ce travail aux systèmes probabilistes finis ayant une structure particulière sans cycle qu'on appellera systèmes par niveaux. Les systèmes considérés ont un nombre fini d'états et les transitions sont quantifiées avec une mesure de probabilité. Nous désirons déterminer si le model-checking d'une telle structure pourrait être amélioré en utilisant la particularité de cette structure. L'application d'un tel algorithme serait de permettre le model-checking efficace pour les systèmes continus. À cet effet, nous avons élaboré une nouvelle méthode de vérification par modelchecking adaptée aux systèmes par niveaux. Celle-ci consiste, étant donné un modèle représentant un système par niveaux et une formule logique PCTL, à déterminer si ce modèle satisfait cette formule à un niveau i donné du système considéré. À partir de cette méthode, nous avons également étudié la complexité qui lui est associée. Celle-ci a été comparée à la complexité de la méthode de vérification classique. Nous en avons conclu que la méthode élaborée est légèrement plus avantageuse en terme de temps que la méthode classique. / Le champ de notre projet de recherche est la vérification des systèmes probabilistes interactifs. Étant donnée une formule de la logique PCTL, qui décrit les spécifications d'un système probabiliste, et un modèle, nous nous intéressons à vérifier si celui-ci satisfait la formule donnée. Ceci est fait à l'aide d'une méthode formelle appelée le model-checking. Nous nous restreindrons dans ce travail aux systèmes probabilistes finis ayant une structure particulière sans cycle qu'on appellera systèmes par niveaux. Les systèmes considérés ont un nombre fini d'états et les transitions sont quantifiées avec une mesure de probabilité. Nous désirons déterminer si le model-checking d'une telle structure pourrait être amélioré en utilisant la particularité de cette structure. L'application d'un tel algorithme serait de permettre le model-checking efficace pour les systèmes continus. À cet effet, nous avons élaboré une nouvelle méthode de vérification par modelchecking adaptée aux systèmes par niveaux. Celle-ci consiste, étant donné un modèle représentant un système par niveaux et une formule logique PCTL, à déterminer si ce modèle satisfait cette formule à un niveau i donné du système considéré. À partir de cette méthode, nous avons également étudié la complexité qui lui est associée. Celle-ci a été comparée à la complexité de la méthode de vérification classique. Nous en avons conclu que la méthode élaborée est légèrement plus avantageuse en terme de temps que la méthode classique.
5

Propriétés stochastiques de systèmes dynamiques quasi-hyperboliques

Le Borgne, Stéphane 11 December 2006 (has links) (PDF)
Nous étudions les propriétés stochastiques de systèmes dynamiques quasi-hyperboliques.
6

Processus gaussiens pour la séparation de sources et le codage informé

Liutkus, Antoine 27 November 2012 (has links) (PDF)
La séparation de sources est la tâche qui consiste à récupérer plusieurs signaux dont on observe un ou plusieurs mélanges. Ce problème est particulièrement difficile et de manière à rendre la séparation possible, toute information supplémentaire connue sur les sources ou le mélange doit pouvoir être prise en compte. Dans cette thèse, je propose un formalisme général permettant d'inclure de telles connaissances dans les problèmes de séparation, où une source est modélisée comme la réalisation d'un processus gaussien. L'approche a de nombreux intérêts : elle généralise une grande partie des méthodes actuelles, elle permet la prise en compte de nombreux a priori et les paramètres du modèle peuvent être estimés efficacement. Ce cadre théorique est appliqué à la séparation informée de sources audio, où la séparation est assistée d'une information annexe calculée en amont de la séparation, lors d'une phase préliminaire où à la fois le mélange et les sources sont disponibles. Pour peu que cette information puisse se coder efficacement, cela rend possible des applications comme le karaoké ou la manipulation des différents instruments au sein d'un mix à un coût en débit bien plus faible que celui requis par la transmission séparée des sources. Ce problème de la séparation informée s'apparente fortement à un problème de codage multicanal. Cette analogie permet de placer la séparation informée dans un cadre théorique plus global où elle devient un problème de codage particulier et bénéficie à ce titre des résultats classiques de la théorie du codage, qui permettent d'optimiser efficacement les performances.
7

Discrete choice models applied to travel demand analysis : focus on risk and heterogeneity / Contribution à l'évaluation de la demande de transport : application des modéles de choix discret pour analyser le risque et l'hétérogénéité

Scorbureanu, Alexandrina-Ioana 18 September 2012 (has links)
La thèse se propose d'intégrer deux approches économiques fondamentales à l'étude de l'économie régionale et de la politique économique des transports en particulier: i) un approche théorique, fondée sur des micromodèles analytiques et soutenue par des applications des méthodes de simulation numérique, et ensuite, ii) un approche empirique pour tester des hypothèses théorétiques. La perspective de microéconomie sur les problématiques et le fonctionnement des mécanismes des transports privés sont, au même temps, nécessaires et ardues à modéliser. Parmi les nombreuses problématiques étudiés dans le cadre de cet domaine de recherche il vaut la peine de mentionner: la taxation des routes, la concurrence parfaite et oligopolistique entre les opérateurs que anime le système des transports privées et de marchandises, la congestion des routes et le comportement des usagers face à l'incertitude relative aux temps de trajet où encore, le processus de décision en matière de transports au sein des ménages. L'approche micro-fondée liée aux problématiques ci-dessus a été intégrée au sein de cet étude avec une vision empirique, menée à l'analyse de l'ensemble des politiques de plani cation au niveau régional et urbain. Les deux applications empiriques présentées montrent deux nouvelles méthodologies d'étude concernant deux problématiques classiques: i) le choix modale, dans une optique de décision conjointe observée sur un échantillon des couples résidents en Ile-de-France et, ii) le choix de route en Moyen Orient, où les temps de trajet sont incertains et dépends d'un scenario politique incertain au niveau macroéconomique. L'intégration des deux approches est réalisée dans le cadre de cette thèse ayant comme exigence celle de mieux répondre aux questions concrètes et actuelles de la recherche européenne, ainsi que pour augmenter la palette des débouchées applicatives des modèles théoriques développées dans la littérature récente. / This thesis aims to integrate two fundamental approaches to the study of regional economics and the transport policy: i) a theoretical approach based on analytic models supported by numerical simulation and ii) an empirical approach to test theoretical assumptions. The microeconomic perspective represents a challenging and a complex task at the same time. Some of the open issues at the center of debate are: the taxation of roads, perfect and imperfect competition among the networks supporting private trips, congestion pricing and the attitude towards risky outcomes as uncertain travel times, the decision making process and resource sharing among different members of a household. The micro approach has been integrated with two empirical experiments in which we propose new approaches to study two traditional problems: i) modal choice, by testing the jointness of decision making on a sample of active couples from Ile-de-France, and ii) route choice in the Middle East - a context in which the travel time, as an input of the decision process, is characterized by uncertainty and depends on the political scenario at the macro level.
8

Asymptotique des feux rares dans le modèle des feux de forêts / Asymptotics of the one dimensional forest-fire processes

Le cousin, Jean-Maxime 24 June 2015 (has links)
Dans cette thèse, nous nous intéressons à deux modèles de feux de forêts définis sur Z. On étudie le modèle des feux de forêts sur Z avec propagation non instantanée dans le chapitre 2. Dans ce modèle, chaque site a trois états possibles : vide, occupé ou en feu. Un site vide devient occupé avec taux 1. Sur chaque site, des allumettes tombent avec taux λ. Si le site est occupé, il brûle pendant un temps exponentiel de paramètre π avant de se propager à ses deux voisins. S’ils sont eux-mêmes occupés, ils brûlent, sinon le feu s’éteint. On étudie l’asymptotique des feux rares c’est à dire la limite du processus lorsque λ → 0 et π → ∞. On montre qu’il y a trois catégories possibles de limites d’échelles, selon le régime dans lequel λ tend vers 0 et π vers l’infini. On étudie formellement et brièvement dans le chapitre 3 le modèle des feux de forêts sur Z en environnement aléatoire. Dans ce modèle, chaque site n’a que deux états possibles : vide ou occupé. On se donne un paramètre λ > 0, une loi ν sur (0 ,∞) et une suite (κi)i∈Z de variables aléatoires indépendantes identiquement distribuées selon ν. Un site vide i devient occupé avec taux κi. Sur chaque site, des allumettes tombent avec taux λ et détruisent immédiatement la composante de sites occupés correspondante. On étudie l’asymptotique des feux rares. Sous une hypothèse raisonnable sur ν, on espère que le processus converge, avec une renormalisation correcte, vers un modèle limite. On s’attend à distinguer trois processus limites différents / The aim of this work is to study two differents forest-fire processes defined on Z. In Chapter 2, we study the so-called one dimensional forest-fire process with non instantaeous propagation. In this model, each site has three possible states: ’vacant’, ’occupied’ or ’burning’. Vacant sites become occupied at rate 1. At each site, ignition (by lightning) occurs at rate λ. When a site is ignited, a fire starts and propagates to neighbors at rate π. We study the asymptotic behavior of this process as λ → 0 and π → ∞. We show that there are three possible classes of scaling limits, according to the regime in which λ → 0 and π → ∞. In Chapter 3, we study formally and briefly the so-called one dimensional forest-fire processes in random media. Here, each site has only two possible states: ’vacant’ or occupied’. Consider a parameter λ > 0, a probability distribution ν on (0 ,∞) as well as (κi)i∈Z an i.i.d. sequence of random variables with law ν. A vacant site i becomes occupied at rate κi. At each site, ignition (by lightning) occurs at rate λ. When a site is ignited, the fire destroys the corresponding component of occupied sites. We study the asymptotic behavior of this process as λ → 0. Under some quite reasonable assumptions on the law ν, we hope that the process converges, with a correct normalization, to a limit forest fire model. We expect that there are three possible classes of scaling limits
9

Acceleration for statistical model checking / Accélérations pour le model checking statistique

Barbot, Benoît 20 November 2014 (has links)
Ces dernières années, l'analyse de systèmes complexes critiques est devenue de plus en plus importante. En particulier, l'analyse quantitative de tels systèmes est nécessaire afin de pouvoir garantir que leur probabilité d'échec est très faible. La difficulté de l'analyse de ces systèmes réside dans le fait que leur espace d’état est très grand et que la probabilité recherchée est extrêmement petite, de l'ordre d'une chance sur un milliard, ce qui rend les méthodes usuelles inopérantes. Les algorithmes de Model Checking quantitatif sont les algorithmes classiques pour l'analyse de systèmes probabilistes. Ils prennent en entrée le système et son comportement attendu et calculent la probabilité avec laquelle les trajectoires du système correspondent à ce comportement. Ces algorithmes de Model Checking ont été largement étudié depuis leurs créations. Deux familles d'algorithme existent : - le Model Checking numérique qui réduit le problème à la résolution d'un système d'équations. Il permet de calculer précisément des petites probabilités mais soufre du problème d'explosion combinatoire- - le Model Checking statistique basé sur la méthode de Monte-Carlo qui se prête bien à l'analyse de très gros systèmes mais qui ne permet pas de calculer de petite probabilités. La contribution principale de cette thèse est le développement d'une méthode combinant les avantages des deux approches et qui renvoie un résultat sous forme d'intervalles de confiance. Cette méthode s'applique à la fois aux systèmes discrets et continus pour des propriétés bornées ou non bornées temporellement. Cette méthode est basée sur une abstraction du modèle qui est analysée à l'aide de méthodes numériques, puis le résultat de cette analyse est utilisé pour guider une simulation du modèle initial. Ce modèle abstrait doit à la fois être suffisamment petit pour être analysé par des méthodes numériques et suffisamment précis pour guider efficacement la simulation. Dans le cas général, cette abstraction doit être construite par le modélisateur. Cependant, une classe de systèmes probabilistes a été identifiée dans laquelle le modèle abstrait peut être calculé automatiquement. Cette approche a été implémentée dans l'outil Cosmos et des expériences sur des modèles de référence ainsi que sur une étude de cas ont été effectuées, qui montrent l'efficacité de la méthode. Cette approche à été implanté dans l'outils Cosmos et des expériences sur des modèles de référence ainsi que sur une étude de cas on été effectué, qui montre l'efficacité de la méthode. / In the past decades, the analysis of complex critical systems subject to uncertainty has become more and more important. In particular the quantitative analysis of these systems is necessary to guarantee that their probability of failure is very small. As their state space is extremly large and the probability of interest is very small, typically less than one in a billion, classical methods do not apply for such systems. Model Checking algorithms are used for the analysis of probabilistic systems, they take as input the system and its expected behaviour, and compute the probability with which the system behaves as expected. These algorithms have been broadly studied. They can be divided into two main families: Numerical Model Checking and Statistical Model Checking. The former computes small probabilities accurately by solving linear equation systems, but does not scale to very large systems due to the space size explosion problem. The latter is based on Monte Carlo Simulation and scales well to big systems, but cannot deal with small probabilities. The main contribution of this thesis is the design and implementation of a method combining the two approaches and returning a confidence interval of the probability of interest. This method applies to systems with both continuous and discrete time settings for time-bounded and time-unbounded properties. All the variants of this method rely on an abstraction of the model, this abstraction is analysed by a numerical model checker and the result is used to steer Monte Carlo simulations on the initial model. This abstraction should be small enough to be analysed by numerical methods and precise enough to improve the simulation. This abstraction can be build by the modeller, or alternatively a class of systems can be identified in which an abstraction can be automatically computed. This approach has been implemented in the tool Cosmos, and this method was successfully applied on classical benchmarks and a case study.
10

Processus gaussiens pour la séparation de sources et le codage informé / Gaussian processes for source separation and posterior source coding

Liutkus, Antoine 27 November 2012 (has links)
La séparation de sources est la tâche qui consiste à récupérer plusieurs signaux dont on observe un ou plusieurs mélanges. Ce problème est particulièrement difficile et de manière à rendre la séparation possible, toute information supplémentaire connue sur les sources ou le mélange doit pouvoir être prise en compte. Dans cette thèse, je propose un formalisme général permettant d’inclure de telles connaissances dans les problèmes de séparation, où une source est modélisée comme la réalisation d’un processus gaussien. L’approche a de nombreux intérêts : elle généralise une grande partie des méthodes actuelles, elle permet la prise en compte de nombreux a priori et les paramètres du modèle peuvent être estimés efficacement. Ce cadre théorique est appliqué à la séparation informée de sources audio, où la séparation est assistée d'une information annexe calculée en amont de la séparation, lors d’une phase préliminaire où à la fois le mélange et les sources sont disponibles. Pour peu que cette information puisse se coder efficacement, cela rend possible des applications comme le karaoké ou la manipulation des différents instruments au sein d'un mix à un coût en débit bien plus faible que celui requis par la transmission séparée des sources. Ce problème de la séparation informée s’apparente fortement à un problème de codage multicanal. Cette analogie permet de placer la séparation informée dans un cadre théorique plus global où elle devient un problème de codage particulier et bénéficie à ce titre des résultats classiques de la théorie du codage, qui permettent d’optimiser efficacement les performances. / Source separation consists in recovering different signals that are only observed through their mixtures. To solve this difficult problem, any available prior information about the sources must be used so as to better identify them among all possible solutions. In this thesis, I propose a general framework, which permits to include a large diversity of prior information into source separation. In this framework, the sources signals are modeled as the outcomes of independent Gaussian processes, which are powerful and general nonparametric Bayesian models. This approach has many advantages: it permits the separation of sources defined on arbitrary input spaces, it permits to take many kinds of prior knowledge into account and also leads to automatic parameters estimation. This theoretical framework is applied to the informed source separation of audio sources. In this setup, a side-information is computed beforehand on the sources themselves during a so-called encoding stage where both sources and mixtures are available. In a subsequent decoding stage, the sources are recovered using this information and the mixtures only. Provided this information can be encoded efficiently, it permits popular applications such as karaoke or active listening using a very small bitrate compared to separate transmission of the sources. It became clear that informed source separation is very akin to a multichannel coding problem. With this in mind, it was straightforwardly cast into information theory as a particular source-coding problem, which permits to derive its optimal performance as rate-distortion functions as well as practical coding algorithms achieving these bounds.

Page generated in 0.126 seconds