Spelling suggestions: "subject:"probabilités"" "subject:"probabilitées""
211 |
Transport Optimal Martingale et Problèmes de Maximisation d'UtilitéGuillaume, Royer 17 March 2014 (has links) (PDF)
Cette thèse présente deux principaux sujets de recherche indépendants, le dernier regroupant deux problématiques distinctes. Dans la première partie nous nous intéressons au problème du transport optimal martingale, dont le but premier est de trouver des bornes de non-arbitrage pour des options quelconques. Nous nous intéressons tout d'abord à la question en temps discret de l'existence d'une loi de probabilité sous laquelle le processus canonique est martingale, ayant deux lois marginales fixées. Ce résultat dû à Strassen (1965) est le point de départ pour le problème primal de transport optimal martingale. Nous en donnons une preuve basée sur des techniques financières de maximisation d'utilité, en adaptant une méthode développée par Rogers pour prouver le théorème fondamental d'évaluation d'actif. Ces techniques correspondent à une version en temps discrétisé du transport optimal martingale. Nous considérons ensuite le problème de transport optimal martingale en temps continu introduit dans le cadre des options lookback par Galichon, Henry-Labordère et Touzi. Nous commencons par établir un résultat de dualité partiel concernant la surcouverture robuste d'une option quelconque. Pour cela nous adaptons au transport optimal martingale des travaux récents de Neufeld et Nutz. Nous étudions ensuite le problème de maximisation d'utilité robuste d'une option quelconque avec fonction d'utilité exponentielle dans le cadre du transport optimal martingale, et en déduisons le prix d'indifférence d'utilité robuste, sous une dynamique où le ratio de sharpe est constant et connu. Nous prouvons en particulier que ce prix d'indifférence d'utilité robuste est égal au prix de surcouverture robuste. La deuxième partie de cette thèse traite tout d'abord d'un problème de liquidation optimale d'un actif indivisible. Nous étudions la profitabilité de l'ajout d'une stratégie d'achat et de vente d'un actif orthogonal au premier sur la stratégie de liquidation optimale de l'actif indivisible. Nous fournissons ensuite quelques exemples illustratifs. Le dernier chapitre de cette thèse concerne le problème du prix d'indifférence d'utilité d'une option européenne en présence de petits coûts de transaction. Nous nous inspirons des travaux récents de Soner et Touzi pour obtenir un développement asymptotique des fonctions valeurs des problèmes de Merton avec et sans l'option. Ces développements sont obtenus en utilisant des techniques d'homogénisation. Nous obtenons formellement un système d'équations vérifiées par les composantes du problème et nous vérifions que celles-ci en sont bien solution. Nous en déduisons enfin un développement asymptotique du prix d'indifférence d'utilité souhaité.
|
212 |
Application of perturbation theory methods to nuclear data uncertainty propagation using the collision probability method / Application de la théorie des perturbations à la propagation des incertitudes des données nucléaires par la méthode des probabilités de première collisionSabouri, Pouya 28 October 2013 (has links)
Dans cette thèse, nous présentons une étude rigoureuse des barres d'erreurs et des sensibilités de paramètres neutroniques (tels le keff) aux données nucléaires de base utilisées pour les calculer. Notre étude commence au niveau fondamental, i.e. les fichiers de données ENDF et leurs incertitudes, fournies sous la forme de matrices de variance/covariance, et leur traitement. Lorsqu'un calcul méthodique et consistant des sensibilités est consenti, nous montrons qu'une approche déterministe utilisant des formalismes bien connus est suffisante pour propager les incertitudes des bases de données avec un niveau de précision équivalent à celui des meilleurs outils disponibles sur le marché, comme les codes Monte-Carlo de référence. En appliquant notre méthodologie à trois exercices proposés par l'OCDE, dans le cadre des Benchmarks UACSA, nous donnons des informations, que nous espérons utiles, sur les processus physiques et les hypothèses sous-jacents aux formalismes déterministes utilisés dans cette étude. / This dissertation presents a comprehensive study of sensitivity/uncertainty analysis for reactor performance parameters (e.g. the k-effective) to the base nuclear data from which they are computed. The analysis starts at the fundamental step, the Evaluated Nuclear Data File and the uncertainties inherently associated with the data they contain, available in the form of variance/covariance matrices. We show that when a methodical and consistent computation of sensitivity is performed, conventional deterministic formalisms can be sufficient to propagate nuclear data uncertainties with the level of accuracy obtained by the most advanced tools, such as state-of-the-art Monte Carlo codes. By applying our developed methodology to three exercises proposed by the OECD (UACSA Benchmarks), we provide insights of the underlying physical phenomena associated with the used formalisms.
|
213 |
Forte et fausse libertés asymptotiques de grandes matrices aléatoires / Strong and false asymptotic freeness of large random matricesMale, Camille 05 December 2011 (has links)
Cette thèse s'inscrit dans la théorie des matrices aléatoires, à l'intersection avec la théorie des probabilités libres et des algèbres d'opérateurs. Elle s'insère dans une démarche générale qui a fait ses preuves ces dernières décennies : importer les techniques et les concepts de la théorie des probabilités non commutatives pour l'étude du spectre de grandes matrices aléatoires. On s'intéresse ici à des généralisations du théorème de liberté asymptotique de Voiculescu. Dans les Chapitres 1 et 2, nous montrons des résultats de liberté asymptotique forte pour des matrices gaussiennes, unitaires aléatoires et déterministes. Dans les Chapitres 3 et 4, nous introduisons la notion de fausse liberté asymptotique pour des matrices déterministes et certaines matrices hermitiennes à entrées sous diagonales indépendantes, interpolant les modèles de matrices de Wigner et de Lévy. / The thesis fits into the random matrix theory, in intersection with free probability and operator algebra. It is part of a general approach which is common since the last decades: using tools and concepts of non commutative probability in order to get general results about the spectrum of large random matrices. Where are interested here in generalization of Voiculescu's asymptotic freeness theorem. In Chapter 1 and 2, we show some results of strong asymptotic freeness for gaussian, random unitary and deterministic matrices. In Chapter 3 and 4, we introduce the notion of asymptotic false freeness for deterministic matrices and certain random matrices, Hermitian with independent sub-diagonal entries, interpolating Wigner and Lévy models.
|
214 |
Power-Aware Protocols for Wireless Sensor Networks / Conception et analyse de protocoles, pour les réseaux de capteurs sans fil, prenant en compte la consommation d'énergieXu, Chuan 15 December 2017 (has links)
Ce manuscrit contient d'abord l'étude d'une extension du modèle des protocoles de populations, qui représentent des réseaux de capteurs asynchrones, passivement mobiles, limités en ressources et anonymes. Pour la première fois (à notre connaissance), un modèle formel de consommation d'énergie est proposé pour les protocoles de populations. A titre d'application, nous étudions à la complexité en énergie (dans le pire des cas et en moyenne) pour le problème de collecte de données. Deux protocoles prenant en compte la consommation d'énergie sont proposés. Le premier est déterministe et le second randomisé. Pour déterminer les valeurs optimales des paramètres, nous faisons appel aux techniques d'optimisation. Nous appliquons aussi ces techniques dans un cadre différent, celui des réseaux de capteurs corporels (WBAN). Une formulation de flux est proposée pour acheminer de manière optimale les paquets de données en minimisant la pire consommation d'énergie. Une procédure de recherche à voisinage variable est développée et les résultats numériques montrent son efficacité. Enfin, nous considérons le problème d'optimisation avec des paramètres aléatoires. Précisément, nous étudions un modèle semi-défini positif sous contrainte en probabilité. Un nouvel algorithme basé sur la simulation est proposé et testé sur un problème réel de théorie du contrôle. Nous montrons que notre méthode permet de trouver une solution moins conservatrice que d'autres approches en un temps de calcul raisonnable. / In this thesis, we propose a formal energy model which allows an analytical study of energy consumption, for the first time in the context of population protocols. Population protocols model one special kind of sensor networks where anonymous and uniformly bounded memory sensors move unpredictably and communicate in pairs. To illustrate the power and the usefulness of the proposed energy model, we present formal analyses on time and energy, for the worst and the average cases, for accomplishing the fundamental task of data collection. Two power-aware population protocols, (deterministic) EB-TTFM and (randomized) lazy-TTF, are proposed and studied for two different fairness conditions, respectively. Moreover, to obtain the best parameters in lazy-TTF, we adopt optimization techniques and evaluate the resulting performance by experiments. Then, we continue the study on optimization for the power-aware data collection problem in wireless body area networks. A minmax multi-commodity netflow formulation is proposed to optimally route data packets by minimizing the worst power consumption. Then, a variable neighborhood search approach is developed and the numerical results show its efficiency. At last, a stochastic optimization model, namely the chance constrained semidefinite programs, is considered for the realistic decision making problems with random parameters. A novel simulation-based algorithm is proposed with experiments on a real control theory problem. We show that our method allows a less conservative solution, than other approaches, within reasonable time.
|
215 |
Robustness and preferences in combinatorial optimizationHites, Romina 15 December 2005 (has links)
In this thesis, we study robust combinatorial problems with interval data. We introduce several new measures of robustness in response to the drawbacks of existing measures of robustness. The idea of these new measures is to ensure that the solutions are satisfactory for the decision maker in all scenarios, including the worst case scenario. Therefore, we have introduced a threshold over the worst case costs, in which above this threshold, solutions are no longer satisfactory for the decision maker. It is, however, important to consider other criteria than just the worst case.<p>Therefore, in each of these new measures, a second criteria is used to evaluate the performance of the solution in other scenarios such as the best case one. <p><p>We also study the robust deviation p-elements problem. In fact, we study when this solution is equal to the optimal solution in the scenario where the cost of each element is the midpoint of its corresponding interval. <p><p>Then, we finally formulate the robust combinatorial problem with interval data as a bicriteria problem. We also integrate the decision maker's preferences over certain types of solutions into the model. We propose a method that uses these preferences to find the set of solutions that are never preferred by any other solution. We call this set the final set. <p><p>We study the properties of the final sets from a coherence point of view and from a robust point of view. From a coherence point of view, we study necessary and sufficient conditions for the final set to be monotonic, for the corresponding preferences to be without cycles, and for the set to be stable.<p>Those that do not satisfy these properties are eliminated since we believe these properties to be essential. We also study other properties such as the transitivity of the preference and indifference relations and more. We note that many of our final sets are included in one another and some are even intersections of other final sets. From a robust point of view, we compare our final sets with different measures of robustness and with the first- and second-degree stochastic dominance. We show which sets contain all of these solutions and which only contain these types of solutions. Therefore, when the decision maker chooses his preferences to find the final set, he knows what types of solutions may or may not be in the set.<p><p>Lastly, we implement this method and apply it to the Robust Shortest Path Problem. We look at how this method performs using different types of randomly generated instances. <p> / Doctorat en sciences, Orientation recherche opérationnelle / info:eu-repo/semantics/nonPublished
|
216 |
Estimation simplifiée de la variance pour des plans complexesLefebvre, Isabelle 12 1900 (has links)
En présence de plans de sondage complexes, les méthodes classiques d’estimation de la variance présentent certains défis. En effet, les estimateurs de variance usuels requièrent les probabilités d’inclusion d’ordre deux qui peuvent être complexes à obtenir pour certains plans de sondage. De plus, pour des raisons de confidentialité, les fichiers externes de microdonnées n’incluent généralement pas les probabilités d’inclusion d’ordre deux (souvent sous la forme de poids bootstrap). En s’inspirant d’une approche développée par Ohlsson (1998) dans le contexte de l’échantillonnage de Poisson séquentiel, nous proposons un estimateur ne requérant que les probabilités d’inclusion d’ordre un. L’idée est d’approximer la stratégie utilisée par l’enquête (consistant du choix d’un plan de sondage et d’un estimateur) par une stratégie équivalente dont le plan de sondage est le plan de Poisson. Nous discuterons des plans proportionnels à la taille avec ou sans grappes. Les résultats d’une étude par simulation seront présentés. / In a complex design framework, standard variance estimation methods entail substantial challenges. As we know, conventional variance estimators involve second order inclusion probabilities, which can be difficult to compute for some sampling designs. Also, confidentiality standards generally prevent second order inclusion probabilities to be included in external microdata files (often in the form of bootstrap weights). Based on Ohlsson’s sequential Poisson sampling method
(1998), we suggest a simplified estimator for which we only need first order inclusion probabilities. The idea is to approximate a survey strategy (which consists of a sampling design and an estimator) by an equivalent strategy for which a Poisson sampling design is used. We will discuss proportional to size sampling and proportional to size cluster sampling. Results of a simulation study will be presented.
|
217 |
Étude des fonctions B-splines pour la fusion d'images segmentées par approche bayésienne / Study of B-spline function for fusion of segmented images by Bayesian approachHadrich Ben Arab, Atizez 02 December 2015 (has links)
Dans cette thèse nous avons traité le problème de l'estimation non paramétrique des lois de probabilités. Dans un premier temps, nous avons supposé que la densité inconnue f a été approchée par un mélange de base B-spline quadratique. Puis, nous avons proposé un nouvel estimateur de la densité inconnue f basé sur les fonctions B-splines quadratiques, avec deux méthodes d'estimation. La première est base sur la méthode du maximum de vraisemblance et la deuxième est basée sur la méthode d'estimation Bayésienne MAP. Ensuite, nous avons généralisé notre étude d'estimation dans le cadre du mélange et nous avons proposé un nouvel estimateur du mélange de lois inconnues basé sur les deux méthodes d'estimation adaptées. Dans un deuxième temps, nous avons traité le problème de la segmentation statistique semi supervisée des images en se basant sur le modèle de Markov caché et les fonctions B-splines. Nous avons montré l'apport de l'hybridation du modèle de Markov caché et les fonctions B-splines en segmentation statistique bayésienne semi supervisée des images. Dans un troisième temps, nous avons présenté une approche de fusion basée sur la méthode de maximum de vraisemblance, à travers l'estimation non paramétrique des probabilités, pour chaque pixel de l'image. Nous avons ensuite appliqué cette approche sur des images multi-spectrales et multi-temporelles segmentées par notre algorithme non paramétrique et non supervisé. / In this thesis we are treated the problem of nonparametric estimation probability distributions. At first, we assumed that the unknown density f was approximated by a basic mixture quadratic B-spline. Then, we proposed a new estimate of the unknown density function f based on quadratic B-splines, with two methods estimation. The first is based on the maximum likelihood method and the second is based on the Bayesian MAP estimation method. Then we have generalized our estimation study as part of the mixture and we have proposed a new estimator mixture of unknown distributions based on the adapted estimation of two methods. In a second time, we treated the problem of semi supervised statistical segmentation of images based on the hidden Markov model and the B-sline functions. We have shown the contribution of hybridization of the hidden Markov model and B-spline functions in unsupervised Bayesian statistical image segmentation. Thirdly, we presented a fusion approach based on the maximum likelihood method, through the nonparametric estimation of probabilities, for each pixel of the image. We then applied this approach to multi-spectral and multi-temporal images segmented by our nonparametric and unsupervised algorithm.
|
218 |
Chance-Constrained Programming Approaches for Staffing and Shift-Scheduling Problems with Uncertain Forecasts : application to Call Centers / Approches de programmation en contraintes en probabilité pour les problèmes de dimensionnement et planification avec incertitude de la demande : application aux centres d'appelsExcoffier, Mathilde 30 September 2015 (has links)
Le problème de dimensionnement et planification d'agents en centre d'appels consiste à déterminer sur une période le nombre d'interlocuteurs requis afin d'atteindre la qualité de service exigée et minimiser les coûts induits. Ce sujet fait l'objet d'un intérêt croissant pour son intérêt théorique mais aussi pour l'impact applicatif qu'il peut avoir. Le but de cette thèse est d'établir des approches en contraintes en probabilités en considérant l'incertitude de la demande.Tout d'abord, la thèse présente un modèle en problème d'optimisation stochastique avec contrainte en probabilité jointe traitant la problématique complète en une étape afin d'obtenir un programme facile à résoudre. Une approche basée sur l'idée de continuité est proposée grâce à des lois de probabilité continues, une nouvelle relation entre les taux d'arrivées et les besoins théoriques et la linéarisation de contraintes. La répartition du risque global est faite pendant le processus d'optimisation, permettant une solution au coût réduit. Ces solutions résultantes respectent le niveau de risque tout en diminuant le coût par rapport à d'autres approches.De plus, le modèle en une étape est étendu pour améliorer sa représentation de la réalité. D'une part, le modèle de file d'attente est amélioré et inclus la patience limitée des clients. D'autre part, une nouvelle expression de l'incertitude est proposée pour prendre la dépendance des périodes en compte.Enfin, une nouvelle représentation de l'incertitude est considérée. L'approche distributionally robust permet de modéliser le problème sous l'hypothèse que la loi de probabilité adéquate est inconnue et fait partie d'un ensemble de lois, défini par une moyenne et une variance données. Le problème est modélisé par une contrainte en probabilité jointe. Le risque à chaque période est définie par une variable à optimiser.Un problème déterministe équivalent est proposé et des approximations linéaires permettent d'obtenir une formulation d'optimisation linéaire. / The staffing and shift-scheduling problems in call centers consist in deciding how many agents handling the calls should be assigned to work during a given period in order to reach the required Quality of Service and minimize the costs. These problems are subject to a growing interest, both for their interesting theoritical formulation and their possible applicative effects. This thesis aims at proposing chance-constrained approaches considering uncertainty on demand forecasts.First, this thesis proposes a model solving the problems in one step through a joint chance-constrained stochastic program, providing a cost-reducing solution. A continuous-based approach leading to an easily-tractable optimization program is formulated with random variables following continuous distributions, a new continuous relation between arrival rates and theoritical real agent numbers and constraint linearizations. The global risk level is dynamically shared among the periods during the optimization process, providing reduced-cost solution. The resulting solutions respect the targeted risk level while reducing the cost compared to other approaches.Moreover, this model is extended so that it provides a better representation of real situations. First, the queuing system model is improved and consider the limited patience of customers. Second, another formulation of uncertainty is proposed so that the period correlation is considered.Finally, another uncertainty representation is proposed. The distributionally robust approach provides a formulation while assuming that the correct probability distribution is unknown and belongs to a set of possible distributions defined by given mean and variance. The problem is formulated with a joint chance constraint. The risk at each period is a decision variable to be optimized. A deterministic equivalent problem is proposed. An easily-tractable mixed-integer linear formulation is obtained through piecewise linearizations.
|
219 |
Étude d’algorithmes de simulation par chaînes de Markov non réversiblesHuguet, Guillaume 10 1900 (has links)
Les méthodes de Monte Carlo par chaînes de Markov (MCMC) utilisent généralement des
chaînes de Markov réversibles. Jusqu’à récemment, une grande partie de la recherche théorique
sur les chaînes de Markov concernait ce type de chaînes, notamment les théorèmes de
Peskun (1973) et de Tierney (1998) qui permettent d’ordonner les variances asymptotiques
de deux estimateurs issus de chaînes réversibles différentes.
Dans ce mémoire nous analysons des algorithmes simulants des chaînes qui ne respectent
pas cette condition. Nous parlons alors de chaînes non réversibles. Expérimentalement, ces
chaînes produisent souvent des estimateurs avec une variance asymptotique plus faible et/ou
une convergence plus rapide. Nous présentons deux algorithmes, soit l’algorithme de marche
aléatoire guidée (GRW) par Gustafson (1998) et l’algorithme de discrete bouncy particle
sampler (DBPS) par Sherlock et Thiery (2017). Pour ces deux algorithmes, nous comparons
expérimentalement la variance asymptotique d’un estimateur avec la variance asymptotique
en utilisant l’algorithme de Metropolis-Hastings.
Récemment, un cadre théorique a été introduit par Andrieu et Livingstone (2019) pour
ordonner les variances asymptotiques d’une certaine classe de chaînes non réversibles. Nous
présentons leur analyse de GRW. De plus, nous montrons que le DBPS est inclus dans
ce cadre théorique. Nous démontrons que la variance asymptotique d’un estimateur peut
théoriquement diminuer en ajoutant des propositions à cet algorithme. Finalement, nous
proposons deux modifications au DBPS.
Tout au long du mémoire, nous serons intéressés par des chaînes issues de propositions
déterministes. Nous montrons comment construire l’algorithme du delayed rejection avec
des fonctions déterministes et son équivalent dans le cadre de Andrieu et Livingstone (2019). / Markov chain Monte Carlo (MCMC) methods commonly use chains that respect the detailed
balance condition. These chains are called reversible. Most of the theory developed for
MCMC evolves around those particular chains. Peskun (1973) and Tierney (1998) provided
useful theorems on the ordering of the asymptotic variances for two estimators produced by
two different reversible chains.
In this thesis, we are interested in non-reversible chains, which are chains that don’t
respect the detailed balance condition. We present algorithms that simulate non-reversible
chains, mainly the Guided Random Walk (GRW) by Gustafson (1998) and the Discrete
Bouncy Particle Sampler (DBPS) by Sherlock and Thiery (2017). For both algorithms, we
compare the asymptotic variance of estimators with the ones produced by the Metropolis-
Hastings algorithm.
We present a recent theoretical framework introduced by Andrieu and Livingstone (2019)
and their analysis of the GRW. We then show that the DBPS is part of this framework
and present an analysis on the asymptotic variance of estimators. Their main theorem
can provide an ordering of the asymptotic variances of two estimators resulting from nonreversible
chains. We show that an estimator could have a lower asymptotic variance by
adding propositions to the DBPS. We then present empirical results of a modified DBPS.
Through the thesis we will mostly be interested in chains that are produced by deterministic
proposals. We show a general construction of the delayed rejection algorithm using
deterministic proposals and one possible equivalent for non-reversible chains.
|
220 |
Systémique Relativisée : essences des conceptualisations relativisées du Réel / Relativized systemic : roots of any relativized conceptualization of RealityBoulouet, Henri 03 October 2014 (has links)
La notion de ‘système’ est omni présente dans nos conceptualisations du Réel et dans l’élaboration de nos projets. L’incapacité de lui conférer pourtant une définition généralement et scientifiquement acceptable questionne les traits les plus profonds de la conceptualisation classique, ceux qui fondent les langages courants, les grammaires et la logique classique. Ces traits sont rigidement liés à la croyance que ce que nous connaissons est ce qui existe ‘vraiment’, tel que nous le connaissons. Or cette croyance est démentie par la microphysique où il apparaît que nous engendrons nos connaissances de fond en comble, aussi bien les ‘entités’ que nous examinons, que les qualifications de celles-ci. La Méthode de Conceptualisation Relativisée (MCR) de M. Mugur-Schächter établit que ces processus d’engendrement sont soumis à des relativisations dont l’explicitation précise les significations et permet de maîtriser les finalités. Il est frappant de percevoir à quel point MCR dissout les ambiguïtés intrinsèques à la notion de système. Mais cette mise au clair implique au préalable la mise en évidence des relativisations qui agissent dans la genèse conceptuelle-factuelle des notions fondamentales de persistance, de continuité, d’état et de causalité. Elle entraine la redéfinition relativisée des concepts de loi de probabilité, d’entropie et de complexité. Le résultat est dénommé Systémique Relativisée (SR). Il possède le caractère d’un infra-cadre méthodologique au développement de méthodes technico-scientifiques spécifiquement adéquates à des domaines d’application particuliers, telle l’Ingénierie Système Relativisée, appliquée à la conception d’artefacts à buts utilitaires. / The idea of ‘system’ is pervasive in our descriptions and in our projects. The impossibility to come up with a generally and scientifically valid definition of this idea touches the most profound features of the classical conceptualization, those that underlie the current languages, the grammars and the classical logic. These features are rigidly tied with the belief that what we know is what ‘really’ exists, such as we know it. But this belief is refuted by microphysics, where it appears that that we create our knowledge entirely, as much the ‘entities’ that we examine as the qualifications of these entities. The Method of Relativized Conceptualisation of M. Mugur-Schächter establishes that the processes of creation of knowledge are subjected to relativizations, and that making them explicit clarifies the involved significances and permit to dominate the finalities. It is surprising to perceive to what a point the relativizations required by the method winds up the ambiguities commonly tied up to the idea of system. But such a clarification requires first to bring into light the relativizations acting in the conceptual-factual genesis of such basic concepts as persistence, continuity, state or causality. It brings about the relativized redefinitions of the concepts oflaw of probability, of entropy and of complexity. The global result is called Relativised Systemic (RS). It possesses the character of a methodological infra-frame for the design of technical-scientific constructivist methods, specifically appropriate for particular domains of application, such as the Relativised System Engineering method (RSE), dedicated to the design of utilitarian artefacts.
|
Page generated in 0.0508 seconds