• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 40
  • 20
  • 14
  • 13
  • 9
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Risques extrêmes en finance : analyse et modélisation / Financial extreme risks : analysis and modeling

Salhi, Khaled 05 December 2016 (has links)
Cette thèse étudie la gestion et la couverture du risque en s’appuyant sur la Value-at-Risk (VaR) et la Value-at-Risk Conditionnelle (CVaR), comme mesures de risque. La première partie propose un modèle d’évolution de prix que nous confrontons à des données réelles issues de la bourse de Paris (Euronext PARIS). Notre modèle prend en compte les probabilités d’occurrence des pertes extrêmes et les changements de régimes observés sur les données. Notre approche consiste à détecter les différentes périodes de chaque régime par la construction d’une chaîne de Markov cachée et à estimer la queue de distribution de chaque régime par des lois puissances. Nous montrons empiriquement que ces dernières sont plus adaptées que les lois normales et les lois stables. L’estimation de la VaR est validée par plusieurs backtests et comparée aux résultats d’autres modèles classiques sur une base de 56 actifs boursiers. Dans la deuxième partie, nous supposons que les prix boursiers sont modélisés par des exponentielles de processus de Lévy. Dans un premier temps, nous développons une méthode numérique pour le calcul de la VaR et la CVaR cumulatives. Ce problème est résolu en utilisant la formalisation de Rockafellar et Uryasev, que nous évaluons numériquement par inversion de Fourier. Dans un deuxième temps, nous nous intéressons à la minimisation du risque de couverture des options européennes, sous une contrainte budgétaire sur le capital initial. En mesurant ce risque par la CVaR, nous établissons une équivalence entre ce problème et un problème de type Neyman-Pearson, pour lequel nous proposons une approximation numérique s’appuyant sur la relaxation de la contrainte / This thesis studies the risk management and hedging, based on the Value-at-Risk (VaR) and the Conditional Value-at-Risk (CVaR) as risk measures. The first part offers a stocks return model that we test in real data from NSYE Euronext. Our model takes into account the probability of occurrence of extreme losses and the regime switching observed in the data. Our approach is to detect the different periods of each regime by constructing a hidden Markov chain and estimate the tail of each regime distribution by power laws. We empirically show that powers laws are more suitable than Gaussian law and stable laws. The estimated VaR is validated by several backtests and compared to other conventional models results on a basis of 56 stock market assets. In the second part, we assume that stock prices are modeled by exponentials of a Lévy process. First, we develop a numerical method to compute the cumulative VaR and CVaR. This problem is solved by using the formalization of Rockafellar and Uryasev, which we numerically evaluate by Fourier inversion techniques. Secondly, we are interested in minimizing the hedging risk of European options under a budget constraint on the initial capital. By measuring this risk by CVaR, we establish an equivalence between this problem and a problem of Neyman-Pearson type, for which we propose a numerical approximation based on the constraint relaxation
32

Utilités Progressives Dynamiques.

M'Rad, Mohamed 19 October 2009 (has links) (PDF)
En 2002, Marek Musiela et Thaleia Zariphopoulo ont introduit la notion de {\em forward utility}, c'est à dire une utilité dynamique, progressive, cohérente avec un marché financier donné. On peut voir ce processus comme un champ aléatoire $U(t,x)$ adapté à l'information disponible, qui a chaque instant est une utilité standard (donc en particulier à la date $0$, compatible avec une famille de stratégies données $(X^{\pi})$ au sens où pour tout $t,h>0$, $ \mathbb{E}(U(t+h,X^{\pi}_{t+h})|\mathcal{F}_t)\leq U(t,X^{\pi}_t)$ et il existe un portefeuille optimal $X^*$ pour lequel l'inégalité est une égalité.\\ Les auteurs ont fait plusieurs articles sur ce sujet, montrant en particulier comment les utilités classiques, puissance, exponentielle, etc doivent être modifiées pour être des utilités dynamique progressives. Une attention limitée a été portée à l'univers d'investissement. \noindent Dans mon travail de thèse, je considère un cadre beaucoup plus général. En effet, le marché est incomplet dans le sens où un investisseur est contraint, à chaque date $t\ge 0$, de choisir ces stratégies admissibles dans des cones convexes fermés, adaptés $\K_t (X_t)$ dépendent du niveau de sa richesse $X_t$. Je considère par la suite que les champs aléatoires $U(t,x)$ évoluent selon la dynamique \begin{equation}\label{eq:champ} dU(t,x)=\beta(t,x)+\Gamma(t,x) dW_t,~U(0,.)=u(.) (\text{donnée}) \end{equation} Comme dans l'optimisation classique, (dite rétrograde puisqu'on reconstruit l'information à partir de la fin), %je montre que le terme %$\beta(t,x)$ contient, contient nécéssairement, un terme de type hamiltonien classique %modifié par la présence de la dérivée de la volatilité %$\Gamma(t,x)$ de l'utilité progressive. Et par conséquent toute utilité progressive qui % satisfait les hypothèses de régularités du lemme d'Itô-Ventzell % satisfait je me propose d'étudier les équations de type Hamilton-Jacobi-Bellman que satisfait une utilités progressive $u(t,x)$. Pour mener cette étude, j'utilise une formule d'Itô généralisée apellée la formule de Ventzell-Friedlin, qui permet d'établir la décomposition de type Itô de la composée d'un champ aléatoire avec un processus d'Itô. Je montre alors que le terme $\beta(t,x)$ contient, nécéssairement, un terme de type hamiltonien classique modifié par la présence de la dérivée de la volatilité $\Gamma(t,x)$ de l'utilité progressive. Et par conséquent toute utilité progressive qui satisfait les hypothèses de régularités du lemme d'Itô-Ventzell satisfont l' équation différentielle stochastique suivante \begin{equation}\label{EDPSU} dU(t,x)=\Big\{-xU'_{x}\, r_t dt+ \frac{1}{2U''_{xx}(t,x)}\|\prod_{\K_t(x)\sigma_t}\big(U'_{x}(t,x) \eta_t+\Gamma'_x(t,x)\big) \|^2\Big\}(t,x)\,dt\>+\Gamma(t,x)\,dW_t. \end{equation} avec comme portefeuille optimal $X^*$ le processus associé à la stratégie $\pi^*$ donnée par \begin{equation} x\pi^*(t,x)\sigma_t=- \frac{1}{U''_{xx}(t,x)}\|\prod_{\K_t(x)\sigma_t}\big(U'_{x}(t,x) \eta_t+\Gamma'_x(t,x)\big)(t,x) \end{equation} \noindent où $r$ est le taux court, $\eta$ la prime de marché, $\sigma$ la matrice de variance covariance des actifs et $ \prod_{\K_t(x)\sigma_t}$ désigne l'opérateur de projection sur le cône $\K_t(x)\sigma_t$. \\ Ce point de vue permet de vérifier que le champ aléatoire, s'il existe est compatible avec l'univers d'investissement. Cependant, la question de la convexité et de la monotonie est complexe a priori, car il n'existe pas de théorèmes de comparaison pour les équations progressives (qui sont {\em forward}), contrairement au cas des équations rétrogrades. La question de l'interprétation et du rôle de la volatilité s'avère alors être centrale dans cette étude. Contrairement au cadre général que je considère ici, M.Musiela et T.Zariphopoulo, puis C.Rogers et al se sont restreint au cas où la volatilité de l'utilité est identiquement nulle. Le processus progressif $u(t,x)$ est alors une fonction déterministe satisfaisant une EDP non linéaire, que les auteurs ont transformé en solution harmonique espace temps de l'équation de la chaleur. \\ Mon choix a été d'étudire la question de la volatilité par des techniques de changement de numéraire; ainsi, je montre la stabilité de la notion d'utilité progressive par changement de numéraire. L'avantage considérable de cette technique, comparée à la méthode classique, % Comme dans le cas % classique, le problème est compliqué par le fait que l'espace des % contraites n'est pas invariant par changement de numéraire. est le fait qu'elle permet de se ramener toujours à un marché "martingale" ($r=0$ et $\eta=0$), ce qui simplifie considérablement les équations et les calculs. La dérivée de la volatilité apparaît alors comme une prime de risque instantanée que le marché introduit, et qui dépend du niveau de la richesse de l'investisseur. Ce point de vue nouveau permet de répondre à la question de l'interprétation de la volatilité de l'utilité. Dans la suite, j'étudie le problème dual et je montre que la transformée de {\em Fenchel} $\tU$ de la fonction concave $U(t,x)$ est un champ markovien lui aussi satisfaisant la dynamique \begin{eqnarray}\label{EDPSDuale'} d\tilde{U}(t,y)=\left[\frac{1}{2\tU_{yy}''}(\|\tilde{\Gamma}'\|^2-\|\prod_{\K_t(-\tU_y'(t,y))\sigma_t}(\tilde{\Gamma}^{'}_y-y\eta_t)\|^2) +y\tU_{y}' r_t\right](t,y)dt +\tilde{\Gamma}(t,y)dW_t,~~\tilde{\Gamma}(t,y)=\Gamma(t,\tU_y'(t,y)). \end{eqnarray} À partir de ce résultat je montre que le problème dual admet une unique solution $Y^*$ dans la volatilté $\nu^*$ est donnée par \begin{equation} y\nu^*(t,y)= -\frac{1}{\tU_{yy}''}\Big(\tilde{\Gamma}'+y\eta_t-\prod_{\K_t(-\tU_y')\sigma_t}(\tilde{\Gamma}^{'}_y-y\eta_t)\Big)(t,y). \end{equation} \noindent Ce ci permettra d'établir les identités clé suivantes: \begin{eqnarray} &Y^*(t,(U_x')^{-1}(0,x))=U'_x(t,X^*(t,x)) \label{A}\\ &(\Gamma'_x+U'_x\eta)(t,x)=(xU''(t,x)\pi^*(t,x)\sigma_t+\nu^*(U_x'(t,x))\label{B}. \end{eqnarray} % Remarquons que le terme $(\Gamma'_x+U'_x\eta)$ se décompose de manière unique sous forme % de sa projection sur le cone $\K\sigma$, qui est la stratégie optimale, et la projection sur le cone dual $\K^* \sigma$, % qui est la volatilité du processus optimal dual. Mais notre but est deux termes projétés su comme la projection % Á partir de la première identité nous savons que $U'_x(t,X^*(t,x))$ n'est autre que le processus optimal dual %Á ce stade rapellons que le but de cette étude est de carracteriser les utilités progressives. La question par la suite est la suivante: peut-on caractériser l'utilité $U(t,x)$ pour tout $x>0$ à partir de la première identité? Ceci peut paraître trop demander car nous cherchons à caractériser le champ $U$ connaissant seulement son comportement le long de l'unique trajectoire optimale $X^*$. Cependant, la réponse à cette question s'avère être positive et assez simple. En effet, notons par $\Y(t,x):=Y^*(t,(U_x')^{-1}(0,x))$, et supposons que le flot stochastique $X^*$ soit inversible, $\X$ désigne son inverse. Alors, en inversant dans (\ref{A}), je déduis que $U_x'(t,x)=\Y(t,\X(t,x))$. En intégrant par rapport à $x$, j'obtiens que $U(t,x)=\int_0^x\Y(t,\X(t,z))dz$, ce qui prouve le théorème suivant: \begin{theo} Sous des hypothèses de régularités et d'inversion du flot $X^*$, les processus $U$ définis par $U(t,x)=\int_0^x\Y(t,\X(t,z))dz$ sont des utilités progressives solutions de l'EDP stochastique (\ref{EDPSU}). \end{theo} % %\noindent Inversement, je montre le théorème d'EDP stochastique suivant: \begin{theo} Soit $U$ un champ aléatoire solutions de l'EDP stochastique (\ref{EDPSU}). En utilisant la décompostion (\ref{B}), si les EDS suivantes \begin{eqnarray*} & dX^*_t(x)=X^*_t(x)(r_tdt+\pi^*(t,X^*_t(x))\sigma_t(dW_t+\eta_tdt)),X^*_0(x)=x ~\\ & dY^*_t(y)=Y^*_t(y)(-r_tdt+\nu^*(t,Y^*_t(y))dW_t),~Y^*_0(y)=y \end{eqnarray*} admettent des solutions fortes unique et monotonnes, alors, en notant par $ \Y(t,x):=Y^*(t,(U_x')^{-1}(0,x))$ et par $\X$ le flot inverse de $X$, on obtient que $U(t,x)= \int_0^x\Y(t,\X(t,z))dz$. Si de plus $X^*$ et $Y^*$ sont croissants, $U$ est concave. \end{theo} \noindent %Dans ce travail, je considère toujours un marché incomplet, Dans une seconde partie de ce travail, je me place dans un cadre beaucoup plus général dans le sens où les actifs sont supposés être cadlag locallement bornés, et par conséquent la filtration n'est plus une filtration brownienne. Je remplace les contraintes de type cône convexe par des contraintes plus générales de type ensemble convexe. Le but de cette partie est de caractériser toutes les utilités progressives avec le minimum d'hypothèses, notamment avec moins d'hypothèses de régularités sur les champs aléatoires $U$. Je ne suppose plus que $U$ est deux fois différentiable et par conséquent je ne peut plus appliquer le lemme d'Itô-Ventzell. L'approche est alors différente: je commence par établir des conditions d'optimalité sur le processus de richesses optimale ainsi que le processus optimal dual, et ce en utilisant des méthodes d'analyse. En utilisant ces résultats je démontre, par des éléments d'analyse, la convexité ainsi que les conditions d'optimalités que toutes les utilités progressives générant une richesse croissante est de la forme $\int_0^x\Y(t,\X(t,z))dz$ avec $\Y$ : $\Y X$ est une surmartingale pour toute richesse $X$ et une martingale si $X=X^*$.
33

Contributions à la vérification formelle d'algorithmes arithmétiques

Martin-Dorel, Erik 26 September 2012 (has links) (PDF)
L'implantation en Virgule Flottante (VF) d'une fonction à valeurs réelles est réalisée avec arrondi correct si le résultat calculé est toujours égal à l'arrondi de la valeur exacte, ce qui présente de nombreux avantages. Mais pour implanter une fonction avec arrondi correct de manière fiable et efficace, il faut résoudre le "dilemme du fabricant de tables" (TMD en anglais). Deux algorithmes sophistiqués (L et SLZ) ont été conçus pour résoudre ce problème, via des calculs longs et complexes effectués par des implantations largement optimisées. D'où la motivation d'apporter des garanties fortes sur le résultat de ces pré-calculs coûteux. Dans ce but, nous utilisons l'assistant de preuves Coq. Tout d'abord nous développons une bibliothèque d'"approximation polynomiale rigoureuse", permettant de calculer un polynôme d'approximation et un intervalle bornant l'erreur d'approximation à l'intérieur de Coq. Cette formalisation est un élément clé pour valider la première étape de SLZ, ainsi que l'implantation d'une fonction mathématique en général (avec ou sans arrondi correct). Puis nous avons implanté en Coq, formellement prouvé et rendu effectif 3 vérifieurs de certificats, dont la preuve de correction dérive du lemme de Hensel que nous avons formalisé dans les cas univarié et bivarié. En particulier, notre "vérifieur ISValP" est un composant clé pour la certification formelle des résultats générés par SLZ. Ensuite, nous nous sommes intéressés à la preuve mathématique d'algorithmes VF en "précision augmentée" pour la racine carré et la norme euclidienne en 2D. Nous donnons des bornes inférieures fines sur la plus petite distance non nulle entre sqrt(x²+y²) et un midpoint, permettant de résoudre le TMD pour cette fonction bivariée. Enfin, lorsque différentes précisions VF sont disponibles, peut survenir le phénomène de "double-arrondi", qui peut changer le comportement de petits algorithmes usuels en arithmétique. Nous avons prouvé en Coq un ensemble de théorèmes décrivant le comportement de Fast2Sum avec double-arrondis.
34

Limites diffusives pour des équations cinétiques stochastiques

De Moor, Sylvain 11 June 2014 (has links) (PDF)
Cette thèse présente quelques résultats dans le domaine des équations aux dérivées partielles stochastiques. Une majeure partie d'entre eux concerne l'étude de limites diffusives de modèles cinétiques perturbés par un terme aléatoire. On présente également un résultat de régularité pour une classe d'équations aux dérivées partielles stochastiques ainsi qu'un résultat d'existence et d'unicité de mesures invariantes pour une équation de Fokker-Planck stochastique. Dans un premier temps, on présente trois travaux d'approximation-diffusion dans le contexte stochastique. Le premier s'intéresse au cas d'une équation cinétique avec opérateur de relaxation linéaire dont l'équilibre des vitesses a un comportement de type puissance à l'infini. L'équation est perturbée par un processus Markovien. Cela donne lieu à une limite fluide stochastique fractionnaire. Les deux autres résultats concernent l'étude de l'équation de transfert radiatif qui est un problème cinétique non linéaire. L'équation est bruitée dans un premier temps avec un processus de Wiener cylindrique et dans un second temps par un processus Markovien. Dans les deux cas, on obtient à la limite une équation de Rosseland stochastique. Dans la suite, on présente un résultat de régularité pour les équations aux dérivées partielles quasi-linéaires de type parabolique dont la partie aléatoire est gouvernée par un processus de Wiener cylindrique. Enfin, on étudie une équation de Fokker-Planck qui présente un terme de forçage aléatoire régi par un processus de Wiener cylindrique. On prouve d'une part l'existence et l'unicité des solutions de ce problème et d'autre part l'existence et l'unicité de mesures invariantes pour la dynamique de cette équation.
35

Commande h∞ à base de modèles non entiers / H∞ control of fractional order models

Fadiga, Lamine 12 June 2014 (has links)
Les études menées permettent d’étendre la méthodologie de commande H∞ aux modèles décrits par des équations différentielles faisant intervenir des ordres de dérivation non entiers. Deux approches sont proposées. La première consiste à réécrire le modèle non entier comme un modèle entier incertain afin de pouvoir utiliser les méthodes de commande H∞ développées pour les modèles entiers. La seconde approche consiste à développer des conditions LMI spécifiques aux modèles non entiers à partir de leur pseudo représentation d’état. Ces deux approches sont appliquées à l’isolation vibratoire d’un pont. / The general theme of the work enables to extend H∞ control methodology to fractional order models. Two approaches are proposed. The first one consists in rewriting the fractional order model as an uncertain integer order model in order to use existing H∞ control methods for integer order models. The second approach consists in developing specific LMI conditions for fractional order models based on their pseudo state space representation. These two approaches are applied to the vibratory isolation of a bridge.
36

Study of compact quantum groups with probabilistic methods : caracterization of ergodic actions and quantum analogue of Noether's isomorphisms theorems / Etude des groupes quantiques compacts avec des méthodes probabilistes : caractérisation d'actions d'action ergodiques et analogues quantiques des théorèmes d'isomorphismes de Noether

Omar hoch, Souleiman 29 June 2017 (has links)
Cette thèse étudie des problèmes liés aux treillis des sous-groupes quantiques et la caractérisationdes actions ergodiques et des états idempotents d’un groupe quantique compact.Elle consiste en 3 parties. La première partie présente des résultats préliminaires sur lesgroupes quantiques localement compacts, les sous-groupes quantiques normaux ainsi queles actions ergodiques et les états idempotents. La seconde partie étudie l’analogue quantiquede la règle de modularité de Dedekind et de l’analogue quantique des théorèmesd’isomorphisme de Noether ainsi que leur conséquences comme le théorème de raffinementde Schreier, et le théorème Jordan-Hölder. Cette partie s’inspire du travail de recherche deShuzhouWang sur l’analogue quantique du troisième théorème d’isomorphisme de Noetherpour les groupes quantiques compacts ainsi que le travail récent de Kasprzak, Khosraviet Soltan sur l’analogue quantique du premier théorème d’isomorphisme de Noether pourles groupes quantiques localement compacts. Dans la troisième partie, nous caractérisonsles états idempotents du groupe quantique compact O−1(2) en s’appuyant sur la caractérisationde ses actions ergodiques plongeables. Cette troisième partie est dans la lignedes travaux fait par Franz, Skalski et Tomatsu pour les groupes quantiques compactsUq(2), SUq(2) et SOq(3). Nous classifions au préalable les actions ergodiques et les actionsergodiques plongeables du groupe quantique compact O−1(2).Les travaux présentés dans cette thèse se basent sur deux articles de l’auteur et al.Le premier s’intitule “Fundamental isomorphism theorems for quantum groups” et a étéaccepté pour publication dans Expositionae Mathematicae et le second est intitulé “Ergodicactions and idempotent states of O−1(2)” et est en cours de finalisation pour être soumis. / This thesis studies problems linked to the lattice of quantum subgroups and characterizationof ergodic actions and idempotent states of a compact quantum group. It consistsof three parts. The first part present some preliminary results about locally compactquantum groups, normal quantum subgroups, ergodic actions and idempotent states. Thesecond part studies the quantum analog of Dedekind’s modularity law, Noether’s isomorphismtheorem and their consequences as the Schreier refinement theorem and theJordan-Hölder theorem. This part completes the work of Shuzhou WANG on the quantumanalog of the third isomorphism theorem for compact quantum group and the recentwork of Kasprzak, Khosravi and Soltan on the quantum analog of the first Noether isomorphismtheorem for locally compact quantum groups. In the third part, we characterizeidempotent states of the compact quantum group O−1(2) relying on the characterizationof embeddable ergodic actions. This third part is in the sequence of the seminal works ofFranz, Skalski and Tomatsu for the compact quantum groups Uq(2), SUq(2) and SOq(3).We classify in advance the ergodic actions and embeddable ergodic actions of the compactquantum group O−1(2).This thesis is based on two papers of the author and al. The first one is entitled“Fundamental isomorphism theorems for quantum groups” which have been accepted forpublication in Expositionae Mathematicae and the second one is entitled “Ergodic actionsand idempotent states of O−1(2)” and is being finalized for submission.
37

Influence du stochastique sur des problématiques de changements d'échelle / Stochastic influence on problematics around changes of scale

Ayi, Nathalie 19 September 2016 (has links)
Les travaux de cette thèse s'inscrivent dans le domaine des équations aux dérivées partielles et sont liés à la problématique des changements d'échelle dans le contexte de la cinétique des gaz. En effet, sachant qu'il existe plusieurs niveaux de description pour un gaz, on cherche à relier les différentes échelles associées dans un cadre où une part d'aléa intervient. Dans une première partie, on établit la dérivation rigoureuse de l'équation de Boltzmann linéaire sans cut-off en partant d'un système de particules interagissant via un potentiel à portée infinie en partant d'un équilibre perturbé.La deuxième partie traite du passage d'un modèle BGK stochastique avec champ fort à une loi de conservation scalaire avec forçage stochastique. D'abord, on établit l'existence d'une solution au modèle BGK considéré. Sous une hypothèse additionnelle, on prouve alors la convergence vers une formulation cinétique associée à la loi de conservation avec forçage stochastique.Au cours de la troisième partie, on quantifie dans le cas à vitesses discrètes le défaut de régularité dans les lemmes de moyenne et on établit un lemme de moyenne stochastique dans ce même cas. On applique alors le résultat au cadre de l'approximation de Rosseland pour établir la limite diffusive associée à ce modèle.Enfin, on s'intéresse à l'étude numérique du modèle de Uchiyama de particules carrées à quatre vitesses en dimension deux. Après avoir adapté les méthodes de simulation développées dans le cas des sphères dures, on effectue une étude statistique des limites à différentes échelles de ce modèle. On rejette alors l'hypothèse d'un mouvement Brownien fractionnaire comme limite diffusive / The work of this thesis belongs to the field of partial differential equations and is linked to the problematic of scale changes in the context of kinetic of gas. Indeed, knowing that there exists different scales of description for a gas, we want to link these different associated scales in a context where some randomness acts, in initial data and/or distributed on all the time interval. In a first part, we establish the rigorous derivation of the linear Boltzmann equation without cut-off starting from a particle system interacting via a potential of infinite range starting from a perturbed equilibrium. The second part deals with the passage from a stochastic BGK model with high-field scaling to a scalar conservation law with stochastic forcing. First, we establish the existence of a solution to the considered BGK model. Under an additional assumption, we prove then the convergence to a kinetic formulation associated to the conservation law with stochastic forcing. In the third part, first we quantify in the case of discrete velocities the defect of regularity in the averaging lemmas. Then, we establish a stochastic averaging lemma in that same case. We apply then the result to the context of Rosseland approximation to establish the diffusive limit associated to this model.Finally, we are interested into the numerical study of Uchiyama's model of square particles with four velocities in dimension two. After adapting the methods of simulation which were developed in the case of hard spheres, we carry out a statistical study of the limits at different scales of this model. We reject the hypothesis of a fractional Brownian motion as diffusive limit
38

THÉORIE NON LINÉAIRE DU POTENTIEL ET ÉQUATIONS QUASILINÉAIRES AVEC DONNÉES MESURES

Nguyen, Quoc-Hung 25 September 2014 (has links) (PDF)
Cette thése concerne l'existence et la régularité de solutions d'équations non-linéaires elliptiques, d'équations paraboliques et d'équations de Hesse avec mesures, et les critéres de l'existence de solutions grandes d'équations elliptiques et paraboliques non-linéaires. \textbf{Liste de publications} \begin{description} \item[1.] Avec M. F. Bidaut-Véron, L. Véron; {\em Quasilinear Lane-Emden equations with absorption and measure data,} Journal des Mathématiques Pures et Appliquées,~{\bf 102}, 315-337 (2014). \item[2] Avec L. Véron; {\em Quasilinear and Hessian type equations with exponential reaction and measure data,} Archive for Rational Mechanics and Analysis, {\bf 214}, 235-267 (2014). \item[3] Avec L. Véron; {\em Wiener criteria for existence of large solutions of quasilinear elliptic equations with absorption,} 17 pages, soumis, arXiv:1308.2956. \item[4] Avec M. F. Bidaut-Véron; {\em Stability properties for quasilinear parabolic equations with measure data,} 29 pages, á apparaître dans Journal of European Mathematical Society, arXiv:1409.1518. \item[5] Avec M. F. Bidaut-Véron; {\em Evolution equations of $p$-Laplace type with absorption or source terms and measure data}, 21 pages, á apparaître dans Communications in Contemporary Mathematics, arXiv:1409.1520. \item[6] {\em Potential estimates and quasilinear parabolic equations with measure data,} 118 pages, arXiv:1405.2587v1. \item[7] Avec L. Véron; {\em Wiener criteria for existence of large solutions of nonlinear parabolic equations with absorption in a non-cylindrical domain,} 29 pages, soumis,\\ arXiv:1406.3850. \item[8] Avec M. F. Bidaut-Véron; {Pointwise estimates and existence of solutions of porous medium and $p$-Laplace evolution equations with absorption and measure data,\em } 27 pages, soumis, arXiv:1407.2218. \end{description}\begin{description} \item[1.] Avec M. F. Bidaut-Véron, L. Véron; {\em Quasilinear Lane-Emden equations with absorption and measure data,} Journal des Mathématiques Pures et Appliquées,~{\bf 102}, 315-337 (2014). \item[2] Avec L. Véron; {\em Quasilinear and Hessian type equations with exponential reaction and measure data,} Archive for Rational Mechanics and Analysis, {\bf 214}, 235-267 (2014). \item[3] Avec L. Véron; {\em Wiener criteria for existence of large solutions of quasilinear elliptic equations with absorption,} 17 pages, soumis, arXiv:1308.2956. \item[4] Avec M. F. Bidaut-Véron; {\em Stability properties for quasilinear parabolic equations with measure data,} 29 pages, á apparaître dans Journal of European Mathematical Society, arXiv:1409.1518. \item[5] Avec M. F. Bidaut-Véron; {\em Evolution equations of $p$-Laplace type with absorption or source terms and measure data}, 21 pages, á apparaître dans Communications in Contemporary Mathematics, arXiv:1409.1520. \item[6] {\em Potential estimates and quasilinear parabolic equations with measure data,} 118 pages, arXiv:1405.2587v1. \item[7] Avec L. Véron; {\em Wiener criteria for existence of large solutions of nonlinear parabolic equations with absorption in a non-cylindrical domain,} 29 pages, soumis,\\ arXiv:1406.3850. \item[8] Avec M. F. Bidaut-Véron; {Pointwise estimates and existence of solutions of porous medium and $p$-Laplace evolution equations with absorption and measure data,\em } 27 pages, soumis, arXiv:1407.2218. \end{description}
39

Contributions à la vérification formelle d'algorithmes arithmétiques / Contributions to the Formal Verification of Arithmetic Algorithms

Martin-Dorel, Erik 26 September 2012 (has links)
L'implantation en Virgule Flottante (VF) d'une fonction à valeurs réelles est réalisée avec arrondi correct si le résultat calculé est toujours égal à l'arrondi de la valeur exacte, ce qui présente de nombreux avantages. Mais pour implanter une fonction avec arrondi correct de manière fiable et efficace, il faut résoudre le «dilemme du fabricant de tables» (TMD en anglais). Deux algorithmes sophistiqués (L et SLZ) ont été conçus pour résoudre ce problème, via des calculs longs et complexes effectués par des implantations largement optimisées. D'où la motivation d'apporter des garanties fortes sur le résultat de ces pré-calculs coûteux. Dans ce but, nous utilisons l'assistant de preuves Coq. Tout d'abord nous développons une bibliothèque d'«approximation polynomiale rigoureuse», permettant de calculer un polynôme d'approximation et un intervalle bornant l'erreur d'approximation à l'intérieur de Coq. Cette formalisation est un élément clé pour valider la première étape de SLZ, ainsi que l'implantation d'une fonction mathématique en général (avec ou sans arrondi correct). Puis nous avons implanté en Coq, formellement prouvé et rendu effectif 3 vérifieurs de certificats, dont la preuve de correction dérive du lemme de Hensel que nous avons formalisé dans les cas univarié et bivarié. En particulier, notre «vérifieur ISValP» est un composant clé pour la certification formelle des résultats générés par SLZ. Ensuite, nous nous sommes intéressés à la preuve mathématique d'algorithmes VF en «précision augmentée» pour la racine carré et la norme euclidienne en 2D. Nous donnons des bornes inférieures fines sur la plus petite distance non nulle entre sqrt(x²+y²) et un midpoint, permettant de résoudre le TMD pour cette fonction bivariée. Enfin, lorsque différentes précisions VF sont disponibles, peut survenir le phénomène de «double-arrondi», qui peut changer le comportement de petits algorithmes usuels en arithmétique. Nous avons prouvé en Coq un ensemble de théorèmes décrivant le comportement de Fast2Sum avec double-arrondis. / The Floating-Point (FP) implementation of a real-valued function is performed with correct rounding if the output is always equal to the rounding of the exact value, which has many advantages. But for implementing a function with correct rounding in a reliable and efficient manner, one has to solve the ``Table Maker's Dilemma'' (TMD). Two sophisticated algorithms (L and SLZ) have been designed to solve this problem, relying on some long and complex calculations that are performed by some heavily-optimized implementations. Hence the motivation to provide strong guarantees on these costly pre-computations. To this end, we use the Coq proof assistant. First, we develop a library of ``Rigorous Polynomial Approximation'', allowing one to compute an approximation polynomial and an interval that bounds the approximation error in Coq. This formalization is a key building block for verifying the first step of SLZ, as well as the implementation of a mathematical function in general (with or without correct rounding). Then we have implemented, formally verified and made effective 3 interrelated certificates checkers in Coq, whose correctness proof derives from Hensel's lemma that we have formalized for both univariate and bivariate cases. In particular, our ``ISValP verifier'' is a key component for formally verifying the results generated by SLZ. Then, we have focused on the mathematical proof of ``augmented-precision'' FP algorithms for the square root and the Euclidean 2D norm. We give some tight lower bounds on the minimum non-zero distance between sqrt(x²+y²) and a midpoint, allowing one to solve the TMD for this bivariate function. Finally, the ``double-rounding'' phenomenon can typically occur when several FP precision are available, and may change the behavior of some usual small FP algorithms. We have formally verified in Coq a set of results describing the behavior of the Fast2Sum algorithm with double-roundings.
40

Théorie non linéaire du potentiel et équations quasilinéaires avec données mesures / Nonlinear potential theory and quasilinear equations with measure data

Nguyen, Quoc-Hung 25 September 2014 (has links)
Cette thèse concerne l’existence et la régularité de solutions d’équations non-linéaires elliptiques, d’équations paraboliques et d’équations de Hesse avec mesures, et les critères de l’existence de solutions grandes d’équations elliptiques et paraboliques non-linéaires. / This thesis is concerned to the existence and regularity of solutions to nonlinear elliptic, parabolic and Hessian equations with measure, and criteria for the existence of large solutions to some nonlinear elliptic and parabolic equations.

Page generated in 0.0349 seconds