• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 37
  • 14
  • Tagged with
  • 150
  • 46
  • 25
  • 23
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Cadre de travail généralisé de compensation non-linéaire robuste : application à la rentrée atmosphérique / A generalized framework for robust nonlinear compensation : application to an atmospheric reentry control problem

Hernandez Lopezomoza, Mario Andres 21 September 2012 (has links)
Ce travail de thèse est consacré à l'extension de l'Inversion Dynamique non-linéaire (NDI-Nonlinear Dynamic Inversion) pour un ensemble plus grand de systèmes non-linéaires, tout en garantissant des conditions de stabilité suffisantes. La NDI a été étudiée dans le cas de diverses applications, y compris en aéronautique et en aérospatiale. Elle permet de calculer des lois de contrôle capables de linéariser et de découpler un modèle non-linéaire à tout point de fonctionnement de son enveloppe d'état. Cependant cette méthode est intrinsèquement non-robuste aux erreurs de modélisation et aux saturations en entrée. En outre, dans un contexte non-linéaire, l'obtention d'une garantie quantifiable du domaine de stabilité atteint reste à l'heure actuelle complexe. Contrairement aux approches classiques de la NDI, notre méthodologie peut être considérée comme un cadre de compensation non-linéaire généralisé qui permet d'intégrer les incertitudes et les saturations en entrée dans le processus de conception. En utilisant des stratégies de contrôle antiwindup, la loi de pilotage peut être calculée grâce à un simple processus en deux phases. Dans ce cadre de travail généralisé des transformations linéaires fractionnaires (LFT - Linear Fractional Transformations) de la boucle fermée non-linéaire peuvent être facilement déduites pour l'analyse de la stabilité robuste en utilisant des outils standards pour de systèmes linéaires. La méthode proposée est testée pour le pilotage d'un véhicule de rentrée atmosphérique de type aile delta lors de ses phases hypersonique, transsonique et subsonique. Pour cette thèse, un simulateur du vol incluant divers facteurs externes ainsi que des erreurs de modélisation a été développé dans Simulink. / This thesis work is devoted to extending Nonlinear Dynamic Inversion (NDI) for a large scale of nonlinear systems while guaranteeing sufficient stability conditions. NDI has been studied in a wide range of applications, including aeronautics and aerospace. It allows to compute nonlinear control laws able to decouple and linearize a model at any operating point of its state envelope. However, this method is inherently non-robust to modelling errors and input saturations. Moreover, obtaining a quantifiable guarantee of the attained stability domain in a nonlinear control context is not a very straightforward task. Unlike standard NDI approaches, our methodology can be viewed as a generalized nonlinear compensation framework which allows to incorporate uncertainties and input saturations in the design process. Paralleling anti-windup strategies, the controller can be computed through a single multichannel optimization problem or through a simple two-step process. Within this framework, linear fractional transformations of the nonlinear closed-loop can be easily derived for robust stability analysis using standard tools for linear systems. The proposed method is tested for the flight control of a delta wing type reentry vehicle at hypersonic, transonic and subsonic phases of the atmospheric reentry. For this thesis work, a Flight Mechanics simulator including diverse external factors and modelling errors was developed in Simulink.
132

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes / Contribution of extreme value theory to systems management and health

Diamoutene, Abdoulaye 26 November 2018 (has links)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold" / The operation of a system in general may at any time be affected by an unforeseen incident. When this incident has major consequences on the system integrity and the quality of system products, then it is said to be in the context of extreme events. Thus, increasingly researchers have a particular interest in modeling such events with studies on the reliability of systems and the prediction of the different risks that can hinder the proper functioning of a system. This thesis takes place in this very perspective. We use Extreme Value Theory (EVT) and extreme order statistics as a decision support tool in modeling and risk management in industry and aviation. Specifically, we model the surface roughness of machined parts and the reliability of the associated cutting tool with the extreme order statistics. We also did a modeling using the "Peaks-Over Threshold, POT" approach to make predictions about the potential victims in the American General Aviation (AGA) following extreme accidents. In addition, the modeling of systems subjected to environmental factors or covariates is most often carried out by proportional hazard models based on the hazard function. In proportional hazard models, the baseline risk function is typically Weibull distribution, which is a monotonic function. The analysis of the operation of some systems like the cutting tool in the industry has shown that a system can deteriorated on one phase and improving on the next phase. Hence, some modifications have been made in the Weibull distribution in order to have non-monotonic basic risk functions, more specifically, the increasing-decreasing risk function. Despite these changes, taking into account extreme operating conditions and overestimating risks are problematics. We have therefore proposed from Gumbel's standard distribution, an increasingdecreasing risk function to take into account extreme conditions, and established mathematical proofs. Furthermore, an example of the application in the field of industry was proposed. This thesis is organized in four chapters and to this must be added a general introduction and a general conclusion. In the first chapter, we recall some basic notions about the Extreme Values Theory. The second chapter focuses on the basic concepts of survival analysis, particularly those relating to reliability analysis by proposing a function of increasing-decreasing hazard function in the proportional hazard model. Regarding the third chapter, it deals with the use of extreme order statistics in industry, particularly in the detection of defective parts, the reliability of the cutting tool and the modeling of the best roughness surfaces. The last chapter focuses on the prediction of potential victims in AGA from historical data using the Peaks-Over Threshold approach.
133

Couches nanostructurées par dépôt en incidence oblique : corrélations microstructure et propriétés optiques pour application aux traitements antireflets hautes performances dans le visible étendu et l'infrarouge / Nanostructured layers by oblique incidence deposition : Microstructure andoptical properties correlations applicated to high-performance anti-reflectiontreatments in extended visible and infrared range

Maudet, Florian 15 November 2018 (has links)
Les traitements antireflets (AR) sont très largement utilisés pour améliorer la transmission de systèmes optiques composés de hublots, lentilles, de lames séparatrices,… Dans cette thèse les gammes spectrales visées sont le visible étendu [400-1800nm] et le moyen infrarouge [3,7-4,8µm]. La méthode de nanostructuration par dépôts de films minces utilisant des techniques PVD en incidence oblique (Oblique Angle Deposition) a été choisie car elle permet d’envisager des AR hautes performances sur une large gamme de longueur d’onde, via un procédé industrialisable. L’introduction de porosité via le contrôle des angles de dépôt est utilisée pour nanostructurer l’architecture de chaque couche et de l’empilement ; méthode permettant de modifier et d’optimiser les propriétés optiques des couches constituantes en vue d’un design complet optimal. Une cartographie des indices effectifs accessibles par OAD a été dégagée concernant les trois matériaux déposés (TiO2, SiO2 et Ge). Mais les propriétés optiques de ces couches nanostructurées diffèrent largement de celles des couches denses du fait de la présence d’anisotropie, de gradient d’indice, de diffusion et d’absorption. A partir de caractérisations microstructurales, chimiques et optiques poussées (AFM, MEB, MET, tomographie FIB, tomographie MET, EDX, EELS, spectrophotométrie et ellipsométrie généralisée) un modèle optique analytique plus complexe et couplé à des analyses par éléments finis (FDTD) est présenté. L’ensemble du travail a permis d’élaborer par OAD de simples antireflet bicouches démontrant déjà de hauts niveaux de transmission, supérieurs aux traitements AR existants (interférentiel) ou en développement (Moth-eyes). / Anti-reflective (AR) coatings are widely used to improve the transmission of optical systems composed of window, lenses, separating filters,... In this thesis, the spectral ranges targeted are the extended visible [400-1800nm] and the mid infrared [3.7-4.8µm]. Thin film deposition nanostructuring method using oblique angle deposition (oblique angle deposition) PVD technique was chosen because it allows high performance AR to be considered over a wide wavelength range, by an industrial process. The introduction of porosity with the control of deposition angle is used to nanostructure the architecture of each layer and stack; a method for modifying and optimizing the optical properties of the constituent layers for optimal complete design. A mapping of the effective indices accessible by OAD has been identified for the three materials deposited (TiO2, SiO2 and Ge). However optical properties of these nanostructured layers differ greatly from those of dense layers due to the presence of anisotropy, index gradient, diffusion and absorption. Based on advanced microstructural, chemical and optical characterizations (AFM, SEM, TEM, FIB tomography, TEM tomography, EDX, EELS, spectrophotometry and generalized ellipsometry) a more complex analytical optical model coupled with finite element analyses (FDTD) is presented. All the work has enabled OAD to develop simple two-layer anti-reflective coatings that already demonstrate high levels of transmission, superior to existing (interferential) or work in progress (Moth-eyes) AR treatments.
134

Contribution à la Théorie des Gaz Dilués-Dégénérés

Gruter, Peter 11 July 1996 (has links) (PDF)
Nous décrivons une approche théorique nouvelle pour étudier des gaz dilués-dégénérés, le formalisme des opérateurs d'Ursell. Nous déterminons la fonction de partition d'un gaz quantique en deux étapes. Dans un premier temps les interactions sont traitées pour un système auxiliaire de particules discernables dans une approximation de faible densité (le rapport entre portée du potentiel et distance moyenne entre particules étant beaucoup plus petit que l'unité). En second lieu la statistique quantique est introduite; aucune approximation n'est nécessaire pendant cette étape ce qui permet le traitement des gaz dégénérés. Il nous est possible de déduire des expressions des opérateurs densité réduits à partir du potentiel thermodynamique. Nous sommes alors en mesure d'étudier des systèmes macroscopiques à l'échelle microscopique. Nous aboutissons à une expression de la fonction de corrélation d'un système de sphères dures qui reproduit les « bonnes » propriétés physiques même à courte distance, un grand avantage par rapport au méthodes habituelles du type de champ moyen. Nous déterminons des expressions des quantités macroscopiques diverses dans une approximation valable pour des systèmes à faible densité (formule de Beth-Uhlenbeck généralisée). Le potentiel d'interaction y intervient par l'intermédiaire d'un nouveau paramètre, la longueur d'Ursell. Une comparaison de nos resultats avec ceux de la théorie des pseudopotentiels démontre que cette dernière donne une image acceptable des phénomènes pour des bosons. En revanche, pour des fermions, nous trouvons une différence importante: à température suffisamment basse, même des potentiels entièrement repulsives donnent lieu à une attraction effective. Nous effectuons également une étude numérique sur la dépendance de la température critique de condensation de Bose-Einstein d'un gaz de sphère dures bosoniques en fonction de la densité. Notre calcul des intégrales de chemin par une méthode Monte Carlo montre que cette température augmente par rapport à celle du gaz parfait à basse densité (maximal d'un facteur 1.07).
135

Gaz de bosons et de fermions condensés : phases de Fulde-Ferrell-Larkin-Ovchinnikov et quasicondensats

Mora, Christophe 01 March 2004 (has links) (PDF)
La première partie de cette thèse concerne les phases inhomogènes<br />FFLO. Celles-ci peuvent apparaître dans les supraconducteurs<br />ou les gaz d'atomes froids fermioniques en présence d'une différence<br />homogène de potentiels chimiques entre les deux états de spin.<br />Nous regardons la compétition<br />entre les différentes phases FFLO près de la transition.<br />A 2D, nous utilisons une approche de type Ginzburg-Landau <br />pour prédire une cascade de transitions entre des phases inhomogènes<br />de plus en plus complexes.<br />A 3D ou la transition FFLO est du premier ordre, <br />nous présentons une méthode numérique <br />de résolution des équations quasiclassiques d'Eilenberger <br />basée sur un développement de Fourier. <br />Nous déterminons ainsi les phases inhomogènes de plus basse énergie.<br /><br />Dans la seconde partie, nous étendons la théorie perturbative<br />de Bogoliubov aux quasicondensats dans une représentation densité-phase.<br />Nous obtenons des prédictions pour différentes observables.
136

Utilités Progressives Dynamiques.

M'Rad, Mohamed 19 October 2009 (has links) (PDF)
En 2002, Marek Musiela et Thaleia Zariphopoulo ont introduit la notion de {\em forward utility}, c'est à dire une utilité dynamique, progressive, cohérente avec un marché financier donné. On peut voir ce processus comme un champ aléatoire $U(t,x)$ adapté à l'information disponible, qui a chaque instant est une utilité standard (donc en particulier à la date $0$, compatible avec une famille de stratégies données $(X^{\pi})$ au sens où pour tout $t,h>0$, $ \mathbb{E}(U(t+h,X^{\pi}_{t+h})|\mathcal{F}_t)\leq U(t,X^{\pi}_t)$ et il existe un portefeuille optimal $X^*$ pour lequel l'inégalité est une égalité.\\ Les auteurs ont fait plusieurs articles sur ce sujet, montrant en particulier comment les utilités classiques, puissance, exponentielle, etc doivent être modifiées pour être des utilités dynamique progressives. Une attention limitée a été portée à l'univers d'investissement. \noindent Dans mon travail de thèse, je considère un cadre beaucoup plus général. En effet, le marché est incomplet dans le sens où un investisseur est contraint, à chaque date $t\ge 0$, de choisir ces stratégies admissibles dans des cones convexes fermés, adaptés $\K_t (X_t)$ dépendent du niveau de sa richesse $X_t$. Je considère par la suite que les champs aléatoires $U(t,x)$ évoluent selon la dynamique \begin{equation}\label{eq:champ} dU(t,x)=\beta(t,x)+\Gamma(t,x) dW_t,~U(0,.)=u(.) (\text{donnée}) \end{equation} Comme dans l'optimisation classique, (dite rétrograde puisqu'on reconstruit l'information à partir de la fin), %je montre que le terme %$\beta(t,x)$ contient, contient nécéssairement, un terme de type hamiltonien classique %modifié par la présence de la dérivée de la volatilité %$\Gamma(t,x)$ de l'utilité progressive. Et par conséquent toute utilité progressive qui % satisfait les hypothèses de régularités du lemme d'Itô-Ventzell % satisfait je me propose d'étudier les équations de type Hamilton-Jacobi-Bellman que satisfait une utilités progressive $u(t,x)$. Pour mener cette étude, j'utilise une formule d'Itô généralisée apellée la formule de Ventzell-Friedlin, qui permet d'établir la décomposition de type Itô de la composée d'un champ aléatoire avec un processus d'Itô. Je montre alors que le terme $\beta(t,x)$ contient, nécéssairement, un terme de type hamiltonien classique modifié par la présence de la dérivée de la volatilité $\Gamma(t,x)$ de l'utilité progressive. Et par conséquent toute utilité progressive qui satisfait les hypothèses de régularités du lemme d'Itô-Ventzell satisfont l' équation différentielle stochastique suivante \begin{equation}\label{EDPSU} dU(t,x)=\Big\{-xU'_{x}\, r_t dt+ \frac{1}{2U''_{xx}(t,x)}\|\prod_{\K_t(x)\sigma_t}\big(U'_{x}(t,x) \eta_t+\Gamma'_x(t,x)\big) \|^2\Big\}(t,x)\,dt\>+\Gamma(t,x)\,dW_t. \end{equation} avec comme portefeuille optimal $X^*$ le processus associé à la stratégie $\pi^*$ donnée par \begin{equation} x\pi^*(t,x)\sigma_t=- \frac{1}{U''_{xx}(t,x)}\|\prod_{\K_t(x)\sigma_t}\big(U'_{x}(t,x) \eta_t+\Gamma'_x(t,x)\big)(t,x) \end{equation} \noindent où $r$ est le taux court, $\eta$ la prime de marché, $\sigma$ la matrice de variance covariance des actifs et $ \prod_{\K_t(x)\sigma_t}$ désigne l'opérateur de projection sur le cône $\K_t(x)\sigma_t$. \\ Ce point de vue permet de vérifier que le champ aléatoire, s'il existe est compatible avec l'univers d'investissement. Cependant, la question de la convexité et de la monotonie est complexe a priori, car il n'existe pas de théorèmes de comparaison pour les équations progressives (qui sont {\em forward}), contrairement au cas des équations rétrogrades. La question de l'interprétation et du rôle de la volatilité s'avère alors être centrale dans cette étude. Contrairement au cadre général que je considère ici, M.Musiela et T.Zariphopoulo, puis C.Rogers et al se sont restreint au cas où la volatilité de l'utilité est identiquement nulle. Le processus progressif $u(t,x)$ est alors une fonction déterministe satisfaisant une EDP non linéaire, que les auteurs ont transformé en solution harmonique espace temps de l'équation de la chaleur. \\ Mon choix a été d'étudire la question de la volatilité par des techniques de changement de numéraire; ainsi, je montre la stabilité de la notion d'utilité progressive par changement de numéraire. L'avantage considérable de cette technique, comparée à la méthode classique, % Comme dans le cas % classique, le problème est compliqué par le fait que l'espace des % contraites n'est pas invariant par changement de numéraire. est le fait qu'elle permet de se ramener toujours à un marché "martingale" ($r=0$ et $\eta=0$), ce qui simplifie considérablement les équations et les calculs. La dérivée de la volatilité apparaît alors comme une prime de risque instantanée que le marché introduit, et qui dépend du niveau de la richesse de l'investisseur. Ce point de vue nouveau permet de répondre à la question de l'interprétation de la volatilité de l'utilité. Dans la suite, j'étudie le problème dual et je montre que la transformée de {\em Fenchel} $\tU$ de la fonction concave $U(t,x)$ est un champ markovien lui aussi satisfaisant la dynamique \begin{eqnarray}\label{EDPSDuale'} d\tilde{U}(t,y)=\left[\frac{1}{2\tU_{yy}''}(\|\tilde{\Gamma}'\|^2-\|\prod_{\K_t(-\tU_y'(t,y))\sigma_t}(\tilde{\Gamma}^{'}_y-y\eta_t)\|^2) +y\tU_{y}' r_t\right](t,y)dt +\tilde{\Gamma}(t,y)dW_t,~~\tilde{\Gamma}(t,y)=\Gamma(t,\tU_y'(t,y)). \end{eqnarray} À partir de ce résultat je montre que le problème dual admet une unique solution $Y^*$ dans la volatilté $\nu^*$ est donnée par \begin{equation} y\nu^*(t,y)= -\frac{1}{\tU_{yy}''}\Big(\tilde{\Gamma}'+y\eta_t-\prod_{\K_t(-\tU_y')\sigma_t}(\tilde{\Gamma}^{'}_y-y\eta_t)\Big)(t,y). \end{equation} \noindent Ce ci permettra d'établir les identités clé suivantes: \begin{eqnarray} &Y^*(t,(U_x')^{-1}(0,x))=U'_x(t,X^*(t,x)) \label{A}\\ &(\Gamma'_x+U'_x\eta)(t,x)=(xU''(t,x)\pi^*(t,x)\sigma_t+\nu^*(U_x'(t,x))\label{B}. \end{eqnarray} % Remarquons que le terme $(\Gamma'_x+U'_x\eta)$ se décompose de manière unique sous forme % de sa projection sur le cone $\K\sigma$, qui est la stratégie optimale, et la projection sur le cone dual $\K^* \sigma$, % qui est la volatilité du processus optimal dual. Mais notre but est deux termes projétés su comme la projection % Á partir de la première identité nous savons que $U'_x(t,X^*(t,x))$ n'est autre que le processus optimal dual %Á ce stade rapellons que le but de cette étude est de carracteriser les utilités progressives. La question par la suite est la suivante: peut-on caractériser l'utilité $U(t,x)$ pour tout $x>0$ à partir de la première identité? Ceci peut paraître trop demander car nous cherchons à caractériser le champ $U$ connaissant seulement son comportement le long de l'unique trajectoire optimale $X^*$. Cependant, la réponse à cette question s'avère être positive et assez simple. En effet, notons par $\Y(t,x):=Y^*(t,(U_x')^{-1}(0,x))$, et supposons que le flot stochastique $X^*$ soit inversible, $\X$ désigne son inverse. Alors, en inversant dans (\ref{A}), je déduis que $U_x'(t,x)=\Y(t,\X(t,x))$. En intégrant par rapport à $x$, j'obtiens que $U(t,x)=\int_0^x\Y(t,\X(t,z))dz$, ce qui prouve le théorème suivant: \begin{theo} Sous des hypothèses de régularités et d'inversion du flot $X^*$, les processus $U$ définis par $U(t,x)=\int_0^x\Y(t,\X(t,z))dz$ sont des utilités progressives solutions de l'EDP stochastique (\ref{EDPSU}). \end{theo} % %\noindent Inversement, je montre le théorème d'EDP stochastique suivant: \begin{theo} Soit $U$ un champ aléatoire solutions de l'EDP stochastique (\ref{EDPSU}). En utilisant la décompostion (\ref{B}), si les EDS suivantes \begin{eqnarray*} & dX^*_t(x)=X^*_t(x)(r_tdt+\pi^*(t,X^*_t(x))\sigma_t(dW_t+\eta_tdt)),X^*_0(x)=x ~\\ & dY^*_t(y)=Y^*_t(y)(-r_tdt+\nu^*(t,Y^*_t(y))dW_t),~Y^*_0(y)=y \end{eqnarray*} admettent des solutions fortes unique et monotonnes, alors, en notant par $ \Y(t,x):=Y^*(t,(U_x')^{-1}(0,x))$ et par $\X$ le flot inverse de $X$, on obtient que $U(t,x)= \int_0^x\Y(t,\X(t,z))dz$. Si de plus $X^*$ et $Y^*$ sont croissants, $U$ est concave. \end{theo} \noindent %Dans ce travail, je considère toujours un marché incomplet, Dans une seconde partie de ce travail, je me place dans un cadre beaucoup plus général dans le sens où les actifs sont supposés être cadlag locallement bornés, et par conséquent la filtration n'est plus une filtration brownienne. Je remplace les contraintes de type cône convexe par des contraintes plus générales de type ensemble convexe. Le but de cette partie est de caractériser toutes les utilités progressives avec le minimum d'hypothèses, notamment avec moins d'hypothèses de régularités sur les champs aléatoires $U$. Je ne suppose plus que $U$ est deux fois différentiable et par conséquent je ne peut plus appliquer le lemme d'Itô-Ventzell. L'approche est alors différente: je commence par établir des conditions d'optimalité sur le processus de richesses optimale ainsi que le processus optimal dual, et ce en utilisant des méthodes d'analyse. En utilisant ces résultats je démontre, par des éléments d'analyse, la convexité ainsi que les conditions d'optimalités que toutes les utilités progressives générant une richesse croissante est de la forme $\int_0^x\Y(t,\X(t,z))dz$ avec $\Y$ : $\Y X$ est une surmartingale pour toute richesse $X$ et une martingale si $X=X^*$.
137

Affine and generalized affine models : Theory and applications

Feunou Kamkui, Bruno January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
138

Processus de Markov diffusifs par morceaux: outils analytiques et numériques

Bect, Julien 18 June 2007 (has links) (PDF)
Ce travail de thèse a pour objet l'étude de modèles markoviens qui résultent de la prise en compte d'incertitudes dans des systèmes possédant une dynamique hybride : entrées bruitées, dynamique mal connue, ou évènements aléatoires par exemple. De tels modèles, parfois qualifiés de Systèmes Hybrides Stochastiques (SHS), sont utilisés principalement en automatique et en recherche opérationnelle.<br /><br />Nous introduisons dans la première partie du mémoire la notion de processus diffusif par morceaux, qui fournit un cadre théorique général qui unifie les différentes classes de modèles "hybrides" connues dans la littérature. Différents aspects de ces modèles sont alors envisagés, depuis leur construction mathématique (traitée grâce au théorème de renaissance pour les processus de Markov) jusqu'à l'étude de leur générateur étendu, en passant par le phénomène de Zénon.<br /><br />La deuxième partie du mémoire s'intéresse plus particulièrement à la question de la "propagation de l'incertitude", c'est-à-dire à la manière dont évolue la loi marginale de l'état au cours du temps. L'équation de Fokker-Planck-Kolmogorov (FPK) usuelle est généralisée à diverses classes de processus diffusifs par morceaux, en particulier grâce aux notions d'intensité moyenne de sauts et de courant de probabilité. Ces résultats sont illustrés par deux exemples de modèles multidimensionnels, pour lesquels une résolution numérique de l'équation de FPK généralisée a été effectuée grâce à une discrétisation en volumes finis. La comparaison avec des méthodes de type Monte-Carlo est également discutée à partir de ces deux exemples.
139

Écoulements de fluides à seuil en milieux confinés

Chevalier, Thibaud 24 October 2013 (has links) (PDF)
Afin de mieux comprendre les spécificités de l'écoulement des fluides en seuil en géométries confinées, nous avons opté pour une approche multi-échelle expérimentale et/ou numérique dans des milieux poreux complexes et modèles. Nous montrons qu'il est possible d'utiliser la RMN pour visualiser des écoulements de fluides à seuil en géométrie complexe. Dans un milieu poreux, il est également possible de mesurer la distribution statistique des vitesses, ceci sans problème de résolution spatiale, grâce à la méthodologie de réglage d'une expérience d'injection sous IRM que nous avons mise en place. A l'aide de ces techniques, nous montrons que l'écoulement d'un fluide à seuil dans un pore modèle (une expansion-contraction axisymétrique) se localise dans la partie centrale du pore, dans le prolongement du tube d'entrée, tandis que les régions extérieures restent dans le régime solide. Des simulations numériques confirment ces résultats et montrent que la localisation de l'écoulement provient du confinement engendré par la géométrie. A l'inverse, nous montrons que pour un fluide à seuil s'écoulant dans un milieu poreux réel (en trois dimensions), il n'existe pas de zones au repos. De plus, la distribution de vitesse est identique à celle d'un fluide newtonien. Une analyse de ces résultats nous permet de prédire la forme de la loi de Darcy pour les fluides à seuil et de comprendre l'origine physique des paramètres déterminés par des expériences d'injection " macroscopiques "
140

Équation de diffusion généralisée pour un modèle de croissance et de dispersion d'une population incluant des comportements individuels à la frontière des divers habitats / Generalized diffusion equation for a growth and dispersion model of a population including individual behaviors on the boundary of the different habitats

Thorel, Alexandre 24 May 2018 (has links)
Le but de ce travail est l'étude d'un problème de transmission en dynamique de population entre deux habitats juxtaposés. Dans chacun des habitats, on considère une équation aux dérivées partielles, modélisant la dispersion généralisée, formée par une combinaison linéaire du laplacien et du bilaplacien. On commence d'abord par étudier et résoudre la même équation avec diverses conditions aux limites posée dans un seul habitat. Cette étude est effectuée grâce à une formulation opérationnelle du problème: on réécrit cette EDP sous forme d'équation différentielle, posée dans un espace de Banach construit sur les espaces Lp avec 1 < p < +∞, où les coefficients sont des opérateurs linéaires non bornés. Grâce au calcul fonctionnel, à la théorie des semi-groupes analytiques et à la théorie de l'interpolation, on obtient des résultats optimaux d'existence, d'unicité et de régularité maximale de la solution classique si et seulement si les données sont dans certains espaces d'interpolation. / The aim of this work is the study of a transmission problem in population dynamics between two juxtaposed habitats. In each habitat, we consider a partial differential equation, modeling the generalized dispersion, made up of a linear combination of Laplacian and Bilaplacian operators. We begin by studying and solving the same equation with various boundary conditions in a single habitat. This study is carried out using an operational formulation of the problem: we rewrite this PDE as a differential equation, set in a Banach space built on the spaces Lp with 1 < p < +∞, where the coefficients are unbounded linear operators. Thanks to functional calculus, analytic semigroup theory and interpolation theory, we obtain optimal results of existence, uniqueness and maximum regularity of the classical solution if and only if the data are in some interpolation spaces.

Page generated in 0.0297 seconds