Spelling suggestions: "subject:"maximization""
21 |
Modélisation du risque de liquidité et méthodes de quantification appliquées au contrôle stochastique séquentielGassiat, Paul 07 December 2011 (has links) (PDF)
Cette thèse est constituée de deux parties pouvant être lues indépendamment. Dans la première partie on s'intéresse à la modélisation mathématique du risque de liquidité. L'aspect étudié ici est la contrainte sur les dates des transactions, c'est-à-dire que contrairement aux modèles classiques où les investisseurs peuvent échanger les actifs en continu, on suppose que les transactions sont uniquement possibles à des dates aléatoires discrètes. On utilise alors des techniques de contrôle optimal (programmation dynamique, équations d'Hamilton-Jacobi-Bellman) pour identifier les fonctions valeur et les stratégies d'investissement optimales sous ces contraintes. Le premier chapitre étudie un problème de maximisation d'utilité en horizon fini, dans un cadre inspiré des marchés de l'énergie. Dans le deuxième chapitre on considère un marché illiquide à changements de régime, et enfin dans le troisième chapitre on étudie un marché où l'agent a la possibilité d'investir à la fois dans un actif liquide et un actif illiquide, ces derniers étant corrélés. Dans la deuxième partie on présente des méthodes probabilistes de quantification pour résoudre numériquement un problème de switching optimal. On considère d'abord une approximation en temps discret du problème et on prouve un taux de convergence. Ensuite on propose deux méthodes numériques de quantification : une approche markovienne où on quantifie la loi normale dans le schéma d'Euler, et dans le cas où la diffusion n'est pas contrôlée, une approche de quantification marginale inspirée de méthodes numériques pour le problème d'arrêt optimal.
|
22 |
Problèmes inverses dans les réseauxKauffmann, Bruno 24 March 2011 (has links) (PDF)
La croissance récente d'Internet lors deux dernières décennies a conduit à un besoin croissant de techniques permettant de mesurer la structure et la performance d'Internet. Les techniques de mesures de réseaux peuvent être classifiées en méthodes passives qui utilisent des données collectées au niveau des routeurs, et les méthodes actives, reposant sur l'injection active et l'observation de paquets-sondes. Les méthodes actives, qui sont la motivation principale de ce doctorat, sont particulièrement adaptées aux utilisateurs finaux, qui ne peuvent pas accéder aux données mesurées par les routeurs avec l'architecture actuelle d'Internet. Sur un autre plan, la théorie des réseaux se développe depuis un siècle, et de nombreux outils permettent de prédire la performance d'un système, en fonction de quelques paramètres clés. La théorie des files d'attentes émerge comme une solution particulièrement fructueuse, que ce soit pour les réseaux téléphoniques ou pour les réseaux filaires à commutation de paquet. Dans ce dernier cas, elle s'intéresse au mécanisme à l'échelle des paquets, et prédit des statistiques à ce niveau. À l'échelle des flots de paquets, la théorie des réseaux à partage de bande passante permet une abstraction de tout schéma d'allocation de bande passante, y compris le partage implicite résultant du protocole TCP. De nombreux travaux ont montré comment les résultats provenant de ces théories peuvent s'appliquer aux réseaux réels, et en particulier à Internet, et dans quels aspects le comportement de réseaux réels diffère des prédictions théoriques. Cependant, il y a eu peu de travaux établissant des liens entre le point de vue théorique d'un réseau et le problème pratique consistant à le mesurer. Le but de ce manuscrit est de bâtir quelques ponts entre le monde des méthodes de mesure par sondes actives et le monde de la théorie des réseaux. Nous adoptons l'approche des problèmes inverses, qui peuvent être vus en opposition aux problèmes directs. Un problème direct prédit l'évolution d'un système défini, en fonction des conditions initiales et d'une équation d'évolution connue. Un problème inverse observe une partie de la trajectoire d'un système défini, et cherche à estimer les conditions initiales ou paramètres pouvant conduire à cette trajectoire. Les données des méthodes de mesure par sondes actives sont les séries temporelles des pertes et délais des sondes, c'est-à-dire précisément une partie de la "trajectoire" d'un réseau. Ainsi, les méthodes de mesures par sondes actives peuvent être considérées comme des problèmes inverses pour une théorie des réseaux qui permettrait une prédiction exacte de l'évolution des réseaux. Nous montrons dans ce document comment les méthodes de mesures par sondes actives sont reliées aux problèmes inverses dans la théories des files d'attentes. Nous spécifions comment les contraintes de mesures peuvent être incluses dans les problèmes inverses, quels sont les observables, et détaillons les étapes successives pour un problème inverse dans la théorie des files d'attentes. Nous classifions les problèmes en trois catégories différentes, en fonction de la nature de leur résultat et de leur généralité, et donnons des exemples simples pour illustrer leurs différentes propriétés. Nous étudions en détail un problème inverse spécifique, où le réseau se comporte comme un réseau dit "de Kelly" avecK serveurs en tandem. Dans ce cas précis, nous calculons explicitement la distribution des délais de bout en bout des sondes, en fonction des capacités résiduelles des serveurs et de l'intensité des sondes. Nous montrons que l'ensemble des capacités résiduelles peut être estimé à partir du délai moyen des sondes pour K intensités de sondes différentes. Nous proposons une méthodes d'inversion alternative, à partir de la distribution des délais des sondes pour une seule intensité de sonde. Dans le cas à deux serveurs, nous donnons une caractérisation directe de l'estimateur du maximum de vraisemblance des capacités résiduelles. Dans le cas général, nous utilisons l'algorithme Espérance-Maximisation (E-M). Nous prouvons que dans le cas à deux serveurs, la suite des estimations de E-M converge vers une limite finie, qui est une solution de l'équation de vraisemblance. Nous proposons une formule explicite pour le calcul de l'itération quand K = 2 ou K = 3, et prouvons que la formule reste calculable quelque soit le nombre de serveurs. Nous évaluons ces techniques numériquement. À partir de simulations utilisant des traces d'un réseau réel, nous étudions indépendamment l'impact de chacune des hypothèses d'un réseau de Kelly sur les performances de l'estimateur, et proposons des facteurs de correction simples si besoin. Nous étendons l'exemple précédant au cas des réseaux en forme d'arbre. Les sondes sont multicast, envoyées depuis la racine et à destination des feuilles. À chaque noeud, elles attendent un temps aléatoire distribué de façon exponentielle. Nous montrons que ce modèle est relié au modèle des réseaux de Kelly sur une topologie d'arbre, avec du trafic transverse unicast et des sondes multicast, et calculons une formule explicite pour la vraisemblance des délais joints. Nous utilisons l'algorithme E-M pour calculer l'estimateur de vraisemblance du délai moyen à chaque noeud, et calculons une formule explicite pour la combinaison des étapes E et M. Des simulations numériques illustrent la convergence de l'estimateur et ses propriétés. Face à la complexité de l'algorithme, nous proposons une technique d'accélération de convergence, permettant ainsi de considérer des arbres beaucoup plus grands. Cette technique contient des aspects innovant dont l'intérêt peut dépasser le cadre de ces travaux. Finalement, nous explorons le cas des problèmes inverses dans la théorie des réseaux à partage de bande passante. À partir de deux exemples simples, nous montrons comment un sondeur peut mesurer le réseau en faisant varier le nombre de flots de sondes, et en mesurant le débit associé aux flots dans chaque cas. En particulier, si l'allocation de bande passante maximise une fonction d'utilité -équitable, l'ensemble des capacités des réseaux et leur nombre de connections associé peut être identifié de manière unique dans la plupart des cas. Nous proposons un algorithme pour effectuer cette inversion, avec des exemples illustrant ses propriétés numériques.
|
23 |
The measurement invariance and measurement equivalence of the sources of work stress inventory (SWSI) across gender groups in South AfricaDavis, Samantha 12 1900 (has links)
Thesis (MCom)--Stellenbosch University, 2014. / You will be needing the program SPSS in order to read the .spv files / ENGLISH ABSTRACT: The primary goal of an organisation, in a capitalistic system, is the maximisation of profit. The task of
the human resource function in organisations is to affect the work performance of working man to
the advantage of the organisation and in a manner that adds value to the organisation. The
management of employee wellbeing/psychological health is one of the human resource
interventions with which the human resource function pursues this objective. It is imperative for
organisations to be aware of, and sensitive to, negative factors in the workplace, such as
occupational stress, that influence employees’ health and wellbeing and have a significant effect on
job satisfaction and performance (Hamidi & Eivazi, 2010). Prevailing stress levels need to be
monitored regularly if escalating stress levels are to be detected in time to prevent serious personal
and organisational problems from developing. The Sources of Work Stress Inventory (SWSI) is an
instrument developed in South Africa specifically for this purpose (De Bruin & Taylor, 2005). The
inappropriate use of occupational stress assessments across genders can seriously jeopardize the
extent to which occupational stress assessments, and the decisions based on them, achieve their
intended objectives. In order to avoid making widespread generalisations and untested assumptions
which will eventually do a disservice to the field of psychology, the absence of measurement bias
(i.e. invariance and equivalence) should be demonstrated instead of simply assumed (Van de Vijver
& Tanzer, 2004). Establishing the measurement invariance and equivalence of an instrument across
groups should be a prerequisite to conducting substantive cross-group comparisons (Dunbar, Theron
& Spangenberg, 2011). It is imperative to empirically ascertain whether the instruments that are
used are free of cultural, language, gender, age and racial bias, not only because it is prohibited by
the Employment Equity Act 55 of 1998, but also as it is in the interest of good workmanship. Bias is
indicated as nuisance factors that threaten the validity of cross-group (cultural) comparisons (Van de
Vijver & Leung, 1997). These nuisance factors could be due to construct bias, method bias and/or
item bias. Due to the importance of the decisions made, it would seem essential that the
information provided by test results apply equally across different reference groups. In this study the
specific measurement invariance and equivalence sequence of tests set out by Dunbar et al. (2011)
was used to answer a sequence of research questions that examine the extent to which the SWSI
multi-group measurement model may be considered measurement invariant and equivalent or not,
and to determine the source of variance if it existed (Vandenberg & Lance, 2000). Upon investigating
the measurement model fit of the SWSI, the results indicated that support was found for the
hypotheses that the measurement model fits the data of both gender samples independently.
Furthermore, support was found for the configural and weak invariance model. However, due to not meeting the requirements for metric equivalence, partial measurement invariance and equivalence
was explored. The SWSI multi-group measurement model met the requirements of partial complete
invariance and partial full equivalence, and the non-invariant items were identified in the process.
The implications of the results are discussed, limitations are indicated and areas for further research
are highlighted. / AFRIKAANSE OPSOMMING: Die kerndoelwit van enige organisasie, veral in ‘n kapitalistiese stelsel, is om optimale wins te
genereer. Die taak van die menslike hulpbronbestuurfunksie binne organisasies is om die werksverrigting
van die werkende mens te beïnvloed tot voordeel van die organisasie en terselfdetyd
waarde tot die organisasie toe te voeg. Die bestuur van ‘n werknemer se welstand / sielkundige
gesondheid is een van die menslike hulpbron-iintervensies waarmee die menslike hulpbronfunksie
hierdie doelwit nastreef. Dit is uiters belangrik vir organisasies om bewus te wees van, asook
sensitief te wees vir, negatiewe faktore soos werkstres, wat werknemers se gesondheid en welsyn
beïnvloed en wat 'n beduidende invloed op werkstevredenheid en prestasie het (Hamidi & Eivazi,
2010). Heersende stresvlakke moet gereeld gemonitor word om tydig stygende stresvlakke te
bespeur ten einde ernstige persoonlike en organisasieverwante probleme te verhoed. Die Bronne
van die Werkstres-inventaris (BWSI) is in Suid-Afrika spesifiek vir hierdie doel ontwikkel (De Bruin &
Taylor, 2005). Die ontoepaslike gebruik van werkstresmetings oor geslagte kan egter die mate
waartoe beroepstresmetings en die besluite wat daarop gebaseer word hul oogmerke bereik ernstig
benadeel. Die afwesigheid van metingsydigheid (bv. invariansie en ekwivalensie) moet dus empiries
gedemonstreer word, in stede daarvan dat die afwesigheid daarvan eenvoudig aanvaar word (Van
de Vijver & Tanzer, 2004). Die afwesigheid van hierdie informasie kan lei tot wydverspreide
veralgemenings en ongetoetsde aannames wat die Sielkunde professie ernstige skade kan berokken.
Die meetings-invariansie en -ekwivalensie van 'n instrument oor groepe is 'n voorvereiste vir
substantiewe kruis-groepvergelykings (Dunbar, Theron & Spangenberg, 2011). Dit is noodsaaklik om
empiries te bepaal of die instrumente wat gebruik is vry is van kulturele-, taal, geslag-, ouderdom- en
rasse-sydigheid, nie net omdat dit verbied word deur die Wet op Diensbillikheid 55 van 1998 nie,
maar ook omdat dit in die belang van goeie vakmanskap is. Sydigheid is sistermatiese steurnisse wat
die geldigheid van die kruis-groep (kulturele) vergelykings (Van de Vijver & Leung, 1997) bedreig.
Hierdie steurnisse kan wees as gevolg van konstruk-, metode- en/of itemsydigheid. Gegewe die
belangrikheid van die besluite wat geneem word gebaseer op die metings is dit noodsaaklik dat die
inligting vergelykbaar oor die verskillende verwysingsgroepe is. Die studie het die stel
metingsinvariansie en -ekwivalensie toetse wat deur Dunbar et al. (2011) gebruik om 'n reeks van
navorsingsvrae te beantwoord. Daar is ondersoek gestel na die mate waartoe die BWSI multi-groep
metingsmodel as invariant of ekwivalent beskou kan word, en die bron van variansie te bepaal as dit
sou bestaan (Vandenberg & Lance, 2000). In die ondersoek na die metingsmodel passing van die
BWSI, is daar ondersteuning gevind is vir die hipoteses dat die metingsmodel beide van die
geslagsteekproewe goed pas. Steun is ook gevind vir die konfigurale en swak invariansie modelle. Aangesien slegs beperkte steun vir metriese ekwivalensie gevind is, is ondersoek na die parsiële
metriese invariansie en ekwivalensie ingestel. Die BWSI multi-groep metingsmodel het voldoen aan
die vereistes van parsiële volledige invariansie en parsiële volle ekwivalensie, en die nie-invariante
items is deur die proses geïdentifiseer. Die implikasies van die resultate word bespreek, beperkinge
word aangedui en areas vir verdere navorsing word uitgelig.
|
24 |
Analyse et contrôle optimal d'un bioréacteur de digestion anaérobie / Optimal control and analysis of anaerobic digestion bioreactorGhouali, Amel 14 December 2015 (has links)
Cette thèse porte sur l'analyse et le contrôle optimal d'un digesteur anaérobie. L'objectif est de proposer une stratégie de commande optimale pour maximiser la quantité de biogaz produit dans un bioréacteur anaérobie sur une période de temps donnée. Plus particulièrement, à partir d'un modèle simple de bioprocédé et en considérant une classe importante de cinétiques de croissance, nous résolvons un problème de maximisation de biogaz produit par le système pendant un temps fixé, en utilisant le taux de dilution D(.) comme variable de contrôle. Dépendant des conditions initiales du système, l'analyse du problème de contrôle optimal fait apparaître des degrés de difficulté très divers. Dans une première partie, nous résolvons le problème dans le cas où le taux de dilution permettant de maximiser le débit de gaz à l'équilibre est à l'intérieur des bornes minimales et maximales du débit d'alimentation pouvant être appliqué au système : il s'agit du cas WDAC (Well Dimensioned Actuator Case). La synthèse du contrôle optimal est obtenue par une approche de comparaison de trajectoires d'un système dynamique. Une étude comparative des solutions exactes avec celle obtenues avec une approche numérique directe en utilisant le logiciel "BOCOP" est faite. Une comparaison des performances du contrôleur optimal avec celles obtenues en appliquant une loi heuristique est discutée. On montre en particulier que les deux lois de commande amènent le système vers le même point optimal. Dans une deuxième partie, dans le cas où l'actionneur est sous- (ou sur-) dimensionné, c'est-à-dire si la valeur du taux de dilution à appliquer pour obtenir le maximum de biogaz à l'équilibre est en dehors de la valeur minimale ou maximale de l'actionneur, alors nous définissons les cas UDAC (Uder dimensioned Actuator Case) et ODAC (Over Dimensioned Actuator Case) que nous résolvons en appliquant le principe du maximum de Pontryagin. / This thesis focuses on the optimal control of an anaerobic digestor for maximizing its biogas production. In particular, using a simple model of the anaerobic digestion process, we derive a control law to maximize the biogas production over a period of time using the dilution rate D(.) as the control variable. Depending on initial conditions and constraints on the actuator, the search for a solution to the optimal control problem reveals very different levels of difficulty. In the first part, we consider that there are no severe constraints on the actuator. In particular, the interval in which the input flow rate lives includes the value which allows the biogas to be maximized at equilibrium. For this case, named WDAC (Well Dimensioned Actuator Case) we solve the optimal control problem using classical tools of differential equations analysis.Numerical simulations illustrate the robustness of the control law with respect to several parameters, notably with respect to initial conditions. We use these results to show that an heuristic control law proposed in the literature is optimal in a certain sense. The optimal trajectories are then compared with those given by a purely numerical optimal control solver (i.e. the "BOCOP" toolkit) which is an open-source toolbox for solving optimal control problems. When the exact analytical solution to the optimal control problem cannot be found, we suggest that such numerical tool can be used to intuiter optimal solutions.In the second part, the problem of maximizing the biogas production is treated when the actuator is under (-over) dimensioned. These are the cases UDAC (Under Dimensioned Actuator Cases) and ODAC (Over Dimensioned Actuator Cases). Then we solve these optimal problems using the Maximum Principle of Pontryagin.
|
25 |
Kinetic modelling simulation and optimal operation of fluid catalytic cracking of crude oil: Hydrodynamic investigation of riser gas phase compressibility factor, kinetic parameter estimation strategy and optimal yields of propylene, diesel and gasoline in fluid catalytic cracking unitJohn, Yakubu M. January 2018 (has links)
The Fluidized Catalytic Cracking (FCC) is known for its ability to convert refinery wastes into useful fuels such as gasoline, diesel and some lighter products such as ethylene and propylene, which are major building blocks for the polyethylene and polypropylene production. It is the most important unit of the refinery. However, changes in quality, nature of crude oil blends feedstock, environmental changes and the desire to obtain higher profitability, lead to many alternative operating conditions of the FCC riser.
There are two major reactors in the FCC unit: the riser and the regenerator. The production objective of the riser is the maximisation of gasoline and diesel, but it can also be used to maximise products like propylene, butylene etc. For the regenerator, it is for regeneration of spent or deactivated catalyst.
To realise these objectives, mathematical models of the riser, disengage-stripping section, cyclones and regenerator were adopted from the literature and modified, and then used on the gPROMS model builder platform to make a virtual form of the FCC unit. A new parameter estimation technique was developed in this research and used to estimate new kinetic parameters for a new six lumps kinetic model based on an industrial unit. Research outputs have resulted in the following major products’ yields: gasoline (plant; 47.31 wt% and simulation; 48.63 wt%) and diesel (plant; 18.57 wt% and simulation; 18.42 wt%) and this readily validates the new estimation methodology as well as the kinetic parameters estimated. The same methodology was used to estimate kinetic parameters for a new kinetic reaction scheme that considered propylene as a single lump. The yield of propylene was found to be 4.59 wt%, which is consistent with published data.
For the first time, a Z-factor correlation analysis was used in the riser simulation to improve the hydrodynamics. It was found that different Z factor correlations predicted different riser operating pressures (90 – 279 kPa) and temperatures as well as the riser products. The Z factor correlation of Heidaryan et al. (2010a) was found to represent the condition of the riser, and depending on the catalyst-to-oil ratio, this ranges from 1.06 at the inlet of the riser to 0.92 at the exit.
Optimisation was carried out to maximise gasoline, propylene in the riser and minimise CO2 in the regenerator. An increase of 4.51% gasoline, 8.93 wt.% increase in propylene as a single lump and 5.24 % reduction of carbon dioxide emission were achieved. Finally, varying the riser diameter was found to have very little effect on the yields of the riser products.
|
26 |
Information and semimartingalesAnkirchner, Stefan 22 July 2005 (has links)
Die stochastische Analysis gibt Methoden zur Erfassung und Beschreibung von zufälligen numerischen Prozessen an die Hand. Die Beschreibungen hängen dabei sehr stark von der Informationsstruktur ab, die den Prozessen in Gestalt von Filtrationen zugrunde gelegt wird. Der 1. Teil der vorliegenden Arbeit handelt davon, wie sich ein Wechsel der Informationsstruktur auf das Erscheinungsbild eines stochastischen Prozesses auswirkt. Konkret geht es darum, wie sich eine Filtrationsvergrößerung auf die Semimartingalzerlegung eines Prozesses auswirkt. In dem 2. und 3. Teil der Arbeit wird die Rolle von Information im finanzmathematischen Nutzenkalkül untersucht. Im 2. Teil werden unter der Annahme, dass der maximale erwartete Nutzen eines Händlers beschränkt ist, qualitative Erkenntnisse über den Preisprozess hergeleitet. Es wird gezeigt, dass endlicher Nutzen einige strukturelle Implikationen für die intrinsische Sichtweise hat. Im 3. Teil wird quantitativ untersucht, wie sich Information auf den Nutzen auswirkt. Aus extrinsischer Sicht werden Händler mit unterschiedlichem Wissen verglichen. Falls die Präferenzen durch die logarithmische Nutzenfunktion beschrieben werden, stimmt der Nutzenzuwachs mit der gemeinsamen Information zwischen dem zusätzlichen Wissen und dem ursprünglichen Wissen überein, wobei `gemeinsame Information' im Sinne der Informationstheorie verstanden wird. / Stochastic Analysis provides methods to describe random numerical processes. The descriptions depend strongly on the underlying information structure, which is represented in terms of filtrations. The first part of this thesis deals with impacts of changes in the information structure on the appearance of a stochastic process. More precisely, it analyses the consequences of a filtration enlargement on the semimartingale decomposition of the process. The second and third part discuss the role of information in financial utility calculus. The second part is of a qualitative nature: It deals with implications of the assumption that the maximal expected utility of an investor is bounded. It is shown that finite utility implies some structure properties of the price process viewed from the intrinsic perspective. The third part is of a quantitative nature: It analyzes the impact of information on utility. From an extrinsic point of view traders with different knowledge are compared. If the preferences of the investor are described by the logarithmic utility function, then the utility increment coincides with the mutual information between the additional knowledge and the original knowledge.
|
27 |
The theory of self-interest in modern economic discourse: a critical study in the light of African Humanism and process philosophical AnthropologyMurove, Munyaradzi Felix 09 1900 (has links)
Modern economic theory of self-interest alleges that in their economic relations people
always behave in a way that maximises their utility. The idea whether human beings were
solely self-interested has a long history as it can be seen from the writings of Greek
philosophers and the Church fathers. Among Greek philosophers there were those who argued that human beings were naturally self-interested (Aristotle) and those who maintained that human beings were communal by nature (Plato, Stoics and the Pythagoreans). The later position was adopted by the Church fathers as they condemned
self-interest as the sin of avarice and greed.
The justification of self-interest in human and political activities was part and parcel of
the economic and political early modernists, as it can be seen in the works of Mandeville,
Hobbes, Hume and Adam Smith. In the writings of these thinkers, the flourishing of wealth depended on individual freedom to pursue their self-interests. In this regard, selfinterest
became the sole source of motivation in the behaviour of homo economicus. A persistent motif in late modern economic discourse on self-interest is based on the idea that people think and act on the basis of that which is to their self-interest. It is mainly for this reason that late modern economic thinkers maintain that society would prosper when people are left alone to pursue their self-interests. Late modern economic theory of utility maximisation alleges that individuals act only after calculating costs and benefits.
The argument of this thesis, based on the commonalities between African humanism and
process philosophical anthropology, is that self-interest is antithetical to communal life as
advocated in the ethic of Ubuntu. One who acts solely on the basis of maximising his or
her utility would inevitably deprive others of a humane existence. A holistic metaphysical
outlook based on the relatedness and interrelatedness of everything that exists as we find it in African humanism and process philosophical anthropology implies that the
individual exists in internal relations with everything else. We should go beyond selfinterest
by giving primacy to a holistic ethic. / Systematic Theology & Theological Ethics / D. Div. (Theological Ethics)
|
28 |
EDS Rétrogrades et Contrôle Stochastique Séquentiel en Temps Continu en FinanceKharroubi, Idris 01 December 2009 (has links) (PDF)
Nous étudions le lien entre EDS rétrogrades et certains problèmes d'optimisation stochas- tique ainsi que leurs applications en finance. Dans la première partie, nous nous intéressons à la représentation par EDSR de problème d'optimisation stochastique séquentielle : le contrôle impul- sionnel et le switching optimal. Nous introduisons la notion d'EDSR contrainte à sauts et montrons qu'elle donne une représentation des solutions de problème de contrôle impulsionnel markovien. Nous lions ensuite cette classe d'EDSR aux EDSRs à réflexions obliques et aux processus valeurs de problèmes de switching optimal. Dans la seconde partie nous étudions la discrétisation des EDSRs intervenant plus haut. Nous introduisons une discrétisation des EDSRs contraintes à sauts utilisant l'approximation par EDSRs pénalisées pour laquelle nous obtenons la convergence. Nous étudions ensuite la discrétisation des EDSRs à réflexions obliques. Nous obtenons pour le schéma proposé une vitesse de convergence vers la solution continument réfléchie. Enfin dans la troisième partie, nous étudions un problème de liquidation optimale de portefeuille avec risque et coût d'exécution. Nous considérons un marché financier sur lequel un agent doit liquider une position en un actif risqué. L'intervention de cet agent influe sur le prix de marché de cet actif et conduit à un coût d'exécution modélisant le risque de liquidité. Nous caractérisons la fonction valeur de notre problème comme solution minimale d'une inéquation quasi-variationnelle au sens de la viscosité contrainte.
|
29 |
Quelques résultats en optimisation non convexe. I. Formules optimales de sommation d'une série. II. Théorèmes d'existence en densité et application au contrôleBaranger, Jacques 23 March 1973 (has links) (PDF)
.
|
30 |
Modèles Stochastiques pour La Planification de Production et la Gestion de Stocks : Application aux Produits à Court Cycle de VieCheaitou, Ali 21 January 2008 (has links) (PDF)
Le phénomène d'incertitude, dont les sources sont variées, est rencontré dans plusieurs domaines et on devrait y faire face. Cette incertitude est due essentiellement à notre incapacité à prédire avec exactitude le comportement futur d'une partie ou de la totalité d'un système. Dans les dernières décades, plusieurs techniques mathématiques ont été développées pour maitriser cette incertitude, afin de réduire son impact négatif, et par conséquent, l'impact négatif de notre méconnaissance. <br />Dans le domaine du « Supply Chain Management » la source principale d'incertitude est la demande future. Cette demande est, en général, modélisé par des lois de probabilité paramétrées en utilisant des techniques de prévision. L'impact de l'incertitude de la demande sur les performances de la « Supply Chain » est important: par exemple, le taux mondial de rupture de stock, dans l'industrie de distribution était en 2007 de 8.3%. De l'autre côté, le taux mondial de produits invendus, dans la grande distribution, était en 2003 de 1%. Ces deux types de coûts, qui sont dus essentiellement à l'incertitude de la demande, représentent des pertes significatives pour les différents acteurs de la « Supply Chain ».<br />Dans cette thèse, on s'intéresse au développement de modèles mathématiques de planification de production et de gestion de stock, qui prennent en compte ce phénomène d'incertitude sur la demande, essentiellement pour de produits à courte durée de vie. On propose plusieurs modèles de planification de production, à petit horizon de planification, qui prennent en compte les différents aspects de notre problématique, tels que les capacités de production, la remise à jour des prévisions de la demande, les options de réservation de capacité, et les options de retour « Payback » des produits. On souligne, dans ces modèles, un aspect important qui prend de l'ampleur à cause de la mondialisation, et qui est lié à la différence entre les coûts de production des différents fournisseurs. On propose à la fin de la thèse, un modèle généralisé qui pourrait être appliqué à des produits à longue durée de vie, et qui exploite quelques résultats obtenus pour les produits à courte durée de vie. Tous ces modèles sont résolus analytiquement ou bien numériquement en utilisant la programmation dynamique stochastique.
|
Page generated in 0.1058 seconds