• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 319
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 785
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 92
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Contribution à l'évaluation de la reconfigurabilité et réorganisabilité d'un micro système de production : application à une micro-usine d'assemblage.

Descourvières, Eric 07 October 2010 (has links) (PDF)
Les travaux de thèse s‟inscrivent dans le cadre de la conception des systèmes de production/assemblage pour les produits de taille micrométrique, appelés micro-produits. Il s‟agit de produits constitués de composants de taille submillimétrique, si bien qu‟il est difficile, voire impossible, de les observer à l‟oeil nu et encore de les manipuler précisément soit directement avec les doigts, soit avec un outillage manuel. FEMTO-ST, dans son équipe SAMMI - Systèmes Automatisés de Micromanipulation et de Micro assemblage - propose des solutions robotisées pour la manipulation et l‟assemblage de ces microproduits. Ces microrobots sont conçus et réalisés pour tenir compte des forces en présence à cette échelle et les exploiter au mieux pour une manipulation dextre et précise. L‟intégration de ces microrobots pour concevoir des systèmes de production - nous traitons ici le problème du micro-assemblage - a fait émerger le concept de micro-usine. Au niveau international, nous avons pris un positionnement original en proposant une modularité non seulement au niveau des cellules de production mais également à l‟intérieur de ces cellules. Cette modularité porte à la fois sur les structures physiques mais également sur les systèmes de commande et de supervision. Dans ce manuscrit, nous proposons d‟étudier la pertinence de cette décomposition modulaire en fonction des conditions de production. Notamment, nous nous placerons dans le contexte de production changeante nécessitant réorganisation et/ou reconfiguration du système de production. Trois parties composent le travail de thèse. Nous avons établi une structure de micro-usine et une stratégie de commande dont nous avons identifié les propriétés. Nous avons ensuite formalisé une architecture des données. Enfin, l‟étude du comportement a été obtenue par simulation d‟un modèle réalisé par réseau de Petri stochastique et T-temporisé. L‟évolution stochastique se justifie par l‟incertitude inhérente au micromonde, celle-ci est d‟autant moins importante que s‟accroit la connaissance et le savoir-faire dans une situation donnée. La temporisation permet de prendre en considération les durées relatives des reconfigurations ou réorganisations qui évoluent au gré des expérimentations. Dans le cadre d‟une conception orientée objet, les modélisations sont établies au moyen du langage de modélisation graphique UML qui autorise une analyse syntaxique. Concernant les études menées avec le modèle mathématique discret de réseau de Pétri, l‟outil de simulation utilisé est PACE - IBE Simulation Engineering Gmbh -. Ce logiciel permet une programmation conditionnant les transitions grâce au langage de programmation orienté objet, SMALLTALK, pour temporiser et rendre stochastique l‟exécution du modèle. PACE comporte par ailleurs une interface graphique utilisateur souple et lisible. Les résultats de simulation sont ensuite analysés et mis en forme avec MATLAB. Ces résultats nous ont montré la pertinence de l‟approche modulaire et du choix de décomposition mis en place pour assurer de bonnes performances à une cellule de micro-assemblage.
222

Simulation du mouvement brownien et des diffusions

Faure, Olivier 21 February 1992 (has links) (PDF)
L'objet de cette thèse est l'étude de la simulation numérique de certains processus stochastiques, les diffusions, dont le mouvement brownien est un exemple typique. Nous commençons par quelques rappels sur le mouvement brownien au chapitre 1. Il s'agit d'une présentation élémentaire, qui s'appuie sur la simulation numérique, et permet de rappeler quelques propriétés classiques. Puis nous présentons au chapitre 2 une simulation alternative du mouvement brownien, en un sens plus naturelle, qui s'attache davantage à son comportement spatial que les méthodes traditionnelles. Le mouvement brownien est simulé à des instants aléatoires qui gouvernent son comportement; ce sont les temps de sortie de certaines "boîtes noires". En choisissant la taille et la position de ces boîtes noires dans l'espace, et sous réserve qu'elles se chevauchent, on peut ainsi simuler très précisément une trajectoire brownienne. La suite de la thèse est consacrée à l'analyse numérique des équations différentielles stochastiques (E.D.S) et à la simulation informatique de leur solution. Nous commençons au chapitre 3 par une introduction qui rappelle ce que sont les E.D.S, cite quelques unes de leurs propriétés et applications classiques dans les sciences de l'ingénieur. Au chapitre 4 nous présentons un résultat de convergence trajectorielle du schéma d'Euler en en précisant l'ordre de convergence. Un résultat similaire est présenté pour le schéma de Milshtein au chapitre 5. Comme on peut s'y attendre, ce schéma est plus performant que le schéma d'Euler, quand la condition classique de commutativité est vérifiée. Ceci améliore partiellement un résultat de Denis Talay. On étudie ensuite au chapitre 6 une classe de schémas de discrétisation à pas variables permettant une approximation spatiale des diffusions dans l'esprit du chapitre 2. Nous commençons par un résultat assez général de convergence d'un schéma d'Euler défini le long d'une subdivision aléatoire. Dans le cas où cette subdivision est gouvernée par les temps de passage successifs du mouvement brownien, nous retrouvons et étendons partiellement des travaux de Nigel Newton. Dans le cas où cette subdivision de façon à ce que les accroissements du schéma de discrétisation soient constants, nous étudions un schéma de discrétisation originalement présenté par Bichteler. Nous précisons sa vitesse de convergence et donnons une méthode de simulation numérique. Le chapitre 7 est un panorama des travaux existants sur la discrétisation des équations différentielles stochastiques. Sans prétendre être exhaustif, nous présentons au contraire une relecture des travaux existants dans l'optique de la simulation numérique. Enfin le chapitre 8 s'attache à quelques questions ou problèmes non résolus qui représentent un intérêt évident pour les applications. Nous suggérons pour chacune de ces questions quelques commencements de réponse.
223

Modélisation stochastique pour le raisonnement médical et ses applications à la télémédecine

Rose, Cédric 27 May 2011 (has links) (PDF)
La télémédecine est une approche nouvelle de la pratique médicale qui est particulièrement porteuse d'espoir face à l'enjeu sociétal posé par l'incidence croissante des maladies chroniques et l'évolution de la démographie médicale. Le développement de la télésurveillance médicale réalisée grâce au recueil de données physiologiques ou biologiques au domicile du patient implique de développer nos capacités à analyser un volume important de données. Le problème auquel s'intéresse cette thèse est d'établir ou d'apprendre automatiquement la fonction qui lie les données fournies par les capteurs à l'état de santé du patient. La difficulté principale tient à ce qu'il est difficile et souvent impossible d'établir de manière sûre l'état de santé d'un patient, la seule référence disponible étant alors celle que peut donner le médecin traitant. Nous montrons dans cette thèse que la modélisation stochastique et plus particulièrement le formalisme graphique bayésien permet d'aborder cette question sous trois angles complémentaires. Le premier est celui de la représentation explicite de l'expertise médicale. Cette approche est adaptée aux situations dans lesquelles les données ne sont pas accessibles et où il est donc nécessaire de modéliser directement la démarche du médecin. La seconde approche envisagée est celle de l'apprentissage automatique des paramètres du modèles lorsque suffisamment de données sur les sorties attendues sont disponibles. Nous nous intéressons enfin à la possibilité d'apprendre les actions pertinentes par renforcement sous les contraintes de la problématique médicale à savoir d'après l'observation de l'expert dans sa pratique normale. Nous étudions plus spécifiquement l'utilisation de la vraisemblance du modèle pour apprendre une représentation pertinente de l'espace d'états.
224

Couplage données historiques - modélisation numérique pour la prédétermination des avalanches : une approche bayésienne

Eckert, Nicolas 20 December 2007 (has links) (PDF)
Cette thèse s'intéresse au problème de la prédétermination des avalanches par couplage entre modélisation numérique et données historiques. L'assemblage s'effectue grâce au formalisme bayésien hiérarchique. La modélisation stochastique, l'inférence du modèle et la prédiction des aléas de référence sont clairement distinguées. L'échelle d'étude est tout d'abord celle d'un site avalancheux. Trois jeux d'hypothèses correspondant à différents compromis entre disponibilité des données et description de la propagation de l'avalanche sont proposés. L'incertitude liée à la méconnaissance du phénomène est combinée avec sa variabilité intrinsèque pour obtenir la loi de probabilité prédictive de la période de retour associée à n'importe quelle distance d'arrêt. Les distributions des autres variables caractérisant l'aléa sont également étudiées. Une analyse de sensibilité aux différentes hypothèses de modélisation est proposée. La prédétermination des fréquences avalancheuses sur des sites peu documentés et en contexte non stationnaire est ensuite traitée à l'échelle communale avec un modèle spatio-temporel. Celui-ci permet de quantifier les variations des occurrences avalancheuses dans les Alpes françaises au cours des soixante dernières années. Enfin, le problème du dimensionnement d'un ouvrage de protection est abordé. Le modèle stochastique est complété par les effets sur l'écoulement avalancheux d'une digue verticale et par une fonction de coût permettant l'optimisation de la hauteur de l'ouvrage. Le risque bayésien permet de ne pas séparer inférence et décision en prenant en compte l'erreur d'estimation pour le dimensionnement.
225

Résolution de grands problèmes en optimisation stochastique dynamique et synthèse de lois de commande / Solving large-scale dynamic stochastic optimization problems

Girardeau, Pierre 17 December 2010 (has links)
Le travail présenté ici s'intéresse à la résolution numérique de problèmes de commande optimale stochastique de grande taille. Nous considérons un système dynamique, sur un horizon de temps discret et fini, pouvant être influencé par des bruits exogènes et par des actions prises par le décideur. L'objectif est de contrôler ce système de sorte à minimiser une certaine fonction objectif, qui dépend de l'évolution du système sur tout l'horizon. Nous supposons qu'à chaque instant des observations sont faites sur le système, et éventuellement gardées en mémoire. Il est généralement profitable, pour le décideur, de prendre en compte ces observations dans le choix des actions futures. Ainsi sommes-nous à la recherche de stratégies, ou encore de lois de commandes, plutôt que de simples décisions. Il s'agit de fonctions qui à tout instant et à toute observation possible du système associent une décision à prendre. Ce manuscrit présente trois contributions. La première concerne la convergence de méthodes numériques basées sur des scénarios. Nous comparons l'utilisation de méthodes basées sur les arbres de scénarios aux méthodes particulaires. Les premières ont été largement étudiées au sein de la communauté "Programmation Stochastique". Des développements récents, tant théoriques que numériques, montrent que cette méthodologie est mal adaptée aux problèmes à plusieurs pas de temps. Nous expliquons ici en détails d'où provient ce défaut et montrons qu'il ne peut être attribué à l'usage de scénarios en tant que tel, mais plutôt à la structure d'arbre. En effet, nous montrons sur des exemples numériques comment les méthodes particulaires, plus récemment développées et utilisant également des scénarios, ont un meilleur comportement même avec un grand nombre de pas de temps. La deuxième contribution part du constat que, même à l'aide des méthodes particulaires, nous faisons toujours face à ce qui est couramment appelé, en commande optimale, la malédiction de la dimension. Lorsque la taille de l'état servant à résumer le système est de trop grande taille, on ne sait pas trouver directement, de manière satisfaisante, des stratégies optimales. Pour une classe de systèmes, dits décomposables, nous adaptons des résultats bien connus dans le cadre déterministe, portant sur la décomposition de grands systèmes, au cas stochastique. L'application n'est pas directe et nécessite notamment l'usage d'outils statistiques sophistiqués afin de pouvoir utiliser la variable duale qui, dans le cas qui nous intéresse, est un processus stochastique. Nous proposons un algorithme original appelé Dual Approximate Dynamic Programming (DADP) et étudions sa convergence. Nous appliquons de plus cet algorithme à un problème réaliste de gestion de production électrique sur un horizon pluri-annuel. La troisième contribution de la thèse s'intéresse à une propriété structurelle des problèmes de commande optimale stochastique : la question de la consistance dynamique d'une suite de problèmes de décision au cours du temps. Notre but est d'établir un lien entre la notion de consistance dynamique, que nous définissons de manière informelle dans le dernier chapitre, et le concept de variable d'état, qui est central dans le contexte de la commande optimale. Le travail présenté est original au sens suivant. Nous montrons que, pour une large classe de modèles d'optimisation stochastique n'étant pas a priori consistants dynamiquement, on peut retrouver la consistance dynamique quitte à étendre la structure d'état du système / This work is intended at providing resolution methods for Stochastic Optimal Control (SOC) problems. We consider a dynamical system on a discrete and finite horizon, which is influenced by exogenous noises and actions of a decision maker. The aim is to minimize a given function of the behaviour of the system over the whole time horizon. We suppose that, at every instant, the decision maker is able to make observations on the system and even to keep some in memory. Since it is generally profitable to take these observations into account in order to draw further actions, we aim at designing decision rules rather than simple decisions. Such rules map to every instant and every possible observation of the system a decision to make. The present manuscript presents three main contributions. The first is concerned with the study of scenario-based solving methods for SOC problems. We compare the use of the so-called scenario trees technique to the particle method. The first one has been widely studied among the Stochastic Programming community and has been somehow popular in applications, until recent developments showed numerically as well as theoretically that this methodology behaved poorly when the number of time steps of the problem grows. We here explain this fact in details and show that this negative feature is not to be attributed to the scenario setting, but rather to the use of a tree structure. Indeed, we show on numerical examples how the particle method, which is a newly developed variational technique also based on scenarios, behaves in a better way even when dealing with a large number of time steps. The second contribution starts from the observation that, even with particle methods, we are still facing some kind of curse of dimensionality. In other words, decision rules intrisically suffer from the dimension of their domain, that is observations (or state in the Dynamic Programming framework). For a certain class of systems, namely decomposable systems, we adapt results concerning the decomposition of large-scale systems which are well known in the deterministic case to the SOC case. The application is not straightforward and requires some statistical analysis for the dual variable, which is in our context a stochastic process. We propose an original algorithm called Dual Approximate Dynamic Programming (DADP) and study its convergence. We also apply DADP to a real-life power management problem. The third contribution is concerned with a rather structural property for SOC problems: the question of dynamic consistency for a sequence of decision making problems over time. Our aim is to establish a link between the notion of time consistency, that we loosely define in the last chapter, and the central concept of state structure within optimal control. This contribution is original in the following sense. Many works in the literature aim at finding optimization models which somehow preserve the "natural" time consistency property for the sequence of decision making problems. On the contrary, we show for a broad class of SOC problems which are not a priori time-consistent that it is possible to regain this property by simply extending the state structure of the model
226

Stochastic modeling of intracellular processes : bidirectional transport and microtubule dynamics / Modélisation stochastique de processus intracellulaires : transport bidirectionnel et dynamique de microtubules

Ebbinghaus, Maximilian 21 April 2011 (has links)
Dans cette thèse, des méthodes de la physique statistique hors équilibre sont utilisées pour décrire deux processus intracellulaires. Le transport bidirectionnel sur les microtubules est décrit à l'aide d'un gaz sur réseau stochastique quasi-unidimensionnel. Deux espèces de particules sautent dans des directions opposées en interagissant par exclusion. La présence habituelle d'accumulations de particules peut être supprimée en rajoutant la dynamique du réseau, c'est-à-dire de la microtubule. Un modèle simplifié pour la dynamique du réseau produit une transition de phase vers un état homogène avec un transport très efficace dans les deux directions. Dans la limite thermodynamique, une propriété de l'état stationnaire limite la longueur maximale des accumulations. La formation de voies peut être causée par des interactions entre particules. Néanmoins, ces mécanismes s'avèrent peu robustes face à une variation des paramètres du modèle. Dans presque tous les cas, la dynamique du réseau a un effet positif et bien plus important sur le transport que la formation de voies. Par conséquent, la dynamique du réseau semble un point-clé pour comprendre la régulation du transport intracellulaire. La dernière partie introduit un modèle pour la dynamique d'une microtubule sous l'action d'une protéine qui favorise les sauvetages. Des phénomènes intéressants de vieillissement apparaissent alors, et devraient être observables dans des expériences. / This thesis uses methods and models from non-equilibrium statistical physics to describe intracellular processes. Bidirectional microtubule-based transport within axons is modeled as a quasi-one-dimensional stochastic lattice gas with two particle species moving in opposite directions under mutual exclusion interaction. Generically occurring clusters of particles in current models for intracellular transport can be dissolved by additionally considering the dynamics of the transport lattice, i.e., the microtubule. An idealized model for the lattice dynamics is used to create a phase transition toward a homogenous state with efficient transport in both directions. In the thermodynamic limit, a steady state property of the dynamic lattice limits the maximal size of clusters. Lane formation mechanisms which are due to specific particle-particle interactions turn out to be very sensitive to the model assumptions. Furthermore, even if some particle-particle interaction is considered, taking the lattice dynamics into account almost always improves transport. Thus the lattice dynamics seems to be the key aspect in understanding how nature regulates intracellular traffic. The last part introduces a model for the dynamics of a microtubule which is limited in its growth by the cell boundary. The action of a rescue-enhancing protein which is added to the growing tip of a microtubule and then slowly dissociates leads to interesting aging effects which should be experimentally observable.
227

Accélération de méthodes de résolution classiques par l'utilisation de stratégies de séparation locale comme outil d'hybridation

Rei, Walter January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
228

Le problème de la valeur dans les jeux stochastiques

Oualhadj, Youssouf 11 December 2012 (has links)
La théorie des jeux est un outils standard quand il s'agit de l'étude des systèmes réactifs. Ceci est une conséquence de la variété des modèle de jeux tant au niveau de l'interaction des joueurs qu'au niveau de l'information que chaque joueur possède.Dans cette thèse, on étudie le problème de la valeur pour des jeux où les joueurs possèdent une information parfaite, information partiel et aucune information. Dans le cas où les joueurs possèdent une information parfaite sur l'état du jeu,on étudie le problème de la valeur pour des jeux dont les objectifs sont des combinaisons booléennes d'objectifs qualitatifs et quantitatifs.Pour les jeux stochastiques à un joueur, on montre que les valeurs sont calculables en temps polynomiale et on montre que les stratégies optimalespeuvent être implementées avec une mémoire finie.On montre aussi que notre construction pour la conjonction de parité et de la moyenne positivepeut être étendue au cadre des jeux stochastiques à deux joueurs. Dans le cas où les joueurs ont une information partielle,on étudie le problème de la valeur pour la condition d'accessibilité.On montre que le calcul de l'ensemble des états à valeur 1 est un problème indécidable,on introduit une sous classe pour laquelle ce problème est décidable.Le problème de la valeur 1 pour cette sous classe est PSPACE-complet dansle cas de joueur aveugle et dans EXPTIME dans le cas de joueur avec observations partielles. / Game theory proved to be very useful in the fieldof verification of open reactive systems. This is due to the widevariety of games' model that differ in the way players interactand the amount of information players have.In this thesis, we study the value problem forgames where players have full knowledge on their current configurationof the game, partial knowledge, and no knowledge.\\In the case where players have perfect information,we study the value problem for objectives that consist in combinationof qualitative and quantitative conditions.In the case of one player stochastic games, we show thatthe values are computable in polynomial time and show thatthe optimal strategies exist and can be implemented with finite memory.We also showed that our construction for parity and positive-average Markov decisionprocesses extends to the case of two-player stochastic games.\\In the case where the players have partial information,we study the value problem for reachability objectives.We show that computing the set of states with value 1 is an undecidableproblem and introduce a decidable subclass for the value 1 problem.This sub class is PSPACE-complete in the case of blind controllersand EXPTIME is the setting of games with partial observations.
229

Contributions au formalisme de l'élargissement Stark des profils de raies

Boland, Denis 16 March 2012 (has links)
La spectroscopie est un outil primordial pour le diagnostic des plasmas, qu'il s'agisse de ceux des étoiles, permettant d'espérer comprendre toujours mieux leurs formations et leurs évolutions, ou celui des laboratoires, tout spécialement ceux rencontrés dans le cadre des expérimentations visant la fusion thermonucléaire contrôlée, telles que le projet ITER.La modélisation des profils de raie Lyman-alpha de l'hydrogène conduit à élaborer différentes approches dont le formalisme mérite d'être toujours investigué, et possiblement enrichi, en vue d'améliorer nos capacités de diagnostic. Nous avons donc successivement exploré une approche par intégrale de chemin, en vue de conserver au maximum l'information liée à la nature quantique des processus d'interaction, puis le rôle de la chronologie, le potentiel d'interaction du système atomique avec le plasma ne commutant pas à deux instants différents, et enfin une approche modélisant le champ électrique par des processus stochastiques dont les propriétés statistiques déterminent les caractéristiques des profils de raie des plasmas étudiés. Dans ce dernier cas, le travail réalisé montre que la modélisation du champ électrique par des processus stochastiques contient de sérieuses pistes de recherche de nature à améliorer encore les résultats obtenus. / Spectroscopy is an essential tool for plasma diagnostics, especially for studying stars, allowing hope to understand always better their origin and their evolution, or for laboratory plasmas, especially those encountered in the experiments for controlled thermonuclear fusion, such as ITER.Modeling profiles of Lyman-alpha hydrogen leads to develop different approaches whose formalism deserves to still remain under investigation, and can possibly be enriched, to improve our diagnostic capabilities. We therefore explored the subject successively by a path integral approach, in order to retain maximum information related to the quantum nature of the interaction process, then the role of chronology, as the interaction potential of the atomic system with the plasma does not commute at two different times, and finally we worked on an approach modeling the electric field by stochastic processes whose statistical properties determine the characteristics of the line profiles of the studied plasmas. In the latter case, the work shows that the modeling of the electric field by stochastic processes contains serious research possibilities which should be able to further improve present results.
230

Étude théorique d'indicateurs d'analyse technique / Theoretical study of technical analysis indicators

Ibrahim, Dalia 08 February 2013 (has links)
L'objectif de ma thèse est d'étudier mathématiquement un indicateur de rupture de volatilité très utilisé par les praticiens en salle de marché. L'indicateur bandes de Bollinger appartient à la famille des méthodes dites d'analyse technique et donc repose exclusivement sur l'historique récente du cours considéré et un principe déduit des observations passées des marchés, indépendamment de tout modèle mathématique. Mon travail consiste à étudier les performances de cet indicateur dans un univers qui serait gouverné par des équations différentielles stochastiques (Black -Scholes) dont le coefficient de diffusion change sa valeur à un temps aléatoire inconnu et inobservable, pour un praticien désirant maximiser une fonction objectif (par exemple, une certaine utilité espérée de la valeur du portefeuille à une certaine maturité). Dans le cadre du modèle, l'indicateur de Bollinger peut s'interpréter comme un estimateur de l'instant de la prochaine rupture. On montre dans le cas des petites volatilités, que le comportement de la densité de l'indicateur dépend de la volatilité, ce qui permet pour un ratio de volatilité assez grand, de détecter via l'estimation de la distribution de l'indicateur dans quel régime de volatilité on se situe. Aussi, dans le cas des grandes volatilités, on montre par une approche via la transformée de Laplace, que le comportement asymptotique des queues de distribution de l'indicateur dépend de la volatilité. Ce qui permet de détecter le changement des grandes volatilités. Ensuite, on s'intéresse à une étude comparative entre l'indicateur de Bollinger et l'estimateur classique de la variation quadratique pour la détection de changement de la volatilité. Enfin, on étudie la gestion optimale de portefeuille qui est décrite par un problème stochastique non standard en ce sens que les contrôles admissibles sont contraints à être des fonctionnelles des prix observés. On résout ce problème de contrôle en s'inspirant de travaux de Pham and Jiao pour décomposer le problème initial d'allocation de portefeuille en un problème de gestion après la rupture et un problème avant la rupture, et chacun de ces problèmes est résolu par la méthode de la programmation dynamique . Ainsi, un théorème de verification est prouvé pour ce problème de contrôle stochastique. / The aim of my thesis is to study mathematically an indicator widely used by the practitioners in the trading market, and designed to detect changes in the volatility term . The Bollinger Bands indicator belongs to the family of methods known as technical analysis which consist in looking t the past price movement in order to predict its future price movements independently of any mathematical model. We study the performance of this indicator in a universe that is governed by a stochastic differential equations (Black-Scholes) such that the volatility changes at an unknown and unobservable random time, for a practitioner seeking to maximize an objective function (for instance, the expected utility of the wealth at a certain maturity). Within the framework of the model, Bollinger indicator can be interpreted as an estimator of the time at which the volatility changes its value. We show that in the case of small volatilities, the density behavior of the indicator depends on the value of the volatility, which allows that for large ratio of volatility, to detect via the distribution estimation in which regime of volatility we are. Also , for the case of large volatilities, we show by an approach via the Laplace transform that the asymptotic tails behavior of the indictor depends on the volatility value. This allows to detect a change for large volatilities. Next, we compare two indicators designed to detect a volatility change: the Bollinger bands and the quadratic variation indicators. Finally, we study the optimal portfolio allocation which is described by a non-standard stochastic problem in view of that the admissible controls need to be adapted to the filtration generated by the prices. We resolve this control problem by an approach used by Pham and Jiao to separate the initial allocation problem into an allocation problem after the rupture and an problem before the rupture, and each one of these problems is resolved by the dynamic programming method. Also, a verification theorem is proved for this stochastic control problem.

Page generated in 0.0542 seconds