271 |
Séparation des représentations des groupes de Lie par des ensembles moments / Separation of Lie group representations with moment setsZergane, Amel 17 December 2011 (has links)
Si (π, H) est une représentation unitaire irréductible d'un groupe de Lie G, on sait lui associer son application moment Ψπ. La fermeture de l'image de Ψπ s'appelle l'ensemble moment de π. Généralement, cet ensemble est Conv(Oπ), si Oπ est l'orbite coadjointe associée à π. Mais il ne caractérise pas π : deux orbites distinctes peuvent avoir la même enveloppe convexe fermée. On peut contourner cette non séparation en considérant un surgroupe G+ de G et une application non linéaire ø de g* dans (g+)* telle que, pour les orbites générique, ø(O) est une orbite et Conv (ø(O)) caractérise O. Dans cette thèse, on montre que l'on peut choisir le couple (G+, ø), avec ø de degré ≤ 2 pour tous les groupes nilpotents de dimension ≤ 6, à une exception près, tous les groupes résolubles de dimension ≤ 4, et pour un exemple de groupe de déplacements. Ensuite, on étudie le cas des groupes G = SL(n, R). Pour ces groupes, il existe un tel couple avec ø de degré n, mais il n'en existe pas avec ø de degré 2 si n>2, il n'en existe pas avec ø de degré 3 si n=4. Enfin, on montre que l'application moment Ψπ est celle d'une action fortement hamiltonienne de G sur la variété de Fréchet symplectique PH∞. On construit un foncteur qui associe à tout G un surgroupe de Lie Fréchet G̃, de dimension infinie et, à tout π de G, une action π̃ fortement hamiltonienne, dont l'ensemble moment caractérise π / To a unitary irreducible representation (π,H) of a Lie group G, is associated a moment map Ψπ. The closure of the range of Ψπ is the moment set of π. Generally, this set is Conv(Oπ), if Oπ is the corresponding coadjoint orbit. Unfortunately, it does not characterize π : 2 distincts orbits can have the same closed convex hull. We can overpass this di culty, by considering an overgroup G+ for G and a non linear map ø from g* into (g+)* such that, for generic orbits, ø(O) is an orbit and Conv( ø(O)) characterizes O. In the present thesis, we show that we can choose the pair (G+,ø), with deg ø ≤2 for all the nilpotent groups with dimension ≤6, except one, for all solvable groups with diemnsion ≤4, and for an example of motion group. Then we study the G=SL(n,R) case. For these groups, there exists ø with deg ø =n, if n>2, there is no such ø with deg ø=2, if n=4, there is no such ø with deg ø=3. Finally, we show that the moment map Ψπ is coming from a stronly Hamiltonian G-action on the Frécht symplectic manifold PH∞. We build a functor, which associates to each G an infi nite diemnsional Fréchet-Lie overgroup G̃,and, to each π a strongly Hamiltonian action, whose moment set characterizes π
|
272 |
Study on preparation, structures and non linear optical properties of novel chalcogenide glasses and fibersZheng, Xiaolin 08 July 2011 (has links)
Pas de résumé en français / Being compared with oxide glasses, chalcogenide glasses have fine infrared transmissivity and higher optical nonlinearity, and also could be drawn into optical fibers. So chalcogenide glasses and fibers have potential wide applications in the fields of all-optical information processing, infrared lasers, nonlinear optical devices, and so on, the studies of their optical nonlinearity are one of the attractive subjects in the area of optoelectronics at present. The main purpose of this paper is to improve the stability and enhance the intensity of nonlinearity in chalcogenide glasses and fibers by means of exploring new glass compositions, optimizing the external field poling method, designing and fabricating fibers with special structures, all of these will promote their real applications. The main results are concluded as follows . The glass-forming region of GeS2-GA2S3-AgX (X=Cl, Br, I) and GeS2-Ga (In)2S3-CuI systems were determined , the maximal content of the additive halides are 70% and 12% respectively. In both two systems glasses, with the increasing addition of halides, the thermal stability reduce, density and linear refractive index increase, the ultraviolet cut-off edges shift to longer wavelength, while the infrared cut-off edges keep almost the same. 30GeS2 35Ga2S3 35AgCl and 47.5GeS2 17.5Ga2S3 35AgCl surface- and bulk-crystallized glasses that contain AgGaGeS4 nonlinear optical crystallites were prepared. Obvious second harmonic generation (SHG) could be observed in these crystallized glasses, and their intensity relate to the distribution and size of the precipitated AgGaGeS4 crystals, the maximal second-order nonlinearity coefficients is as high as 12.4pm/V. These crystallized glasses have good chemical and SHG stability. For GeS2-Ga (In)2S3-CuI systems glasses, due to their small glass-forming region, they are not suit for the preparation of crystallized glasses that contain CuGaS2 or CuInS2 nonlinear optical crystals. According to the structural studies of two system glasses, the main structural units of theses glasses are [YS4-xXx] (Y=Ge, Ga, In. X=Cl, Br, I) mixed anion tetrahedrons, they form a three-dimensional glassy network through bridging sulphur bonds. When the contents of halides MX(M=Ag, Cu. X=Cl, Br, I) are low, some [XxS3-xGe(Ga)S3-xXx] (X=Cl, Br, I) mixed ethane-like structural units exist in the glass network, and they will gradually transform to [YS4-xXx] (Y=Ge, Ga, In. X=Cl, Br, I) mixed anion tetrahedrons with the increasing content of halides, till totally disappear. Both two system glasses have ultrafast (~150fs) third-order optical nonlinearity and reverse saturation absorption, they belong to self-focusing medium. The third-order optical nonlinearity mainly originate from the distortion of electron cloud of Y-X (Y=Ge, Ga, In, X=Cl, Br, I, S) bonds in the structural units. For GeS2-GA2S3-AgX (X=Cl, Br, I) system glasses, the largest nonlinear susceptibility n2 is 10.50x10-18 m/W, the smallest figure of merit (FOM) is 0.606. In addition, the relation of n2 with n0 do not obey Miller’s rule, but in accordance with the structural variation. Among the glass compositions with different additive halogens, Br-containing glasses have relatively best third-order nonlinearities. For GeS2-Ga (In)2S3-CuI system glasses, the largest nonlinear susceptibility n2 is 9.37x10-18 m/W, the smallest figure of merit (FOM) is 2.237. High purity AS2S3 glass performs and low loss single index fibers with diameter of 100~400µm that drawn form these performs were prepared, the transmission losses between 2~6 µm is only 0.5dB/m. AS2S3 tapered fibers have a uniform diameter of taper wasit, fine surface smoothness, and sharp taper transition part.
|
273 |
Theory and molecular dynamics simulations of the local dynamics and free energy profiles of proteins : application to the interpretation of protein NMR data / Théorie et simulations de dynamique moléculaire de la dynamique locale et des profils d'énergie libre des protéines : application à l'interprétation des données RMNCote, Yoann 07 December 2012 (has links)
Comprendre la dynamique locale des protéines dans leur état natif (structure repliée etfonctionnelle) est essentiel pour comprendre leur dynamique globale et leur fonction biologique. Aucours de cette thèse, nous avons étudié la dynamique locale de plusieurs petites protéines enmesurant les fluctuations de sondes locales le long de la séquence d’acide aminé de ces protéines.Nous avons essayé de comprendre la dynamique de ces sondes locales, comment celles-ci serelaxaient entre leurs différentes conformations, comment leurs fluctuations étaient corrélées lesunes aux autres et comment peuvent-elles être reliées à la fonction biologique des protéines.Dans les trois premiers chapitres, nous introduisons les concepts du mouvement Browniende rotation libre, de la spectroscopie par Résonance Magnétique Nucléaire (RMN) et de ladynamique moléculaire (DM). Dans les chapitres 4 et 5, nous avons étudié la dynamique desliaisons amides de la chaine principale (backbone) des protéines sur leurs paysages d’énergie libre.Dans le chapitre 4, nous avons démontré que les fluctuations des liaisons amide dubackbone de la protéine VA3 sont décrites par une diffusion rotationnelle anormale plutôt que parune diffusion rotationnelle libre généralement utilisée pour interpréter les données RMN enrelaxation de spins et en couplage résiduel dipolaire. [...] Dans le chapitre 5, nous avons démontré la diffusion rotationnelle anormale de ces liaisons jusqu’à une échelle de temps de 100 ns en utilisant dix simulations de DM de 1 μs de la protéineUbiquitine. Nous avons aussi étudié la convergence des paramètres RMN extraits des trajectoiresde DM en fonction de leur durée. [...] Dans le chapitre 6, nous avons réalisé une l’étude de la corrélation entre les mouvements du backbone et des chaines latérales des protéines. [...] Dans la première partie du dernier chapitre de cette thèse, nous avons étudié l’évolution de la corrélation dynamique entre les chaines latérales et la chaine principale d’une protéine durant des évènements de dépliement/repliement. Pour cette étude préliminaire, nous avons utilisé unesimulation de DM d’un « ultra-fast folder » nommé Trp-cage réalisée à 380K. Nous avons confirméles résultats précédemment trouvés pour les protéines dans leur état natif. Nous avons observél’augmentation de la corrélation entre les séries temporelles yn(t) and δn(t) pendant un évènementde dépliement caractérisé par la sortie du tryptophane de sa cage. Un paramètre stérique s aégalement été défini afin de quantifier les intéractions des chaines latérales avec leurenvironnement. Dans une seconde partie de ce dernier chapitre, nous présentons une étudepréliminaire du dépliement d’un « downhill folder » nommé gpW sous contrainte d’une force. Pourcaractériser le dépliement de la protéine gpW, nous avons calculé les chemical shifts des atomes Cª et Hⁿ du backbone le long de sa séquence en fonction d’une coordonnée réactionnelle choisie comme étant la distance entre les Cª de résidus C- et N- terminaux. Nous avons démontré qu’il était difficile de discerner un comportement particulier à partir des tous les chemical shifts en fonction de la distance. Cependant, en moyennant la valeur des chemical shifts en sur tous lesrésidus de la protéine nous trouvons que l’évolution de cette valeur moyenne en fonction de ladistance permettait de décrire les évènements du dépliement de la protéine en fonction de lacoordonnée de réaction durant la simulation de DM / Understand the local dynamics of proteins in their native state, i.e. in their folded functionalstructure, is a prerequisite to understand their global dynamics and their biological function. In thepresent thesis, we investigated the local dynamics of several small proteins by recording thefluctuations of local probes along the amino-acid sequence of those proteins. We tried tounderstand the dynamics of the local probe, i.e. how they relax between their differentconformations, how their fluctuations are correlated to each other, how their fluctuations arerelated to the function of the proteins. In the first three chapters, we introduced the concepts of the free rotational Brownian motion, of the Nuclear Magnetic Resonance spectroscopy and of the Molecular Dynamics (MD)simulations. In chapters 4 and 5, we studied the dynamics of the backbone amide bonds of theproteins on their free-energy landscape. In chapter 4, we demonstrated that the fluctuations of the backbone amide bonds of the protein VA3 are described by a rotational anomalous diffusion rather than by a free rotationaldiffusion, as often assumed in the interpretation of the raw NMR-measured data (Spin relaxation(SR) data and Residual Dipolar Coupling (RDC) data. [...] In chapter 5, we demonstrated the anomalous diffusion of backbone amide bonds up to 100 ns by using ten MD trajectories of 1 μs of duration for the protein ubiquitin. We also studied the convergence of the NMR-derived parameters extracted from the MD trajectories in function of their duration. [...] In chapter 6, we addressed the question of the correlation between the motions of the side chains and main chain of a protein. [...] In the first part of the final chapter of the present thesis, we investigated the evolution of the correlation between the side-chain and the main-chain motions of a protein during unfolding/folding events. In this preliminary work, we used a single MD simulation of the ultrafast folder Trp-cage performed at 380 K. We confirmed the results found for proteins in theirnative state. We observed an increase of the correlation between the two time series yn(t) and δn(t) during an unfolding event characterized, here, by the exit of the TRP residue of its “cage”.A steric parameter s was also defined in order to quantify interactions of the amino-acid side chainwith its environment. In a second part of the last chapter, we present a preliminary study of theunfolding of the downhill folder gpW under a mechanical force. To characterized the unfolding ofgpW, we computed the chemical shift of the Cª and of the Hⁿ atoms along the amino-acidsequence of the protein in function of a reaction coordinate: the distance, rCªCª , between the Cª atoms of the N and C terminal residues. We demonstrated that it is hard to distinguish a typical behavior of all the chemical shift of all the residues along the amino-acid sequence in function of the distance rCªCª . However, by averaging the chemical shift over all the residues of the protein we found that the evolution of the average value of the chemical shift described the unfolding eventsof the protein during the MD simulations
|
274 |
L'arôme du gin : identification des composés clés et rôle des matières premières / Gin aroma : identification of key flavour compounds and role of raw botanicalsDussort, Pierre 30 November 2012 (has links)
Afin d’identifier les composés responsables de l’arôme du gin, une procédure GC-O-MS se basant sur la fréquence de détection a été développée. Elle a permis de déterminer l’intensité odorante des composés volatils. Leur qualité d’odeur a pu être définie par le développement d’une roue des odeurs utilisée pour catégoriser les descripteurs obtenus. Cette approche nous a dans un premier temps permis d’identifier les composés potentiellement importants pour l’arôme du gin. L’origine de ces composés a ensuite été déterminée par l’étude de la fraction volatile de différents « botanicals » appartenant à la recette du gin. Cette stratégie nous a permis de constater que les baies de genièvre et les graines de coriandre étaient les principaux contributeurs en composés volatils d’impact. A l’opposé, les racines d’iris, la réglisse et les amandes ont semblé n’en apporter aucun. Nous avons donc distingué les « botanicals majeurs » et les « botanicals mineurs » selon leurs apports en composés volatils d’impact. Cette hypothèse a été globalement validée par différents tests sensoriels sur des mélanges de distillats. Enfin, une stratégie de recombinaison a été proposée dans le but de valider une sélection des composés d’impact. Une approche multicritères (intensité odorante, qualité d’odeur, propriétés physico-chimiques…) a abouti à la création de plusieurs recombinaisons. Celles-ci ont ensuite été analysées sensoriellement grâce à un test de tri-libre qui a permis de déterminer leur proximité avec le gin cible ainsi que les distances entre elles. Ainsi, une quinzaine de composés ont pu être identifiés comme influençant de manière importante la qualité aromatique du gin / In order to identify the compounds responsible for gin aroma, a GCO-MS procedure based on detection frequency analysis has been developed. It allowed the determination of volatile compound odorant intensity. Their odor quality has been defined thanks to a developed aroma wheel, used to categorize the obtained descriptors. This approach permitted the identification of gin aroma potential impact compounds. The origin of these compounds has then been determined by studying the different botanicals involved in the gin recipe. The obtained results showed that juniper berries and coriander seeds were the main contributors in terms of volatile impact compounds. At the opposite, orris roots, liquorice and almond did not seem to provide any of them. We thus differentiated the “major botanicals” from the “minor botanicals” according to their supply in volatile impact compounds. This hypothesis has been globally validated by different sensory tests on botanical distillate mixtures. Finally, a recombination procedure has been proposed in order to validate a selection of impact compounds. A multicriteria approach (odor intensity, odor quality, physic-chemical properties…) led to the creation of several recombinates. They have been sensorially analyzed by a free sorting task, which allowed determining their proximity with the target gin and the distance between them. Thus, around fifteen compounds have been identified as key compounds for gin aroma
|
275 |
Využití čipových karet v oblasti elektronického podpisu / The Usage of Smart Cards in the Area of Digital SignatureJirovský, Tomáš January 2008 (has links)
This master thesis deals with the usage of smart cards in the area of digital signature. The descriptive part of this work outlines the basic principles of digital signature, smart cards typology and current most important application areas of smart cards. The first aim of the analytic part of this work is to evaluate actual situation on the smart cards market and to estimate future market trends. The second aim is to provide summary of new technological trends and areas, in which the usage of smart cards can be expected. These new technological trends and areas are described on the basis of survey, which was realized in the company OKsystem. Part of this work serves information about practical solution OKsmart and the analysis of its future development trends.
|
276 |
Development of Fourier transform infrared spectroscopy for drug response analysisHughes, Caryn Sian January 2011 (has links)
The feasibility of FTIR-based spectroscopy as a tool to measure cellular response to therapeutics was investigated. Fourier transform mid-infrared spectroscopy has been used in conjunction with multivariate analysis (MVA) to assess the chemistry of many clinically relevant biological materials; however, the technique has not yet found its place in a clinical setting. One issue that has held the technique back is due to the spectral distortions caused by resonant Mie scattering (RMieS), which affects the ability to confidently assign molecular assignments to the spectral signals from biomaterials. In the light of recently improved understanding of RMieS, resulting in a novel correction algorithm, the analytical robustness of corrected FTIR spectra was validated against multi-discipline methods to characterise a set of renal cell lines which were selected for their difference in morphology.After validation of the FTIR methodology by discriminating different cell lines, the second stage of analyses tested the sensitivity of FTIR technique by determining if discrete chemical differences could be highlighted within a cell population of the same origin. The renal carcinoma cell line 2245R contains a sub-population to contain a sub-population of cells displaying 'stem-cell like' properties. These stem-like cells, however, are difficult to isolate and characterise by conventional '-omic' means. Finally, cellular response to chemotherapeutics was investigated using the established renal cell lines CAKI-2 and A-498. For the model, 5-fluorouracil (5FU), an established chemotherapeutic agent with known mechanisms of action was used. Novel gold-based therapeutic compounds were also assessed in parallel to determine their efficacy against renal cell carcinoma. The novel compounds displayed initial activity, as the FTIR evidence suggested compounds were able to enter the cells in the first instance, evoking a cellular response. The long-term performance, tracked with standard proliferation assays and FTIR spectroscopy in the renal cancer cell model, however, was poor. Rather than dismissing the compounds as in-active, the compounds may simply be more effective in cancer cell types of a different nature. The FTIR-based evidence provided the means to suggest such a conclusion. Overall, the initial results suggest that the combination of FTIR and MVA, in the presence of the novel RMieS-EMSC algorithm can detect differences in cellular response to chemotherapeutics. The results were also in-line with complimentary biological-based techniques, demonstrating the powerful potential of the technique as a promising drug screening tool.
|
277 |
Réponses manquantes : Débogage et Réparation de requêtes / Query Debugging and Fixing to Recover Missing Query ResultsTzompanaki, Aikaterini 14 December 2015 (has links)
La quantité croissante des données s’accompagne par l’augmentation du nombre de programmes de transformation de données, généralement des requêtes, et par la nécessité d’analyser et comprendre leurs résultats : (a) pourquoi telle réponse figure dans le résultat ? ou (b) pourquoi telle information n’y figure pas ? La première question demande de trouver l’origine ou la provenance des résultats dans la base, un problème très étudié depuis une 20taine d’années. Par contre, expliquer l’absence de réponses dans le résultat d’une requête est un problème peu exploré jusqu’à présent. Répondre à une question Pourquoi-Pas consiste à fournir des explications quant à l’absence de réponses. Ces explications identifient pourquoi et comment les données pertinentes aux réponses manquantes sont absentes ou éliminées par la requête. Notre travail suppose que la base de données n’est pas source d’erreur et donc cherche à fournir des explications fondées sur (les opérateurs de) la requête qui peut alors être raffinée ultérieurement en modifiant les opérateurs "fautifs". Cette thèse développe des outils formels et algorithmiques destinés au débogage et à la réparation de requêtes SQL afin de traiter des questions de type Pourquoi-Pas. Notre première contribution, inspirée par une étude critique de l’état de l’art, utilise un arbre de requête pour rechercher les opérateurs "fautifs". Elle permet de considérer une classe de requêtes incluant SPJA, l’union et l’agrégation. L’algorithme NedExplain développé dans ce cadre, a été validé formellement et expérimentalement. Il produit des explications de meilleure qualité tout en étant plus efficace que l’état de l’art.L’approche précédente s’avère toutefois sensible au choix de l’arbre de requête utilisé pour rechercher les explications. Notre deuxième contribution réside en la proposition d’une notion plus générale d’explication sous forme de polynôme qui capture toutes les combinaisons de conditions devant être modifiées pour que les réponses manquantes apparaissent dans le résultat. Cette méthode s’applique à la classe des requêtes conjonctives avec inégalités. Sur la base d’un premier algorithme naïf, Ted, ne passant pas à l’échelle, un deuxième algorithme, Ted++, a été soigneusement conçu pour éliminer entre autre les calculs itérés de sous-requêtes incluant des produits cartésien. Comme pour la première approche, une évaluation expérimentale a prouvé la qualité et l’efficacité de Ted++. Concernant la réparation des requêtes, notre contribution réside dans l’exploitation des explications polynômes pour guider les modifications de la requête initiale ce qui permet la génération de raffinements plus pertinents. La réparation des jointures "fautives" est traitée de manière originale par des jointures externes. L’ensemble des techniques de réparation est mis en oeuvre dans FixTed et permet ainsi une étude de performance et une étude comparative. Enfin, Ted++ et FixTed ont été assemblés dans une plate-forme pour le débogage et la réparation de requêtes relationnelles. / With the increasing amount of available data and data transformations, typically specified by queries, the need to understand them also increases. “Why are there medicine books in my sales report?” or “Why are there not any database books?” For the first question we need to find the origins or provenance of the result tuples in the source data. However, reasoning about missing query results, specified by Why-Not questions as the latter previously mentioned, has not till recently receivedthe attention it is worth of. Why-Not questions can be answered by providing explanations for the missing tuples. These explanations identify why and how data pertinent to the missing tuples were not properly combined by the query. Essentially, the causes lie either in the input data (e.g., erroneous or incomplete data) or at the query level (e.g., a query operator like join). Assuming that the source data contain all the necessary relevant information, we can identify the responsible query operators formingquery-based explanations. This information can then be used to propose query refinements modifying the responsible operators of the initial query such that the refined query result contains the expected data. This thesis proposes a framework targeted towards SQL query debugging and fixing to recover missing query results based on query-based explanations and query refinements.Our contribution to query debugging consist in two different approaches. The first one is a tree-based approach. First, we provide the formal framework around Why-Not questions, missing from the state-of-the-art. Then, we review in detail the state-of-the-art, showing how it probably leads to inaccurate explanations or fails to provide an explanation. We further propose the NedExplain algorithm that computes correct explanations for SPJA queries and unions there of, thus considering more operators (aggregation) than the state of the art. Finally, we experimentally show that NedExplain is better than the both in terms of time performance and explanation quality. However, we show that the previous approach leads to explanations that differ for equivalent query trees, thus providing incomplete information about what is wrong with the query. We address this issue by introducing a more general notion of explanations, using polynomials. The polynomial captures all the combinations in which the query conditions should be fixed in order for the missing tuples to appear in the result. This method is targeted towards conjunctive queries with inequalities. We further propose two algorithms, Ted that naively interprets the definitions for polynomial explanations and the optimized Ted++. We show that Ted does not scale well w.r.t. the size of the database. On the other hand, Ted++ is capable ii of efficiently computing the polynomial, relying on schema and data partitioning and advantageous replacement of expensive database evaluations by mathematical calculations. Finally, we experimentally evaluate the quality of the polynomial explanations and the efficiency of Ted++, including a comparative evaluation.For query fixing we propose is a new approach for refining a query by leveraging polynomial explanations. Based on the input data we propose how to change the query conditions pinpointed by the explanations by adjusting the constant values of the selection conditions. In case of joins, we introduce a novel type of query refinements using outer joins. We further devise the techniques to compute query refinements in the FixTed algorithm, and discuss how our method has the potential to be more efficient and effective than the related work.Finally, we have implemented both Ted++ and FixTed in an system prototype. The query debugging and fixing platform, short EFQ allows users to nteractively debug and fix their queries when having Why- Not questions.
|
278 |
Návrh provozu sítě 110 kV napájené z transformovny 400/110kV Čebín / Design of the operation of 110 kV power network powered from 400/110 kV Čebín switching stationKubizňák, Miroslav January 2008 (has links)
Knowlege of elektric power, power dissipation and voltage conditions in every single segments and elektric power system nodes is necessary for operations control and designing of another elektric power system expansion. In this Thesis, we will handle with steady state of system calculation using PAS-DAISY-OFF LINE software, solving various power network configurations and their verification.
|
279 |
Ekodukt na dálnici D1 / Ecoduct on Motorway D1Matouš, Petr January 2014 (has links)
The master’s thesis focuses on suitable design of an ecoduct on the highway D1 near Jihlava. It includes a structural analysis of reinforced concrete strip footings and wooden beams in all phases of construction. The material of the main bearing system is glued laminated timber GL24h. An important part of three-jointed ecoduct wooden arched beams is well-chosen isolation.
|
280 |
Ninomiya-Victoir scheme : strong convergence, asymptotics for the normalized error and multilevel Monte Carlo methods / Schéma de Ninomiya Victoir : convergence forte, asymptotiques pour l'erreur renomalisée et méthodes de Monte Carlo multi-pasAl Gerbi, Anis 10 October 2016 (has links)
Cette thèse est consacrée à l'étude des propriétés de convergence forte du schéma de Ninomiya et Victoir. Les auteurs de ce schéma proposent d'approcher la solution d'une équation différentielle stochastique (EDS), notée $X$, en résolvant $d+1$ équations différentielles ordinaires (EDOs) sur chaque pas de temps, où $d$ est la dimension du mouvement brownien. Le but de cette étude est d'analyser l'utilisation de ce schéma dans une méthode de Monte-Carlo multi-pas. En effet, la complexité optimale de cette méthode est dirigée par l'ordre de convergence vers $0$ de la variance entre les schémas utilisés sur la grille grossière et sur la grille fine. Cet ordre de convergence est lui-même lié à l'ordre de convergence fort entre les deux schémas. Nous montrons alors dans le chapitre $2$, que l'ordre fort du schéma de Ninomiya-Victoir, noté $X^{NV,eta}$ et de pas de temps $T/N$, est $1/2$. Récemment, Giles et Szpruch ont proposé un estimateur Monte-Carlo multi-pas réalisant une complexité $Oleft(epsilon^{-2}right)$ à l'aide d'un schéma de Milstein modifié. Dans le même esprit, nous proposons un schéma de Ninomiya-Victoir modifié qui peut-être couplé à l'ordre fort $1$ avec le schéma de Giles et Szpruch au dernier niveau d'une méthode de Monte-Carlo multi-pas. Cette idée est inspirée de Debrabant et Rossler. Ces auteurs suggèrent d'utiliser un schéma d'ordre faible élevé au niveau de discrétisation le plus fin. Puisque le nombre optimal de niveaux de discrétisation d'une méthode de Monte-Carlo multi-pas est dirigé par l'erreur faible du schéma utilisé sur la grille fine du dernier niveau de discrétisation, cette technique permet d'accélérer la convergence de la méthode Monte-Carlo multi-pas en obtenant une approximation d'ordre faible élevé. L'utilisation du couplage à l'ordre $1$ avec le schéma de Giles-Szpruch nous permet ainsi de garder un estimateur Monte-Carlo multi-pas réalisant une complexité optimale $Oleft( epsilon^{-2} right)$ tout en profitant de l'erreur faible d'ordre $2$ du schéma de Ninomiya-Victoir. Dans le troisième chapitre, nous nous sommes intéressés à l'erreur renormalisée définie par $sqrt{N}left(X - X^{NV,eta}right)$. Nous montrons la convergence en loi stable vers la solution d'une EDS affine, dont le terme source est formé des crochets de Lie entre les champs de vecteurs browniens. Ainsi, lorsqu'au moins deux champs de vecteurs browniens ne commutent pas, la limite n'est pas triviale. Ce qui assure que l'ordre fort $1/2$ est optimal. D'autre part, ce résultat peut être vu comme une première étape en vue de prouver un théorème de la limite centrale pour les estimateurs Monte-Carlo multi-pas. Pour cela, il faut analyser l'erreur en loi stable du schéma entre deux niveaux de discrétisation successifs. Ben Alaya et Kebaier ont prouvé un tel résultat pour le schéma d'Euler. Lorsque les champs de vecteurs browniens commutent, le processus limite est nul. Nous montrons que dans ce cas précis, que l'ordre fort est $1$. Dans le chapitre 4, nous étudions la convergence en loi stable de l'erreur renormalisée $Nleft(X - X^{NV}right)$ où $X^{NV}$ est le schéma de Ninomiya-Victoir lorsque les champs de vecteurs browniens commutent. Nous démontrons la convergence du processus d'erreur renormalisé vers la solution d'une EDS affine. Lorsque le champ de vecteurs dritf ne commute pas avec au moins un des champs de vecteurs browniens, la vitesse de convergence forte obtenue précédemment est optimale / This thesis is dedicated to the study of the strong convergence properties of the Ninomiya-Victoir scheme, which is based on the resolution of $d+1$ ordinary differential equations (ODEs) at each time step, to approximate the solution to a stochastic differential equation (SDE), where $d$ is the dimension of the Brownian. This study is aimed at analysing the use of this scheme in a multilevel Monte Carlo estimator. Indeed, the optimal complexity of this method is driven by the order of convergence to zero of the variance between the two schemes used on the coarse and fine grids at each level, which is related to the strong convergence order between the two schemes. In the second chapter, we prove strong convergence with order $1/2$ of the Ninomiya-Victoir scheme $X^{NV,eta}$, with time step $T/N$, to the solution $X$ of the limiting SDE. Recently, Giles and Szpruch proposed a modified Milstein scheme and its antithetic version, based on the swapping of each successive pair of Brownian increments in the scheme, permitting to construct a multilevel Monte Carlo estimator achieving the optimal complexity $Oleft(epsilon^{-2}right)$ for the precision $epsilon$, as in a simple Monte Carlo method with independent and identically distributed unbiased random variables. In the same spirit, we propose a modified Ninomiya-Victoir scheme, which may be strongly coupled with order $1$ to the Giles-Szpruch scheme at the finest level of a multilevel Monte Carlo estimator. This idea is inspired by Debrabant and R"ossler who suggest to use a scheme with high order of weak convergence on the finest grid at the finest level of the multilevel Monte Carlo method. As the optimal number of discretization levels is related to the weak order of the scheme used in the finest grid at the finest level, Debrabant and R"ossler manage to reduce the computational time, by decreasing the number of discretization levels. The coupling with the Giles-Szpruch scheme allows us to combine both ideas. By this way, we preserve the optimal complexity $Oleft(epsilon^{-2}right)$ and we reduce the computational time, since the Ninomiya-Victoir scheme is known to exhibit weak convergence with order 2. In the third chapter, we check that the normalized error defined by $sqrt{N}left(X - X^{NV,eta}right)$ converges to an affine SDE with source terms involving the Lie brackets between the Brownian vector fields. This result ensures that the strong convergence rate is actually $1/2$ when at least two Brownian vector fields do not commute. To link this result to the multilevel Monte Carlo estimator, it can be seen as a first step to adapt to the Ninomiya-Victoir scheme the central limit theorem of Lindeberg Feller type, derived recently by Ben Alaya and Kebaier for the multilevel Monte Carlo estimator based on the Euler scheme. When the Brownian vector fields commute, the limit vanishes. We then prove strong convergence with order $1$ in this case. The fourth chapter deals with the convergence of the normalized error process $Nleft(X - X^{NV}right)$, where $X^{NV}$ is the Ninomiya-Victoir in the commutative case. We prove its stable convergence in law to an affine SDE with source terms involving the Lie brackets between the Brownian vector fields and the drift vector field. This result ensures that the strong convergence rate is actually $1$ when the Brownian vector fields commute, but at least one of them does not commute with the Stratonovich drift vector field
|
Page generated in 0.0407 seconds