• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 37
  • 21
  • 1
  • Tagged with
  • 106
  • 106
  • 105
  • 105
  • 73
  • 66
  • 56
  • 27
  • 22
  • 21
  • 21
  • 21
  • 21
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Assimilation de données pour l'initialisation et l'estimation de paramètres d'un modèle d'évolution de calotte polaire

Bonan, Bertrand 15 November 2013 (has links) (PDF)
L'évolution des calottes polaires est régie à la fois par une dynamique d'écoulement complexe et par des mécanismes tel le glissement à la base, la température de la glace ou le bilan de masse en surface. De plus, de nombreuses boucles de rétroactions sont constatées entre les différents phénomènes impliquées. Tout ceci rend la modélisation de cette évolution complexe. Malgré tout, un certain nombre de modèles ont été développés dans cette optique. Ceux-ci font tous intervenir des paramètres influents qui dans certains cas sont peu ou pas connus. Ils nécessitent donc d'être correctement spécifiés. L'assimilation de données peut permettre une meilleure estimation de ces paramètres grâce à l'utilisation d'observations qui sont peu nombreuses en glaciologie. Dans cette thèse, nous nous intéressons à la mise en place de systèmes d'assimilation performants pour deux problèmes inverses concernant l'évolution des calottes polaires. Pour mieux nous concentrer sur ce point, nous avons travaillé avec un modèle d'évolution de calotte simplifié (appelé Winnie) qui, cependant, représente bien la plupart des processus complexes de la dynamique de la glace, et permet de travailler à différentes échelles de temps. Dans un premier temps, nous mettons en place une approche 4D-Var pour la reconstruction de l'évolution d'un paramètre climatique influant sur l'évolution d'une calotte sur une échelle de temps typique de 20 000 ans. Elle nécessite notamment l'écriture du code adjoint du modèle. Dans un second temps, nous nous intéressons au problème du spin-up. Ce problème de calibration du modèle pour des simulations à échelle de temps courtes (pas plus de 100 ans) consiste plus particulièrement en la reconstruction conjointe de l'état initial, de la topographie du socle rocheux et des paramètres de glissement basal. Nous développons ici une approche filtre de Kalman d'ensemble pour résoudre ce problème.
92

Manufacturing Constraints and Multi-Phase Shape and Topology Optimization via a Level-Set Method

Michailidis, Georgios 27 January 2014 (has links) (PDF)
The main contribution of this thesis is the implementation of manufacturing constraints in shape and topology optimization. Fabrication limitations related to the casting process are formulated as mathematical constraints and introduced in the optimization algorithm. In addition, based on the same theoretical and modelization tools, we propose a novel formulation for multi-phase optimization problems, which can be extended to the optimization of structures with functionally-graded properties. A key ingredient for the mathematical formulation of most problems throughout our work is the notion of the signed distance function to a domain. This work is divided into three parts. The rst part is bibliographical and contains the necessary background material for the understanding of the thesis' main core. It includes the rst two chapters. Chapter 1 provides a synopsis of shape and topology optimization methods and emphasizes the combination of shape sensitivity analysis and the level-set method for tracking a shape's boundary. In Chapter 2 we give a short description of the casting process, from which all our manufacturing constraints derive. We explain how industrial designers account for these limitations and propose a strategy to incorporate them in shape and topology optimization algorithms. The second part is about the mathematical formulation of manufacturing constraints. It starts with Chapter 3, where the control of thickness is discussed. Based on the signed distance function, we formulate three constraints to ensure a maximum and minimm feature size, as well as a minimal distance between structural members. Then, in Chapter 4, we propose ways to handle molding direction constraints and combine them with thickness constraints. Finally, a thermal constraint coming from the solidi cation of cast parts is treated in Chapter 5 using several thermal models. Multi-phase optimization is discussed in the third part. The general problem of shape and topology optimization using multiple phases is presented in detail in Chapter 6. A "smoothed-interface" approach, based again on the signed distance function, is proposed to avoid numerical di culties related to classical "sharp-interface" problems and a shape derivative is calculated. An extension of this novel formulation to general types of material properties' gradation is shown in the Appendix A.
93

Modélisation et commande de systèmes de conversion d'énergie pour l'automobile.

Ben Aicha,, Fehd 24 November 2008 (has links) (PDF)
Le contexte de cette thèse est l'étude de deux solutions technologiques en cours d'évaluation pour résoudre des problèmes énergétiques, environnementaux et économiques posés par le transport automobile. La première est une solution de rupture consistant à développer un groupe motopropulseur avec pile à combustible et reformeur embarqué. La deuxième solution, plus classique, tire profit des nombreux travaux faits sur les moteurs thermiques dépollués. Le travail réalisé concerne le développement de lois de commande et de diagnostic permettant d'optimiser le rendement dynamique du groupe motopropulseur sous contraintes d'autonomie, de pollution et de coût. Cela nous a conduit à proposer des modèles réduits des principaux phénomènes physico-chimiques mis en jeu dans les différents organes de deux groupes motopropulseurs. L'étude approfondie de ces deux systèmes nous a révélé plusieurs similitudes structurelles qui nous ont permis de formaliser un problème de commande commun à ces deux systèmes de conversion d'énergie. Nous avons alors proposé une loi de commande quasi optimale d'un groupe motopropulseur assez général sous les contraintes définies précédemment. Les différents modèles sont validés avec des essais expérimentaux et les algorithmes de commande et de diagnostic sont validés en simulation et en prototypages. Mots-clés Automatique : Modélisation, Réduction de modèles, Commande, Diagnostic Automobile : Groupe motopropulseur, Pile à combustible, Reformeur, Condenseur, Catalyseur d'oxydation, Filtre à particules Divers : Electrochimie, Thermique, Catalyse, Combustion, Condensation, Gestion d'énergie, Gestion de stocks, Dépollution
94

Preuves formelles pour l'optimisation globale -- Méthodes de gabarits et sommes de carrés

Magron, Victor 09 December 2013 (has links) (PDF)
Cette thèse a pour but de certifier des bornes inférieures de fonctions multivariées à valeurs réelles, définies par des expressions semi-algébriques ou transcendantes et de prouver leur validité en vérifiant les certificats dans l'assistant de preuves Coq. De nombreuses inégalités de cette nature apparaissent par exemple dans la preuve par Thomas Hales de la conjecture de Kepler. Dans le cadre de cette étude, on s'intéresse à des fonctions non-linéaires, faisant intervenir des opérations semi-algébriques ainsi que des fonctions transcendantes univariées (cos, arctan, exp, etc). L'utilisation de différentes méthodes d'approximation permet de relâcher le problème initial en un problème d'optimisation semi-algébrique. On se ramène ainsi à des problèmes d'optimisation polynomiale, qu'on résout par des techniques de sommes de carrés creuses. Dans un premier temps, nous présentons une technique classique d'optimisation globale. Les fonctions transcendantes univariées sont approchées par les meilleurs estimateurs polynomiaux uniformes de degré d. Par la suite, nous présentons une méthode alternative, qui consiste a borner certains des constituants de la fonction non-linéaire par des suprema de formes quadratiques (approximation maxplus, introduite à l'origine en contrôle optimal) de courbures judicieusement choisies. Enfin, cet algorithme d'approximation est amélioré, en combinant l'idée des estimateurs maxplus et de la méthode des gabarits développée par Manna et al. (en analyse statique). Les gabarits non-linéaires permettent un compromis sur la precision des approximations maxplus afin de contrôler la complexité des estimateurs semi-algébriques. Ainsi, on obtient une nouvelle technique d'optimisation globale, basée sur les gabarits, qui exploite à la fois la precision des sommes de carrés et la capacité de passage à l'échelle des méthodes d'abstraction. L'implémentation de ces méthodes d'approximation a abouti à un outil logiciel : NLCertify. Cet outil génère des certificats à partir d'approximations semi-algébriques et de sommes de carrés. Son interface avec Coq permet de bénéficier de l'arithmétique certifiée disponible dans l'assistant de preuves, et ainsi d'obtenir des estimateurs et des bornes valides pour chaque approximation. Nous démontrons les performances de cet outil de certification sur divers problèmes d'optimisation globale ainsi que sur des inégalités serrées qui interviennent dans la preuve de Hales.
95

IRM de diffusion du Q-space : Acquisition et pré-traitements

Caruyer, Emmanuel 18 July 2012 (has links) (PDF)
Le but général de cette thèse est de proposer de nouvelles méthodes d'acquisition et de traitement du signal en imagerie par résonance magnétique (IRM) de diffusion, dans le but d'ouvrir de nouvelles perspectives dans la reconstruction de la structure de la matière blanche \emph{in vivo}. L'IRM de diffusion est une technique d'imagerie non invasive qui mesure localement, en chaque voxel, la diffusion des molécules d'eau. Le déplacement de ces dernières étant contraint par la présence de tissus, le fait de pouvoir caractériser la diffusion des molécules d'eau apporte des informations sur la nature, l'orientation, la microstructure des tissus biologiques sous-jacents. La forte anisotropie observée dans la matière blanche fait de l'IRM de diffusion un outil privilégié pour l'étude de la connectivité cérébrale. Une des premières techniques d'acquisition et de reconstruction, appelée IRM du tenseur de diffusion, est maintenant utilisée de manière routinière en clinique, pour le diagnostique de certaines maladies neurologiques, ou encore en planification préopératoire. L'IRM du tenseur de diffusion repose sur un modèle de diffusion gaussien cependant, qui est limité quand il s'agit de décrire des configurations de tissus complexes à l'intérieur d'un voxel, par exemple quand plusieurs faisceaux de fibres se croisent. Dès lors, on a cherché ces dernières années à développer des techniques qui ne reposent pas sur un modèle a priori, afin de décrire de manière plus précise le déplacement des molécules d'eau, et dépasser les limitations du modèle tensoriel. La plupart de ces techniques, dites à haute résolution angulaire, sollicitent un temps d'acquisition généralement long, et mettent en jeu des problèmes de reconstruction non triviaux. Dans la première partie de cette thèse, nous décrivons la structure microscopique des tissus de la matière blanche du cerveau, et présentons la physique de formation des images en IRM de diffusion. Nous faisons un état de l'art des méthodes de reconstruction, et des techniques d'acquisition proposées à ce jour. En ce qui concerne les méthodes de reconstruction, nous faisons la distinction suivant qu'elles soient basées sur un modèle ou non. La première contribution de cette thèse est liée à la reconstruction paramétrique du signal de diffusion dans une base de fonctions continues. Cette contribution fait suite à une méthode proposée récemment, appelée transformée de Fourier sphérique, et y apporte une modification pour une reconstruction continue. Nous réduisons de façon significative la dimension de la base, tout en décrivant aussi bien le signal de diffusion. Nous donnons également l'expression de l'opérateur de régularisation de Laplace en fonction des coefficients dans cette base, afin de limiter l'impact du bruit sur la reconstruction. La seconde contribution est également liée à la reconstruction du signal de diffusion, et à la fonction de distribution d'orientation, dans un contexte d'application clinique. Nous proposons une méthode de reconstruction en temps réel basée sur le filtre de Kalman pour la probabilité marginale de diffusion angulaire. Nous développons un algorithme pour détecter les mouvements du patient, de façon précise et avec une grande sensibilité, et ce sans surcoût, comparé aux systèmes utilisant une camera et des algorithmes de vision robotique. Les deux dernières contributions présentées dans cette thèse sont liées aux techniques d'acquisition en IRM de diffusion, en particulier pour l'élaboration de schémas d'acquisition sur une ou plusieurs sphères dans l'espace de Fourier. Nous présentons d'abord une méthode géométrique pour placer des points dans l'espace de Fourier sur plusieurs sphères, en optimisant la couverture angulaire sur chacune des sphères, mais également de façon globale. Puis nous cherchons à établir un lien entre le schéma d'acquisition et la base de fonctions utilisée pour la reconstruction, et nous proposons en particulier une méthode pour élaborer un protocole d'acquisition qui permette de minimiser le nombre de conditionnement, pour la reconstruction dans la base des harmoniques sphériques, et dans la base de Fourier sphérique modifiée, proposée dans cette thèse. En conclusion de cette étude sur l'acquisition, nous pensons que l'élaboration du schéma d'échantillonnage doit être motivée à la fois pour répondre aux contraintes physiques du scanner, et par le choix de la base dans laquelle le signal sera reconstruit. Ces nouveaux schémas d'échantillonnage sont disponibles au téléchargement sur mon site internet.
96

Etude de deux problèmes de contrôle stochastique : Put Américain avec dividendes discrets et principe de programmation dynamique avec contraintes en probabilités

Jeunesse, Maxence 29 January 2013 (has links) (PDF)
Dans cette thèse, nous traitons deux problèmes de contrôle optimal stochastique. Chaque problème correspond à une Partie de ce document. Le premier problème traité est très précis, il s'agit de la valorisation des contrats optionnels de vente de type Américain (dit Put Américain) en présence de dividendes discrets (Partie I). Le deuxième est plus général, puisqu'il s'agit dans un cadre discret en temps de prouver l'existence d'un principe de programmation dynamique sous des contraintes en probabilités (Partie II). Bien que les deux problèmes soient assez distincts, le principe de programmation dynamique est au coeur de ces deux problèmes. La relation entre la valorisation d'un Put Américain et un problème de frontière libre a été prouvée par McKean. La frontière de ce problème a une signification économique claire puisqu'elle correspond à tout instant à la borne supérieure de l'ensemble des prix d'actifs pour lesquels il est préférable d'exercer tout de suite son droit de vente. La forme de cette frontière en présence de dividendes discrets n'avait pas été résolue à notre connaissance. Sous l'hypothèse que le dividende est une fonction déterministe du prix de l'actif à l'instant précédant son versement, nous étudions donc comment la frontière est modifiée. Au voisinage des dates de dividende, et dans le modèle du Chapitre 3, nous savons qualifier la monotonie de la frontière, et dans certains cas quantifier son comportement local. Dans le Chapitre 3, nous montrons que la propriété du smooth-fit est satisfaite à toute date sauf celles de versement des dividendes. Dans les deux Chapitres 3 et 4, nous donnons des conditions pour garantir la continuité de cette frontière en dehors des dates de dividende. La Partie II est originellement motivée par la gestion optimale de la production d'une centrale hydro-electrique avec une contrainte en probabilité sur le niveau d'eau du barrage à certaines dates. En utilisant les travaux de Balder sur la relaxation de Young des problèmes de commande optimale, nous nous intéressons plus spécifiquement à leur résolution par programmation dynamique. Dans le Chapitre 5, nous étendons au cadre des mesures de Young des résultats dûs à Evstigneev. Nous établissons alors qu'il est possible de résoudre par programmation dynamique certains problèmes avec des contraintes en espérances conditionnelles. Grâce aux travaux de Bouchard, Elie, Soner et Touzi sur les problèmes de cible stochastique avec perte contrôlée, nous montrons dans le Chapitre 6 qu'un problème avec contrainte en espérance peut se ramener à un problème avec des contraintes en espérances conditionnelles. Comme cas particulier, nous prouvons ainsi que le problème initial de la gestion du barrage peut se résoudre par programmation dynamique.
97

Conception optimale en mécanique des fluides numérique : approches hiérarchiques, robustes et isogéométriques

Duvigneau, Régis 03 October 2013 (has links) (PDF)
Mes travaux de recherche concernent les méthodes pour la conception optimale en mécanique des fluides numérique. Il s'agit d'un contexte difficile, dans la mesure où l'évaluation de la fonctionnelle coût pour l'optimisation s'appuie sur la résolution des équations aux dérivées partielles régissant l'écoulement, caractérisées par de fortes non- linéarités, anisotropies et éventuellement discontinuités. Plus spécifiquement, mes travaux ont porté sur le développement de méthodes de conception hiérarchiques, pour la modélisation et la paramétrisation, dans le but d'améliorer les propriétés de convergence; sur des méthodes de conception isogéométriques, permettant l'emploi d'une base unique d'ordre élevé pour la représentation géométrique et la simulation; sur des méthodes de conception robuste, pour prendre en compte les incertitudes et les erreurs durant la procédure de conception. Ces développements ont été appliqués à divers problèmes de conception optimale, principalement en aérodynamique compressible, mais aussi en hydrodynamique, pour des modélisations allant des équations d'Euler stationnaires aux équations de Navier-Stokes instationnaires avec fermeture turbulente. Les résultats obtenus ont notamment montré l'intérêt d'introduire un niveau de modélisation supplémentaire : l'utilisation de méta-modèles de type Processus Gaussiens, associés à une recherche des paramètres de conception maximisant l'amélioration probable, conduit à une optimisation globale pour un nombre de simulations significativement réduit (de l'ordre de quelques dizaines). De plus, cette approche peut permettre de prendre en compte les incertitudes et erreurs, en introduisant la notion d'observation bruitée. Le second résultat important concerne l'emploi des méthodes d'analyse isogéométrique, qui offrent un cadre conceptuel intégrant la géométrie et l'analyse. J'ai montré que cette approche permet le développement de schémas d'ordre élevé, de méthodes hiérarchiques pour la modélisation et l'optimisation, et facilite l'analyse de sensibilité et les couplages multidisciplinaires.
98

Contrôle en temps optimal et nage à bas nombre de Reynolds

Lohéac, Jérôme 06 December 2012 (has links) (PDF)
Cette thèse est divisée en deux parties, le fil directeur étant la contrôlabilité en temps optimal. Dans la première partie, après un rappel du principe du maximum de Pontryagin dans le cas des systèmes de dimension finie, nous mettrons en œuvre ce principe sur le cas d'un intégrateur non-holonome connu sous le nom de système de Brockett pour lequel nous imposons des contraintes sur l'état. La difficulté de cette étude provient du fait que l'on considère un problème de contrôle avec des contraintes sur l'état. Après cet exemple, nous nous intéressons à une extension du principe du maximum de Pontryagin au cas des systèmes de dimension infinie. Plus précisément, l'extension que nous considérons s'applique au cas de systèmes exactement contrôlables en tout temps. Typiquement, ce résultat s'applique à l'équation de Schrödinger avec contrôle interne. Pour de tels systèmes, sous une condition de contrôlabilité approchée, depuis un ensemble de temps non négligeable, nous montrons l'existence d'un contrôle bang-bang. Dans la seconde partie, nous étudions le problème de la nage à bas nombre de Reynolds. Une modélisation physique convenable nous permet de le formaliser comme un problème de contrôle. Nous obtenons alors un résultat de contrôlabilité sur ce problème. Plus précisément, nous montrons que quelque soit la forme du nageur, celui-ci peut se déformer légèrement pour suivre une trajectoire imposée. Nous étudions ensuite le cas d'un nageur à symétrie axiale. Les résultats de la première partie permettent alors la recherche d'un contrôle en temps optimal.
99

Estimations quadratiques, calculs fonctionnels et applications

Haak, Bernhard Hermann 28 November 2012 (has links) (PDF)
Ma recherche se situe dans le cadre de l'analyse harmonique et fonctionnelle avec des applications en théorie du contrôle. Le fil conducteur de mes travaux est le calcul fonctionnel ainsi que les estimations de fonctions carrées associées. Mes travaux concernent les thèmes ci-dessous : a) calcul fonctionnel H1 et estimations de fonctions carrées, b) applications des estimations de fonctions carrées au probl eme de Cauchy stochastique, c) résultats de perturbation pour des opérateurs (R) sectoriels, d) admissibilité et observabilité d'opérateurs de contrôle et d'observation, e) applications aux equations non-autonomes ou non-linéaires, en particulier aux équations de type Volterra et aux équations de Navier-Stokes, f) liens entre la théorie du contrôle et les mesures de Carleson.
100

Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière

Infante Acevedo, José Arturo 09 December 2013 (has links) (PDF)
Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équa- tions aux dérivées partielles Beaucoup de problèmes d'intérêt dans différents domaines (sciences des matériaux, finance, etc) font intervenir des équations aux dérivées partielles (EDP) en grande dimension. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'é- tudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande di- mension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire ap- pelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approxima- tion d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approxima- tion d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Les règles de cotation sont en train de changer et, en général, plus d'information est disponible. En particulier, il est possible de savoir à chaque instant le nombre d'ordres en attente pour certains actifs et d'avoir un historique de toutes les transactions passées. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de facon optimale la vente ou l'achat des ordres. Ceci est lié au comportement des traders qui veulent minimiser leurs coûts de transaction. La structure du carnet d'ordres (Limit Order Book) est très complexe. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Pour un prix donné, quand deux ordres se correspondent, ils sont exécutés selon une règle First In First Out. Ainsi, à cause de cette complexité, un modèle exhaustif du carnet d'ordres peut ne pas nous amener à un modèle où, par exemple, il pourrait être difficile de tirer des conclusions sur la stratégie optimale du trader. Nous devons donc proposer des modèles qui puissent capturer les caractéristiques les plus importantes de la structure du carnet d'ordres tout en restant possible d'obtenir des résultats analytiques. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrétes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction- Triggered Price Manipulation (voir Alfonsi, Schied et Slynko). Ces conditions nous donnent des intu- itions qualitatives sur la manière dont les teneurs de marché (market makers) peuvent créer ou pas des manipulations des prix.

Page generated in 0.2936 seconds