• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
761

Voyage au coeur des EDSRs du second ordre et autres problèmes contemporains de mathématiques financières.

Possamaï, Dylan 12 December 2011 (has links) (PDF)
Cette thèse présente deux principaux sujets de recherche indépendants, le dernier étant décliné sous la forme de deux problèmes distincts. Dans toute la première partie de la thèse, nous nous intéressons à la notion d'équations différentielles stochastiques rétrogrades du second ordre (dans la suite 2EDSR), introduite tout d'abord par Cheredito, Soner, Touzi et Victoir puis reformulée récemment par Soner, Touzi et Zhang. Nous prouvons dans un premier temps une extension de leurs résultats d'existence et d'unicité lorsque le générateur considéré est seulement continu et à croissance linéaire. Puis, nous poursuivons notre étude par une nouvelle extension au cas d'un générateur quadratique. Ces résultats théoriques nous permettent alors de résoudre un problème de maximisation d'utilité pour un investisseur dans un marché incomplet, à la fois car des contraintes sont imposées sur ses stratégies d'investissement, et parce que la volatilité du marché est supposée être inconnue. Nous prouvons dans notre cadre l'existence de stratégies optimales, caractérisons la fonction valeur du problème grâce à une EDSR du second ordre et résolvons explicitement certains exemples qui nous permettent de mettre en exergue les modifications induites par l'ajout de l'incertitude de volatilité par rapport au cadre habituel. Nous terminons cette première partie en introduisant la notion d'EDSR du second ordre avec réflexion sur un obstacle. Nous prouvons l'existence et l'unicité des solutions de telles équations, et fournissons une application possible au problème de courverture d'options Américaines dans un marché à volatilité incertaine. Le premier chapitre de la seconde partie de cette thèse traite d'un problème de pricing d'options dans un modèle où la liquidité du marché est prise en compte. Nous fournissons des développements asymptotiques de ces prix au voisinage de liquidité infinie et mettons en lumière un phénomène de transition de phase dépendant de la régularité du payoff des options considérées. Quelques résultats numériques sont également proposés. Enfin, nous terminons cette thèse par l'étude d'un problème Principal/Agent dans un cadre d'aléa moral. Une banque (qui joue le rôle de l'agent) possède un certain nombre de prêts dont elle est prête à échanger les intérêts contre des flux de capitaux. La banque peut influencer les probabilités de défaut de ces emprunts en exerçant ou non une activité de surveillance coûteuse. Ces choix de la banque ne sont connus que d'elle seule. Des investisseurs (qui jouent le rôle de principal) souhaitent mettre en place des contrats qui maximisent leur utilité tout en incitant implicitement la banque à exercer une activité de surveillance constante. Nous résolvons ce problème de contrôle optimal explicitement, décrivons le contrat optimal associé ainsi que ses implications économiques et fournissons quelques simulations numériques.
762

Phase de bi-particules localisées par interaction attractive dans un milieu aléatoire

Lages, José 19 October 2001 (has links) (PDF)
Nous étudions dans cet ouvrage les effets conjugués de l'interaction et du désordre sur la localisation de particules fermioniques. Nous montrons que l'établissement au-dessus du niveau de Fermi d'une interaction attractive de Hubbard entre deux particules évoluant sur un réseau désordonné d'Anderson (bi ou tridimensionnel) mène, dans l'état fondamental, à la création d'une paire de particules localisées. Cette phase biparticulaire apparaît dans un régime de désordre où les particules sans interaction ne sont pas encore localisées (phase métallique du modèle d'Anderson). Cette localisation persiste également pour les états excités tant que ceux-ci décrivent un état où les deux particules liées forment une paire. Cette phase de biparticules localisées par interaction attractive (phase BLS) disparaît néanmoins au profit d'une phase de paires de Cooper délocalisées lorsque les fluctuations du désordre sur le réseau sont suffisamment faibles. Un champ magnétique permet également, en altérant la structure des paires, de délocaliser les particules menant ainsi à la disparition de la phase BLS. Ce modèle quantique de deux particules constitue, pour les systèmes désordonnés, une généralisation du problème de Cooper. Nous montrons alors qu'il est nécessaire d'aller au-delà de l'approximation que constitue l'ansatz de Cooper pour décrire correctement la phase BLS. Ce résultat traduit le fait que, pour les systèmes à N-corps, les techniques de champs moyen utilisant l'appariement des particules suggéré par l'ansatz de Cooper ne permettent pas de traiter de manière correcte les influences conjuguées du désordre et de l'attraction dans les supraconducteurs fortement désordonnés. Une extension de notre modèle, au cas de N>2 fermions en interaction, est envisagé, montrant que l'état fondamental à N-corps entreprends une transition d'un état délocalisé (supraconducteur) vers un état localisé (isolant) lorsque le désordre augmente dans le système.
763

Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography

Finke, Stefan 03 1900 (has links)
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM. / The inverse problem of electroencephalography (EEG) is the localization of current sources within the brain using surface potentials on the scalp generated by these sources. An inverse solution typically involves multiple calculations of scalp surface potentials, i.e., the EEG forward problem. To solve the forward problem, models are needed for both the underlying source configuration, the source model, and the surrounding tissues, the head model. This thesis treats two distinct approaches for the resolution of the EEG forward and inverse problems using the boundary-element method (BEM): the conventional approach and the reciprocal approach. The conventional approach to the forward problem entails calculating the surface potentials starting from source current dipoles. The reciprocal approach, on the other hand, first solves for the electric field at the source dipole locations when the surface electrodes are reciprocally energized with a unit current. A scalar product of this electric field with the source dipoles then yields the surface potentials. The reciprocal approach promises a number of advantages over the conventional approach, including the possibility of increased surface potential accuracy and decreased computational requirements for inverse solutions. In this thesis, the BEM equations for the conventional and reciprocal approaches are developed using a common weighted-residual formulation. The numerical implementation of both approaches to the forward problem is described for a single-dipole source model. A three-concentric-spheres head model is used for which analytic solutions are available. Scalp potentials are calculated at either the centroids or the vertices of the BEM discretization elements used. The performance of the conventional and reciprocal approaches to the forward problem is evaluated for radial and tangential dipoles of varying eccentricities and two widely different skull conductivities. We then determine whether the potential advantages of the reciprocal approach suggested by forward problem simulations can be exploited to yield more accurate inverse solutions. Single-dipole inverse solutions are obtained using simplex minimization for both the conventional and reciprocal approaches, each with centroid and vertex options. Again, numerical simulations are performed on a three-concentric-spheres model for radial and tangential dipoles of varying eccentricities. The inverse solution accuracy of both approaches is compared for the two different skull conductivities and their relative sensitivity to skull conductivity errors and noise is assessed. While the conventional vertex approach yields the most accurate forward solutions for a presumably more realistic skull conductivity value, both conventional and reciprocal approaches exhibit large errors in scalp potentials for highly eccentric dipoles. The reciprocal approaches produce the least variation in forward solution accuracy for different skull conductivity values. In terms of single-dipole inverse solutions, conventional and reciprocal approaches demonstrate comparable accuracy. Localization errors are low even for highly eccentric dipoles that produce large errors in scalp potentials on account of the nonlinear nature of the single-dipole inverse solution. Both approaches are also found to be equally robust to skull conductivity errors in the presence of noise. Finally, a more realistic head model is obtained using magnetic resonance imaging (MRI) from which the scalp, skull, and brain/cerebrospinal fluid (CSF) surfaces are extracted. The two approaches are validated on this type of model using actual somatosensory evoked potentials (SEPs) recorded following median nerve stimulation in healthy subjects. The inverse solution accuracy of the conventional and reciprocal approaches and their variants, when compared to known anatomical landmarks on MRI, is again evaluated for the two different skull conductivities. Their respective advantages and disadvantages including computational requirements are also assessed. Once again, conventional and reciprocal approaches produce similarly small dipole position errors. Indeed, position errors for single-dipole inverse solutions are inherently robust to inaccuracies in forward solutions, but dependent on the overlapping activity of other neural sources. Against expectations, the reciprocal approaches do not improve dipole position accuracy when compared to the conventional approaches. However, significantly smaller time and storage requirements are the principal advantages of the reciprocal approaches. This type of localization is potentially useful in the planning of neurosurgical interventions, for example, in patients with refractory focal epilepsy in whom EEG and MRI are often already performed.
764

Approche efficace pour la conception des architectures multiprocesseurs sur puce électronique

Elie, Etienne 12 1900 (has links)
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système. / On-Chip Multiprocessor (OCM) systems are considered to be the best structures to occupy the abundant space available on today integrated circuits (IC). In our thesis, we are interested on an architectural model, called Isometric on-Chip Multiprocessor Architecture (ICMA), that optimizes the OCM systems by focusing on an effective organization of cores (processors and memories) and on methodologies that optimize the use of these architectures. In the first part of this work, we study the topology of ICMA and propose an architecture that enables efficient and massive use of on-chip memories. ICMA organizes processors and memories in an isometric structure with the objective to get processed data close to the processors that use them rather than to optimize transfers between processors and memories, arranged in a conventional manner. ICMA is a mesh model in three dimensions. The organization of our architecture is inspired by the crystal structure of sodium chloride (NaCl), where each processor can access six different memories and where each memory can communicate with six processors at once. In the second part of our work, we focus on a methodology of decomposition. This methodology is used to find the optimal number of nodes for a given application or specification. The approach we use is to transform an application or a specification into an incidence matrix, where the entries of this matrix are the interactions between processors and memories as entries. In other words, knowing that the performance of a model depends on the intensity of the data flow exchanged between its units, namely their number, we aim to guarantee a good computing performance by finding the optimal number of processors and memories that are suitable for the application computation. We also consider the load balancing of the units of ICMA during the specification phase of the design. Our proposed decomposition is on three points: the transformation of the specification or application into an incidence matrix, a new methodology based on the Cell Formation Problem (CFP), and load balancing processes in the processors and data in memories. In the third part, we focus on the allocation of processor and memory by a two-step methodology. Initially, we allocate units to the nodes of the system structure, considered here as an undirected graph, and subsequently we assign values to the arcs of this graph. For the assignment, we propose modeling of the decomposed application using a matrix approach and the Quadratic Assignment Problem (QAP). For the assignment of the values to the arcs, we propose an approach of gradual changes of these values in order to seek the best combination of cost allocation, this under certain metric constraints such as temperature, heat dissipation, power consumption and surface occupied by the chip. The ultimate goal of this work is to propose a methodology for non-traditional, systematic and effective decision support design tools for multiprocessor system architects, from the phase of functional specification.
765

Comparaison de valeurs propres de Laplaciens et inégalités de Sobolev sur des variétés riemanniennes à densité / Eigenvalue comparison for Laplacians and Sobolev inequalities on weighed Riemannian manifolds

Shouman, Abdolhakim 03 July 2017 (has links)
Le but de cette thèse est triple : INÉGALITÉS DE SOBOLEV AVEC DES CONSTANTES EXPLICITES SUR DES VARIÉTÉS RIEMANNIENNES À DENSITÉ ET À BORD CONVEXE : On obtient des inégalités de Sobolev à densité, avec des constantes géométriques explicites pour des variétés à courbure de m-Bakry-Émery Ricci minorée par une constante positive et à bord convexe. Ceci permet de généraliser de nombreux résultats connus dans le cas riemannien aux variétés avec densité. Nous montrons aussi comment déduire des inégalités de Sobolev obtenues, un résultat d’isolement pour les applications f -harmoniques. Nous présenterons également une nouvelle et très simple méthode pour la preuve de l’inégalité de Moser-Trudinger-Onofri [Onofri, 1982] dans le cas du disque euclidien. / The purpose of this thesis is threefold: SOBOLEV INEQUALITIES WITH EXPLICIT CONSTANTS ON A WEIGHTED RIEMANNIAN MANIFOLD OF CONVEX BOUNDARY: We obtain weighted Sobolev inequalities with explicit geometric constants for weighted Riemannian manifolds of positive m-Bakry-Emery Ricci curvature and convex boundary. As a first application, we generalize several results of Riemannian manifolds to the weighted setting. Another application is a new isolation result for the f -harmonic maps. We also give a new and elemantry proof of the well-known Moser-Trudinger-Onofri [Onofri, 1982] inequality for the Euclidean disk.
766

A parallel second order Cartesian method for elliptic interface problems and its application to tumor growth model / Une méthode cartésienne parallèle au deuxième ordre pour problèmes elliptiques avec interfaces et son application à une modèle de croissance tumorale

Cisternino, Marco 12 April 2012 (has links)
Cette thèse porte sur une méthode cartésienne parallèle pour résoudre des problèmes elliptiques avec interfaces complexes et sur son application aux problèmes elliptiques en domaine irrégulier dans le cadre d'un modèle de croissance tumorale.La méthode est basée sur un schéma aux différences finies et sa précision est d’ordre deux sur tout le domaine. L'originalité de la méthode consiste en l'utilisation d'inconnues additionnelles situées sur l'interface et qui permettent d’exprimer les conditions de transmission à l'interface. La méthode est décrite et les détails sur la parallélisation, réalisé avec la bibliothèque PETSc, sont donnés. La méthode est validée et les résultats sont comparés avec ceux d'autres méthodes du même type disponibles dans la littérature. Une étude numérique de la méthode parallélisée est fournie.La méthode est appliquée aux problèmes elliptiques dans un domaine irrégulier apparaissant dans un modèle continue et tridimensionnel de croissance tumorale, le modèle à deux espèces du type Darcy . L'approche utilisée dans cette application est basée sur la pénalisation des conditions de transmission à l'interface, afin de imposer des conditions de Neumann homogènes sur le border d'un domaine irrégulier. Les simulations du modèle sont fournies et montrent la capacité de la méthode à imposer une bonne approximation de conditions au bord considérées. / This theses deals with a parallel Cartesian method to solve elliptic problems with complex interfaces and its application to elliptic irregular domain problems in the framework of a tumor growth model.This method is based on a finite differences scheme and is second order accurate in the whole domain. The originality of the method lies in the use of additional unknowns located on the interface, allowing to express the interface transmission conditions. The method is described and the details of its parallelization, performed with the PETSc library, are provided. Numerical validations of the method follow with comparisons to other related methods in literature. A numerical study of the parallelized method is also given.Then, the method is applied to solve elliptic irregular domain problems appearing in a three-dimensional continuous tumor growth model, the two-species Darcy model. The approach used in this application is based on the penalization of the interface transmission conditions, in order to impose homogeneous Neumann boundary conditions on the border of an irregular domain. The simulations of model are provided and they show the ability of the method to impose a good approximation of the considered boundary conditions. / Questa tesi introduce un metodo parallelo su griglia cartesiana per risolvere problemi ellittici con interfacce complesse e la sua applicazione ai problemi ellittici in dominio irregolare presenti in un modello di crescita tumorale.Il metodo è basato su uno schema alle differenze finite ed è accurato al secondo ordine su tutto il dominio di calcolo. L'originalità del metodo consiste nell'introduzione di nuove incognite sull'interfaccia, le quali permettono di esprimere le condizioni di trasmissione sull'interfaccia stessa. Il metodo viene descritto e i dettagli della sua parallelizzazione, realizzata con la libreria PETSc, sono forniti. Il metodo è validato e i risultati sono confrontati con quelli di metodi dello stesso tipo trovati in letteratura. Uno studio numerico del metodo parallelizzato è inoltre prodotto.Il metodo è applicato ai problemi ellittici in dominio irregolare che compaiono in un modello continuo e tridimensionale di crescita tumorale, il modello a due specie di tipo Darcy. L'approccio utilizzato è basato sulla penalizzazione delle condizioni di trasmissione sull'interfaccia, al fine di imporre condizioni di Neumann omogenee sul bordo di un dominio irregolare. Le simulazioni del modello sono presentate e mostrano la capacità del metodo di imporre una buona approssimazione delle condizioni al bordo considerate.
767

Sur le modèle de Kerr-Debye pour la propagation des ondes électromagnétiques

Kanso, Mohamed 01 October 2012 (has links)
Dans cette thèse on étudie des systèmes d’EDP non linéaires modélisant la propagation électromagnétique dans des milieux de type Kerr. On considère deux modèles. Le premier dit de Kerr-Debye, suppose un temps de réponse non nul du matériau à l’onde électromagnétique. Le second, dit de Kerr, suppose une réponse instantanée. On est ainsi confronté à des systèmes de relaxation tels que définis par Chen-Levermore-Liu (CPAM 1994). Nous établissons ici des résultats d’existence globale de solutions fortes à données petites en 3D pour le problème de Cauchy et un problème mixte. Puis nous construisons des schémas volumes finis asymptotic preserving et nous étudions leurs performances sur des cas physiques. / In this thesis, we study non-linear PDE systems modeling the electromagnetic propagation in Kerr media. We consider two models. The first one is the Kerr-Debye model, it assumes a finite response time of the medium. The second one is the Kerr model, it assumes an instantaneous response. We deal with relaxation systems as defined by Chen-Levermore-Liu (CPAM 1994). For small data, we establish results of global existence of smooth solutions in 3D for the Cauchy problem and the IBVP. Then we investigate asymptotic preserving finite volume schemes and we study their performance on physical cases.
768

Nonlinear approaches for phase retrieval in the Fresnel region for hard X-ray imaging / Approches non linéaire en imagerie de phase par rayons X dans le domaine de Fresnel

Ion, Valentina 26 September 2013 (has links)
Le développement de sources cohérentes de rayons X offre de nouvelles possibilités pour visualiser les structures biologiques à différentes échelles en exploitant la réfraction des rayons X. La cohérence des sources synchrotron de troisième génération permettent des implémentations efficaces des techniques de contraste de phase. Une des premières mesures des variations d’intensité dues au contraste de phase a été réalisée en 1995 à l’Installation Européenne de Rayonnement Synchrotron (ESRF). L’imagerie de phase couplée à l’acquisition tomographique permet une imagerie tridimensionnelle avec une sensibilité accrue par rapport à la tomographie standard basée sur absorption. Cette technique est particulièrement adaptée pour les échantillons faiblement absorbante ou bien présentent des faibles différences d’absorption. Le contraste de phase a ainsi une large gamme d’applications, allant de la science des matériaux, à la paléontologie, en passant par la médecine et par la biologie. Plusieurs techniques de contraste de phase aux rayons X ont été proposées au cours des dernières années. Dans la méthode de contraste de phase basée sur le phénomène de propagation l’intensité est mesurée pour différentes distances de propagation obtenues en déplaçant le détecteur. Bien que l’intensité diffractée puisse être acquise et enregistrée, les informations de phase du signal doivent être "récupérées" à partir seulement du module des données mesurées. L’estimation de la phase est donc un problème inverse non linéaire mal posé et une connaissance a priori est nécessaire pour obtenir des solutions stables. Si la plupart de méthodes d’estimation de phase reposent sur une linéarisation du problème inverse, les traitements non linéaires ont été eux très peu étudiés. Le but de ce travail était de proposer et d’évaluer des nouveaux algorithmes, prenant en particulier en compte la non linéarité du problème direct. Dans la première partie de ce travail, nous présentons un schéma de type Landweber non linéaire itératif pour résoudre le problème de la récupération de phase. Cette approche utilise l’expression analytique de la dérivée de Fréchet de la relation phase-intensité et de son adjoint. Nous étudions aussi l’effet des opérateurs de projection sur les propriétés de convergence de la méthode. Dans la deuxième partie de cette thèse, nous étudions la résolution du problème inverse linéaire avec un algorithme en coordonnées ondelettes basé sur un seuillage itératif. Par la suite, les deux algorithmes sont combinés et comparés avec une autre approche non linéaire basée sur une régularisation parcimonieuse et un algorithme de point fixe. Les performances des algorithmes sont évaluées sur des données simulées pour différents niveaux de bruit. Enfin, les algorithmes ont été adaptés pour traiter des données réelles acquises en tomographie de phase à l’ESRF à Grenoble. / The development of highly coherent X-ray sources offers new possibilities to image biological structures at different scales exploiting the refraction of X-rays. The coherence properties of the third-generation synchrotron radiation sources enables efficient implementations of phase contrast techniques. One of the first measurements of the intensity variations due to phase contrast has been reported in 1995 at the European Synchrotron Radiation Facility (ESRF). Phase imaging coupled to tomography acquisition allows threedimensional imaging with an increased sensitivity compared to absorption CT. This technique is particularly attractive to image samples with low absorption constituents. Phase contrast has many applications, ranging from material science, paleontology, bone research to medicine and biology. Several methods to achieve X-ray phase contrast have been proposed during the last years. In propagation based phase contrast, the measurements are made at different sample-to-detector distances. While the intensity data can be acquired and recorded, the phase information of the signal has to be "retrieved" from the modulus data only. Phase retrieval is thus an illposed nonlinear problem and regularization techniques including a priori knowledge are necessary to obtain stable solutions. Several phase recovery methods have been developed in recent years. These approaches generally formulate the phase retrieval problem as a linear one. Nonlinear treatments have not been much investigated. The main purpose of this work was to propose and evaluate new algorithms, in particularly taking into account the nonlinearity of the direct problem. In the first part of this work, we present a Landweber type nonlinear iterative scheme to solve the propagation based phase retrieval problem. This approach uses the analytic expression of the Fréchet derivative of the phase-intensity relationship and of its adjoint, which are presented in detail. We also study the effect of projection operators on the convergence properties of the method. In the second part of this thesis, we investigate the resolution of the linear inverse problem with an iterative thresholding algorithm in wavelet coordinates. In the following, the two former algorithms are combined and compared with another nonlinear approach based on sparsity regularization and a fixed point algorithm. The performance of theses algorithms are evaluated on simulated data for different noise levels. Finally the algorithms were adapted to process real data sets obtained in phase CT at the ESRF at Grenoble.
769

Analyse mathématique de modèles de trafic routier congestionné / Mathematical analysis of models of congested road traffic

Hatchi, Roméo 02 December 2015 (has links)
Cette thèse est dédiée à l'étude mathématique de quelques modèles de trafic routier congestionné. La notion essentielle est l'équilibre de Wardrop. Elle poursuit des travaux de Carlier et Santambrogio avec des coauteurs. Baillon et Carlier ont étudié le cas de grilles cartésiennes dans $\RR^2$ de plus en plus denses, dans le cadre de la théorie de $\Gamma$-convergence. Trouver l'équilibre de Wardrop revient à résoudre des problèmes de minimisation convexe. Dans le chapitre 2, nous regardons ce qui se passe dans le cas de réseaux généraux, de plus en plus denses, dans $\RR^d$. Des difficultés nouvelles surgissent par rapport au cas initial de réseaux cartésiens et pour les contourner, nous introduisons la notion de courbes généralisées. Des hypothèses structurelles sur ces suites de réseaux discrets sont nécessaires pour s'assurer de la convergence. Cela fait alors apparaître des fonctions qui sont des sortes de distances de Finsler et qui rendent compte de l'anisotropie du réseau. Nous obtenons ainsi des résultats similaires à ceux du cas cartésien. Dans le chapitre 3, nous étudions le modèle continu et en particulier, les problèmes limites. Nous trouvons alors des conditions d'optimalité à travers une formulation duale qui peut être interprétée en termes d'équilibres continus de Wardrop. Cependant, nous travaillons avec des courbes généralisées et nous ne pouvons pas appliquer directement le théorème de Prokhorov, comme cela a été le cas dans \cite{baillon2012discrete, carlier2008optimal}. Pour pouvoir néanmoins l'utiliser, nous considérons une version relaxée du problème limite, avec des mesures d'Young. Dans le chapitre 4, nous nous concentrons sur le cas de long terme, c'est-à-dire, nous fixons uniquement les distributions d'offre et de demande. Comme montré dans \cite{brasco2013congested}, le problème de l'équilibre de Wardrop est équivalent à un problème à la Beckmann et il se réduit à résoudre une EDP elliptique, anisotropique et dégénérée. Nous utilisons la méthode de résolution numérique de Lagrangien augmenté présentée dans \cite{benamou2013augmented} pour proposer des exemples de simulation. Enfin, le chapitre 5 a pour objet l'étude de problèmes de Monge avec comme coût une distance de Finsler. Cela se reformule en des problèmes de flux minimal et une discrétisation de ces problèmes mène à un problème de point-selle. Nous le résolvons alors numériquement, encore grâce à un algorithme de Lagrangien augmenté. / This thesis is devoted to the mathematical analysis of some models of congested road traffic. The essential notion is the Wardrop equilibrium. It continues Carlier and Santambrogio's works with coauthors. With Baillon they studied the case of two-dimensional cartesian networks that become very dense in the framework of $\Gamma$-convergence theory. Finding Wardrop equilibria is equivalent to solve convex minimisation problems.In Chapter 2 we look at what happens in the case of general networks, increasingly dense. New difficulties appear with respect to the original case of cartesian networks. To deal with these difficulties we introduce the concept of generalized curves. Structural assumptions on these sequences of discrete networks are necessary to obtain convergence. Sorts of Finsler distance are used and keep track of anisotropy of the network. We then have similar results to those in the cartesian case.In Chapter 3 we study the continuous model and in particular the limit problems. Then we find optimality conditions through a duale formulation that can be interpreted in terms of continuous Wardrop equilibria. However we work with generalized curves and we cannot directly apply Prokhorov's theorem, as in \cite{baillon2012discrete, carlier2008optimal}. To use it we consider a relaxed version of the limit problem with Young's measures. In Chapter 4 we focus on the long-term case, that is, we fix only the distributions of supply and demand. As shown in \cite{brasco2013congested} the problem of Wardrop equilibria can be reformulated in a problem à la Beckmann and reduced to solve an elliptic anisotropic and degenerated PDE. We use the augmented Lagrangian scheme presented in \cite{benamou2013augmented} to show a few numerical simulation examples. Finally Chapter 5 is devoted to studying Monge problems with as cost a Finsler distance. It leads to minimal flow problems. Discretization of these problems is equivalent to a saddle-point problem. We then solve it numerically again by an augmented Lagrangian algorithm.
770

Some Contributions on Probabilistic Interpretation For Nonlinear Stochastic PDEs / Quelques contributions dans la représentation probabiliste des solutions d'EDPs non linéaires

Sabbagh, Wissal 08 December 2014 (has links)
L'objectif de cette thèse est l'étude de la représentation probabiliste des différentes classes d'EDPSs non-linéaires(semi-linéaires, complètement non-linéaires, réfléchies dans un domaine) en utilisant les équations différentielles doublement stochastiques rétrogrades (EDDSRs). Cette thèse contient quatre parties différentes. Nous traitons dans la première partie les EDDSRs du second ordre (2EDDSRs). Nous montrons l'existence et l'unicité des solutions des EDDSRs en utilisant des techniques de contrôle stochastique quasi- sure. La motivation principale de cette étude est la représentation probabiliste des EDPSs complètement non-linéaires. Dans la deuxième partie, nous étudions les solutions faibles de type Sobolev du problème d'obstacle pour les équations à dérivées partielles inteégro-différentielles (EDPIDs). Plus précisément, nous montrons la formule de Feynman-Kac pour l'EDPIDs par l'intermédiaire des équations différentielles stochastiques rétrogrades réfléchies avec sauts (EDSRRs). Plus précisément, nous établissons l'existence et l'unicité de la solution du problème d'obstacle, qui est considérée comme un couple constitué de la solution et de la mesure de réflexion. L'approche utilisée est basée sur les techniques de flots stochastiques développées dans Bally et Matoussi (2001) mais les preuves sont beaucoup plus techniques. Dans la troisième partie, nous traitons l'existence et l'unicité pour les EDDSRRs dans un domaine convexe D sans aucune condition de régularité sur la frontière. De plus, en utilisant l'approche basée sur les techniques du flot stochastiques nous démontrons l'interprétation probabiliste de la solution faible de type Sobolev d'une classe d'EDPSs réfléchies dans un domaine convexe via les EDDSRRs. Enfin, nous nous intéressons à la résolution numérique des EDDSRs à temps terminal aléatoire. La motivation principale est de donner une représentation probabiliste des solutions de Sobolev d'EDPSs semi-linéaires avec condition de Dirichlet nul au bord. Dans cette partie, nous étudions l'approximation forte de cette classe d'EDDSRs quand le temps terminal aléatoire est le premier temps de sortie d'une EDS d'un domaine cylindrique. Ainsi, nous donnons les bornes pour l'erreur d'approximation en temps discret. Cette partie se conclut par des tests numériques qui démontrent que cette approche est effective. / The objective of this thesis is to study the probabilistic representation (Feynman-Kac for- mula) of different classes ofStochastic Nonlinear PDEs (semilinear, fully nonlinear, reflected in a domain) by means of backward doubly stochastic differential equations (BDSDEs). This thesis contains four different parts. We deal in the first part with the second order BDS- DEs (2BDSDEs). We show the existence and uniqueness of solutions of 2BDSDEs using quasi sure stochastic control technics. The main motivation of this study is the probabilistic representation for solution of fully nonlinear SPDEs. First, under regularity assumptions on the coefficients, we give a Feynman-Kac formula for classical solution of fully nonlinear SPDEs and we generalize the work of Soner, Touzi and Zhang (2010-2012) for deterministic fully nonlinear PDE. Then, under weaker assumptions on the coefficients, we prove the probabilistic representation for stochastic viscosity solution of fully nonlinear SPDEs. In the second part, we study the Sobolev solution of obstacle problem for partial integro-differentialequations (PIDEs). Specifically, we show the Feynman-Kac formula for PIDEs via reflected backward stochastic differentialequations with jumps (BSDEs). Specifically, we establish the existence and uniqueness of the solution of the obstacle problem, which is regarded as a pair consisting of the solution and the measure of reflection. The approach is based on stochastic flow technics developed in Bally and Matoussi (2001) but the proofs are more technical. In the third part, we discuss the existence and uniqueness for RBDSDEs in a convex domain D without any regularity condition on the boundary. In addition, using the approach based on the technics of stochastic flow we provide the probabilistic interpretation of Sobolev solution of a class of reflected SPDEs in a convex domain via RBDSDEs. Finally, we are interested in the numerical solution of BDSDEs with random terminal time. The main motivation is to give a probabilistic representation of Sobolev solution of semilinear SPDEs with Dirichlet null condition. In this part, we study the strong approximation of this class of BDSDEs when the random terminal time is the first exit time of an SDE from a cylindrical domain. Thus, we give bounds for the discrete-time approximation error.. We conclude this part with numerical tests showing that this approach is effective.

Page generated in 0.0261 seconds