• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 204
  • 59
  • 1
  • Tagged with
  • 722
  • 317
  • 168
  • 114
  • 106
  • 105
  • 102
  • 98
  • 94
  • 88
  • 82
  • 66
  • 66
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Propriétés qualitatives de quelques systèmes de la mécanique des fluides incompressibles / Some qualitative properties of the solutions of some systems of incompressible fluids mechanics

Ellawy, Abdullatif 14 December 2017 (has links)
L’objet de cette thèse est l’étude des propriétés qualitatives des solutions de quelques équations de la mécanique de fluides incompressibles. Elle est divisée en trois chapitres. Le premier chapitre est consacré à la question d’existence locale est d’unité pour le système d’Euler 2D incompressible. On montre un théorème d’existence locale et d’unité dans un espace large de tourbillons initiaux. Ceci généralise la partie existence locale du travail de Bernicot Keraani [2] sur le sujet. Une lois de compositions dans ces espaces (avec les homéomorphisme préservant la mesure de Lebesgue) est donnée et utilisée pour la preuve du théorème principal de ce chapitre. Le deuxième chapitre est consacré à la décomposition en profils pour le système de Navier-Stokes fractionnaire en 3D dans la boule maximale d’existence globale. On montre un théorème de structures qui mettent en évidence le rôle du groupe des invariances de ce système et on l’utilise pour établir des propriétés qualitatives des solutions globales. Enfin, dans le dernier chapitre, on utilise une décomposition en profil plus générale pour établir des résultats sur le comportement asymptotiques des solutions du Navier-Stokes fractionnaire en 3D. On montre que la norme de Sobolev critique des solutions globales converge vers 0 et que celle des solutions singulières explose en s’approchant du temps d’explosion fini. / The purpose of this thesis is to study the qualitative properties of the solutions of some systems of incompressible fluids mechanics. This thesis is divided into three chapters, the first chapter is dedicated to the issue of local existence and uniqueness of a solution to the 2D Euler incompressible system. We prove a theorem of local existence and uniqueness in a large space of initial vorticities. This extends the results (the local existence part more precisely) by Bernicot and Keraani [2] on the subject. Some laws of composition in these spaces (with Lebesgue measure preserving homeomorphisms) are given and used to prove the principal theorem of this chapter. The second chapter is concerned with the profile decomposition for the 3D fractional Navier-Stokes system. We prove some structure theorem which highlights the role of the invariances group of this system and we use it to establish some qualitative properties of the global solutions of fractional Navier-Stokes. In the last chapter, we study the asymptotic behavior of the solutions of fractional 3D Navier-Stokes. We prove that the critical Sobolev norm of the solution vanishes at infinity if it is global and blows up if it develops singularities at the finite time. A suitable profile decomposition is the main tool for our analysis throughout this chapter.
12

Sensibilité d'un écoulement de rouleau compressé et des variations cycle à cycle associées à des paramètres de remplissage moteur / Sensitivity of the compressed tumble motion and of the cycle to cycle variations to engine’s air filling parameters.

Cao, Yujun 17 December 2014 (has links)
Ce travail concerne l’étude expérimentale de la sensibilité de l’écoulement du moteur et de ses variations cycle à cycle (VCC) à trois variations des conditions aux limitesliée à l’optimisation du remplissage moteur. Dans la configuration standard, l’écoulement tridimensionnel de rouleau (« tumble ») est décrit pendant les phases d’admission et de compression.Un phasage plus précoce de la loi de levée d’admission augmente le débit de masse aux soupapes et amplifie les fluctuations dès le début de l’admission. L’intensité du rouleau est beaucoup plus faible à phase mi-compression. L’énergie fluctuante au point mort haut est plus faible. Une course rallongée du moteur conduit, en fin de compression, à un basculement de l’écoulement moyen et à une évolution très différente des vitesses fluctuantes,due au confinement différent vue par l’aérodynamique du moteur. Enfin, la modification des conduits d’admission entraîne une variation de l’intensité et une structuration fondamentalement différente de l’écoulement. En outre, pour décrire le transfert vers la turbulence,deux méthodologies de classification des structures de l’écoulement en groupe par corrélation spatiale, puis par « clustering » sont adaptées. L’analyse statistique du contenu des différents groupes et des transitions entre groupes permet de montrer que les VCC sont associées à différentes trajectoires dans l’espace des groupes. Des statistiques conditionnelles sont calculées pour analyser les données de chaque groupe et permettent de définir une décomposition triple. Ces caractérisations plus précises des VCC sont très générales et applicables à des grandes bases de données expérimentales ou numériques. / This experimental work concerns a sensitivity study of the in-cylinder flow in aspark-ignition engine and of the cycle to cycle variations (CCV) by comparing three variationsof boundary conditions related to the optimisation of air filling conditions. In the reference case, the three dimensional tumble flow is characterized during the intake and compression phases. A earlier intake cam phase increases the mass flow rate at inlet valves and amplifiesthe fluctuations immediately after the start of intake phase. The tumble ratio is much lowerat mid-compression phase. The fluctuating energy at top dead center is reduced. A longerengine stroke leads, at the end of compression phase, to a shift of mean flow and to a verydistinct evolution of the fluctuating velocity, due to the different confinement from the pointof view of the engine internal flow. Finally, the modification of intake duct design changes theflow intensity and reorganizes in depth the flow structure. Moreover, to describe the transfer into turbulence, two methodologies of classification in groups of flow structures, by spatial correlation then by clustering, are proposed. A phase-averaged analysis of the statistics of group content and inter-group transitions shows that CCV can be associated with different sets of trajectories during the second half of the compression phase. The conditional statistics are computed to analyse the data in each group, which leads to a triple decomposition. It is important to point out that this more accurate evaluation of CCV is applicable to very large sets of experimental or numerical data.
13

Développement d'une approche innovante de modélisation de la cinétique de décomposition thermique des matériaux solides en espaces confinés sous-ventilés. Application aux incendies en tunnel / Development of an Innovative Modelling Approach of the Thermal Decomposition Kinetics of Solid Mateirals in Confined Under Ventilated Environments. Application to Tunnel Fires

Hermouet, Fabien 18 December 2015 (has links)
Les incendies de tunnels sont des phénomènes violents, à l’évolution rapide qui engendrent la plupart du temps des dommages importants aux personnes et aux biens. La sécurité incendie dans les tunnels routiers est basée sur l’utilisation de modèles empiriques très simplifiés de description de l’évolution de la cinétique de développement de l’incendie. Ces modèles ne prennent cependant pas en compte le type de combustible impliqués dans le phénomène, tels que les polymères constitutifs des enveloppes des véhicules routiers, ni leurs réactivité en phase solide (décomposition thermique). Dans l’optique de faire évoluer la description de l’incendie en fonction des conditions ambiantes caractéristiques d’un tunnel, un modèle prédictif de la décomposition thermique des matériaux a été développé. Ce modèle mathématique a été construit sur la base d’une approche expérimentale à petite échelle faisant intervenir le dispositif du cône calorimètre à atmosphère contrôlée couplé à un spectromètre infrarouge à transformée de Fourrier. Trois matériaux ont fait l’objet d’une étude approfondie de leur décomposition thermique, en fonction de deux paramètres clés influençant la décomposition des solides lors d’un incendie de tunnel : la concentration d’oxygène ambiante et l’éclairement énergétique imposé aux matériaux. Les résultats obtenus pour les trois matériaux choisis (une mousse Polyisocyanurate, un Ethylène Propylène Diène Monomère et un Acrylonitrile Butadiène Styrène) ont été utilisés pour la construction de régressions polynomiales multifactorielles, méthode également connue sous le nom de méthodologie des surfaces de réponses.Le modèle permet de définir la réponse de la cinétique de décomposition (variable expliquée) et son évolution, en fonction de la concentration d’oxygène locale et de l’éclairement énergétique imposé à la surface d’un matériau (variables explicatives). La comparaison des résultats numériques et expérimentaux a alors montré la pertinence de ce type d’approche / Tunnel fires are severe phenomenon whose evolution, usually very fast, can lead to important damages to persons and properties. Tunnel fire safety is based on the use of empirical models, very simplified that describes the evolution of the fire kinetic. Nevertheless, these models does not take into account neither the type of material that are involved in the phenomenon, such as constitutive polymers of road vehicles nor their reactivity in solid phase (thermal decomposition). In order to provide an evolution of the fire description, function of the conditions usually encountered in a tunnel, a predictive model aiming to describe materials’ thermal decomposition has been developed. This mathematical model has been established on the basis of an experimental approach, at small scale, using the Controlled Atmosphere Cone Calorimeter coupled to a Fourier Transform Infrared Spectrometer. The thermal degradation of three different materials (Polyisocyanurate foam, Acrylonitrile Butadiene Styrene and Ethylene Propylene Diene Monomer) has been thoroughly assessed function of key parameters that drives the decomposition process during fire: oxygen concentration and heat flux imposed to the materials. Obtained results for the three materials have then been used to construct multifactorial polynomial regressions, using the methodology known as surface response methodology. The model allows defining the response of the decomposition kinetics (explained variable), function of both the oxygen concentration and the heat flux received at the surface of the material (explanatory variable). Comparisons between numerical and experimental obtained results show the relevance of this approach.
14

Etude de la transmission du signal sous irradiation transitoire dans les fibres optiques / Study of signal transmission through optical fibers under transient irradiation

Bisutti, Jean 29 October 2010 (has links)
Ce mémoire présente une étude sur la réponse des fibres optiques à une irradiation transitoire (impulsion X, ~1 MeV, doses < 100 krad, débits de dose > 10-8 (10 puissance 8) rad s(exposant)-1). Des mesures complémentaires sous irradiation gamma continue ont aussi été accomplies(~1,2 MeV, doses ≤20 krad, débits de dose ~0,5 rad s(exposant)-1). Notre étude s’inscrit dans le cadre plus général de l’intégration des fibres optiques au sein du Laser Mégajoule. Le premier chapitre présente ce contexte ainsi que les défauts induits par irradiation dans la silice pure ou dopée. Le deuxième chapitre précise les moyens expérimentaux mis en œuvre pour mesurer l’atténuation induite. Nous donnons également une synthèse des mesures obtenues sur des fibres à cœur de silice pure et des fibres dopées au germanium et/ou au phosphore. Le troisième chapitre est dédié à l’analyse des défauts et mécanismes à l’origine des pertes induites. Les spectres expérimentaux d’atténuation induite par irradiation ont été décomposés en bandes d’absorption relatives aux défauts absorbants générés par l’irradiation. Nous avons utilisé une méthode de décomposition originale basée sur l’emploi de bandes d’absorption auparavant identifiées dans la littérature. Des mécanismes physiques de génération et de transformation de défauts sont suggérés / This PhD thesis presents a study about the response of optical fibers to a transient irradiation (X-ray pulse, ~1 MeV, doses < 100 krad, dose rates > 108 rad s-1). Additional measurements under steady-state gamma-ray have also been performed (~1,2 MeV,doses ≤20 krad, dose rates ~0,5 rad s-1). Our study falls within the more general framework of the integration of optical fibers into the Laser Megajoule facility. The first chapter describes this framework together with the radiation induced defects in pure ordoped silica. The second chapter is focus on the experimental set-up used to measure the induced attenuation. We also give a sum up of the obtained measurements with pure-silica-core fibers and with fibers doped with germanium and/or phosphorus. The third chapter is dedicated to the analysis of the induced losses. The experimental spectra of radiation-induced attenuation have been decomposed with absorption bands related to absorbing defects generated. We have used an original method of decomposition based on the use of absorption bands previously identified in literature. Some physical mechanisms of defect generation and defect transformation have been suggested
15

Solveur GCR pour les méthodes de type mortier

Pouliot, Benoît 24 April 2018 (has links)
Les méthodes de type mortier, introduites en 1987 par Bernardi, Maday et Patera, font partie de la grande famille des méthodes par décomposition de domaine. Combinées à la méthode des éléments finis, elles consistent à construire une discrétisation non conforme des espaces fonctionnels du ou des problèmes étudiés. Les trente dernières années de recherche portant sur ces méthodes ont permis d'acquérir des connaissances solides tant au point de vue théorique que pratique. Aujourd'hui, elles sont naturellement utilisées pour résoudre des problèmes d'une grande complexité. Comme applications, nous pouvons simplement penser à des problèmes de contact entre divers solides, à des problèmes d'interaction fluide-structure ou à des problèmes impliquant des mécanismes en mouvement tel des engrenages ou des alternateurs. Cette thèse de doctorat a pour objectif d'expliquer en détail la construction des méthodes de type mortier et de développer des algorithmes adaptés à la résolution des systèmes ainsi créés. Nous avons décidé d'employer l'algorithme du GCR (Generalized Conjugate Residual method) comme solveur de base pour nos calculs. Nous appliquons d'abord une factorisation du système linéaire global grâce à son écriture naturelle en sous-blocs. Cette factorisation génère un système utilisant un complément de Schur qu'il faut résoudre. C'est sur ce sous-système que nous employons l'algorithme du GCR. Le complément de Schur est préconditionné par une matrice masse redimensionnée, mais il est nécessaire de modifier l'algorithme du GCR pour obtenir des résultats théoriques intéressants. Nous montrons que la convergence de ce solveur modifié est indépendante du nombre de sous-domaines impliqués ainsi que de ses diverses composantes physiques. Nous montrons de plus que le solveur ne dépend que légèrement de la taille des éléments d'interface. Nous proposons une solution élégante dans le cas de sous-domaines dits flottants. Cette solution ne requiert pas la modification du solveur décrit plus haut. Des tests numériques ont été effectués pour montrer l'efficacité de la méthode du GCR modifiée dans divers cas. Par exemple, nous étudions des problèmes possédant plusieurs échelles au niveau de la discrétisation et des paramètres physiques. Nous montrons aussi que ce solveur a une accélération importante lorsqu'il est employé en parallèle. / The mortar methods, introduced in 1987 by Bernadi, Maday and Patera, are part of the large family of domain decomposition methods. Combined to the finite element method, they consist in constructing a nonconforming discretization of the functional space of the problem under consideration. The last thirty years of research about these methods has provided a solid knowledge from a theoretical and practical point of view. Today, they are naturally used to solve problems of great complexity such as contact problems between deformable solids, fluid-structure interaction problems or moving mechanisms problems like gears and alternators. The aim of this thesis is to explain in details the principles of mortar methods and to develop adapted algorithms to solve the generated linear systems. We use the GCR algorithm (Generalized Conjugate Residual method) as our basic solver in our computations. We first apply a factorization of the global linear system using the natural sub-block structure of the matrix. This factorization generates a system using a Schur complement. It is on this sub-system that we use the GCR algorithm. The Schur complement is preconditioned by a rescaled mass matrix, but it is necessary to slightly modify the GCR algorithm to obtain theorical results. We show that the convergence of this modified solver is independent of the number of subdomains involved and of the diverse physical parameters. We also show that the solver slightly depends on the size of the interface mesh. We present a strategy to take care of the so called floating subdomains. The proposed solution does not require any modification to the solver. Numerical tests have been performed to show the efficiency of the modified GCR method in various cases. We consider problems with several discretization and physical parameter scales. We finally show that the solver presents an important speedup in parallel implementation.
16

Méthodes de décomposition et croisement d'algorithmes pour des problèmes d'optimisation

Pierra, Guy 21 May 1976 (has links) (PDF)
.
17

(Méta)-noyaux constructifs et linéaires dans les graphes peu denses / Constructive and Linear (Meta)-Kernelisations on Sparse Graphs

Garnero, Valentin 04 July 2016 (has links)
En algorithmique et en complexité, la plus grande part de la recherche se base sur l’hypothèse que P ≠ NP (Polynomial time et Non deterministic Polynomial time), c'est-à-dire qu'il existe des problèmes dont la solution peut être vérifiée mais non construite en temps polynomial. Si cette hypothèse est admise, de nombreux problèmes naturels ne sont pas dans P (c'est-à-dire, n'admettent pas d'algorithme efficace), ce qui a conduit au développement de nombreuses branches de l'algorithmique. L'une d'elles est la complexité paramétrée. Elle propose des algorithmes exacts, dont l'analyse est faite en fonction de la taille de l'instance et d'un paramètre. Ce paramètre permet une granularité plus fine dans l'analyse de la complexité.Un algorithme sera alors considéré comme efficace s'il est à paramètre fixé, c'est-à-dire, lorsque sa complexité est exponentielle en fonction du paramètre et polynomiale en fonction de la taille de l'instance. Ces algorithmes résolvent les problèmes de la classe FPT (Fixed Parameter Tractable).L'extraction de noyaux est une technique qui permet, entre autre, d’élaborer des algorithmes à paramètre fixé. Elle peut être vue comme un pré-calcul de l'instance, avec une garantie sur la compression des données. Plus formellement, une extraction de noyau est une réduction polynomiale depuis un problème vers lui même, avec la contrainte supplémentaire que la taille du noyau (l'instance réduite) est bornée en fonction du paramètre. Pour obtenir l’algorithme à paramètre fixé, il suffit de résoudre le problème dans le noyau, par exemple par une recherche exhaustive (de complexité exponentielle, en fonction du paramètre). L’existence d'un noyau implique donc l'existence d'un algorithme à paramètre fixé, la réciproque est également vraie. Cependant, l’existence d'un algorithme à paramètre fixé efficace ne garantit pas un petit noyau, c'est a dire un noyau dont la taille est linéaire ou polynomiale. Sous certaines hypothèses, il existe des problèmes n’admettant pas de noyau (c'est-à-dire hors de FPT) et il existe des problèmes de FPT n’admettant pas de noyaux polynomiaux.Un résultat majeur dans le domaine des noyaux est la construction d'un noyau linéaire pour le problème Domination dans les graphes planaires, par Alber, Fellows et Niedermeier.Tout d'abord, la méthode de décomposition en régions proposée par Alber, Fellows et Niedermeier, a permis de construire de nombreux noyaux pour des variantes de Domination dans les graphes planaires. Cependant cette méthode comportait un certain nombre d’imprécisions, ce qui rendait les preuves invalides. Dans la première partie de notre thèse, nous présentons cette méthode sous une forme plus rigoureuse et nous l’illustrons par deux problèmes : Domination Rouge Bleue et Domination Totale.Ensuite, la méthode a été généralisée, d'une part, sur des classes de graphes plus larges (de genre borné, sans-mineur, sans-mineur-topologique), d'autre part, pour une plus grande variété de problèmes. Ces méta-résultats prouvent l’existence de noyaux linéaires ou polynomiaux pour tout problème vérifiant certaines conditions génériques, sur une classe de graphes peu denses. Cependant, pour atteindre une telle généralité, il a fallu sacrifier la constructivité des preuves : les preuves ne fournissent pas d'algorithme d'extraction constructif et la borne sur le noyau n'est pas explicite. Dans la seconde partie de notre thèse nous effectuons un premier pas vers des méta-résultats constructifs ; nous proposons un cadre général pour construire des noyaux linéaires en nous inspirant des principes de la programmation dynamique et d'un méta-résultat de Bodlaender, Fomin, Lokshtanov, Penninkx, Saurabh et Thilikos. / In the fields of Algorithmic and Complexity, a large area of research is based on the assumption that P ≠ NP(Polynomial time and Non deterministic Polynomial time), which means that there are problems for which a solution can be verified but not constructed in polynomial time. Many natural problems are not in P, which means, that they have no efficient algorithm. In order to tackle such problems, many different branches of Algorithmic have been developed. One of them is called Parametric Complexity. It consists in developing exact algorithms whose complexity is measured as a function of the size of the instance and of a parameter. Such a parameter allows a more precise analysis of the complexity. In this context, an algorithm will be considered to be efficient if it is fixed parameter tractable (fpt), that is, if it has a complexity which is exponential in the parameter and polynomial in the size of the instance. Problems that can be solved by such an algorithm form the FPT class.Kernelisation is a technical that produces fpt algorithms, among others. It can be viewed as a preprocessing of the instance, with a guarantee on the compression of the data. More formally, a kernelisation is a polynomial reduction from a problem to itself, with the additional constraint that the size of the kernel, the reduced instance, is bounded by a function of the parameter. In order to obtain an fpt algorithm, it is sufficient to solve the problem in the reduced instance, by brute-force for example (which has exponential complexity, in the parameter). Hence, the existence of a kernelisiation implies the existence of an fpt algorithm. It holds that the converse is true also. Nevertheless, the existence of an efficient fpt algorithm does not imply a small kernel, meaning a kernel with a linear or polynomial size. Under certain hypotheses, it can be proved that some problems can not have a kernel (that is, are not in FPT) and that some problems in FPT do not have a polynomial kernel.One of the main results in the field of Kernelisation is the construction of a linear kernel for the Dominating Set problem on planar graphs, by Alber, Fellows and Niedermeier.To begin with, the region decomposition method proposed by Alber, Fellows and Niedermeier has been reused many times to develop kernels for variants of Dominating Set on planar graphs. Nevertheless, this method had quite a few inaccuracies, which has invalidated the proofs. In the first part of our thesis, we present a more thorough version of this method and we illustrate it with two examples: Red Blue Dominating Set and Total Dominating Set.Next, the method has been generalised to larger classes of graphs (bounded genus, minor-free, topological-minor-free), and to larger families of problems. These meta-results prove the existence of a linear or polynomial kernel for all problems verifying some generic conditions, on a class of sparse graphs. As a price of generality, the proofs do not provide constructive algorithms and the bound on the size of the kernel is not explicit. In the second part of our thesis, we make a first step to constructive meta-results. We propose a framework to build linear kernels based on principles of dynamic programming and a meta-result of Bodlaender, Fomin, Lokshtanov, Penninkx, Saurabh and Thilikos.
18

Méthodes de décomposition pour la programmation mathématique

Mahey, Philippe 01 September 1990 (has links) (PDF)
.
19

Jeux des gendarmes et du voleur dans les graphes. Mineurs de graphes, stratgies connexes, et approche distribue.

Nisse, Nicolas 02 July 2007 (has links) (PDF)
Les jeux des gendarmes et du voleur dans les graphes traitent de la<br />capture d'un voleur qui se déplace dans un réseau par une équipe de<br />gendarmes. Ces jeux trouvent leurs motivations en informatique<br />fondamentale, notamment dans le cadre de la théorie de la complexité<br />et dans celui de la théorie des mineurs de graphes. Ces jeux ont<br />également des applications en intelligence artificielle et en<br />robotique. Quel que soit le contexte, le nombre de gendarmes utilisés<br />a un coût et doit être minimisé. Dans cette thèse, nous étudions<br />diverses contraintes auxquelles les stratégies de capture sont<br />soumises, ainsi que le coût de ces contraintes en terme de nombre de<br />gendarmes. Nous distinguons principalement trois cadres d'étude.<br /><br />Dans la première partie de cette thèse, nous définissons une variante<br />de stratégie de capture qui établit un pont entre la largeur<br />arborescente et la largeur linéaire des graphes. En particulier, nous<br />prouvons la monotonie de cette variante générale et donnons un<br />algorithme exponentiel exact pour calculer de telles stratégies.<br /><br />Dans la seconde partie de cette thèse, nous nous intéressons aux<br />stratégies dites connexes qui doivent assurer que la partie propre du<br />réseau est constamment connexe. Nous prouvons plusieurs bornes<br />supérieures et inférieures du coût de cette contrainte en terme de<br />nombre de gendarmes. Nous étudions également la propriété de monotonie<br />des stratégies de capture connexe.<br /><br />Dans la troisième partie de cette thèse, nous étudions les stratégies<br />de capture dans un contexte décentralisé. Nous proposons plusieurs<br />algorithmes décentralisés qui permettent aux gendarmes de calculer<br />eux-mêmes la stratégie qu'ils doivent réaliser.
20

Méthode de décomposition de domaines pour l’équation de Schrödinger / Domain decomposition method for Schrödinger equation

Xing, Feng 28 November 2014 (has links)
Ce travail de thèse porte sur le développement et la mise en oeuvre des méthodes de décomposition de domaines (DD) pour les équations de Schrödinger linéaires ou non-linéaires en une ou deux dimensions d'espace. Dans la première partie, nous considérons la méthode de relaxation d'ondes de Schwarz (SWR) pour l'équation de Schrödinger en une dimension. Dans le cas où le potentiel est linéaire et indépendant du temps, nous proposons un nouvel algorithme qui est scalable et permet une forte réduction du temps de calcul comparativement à l'algorithme classique. Pour un potentiel général, nous utilisons un opérateur linéaire préalablement défini comme un préconditionneur. Cela permet d'assurer une forte scalabilité. Nous généralisons également les travaux de Halpern et Szeftel sur la condition de transmission en utilisant des conditions absorbantes construites récemment par Antoine, Besse et Klein. Par ailleurs, nous portons les codes développés sur Cpu sur des accélérateurs Gpu. La deuxième partie concerne les méthodes DD pour l'équation de Schrödinger en deux dimensions. Nous généralisons le nouvel algorithme et l'algorithme avec préconditionneur proposés au cas de la dimension deux. Dans le chapitre 6, nous généralisons les travaux de Loisel sur la méthode de Schwarz optimisée avec points de croisement pour l'équation de Laplace, qui conduit à la méthode SWR avec points de croisement. Dans la dernière partie, nous appliquons les méthodes DD que nous avons étudiées à la simulation de condensat de Bose-Einstein qui permettent de diminuer le temps de calcul, mais aussi de réaliser des simulations plus grosses. / This thesis focuses on the development and implementation of domain decomposition methods (DD) for the linear or non-linear Schrödinger equations in one or two dimensions. In the first part, we focus on the Schwarz waveform relaxation method (SWR) for the one dimensional Schrödinger equation. In the case the potential is linear and time-independent, we propose a new algorithm that is scalable and allows a significant reduction of computation time compared with the classical algorithm. For a general potential, we use a linear operator previously defined as a preconditioner. This ensures high scalability. We also generalize the work of Halpern and Szeftel on transmission condition. We use the absorbing boundary conditions recently constructed by Antoine, Besse and Klein as the transmission condition. We also adapt the codes developed originally on Cpus to the Gpu. The second part concerns with the methods DD for the Schrödinger equation in two dimensions. We generalize the new algorithm and the preconditioned algorithm proposed in the first part to the case of two dimensions. Furthermore, in Chapter 6, we generalize the work of Loisel on the optimized Schwarz method with cross points for the Laplace equation, which leads to the SWR method with cross points. In the last part, we apply the domain decomposition methods we studied to the simulation of Bose-Einstein condensate that could not only reduce the total computation time, but also realise the larger simulations.

Page generated in 0.1051 seconds