• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Analyse de sensibilité et réduction de dimension. Application à l'océanographie / Sensitivity analysis and model reduction : application to oceanography

Janon, Alexandre 15 November 2012 (has links)
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique. / Mathematical models seldom represent perfectly the reality of studied systems, due to, for instance, uncertainties on the parameters that define the system. In the context of geophysical fluids modelling, these parameters can be, e.g., the domain geometry, the initial state, the wind stress, the friction or viscosity coefficients. Sensitivity analysis aims at measuring the impact of each input parameter uncertainty on the model solution and, more specifically, to identify the ``sensitive'' parameters (or groups of parameters). Amongst the sensitivity analysis methods, we will focus on the Sobol indices method. The numerical computation of these indices require numerical solutions of the model for a large number of parameters' instances. However, many models (such as typical geophysical fluid models) require a large amount of computational time just to perform one run. In these cases, it is impossible (or at least not practical) to perform the number of runs required to estimate Sobol indices with the required precision. This leads to the replacement of the initial model by a emph{metamodel} (also called emph{response surface} or emph{surrogate model}), which is a model that approximates the original model, while having a significantly smaller time per run, compared to the original model. This thesis focuses on the use of metamodel to compute Sobol indices. More specifically, our main topic is the quantification of the metamodeling impact, in terms of Sobol indices estimation error. We also consider a method of metamodeling which leads to an efficient and rigorous metamodel, which can be used in the geophysical context.
422

Appréhender l'hétérogénéité à (très) grande échelle / Apprehending heterogeneity at (very) large scale

Bleuse, Raphaël 11 October 2017 (has links)
Le besoin de simuler des phénomènes toujours plus complexes accroît les besoinsen puissance de calcul, tout en consommant et produisant de plus en plus dedonnées.Pour répondre à cette demande, la taille et l'hétérogénéité des plateformes decalcul haute performance augmentent.L'hétérogénéité permet en effet de découper les problèmes en sous-problèmes,pour lesquels du matériel ou des algorithmes ad hoc sont plus efficients.Cette hétérogénéité se manifeste dans l'architecture des plateformes et dans lavariété des applications exécutées.Aussi, les performances sont de plus en plus sensibles au contexte d'exécution.L'objet de cette thèse est de considérer, qualitativement et à faible coût,l'impact du contexte d'exécution dans les politiques d'allocation etd'ordonnancement.Cette étude est menée à deux niveaux: au sein d'applications uniques, et àl'échelle des plateformes au niveau inter-applications.Nous étudions en premier lieu la minimisation du temps de complétion pour destâches séquentielles sur des plateformes hybrides intégrant des CPU et des GPU.Nous proposons de tenir compte du contexte d'exécution grâce à un mécanismed'affinité améliorant le comportement local des politiques d'ordonnancement.Ce mécanisme a été implémenté dans un run-time parallèle.Une campagne d'expérience montre qu'il permet de diminuer les transferts dedonnées tout en conservant un faible temps de complétion.Puis, afin de prendre implicitement en compte le parallélisme sur les CPU, nousenrichissons le modèle en considérant les tâches comme moldables sur CPU.Nous proposons un algorithme basé sur la programmation linéaire en nombresentiers.Cet algorithme efficace a un rapport de compétitivité de 3/2+ε.Dans un second temps, nous proposons un nouveau cadre de modélisation danslequel les contraintes sont des outils de premier ordre.Plutôt que d'étendre les modèles existants en considérant toutes lesinteractions possibles, nous réduisons l'espace des ordonnancements réalisablesvia l'ajout de contraintes.Nous proposons des contraintes raisonnables pour modéliser l'étalement desapplications ainsi que les flux d'E/S.Nous proposons ensuite une étude de cas exhaustive dans le cadre de laminimisation du temps de complétion pour des topologies unidimensionnelles,sous les contraintes de convexité et de localité. / The demand for computation power is steadily increasing, driven by the need tosimulate more and more complex phenomena with an increasing amount ofconsumed/produced data.To meet this demand, the High Performance Computing platforms grow in both sizeand heterogeneity.Indeed, heterogeneity allows splitting problems for a more efficient resolutionof sub-problems with ad hoc hardware or algorithms.This heterogeneity arises in the platforms' architecture and in the variety ofprocessed applications.Consequently, the performances become more sensitive to the execution context.We study in this thesis how to qualitatively bring—at a reasonablecost—context-awareness/obliviousness into allocation and scheduling policies.This study is conducted from two standpoints: within single applications, andat the whole platform scale from an inter-applications perspective.We first study the minimization of the makespan of sequential tasks onplatforms with a mixed architecture composed of multiple CPUs and GPUs.We integrate context-awareness into schedulers with an affinity mechanism thatimproves local behavior.This mechanism has been implemented in a parallel run-time, and experimentsshow that it is able to reduce the memory transfers while maintaining a lowmakespan.We then extend the model to implicitly consider parallelism on the CPUs withthe moldable-task model.We propose an efficient algorithm formulated as an integer linear program witha constant performance guarantee of 3/2+ε.Second, we devise a new modeling framework where constraints are a first-classtool.Rather than extending existing models to consider all possible interactions, wereduce the set of feasible schedules by further constraining existing models.We propose a set of reasonable constraints to model application spreading andI/O traffic.We then instantiate this framework for unidimensional topologies, and propose acomprehensive case study of the makespan minimization under convex and localconstraints.
423

Résilience des systèmes informatiques adaptatifs : modélisation, analyse et quantification

Excoffon, William 08 June 2018 (has links) (PDF)
On appelle résilient un système capable de conserver ses propriétés de sûreté de fonctionnement en dépit des changements (nouvelles menaces, mise-à-jour,…). Les évolutions rapides des systèmes, y compris des systèmes embarqués, implique des modifications des applications et des configurations des systèmes, en particulier au niveau logiciel. De tels changements peuvent avoir un impact sur la sûreté de fonctionnement et plus précisément sur les hypothèses des mécanismes de tolérance aux fautes. Un système est donc résilient si de pareils changements n’invalident pas les mécanismes de sûreté de fonctionnement, c’est-à-dire, si les mécanismes déjà en place restent cohérents malgré les changements ou dont les incohérences peuvent être rapidement résolues. Nous proposons tout d’abord dans cette thèse un modèle pour les systèmes résilients. Grâce à ce modèle nous pourrons évaluer les capacités d’un ensemble de mécanismes de tolérance aux fautes à assurer les propriétés de sûreté issues des spécifications non fonctionnelles. Cette modélisation nous permettra également de définir un ensemble de mesures afin de quantifier la résilience d’un système. Enfin nous discuterons dans le dernier chapitre de la possibilité d’inclure la résilience comme un des objectifs du processus de développement
424

Martingales sur les variétés de valeur terminale donnée / Martingales in manifolds with prescribed terminal value

Harter, Jonathan 05 June 2018 (has links)
Définies il y a quelques décennies, les martingales dans les variétés sont maintenant des objets bien connus. Des questions très simples restent en suspens cependant. Par exemple,étant donnée une variable aléatoire à valeurs dans une variété complète, et une filtration continue(dont toute martingale réelle possède une version continue), existe-t-il une martingale continue dans cette variété qui a pour valeur terminale donnée cette variable aléatoire ? Que dire des semimartingales de valeur terminale et dérives données ? Le but principal de cette thèse est d’apporter des réponses à ces questions. Sous des hypothèses de géométrie convexe, des réponses sont données dans les articles de Kendall (1990), Picard (1991), Picard (1994), Darling (1995) ou encore Arnaudon (1997). Le cas des semimartingales a plus largement été traité par Blache (2004). Les martingales dans les variétés permettent de définir les barycentres associés à une filtration, qui sont parfois plus simples à calculer que les barycentres usuels ou les moyennes, et qui possèdent une propriété d’associativité. Ils sont fortement reliés à la théorie du contrôle, à l’optimisation stochastique, ainsi qu’aux équations différentielles stochastiques rétrogrades (EDSRs). La résolution du problème avec des arguments géométriques donne par ailleurs des outils pour résoudre des EDSRs quadratiques multidimensionnelles.Au cours de cette thèse deux principales méthodes ont été employées pour étudier le problème de l’existence de martingale de valeur terminale donnée. La première est basée sur un algorithme stochastique. La variable aléatoire que l’on cherchera à atteindre sera d’abord déformée en une famille x (a) de classe C 1, et on se posera la question suivante : existe-t-il une martingale X(a) de valeur terminale x (a) ? Une méthode de tir, selon un principe similaire au tir géodésique déterministe, sera employée relativement au paramètre a en direction de la variable aléatoire x (a). La seconde est basée sur la résolution générale d’une EDSR multidimensionnelle à croissance quadratique. La principale problématique de cette partie sera d’adapter au cadre multidimensionnel une stratégie récente développée par Briand et Elie (2013) permettant de traiter les EDSRs quadratiques multidimensionnelles. Cette approche nouvelle permet de retrouver la plupart des résultats partiels obtenus par des méthodes différentes. Au-delà de l’intérêt unifiant,cette nouvelle approche ouvre la voie à de potentiels futurs travaux. / Defined several decades ago, martingales in manifolds are very canonical objects. About these objects very simple questions are still unresolved. For instance, given a random variable with values in a complete manifold and a continuous filtration (one with respect to which all real-valued martingales admit a continuous version), does there exist a continuous martingale in the manifold with terminal value given by this random variable ? What about semimartingales with prescribed drift and terminal value ? The main aim of this thesis is to provide answers to these questions. Under convex geometry assumption, answers are given in the articles of Kendall (1990), Picard (1991), Picard (1994), Darling (1995) or Arnaudon (1997). The case of semimartingales was widely treated by Blache (2004). The martingales in the manifolds make it possible to define the barycenters associated to a filtration, which are sometimes simpler to compute than the usual barycenters or averages, and which have an associative property. They are strongly related to control theory, stochastic optimization, and backward stochastic differential equations (BSDEs). Solving the problem with geometric arguments also gives tools for solving multidimensional quadratic EDSRs.During the thesis, two methods have been used for studying the problem of existence of a martingale with prescribed terminal value. The first one is based on a stochastic algorithm. The random variable that we try to reach will be deformed into a $mcC^1$-family $xi(a)$, and we deal with the following newer problem: does there exist a martingale $X(a)$ with terminal value $xi(a)$ ? A shooting method, using the same kind of principle as the deterministic geodesic shooting, will be used with respect to a parameter $a$ towards $xi(a)$.The second one is the resolution of a multidimensional quadratic BSDE. The aim of this part will be to adapt to the multidimensional framework a recent strategy developed by Briand and Elie (2013) to treat multidimensional quadratic BSDEs. This new approach makes it possible to rediscover the results obtained by different methods. Beyond the unification, this new approach paves the way for potential future works.
425

Méthodologie de diagnostic de structures maçonnées anciennes / Diagnostic methodology for masonry histoical structures

Parent, Thomas 10 November 2015 (has links)
Le patrimoine architectural français est une richesse qu'il convient de préserver. L'élaboration d'une méthodologie de diagnostic structurel des monuments historiques est proposée dans ce contexte. Ce type d'édifice est essentiellement composé de maçonnerie qu'il convient de bien appréhender. La bibliothèque du CNAM, chef d'œuvre de l'architecture gothique, constitue un cas d'étude idéal pour valider la démarche proposée. Cet édifice comprend un certain nombre de pathologies. L'objectif de ce travail consiste à identifier l'origine de ces pathologies et estimer la marge de sécurité vis-à-vis de la ruine de l'édifice. Premièrement, une investigation menée sur l'édifice est présentée. Elle comprend une recherche en archives, une campagne d'essais non-destructifs et destructifs (radar, vitesse du son, carottages et instrumentation). A partir de cette étude certaines causes potentielles sont écartées. Par ailleurs, le caractère hétérogène de la maçonnerie conduit à considérer ce matériau à différentes échelles. Un modèle d'endommagement orthotrope est utilisé à chaque échelle d'étude dans le but de simuler le comportement de ce géomatériau. Une démarche d'homogénéisation est alors introduite. Elle consiste à évaluer le comportement homogène du matériau maçonnerie à partir de sa géométrie et du comportement mécanique de ses matériaux constitutifs. Cette méthode donne la possibilité de considérer le caractère hétérogène de la maçonnerie à l'échelle de la structure. L'obtention des paramètres matériaux des calcaires en place est réalisée à partir des mesures de vitesse du son via l'utilisation de courbes de corrélations proposées. La procédure d'homogénéisation consiste à simuler le comportement d'un muret en maçonnerie soumise à un essai de compression. Ensuite, un calcul à l'échelle de la structure est proposé. Un critère de rupture en compression sur l'effort normal est introduit afin de mener un calcul selon les normes internationales. Celui-ci comprend d'une part un coefficient de sécurité partielle afin de considérer la dispersion de résistance du géomatériau et d'autre part un coefficient de fonctionnement prenant en compte la rupture en compression au droit d'une section soumise à un chargement de flexion composée. L'analyse globale d'une travée de l'édifice est ainsi présentée. L'histoire de chargement est simulée. La comparaison de la fissuration mesurée sur site avec le profil de fissure obtenue par le modèle conduit à estimer l'état de contrainte actuel de l'édifice. Une marge de sécurité vis-à-vis de la ruine de la structure est ainsi proposée. Enfin, une synthèse globale de cette étude est présentée. / The French architectural heritage is a considerable wealth to be preserved. In this context, a methodology of structural diagnoses of historical monuments is proposed. This type of building is mainly composed of masonry that should be understood. The CNAM Library, masterpiece of gothic architecture is an ideal case study to validate the proposed approach. This edifice presents pathologies as crack pattern and tilts walls. The objective of this work is to identify the origin of these pathologies and to estimate the safety factor of the ruin of the building. First of all, an investigation carried out on the building is presented. It includes historical research, a campaign of non-destructive and destructive testing radar, sound velocity, core sampling and structural monitoring. From this first study, some potential causes of the pathologies are ruled out. Furthermore, the heterogeneous nature of the masonry leads to consider this material at different scales. A damage model is used at each scale in order to simulate the mechanical behavior of this geo-material. A homogenization process is then introduced. It consists to the evaluation of the homogeneous behavior of the masonry from its geometry and the mechanical characteristics of its components. This method allows considering the heterogeneity of masonry at the structural scale. The mechanicals characteristics of the calcareous materials are obtain from sound velocity measurement through the use of correlation curves. The homogenization procedure consists to simulate the behavior of a numerical masonry wall subjected to a compressive test. Then, a calculation at the structural scale is proposed. A compression failure criterion on the normal strength is proposed to estimate the safety factor of the structure according to the international standards. Firstly, it includes a partial safety factor to consider the dispersion of resistance of the masonry. Secondly, another coefficient takes into account the compressive failure phenomenon at a crack section. Global analysis of a span of the church is presented. The load history is simulated. The comparison of the measured crack on site with the profile obtained by the model leads to estimate the current state of stress of the building. A margin of security is proposed. Finally, a comprehensive summary of this study is presented.
426

Memory Study and Dataflow Representations for Rapid Prototyping of Signal Processing Applications on MPSoCs / Etude mémoire et représentations flux de données pour le prototypage rapide d'applications de traitement du signal sur MPSoCs

Desnos, Karol 26 September 2014 (has links)
Le développement d’applications de traitement du signal pour des architectures multi-coeurs embarquées est une tâche complexe qui nécessite la prise en compte de nombreuses contraintes. Parmi ces contraintes figurent les contraintes temps réel, les limitations énergétiques, ou encore la quantité limitée des ressources matérielles disponibles. Pour satisfaire ces contraintes, une connaissance précise des caractéristiques des applications à implémenter est nécessaire. La caractérisation des besoins en mémoire d’une application est primordiale car cette propriété a un impact important sur la qualité et les performances finales du système développé. En effet, les composants de mémoire d’un système embarqué peuvent occuper jusqu’à 80% de la surface totale de silicium et être responsable d’une majeure partie de la consommation énergétique. Malgré cela, les limitations mémoires restent une contrainte forte augmentant considérablement les temps de développements. Les modèles de calcul de type flux de données sont couramment utilisés pour la spécification, l’analyse et l’optimisation d’applications de traitement du signal. La popularité de ces modèles est due à leur bonne analysabilité ainsi qu’à leur prédisposition à exprimer le parallélisme des applications. L’abstraction de toute notion de temps dans les diagrammes flux de données facilite l’exploitation du parallélisme offert par les architectures multi-coeurs hétérogènes. Dans cette thèse, nous présentons une méthode complète pour l’étude des caractéristiques mémoires d’applications de traitement du signal modélisées par des diagrammes flux de données. La méthode proposée couvre la caractérisation théorique d’applications, indépendamment des architectures ciblées, jusqu’à l’allocation quasi-optimale de ces applications en mémoire partagée d’architectures multi-coeurs embarquées. L’implémentation de cette méthode au sein d’un outil de prototypage rapide permet son évaluation sur des applications récentes de vision par ordinateur, de télécommunication, et de multimédia. Certaines applications de traitement du signal au comportement très dynamique ne pouvant être modélisé par le modèle de calcul supporté par notre méthode, nous proposons un nouveau méta-modèle de type flux de données répondant à ce besoin. Ce nouveau méta-modèle permet la modélisation d’applications reconfigurables et modulaires tout en préservant la prédictibilité, la concision et la lisibilité des diagrammes de flux de données. / The development of embedded Digital Signal Processing (DSP) applications for Multiprocessor Systems-on-Chips (MPSoCs) is a complex task requiring the consideration of many constraints including real-time requirements, power consumption restrictions, and limited hardware resources. To satisfy these constraints, it is critical to understand the general characteristics of a given application: its behavior and its requirements in terms of MPSoC resources. In particular, the memory requirements of an application strongly impact the quality and performance of an embedded system, as the silicon area occupied by the memory can be as large as 80% of a chip and may be responsible for a major part of its power consumption. Despite the large overhead, limited memory resources remain an important constraint that considerably increases the development time of embedded systems. Dataflow Models of Computation (MoCs) are widely used for the specification, analysis, and optimization of DSP applications. The popularity of dataflow MoCs is due to their great analyzability and their natural expressivity of the parallelism of a DSP application. The abstraction of time in dataflow MoCs is particularly suitable for exploiting the parallelism offered by heterogeneous MPSoCs. In this thesis, we propose a complete method to study the important aspect of memory characteristic of a DSP application modeled with a dataflow graph. The proposed method spans the theoretical, architecture-independent memory characterization to the quasi-optimal static memory allocation of an application on a real shared-memory MPSoC. The proposed method, implemented as part of a rapid prototyping framework, is extensively tested on a set of state-of-the-art applications from the computer-vision, the telecommunication, and the multimedia domains. Then, because the dataflow MoC used in our method is unable to model applications with a dynamic behavior, we introduce a new dataflow meta-model to address the important challenge of managing dynamics in DSP-oriented representations. The new reconfigurable and composable dataflow meta-model strengthens the predictability, the conciseness and the readability of application descriptions.
427

Preuves par induction dans le calcul de superposition / Induction proof in superposition calculus

Kersani, Abdelkader 30 October 2014 (has links)
Nous nous intéressons à des formules de la logique du premier ordre où certaines constantes sont interprétées dans un domaine défini inductivement, comme les entiers. Le problème de la validité n'est pas semi-décidable pour ces formules. Le but de cette thèse est donc d'accroître les capacités des procédures de preuve les plus efficaces pour la logique du premier ordre (fondées sur le calcul de résolution et de superposition) afin de tenir compte de ces constantes particulières. Pour cela, nous adaptons le calcul de superposition en ajoutant notamment un mécanisme de détection de cycles qui simule une forme d'induction mathématique. Nous étudions dans un premier temps le cas particulier des entiers, puis nous généralisons certains des résultats obtenus au cas où les constantes inductives sont définies à l'aide de constructeurs monadiques (des mots). Nous présentons des classes syntaxiques pour lesquelles nous pouvons assurer la complétude et/ou la décidabilité. Nous décrivons un outil appelé SuperInd, fondé sur le démonstrateur Prover9, implémentant les résultats précédents. Enfin, nous décrivons certaines expérimentations et procédons à des comparaisons avec d'autres approches. / We consider first order formulas where some constant symbols are defined in an inductive domain. The validity problem is not semi-decidable for these formulas. This work aims to increase the capabilities of the usual first order proof procedures (usually based on superposition and resolution calculus) to handle these particular constant symbols. Thus, we adapt the superposition calculus using a loop detection mechanism encoding a form of mathematical induction. We first consider the particular case of natural numbers, then we generalize some of these results to the case where the inductive constant symbols are defined with monadic constructors (words). We present some syntactic classes for which we can ensure completeness and/or decidability. We describe a new tool named SuperInd, based on the theorem prover Prover9, implementing our previous results. Finally we describe some experimentations and some comparisons with other approaches.
428

Calcul asymptotique de résonances de plasmon de cavités rectangulaires / Asymptotics of plasmonic resonnances of rectangular cavities

Gtet, Abdelfatah 19 December 2017 (has links)
La diffraction d'une onde électromagnétique par une structure présentant des échelles d'espace petites devant la longueur d'onde est un phénomène complexe qui décrit à la fois l'interaction entre l'onde et la géométrie de la structure et la matière qui la constitue. Quand la fréquence n'est pas résonnante, l'onde incidente interagit faiblement avec des petites irrégularités de la structure. En langage mathématique, ceci se traduit par le fait que la différence entre les champs électromagnétiques de la structure perturbée et ceux de la structure de référence est de l'ordre de la perturbation. Par contre, quand la fréquence est résonante, le comportement de l'onde est très sensible aux petites déformations singulières de la géométrie de la structure. Cette sensibilité est susceptible d'être détectée dans les mesures du champ lointain, et est la brique de base de plusieurs capteurs et filtres plasmoniques. Dans ce projet de thèse nous nous sommes intéressés aux propriétés optiques de surfaces métalliques comportant des cavités sub-longueur d'onde distribués périodiquement ou non, et de couches métalliques minces. Ces structures possèdent des résonances électromagnétiques proches de l’axe réel, et sont capables de concentrer l’énergie électromagnétique dans des volumes bien inférieurs à la cubique de la longueur d’onde incidente. La compréhension de ce phénomène est un enjeu important pour le développement des spectroscoepies ultra-sensibles, mais aussi dans le domaine des bio-capteurs et de l’opto-électronique. En utilisant des techniques asymptotiques couplées avec des équations intégrales, nous avons déterminé le développement asymptotique des fréquences de résonance de ces structures quand le rapport entre l'échelle de la structuration spatiale et la longueur d'onde tend vers zéro. Les modèles asymptotiques dérivés sont beaucoup plus simples à étudier et à simuler et rendent parfaitement compte des résultats expérimentaux. Ils permettent de prédire les fréquences résonnantes, la quantité d’énergie localisée en fonction de la géométrie des structures et des propriétés des matériaux qui les constituent. / Rough metallic surfaces with subwavelength structurations possess extraordinary diffractive properties: at certain frequencies, one may observe fine localization and very large enhancement of the electromagnetic fields. The discovery of these phenomena has raised considerable interest as potential applications are numerous (optical switches, sensors, devices for microscopy). This behavior results from the combination of very complex interaction between the incident excitation, the geometry and the material properties of the scatterer. The main goal of this thesis is to better understand these phenomena from the mathematical point of view.In mathematical terms, the localization and concentration of the fields is the mark of a resonance phenomenon. In our context, the corresponding resonant field may be surface plasmons, i.e., waves that propagate along the interface of the grating, and that decay exponentially away from it. Another type of resonance is due to possible cavity modes. Thus, the study of these phenomena pertains to eigenvalue problems for the solutions of the Maxwell system, in geometric configurations where in the whole of a dielectric (generally air) and a metal are separated by an infinite rough interface.We are interested in particular micro-structured devices, namely metallic surfaces that contain rectangular grooves with sub-wavelength apertures, and thin plane layers. Configurations of this type can be manufactured quite precisely and have been subject to many experimental works. The simple geometry of these structures allows us to transform the eigenvalue problem for the Maxwell system into a nonlinear eigenvalue problem for an integral operator that depends on a small parameter, which, using tools from analytic perturbation of operators theory, lends itself to a precise asymptotic analysis. Precisely, we showed that the resonances of these structures converge tothe zeros of some explicit dispersion equations when the ratio between the roughness parameter and the wavelength tends to zero. These asymptotic models provide a precise localization of the resonances in the complex plane, and are suited for numerical approximation, shape and material optimization.
429

Méthodes numériques parallèles pour la simulation des réseaux électriques de grandes tailles, / Parallel numerical methods for large scale power systems simulations

Pruvost, Florent 27 January 2012 (has links)
L’analyse de stabilité en régime transitoire du réseau de transport électrique permet de contrôler le bon retour au régime stationnaire du système soumis à une perturbation. Cette analyse systématique des systèmes de réseaux en développement permet notamment d’optimiser la production et la consommation de l’énergie électrique, et de protéger les équipements tels que les centrales électriques, les transformateurs, les lignes haute-tension, etc. Afin d’améliorer la stabilité, la robustesse et la viabilité de ces systèmes, la tendance est à l’interconnexion des réseaux de transport régionaux et nationaux, et ainsi, au développement et à l’analyse de systèmes toujours plus grands. Le problème de stabilité électrique peut être simulé numériquement grâce à l’intégration d’un système d’équations algébro-différentielles non-linéaire et raide. Lorsque le problème traité est très grand, la simulation numérique devient très coûteuse en temps de calcul et ralentit considérablement le travail des professionnels du secteur. Cette thèse a pour but de proposer, d’étudier, et de développer des méthodes innovantes de calcul parallèle pour la résolution des systèmes d’équations différentielles issus de la simulation de grands réseaux électriques tel que le réseau européen. Dans ce manuscrit, on livre une analyse des propriétés de ces systèmes assez spécifiques : creux, irréguliers, non-linéaires, raides et hétérogènes. On discute notamment de la structure particulière de ces systèmes qui rend attrayante l’application d’une méthode de décomposition de domaine. On étudie ainsi plusieurs méthodes de parallélisation en espace : la parallélisation fine de chaque opération coûteuse, la résolution du système non-linéaire par décomposition en sous-réseaux faiblement couplés, d’abord sur chaque étape d’intégration, puis par méthode de relaxation d’ondes. On aborde aussi la parallélisation en temps de type algorithme Pararéel ainsi qu’une méthode parallèle espace-temps bénéficiant des propriétés couplées des méthodes de relaxation d’ondes et de Pararéel. Dans ces travaux, nous proposons des méthodes assurant la convergence rapide des méthodes de décomposition de domaine quel que soit le nombre de sous-domaines et de processeurs employés. Nous introduisons pour cela des techniques de préconditionnement en espace adéquates afin d’améliorer la scalabilité des méthodes de parallélisation envisagées. / Power system transient stability analysis enables to control the return to equilibrium of the system subjected to a disturbance. This systematic analysis of developing transport networks allows to optimize the production and the consumption of electric power and to protect the equipments such as power plants, transformers, highvoltage lines and so on. In order to improve the stability, the robustness, and the sustainability of these systems, a worldwide trend is to interconnect regional and national transport networks. This leads to analyze ever larger systems. The power-stability problem can be numerically simulated owing to the integration of a differential-algebraic system which is nonlinear and stiff. When considering a very large problem, numerical simulation is very time consuming and significantly slows down the work of professionals. This thesis aims at studying innovative parallel computing methods for the resolution of differential systems arising from the transient stability analysis of large power systems such as the European Transport Network. In this manuscript, we first deliver an analysis of the properties of these rather specific systems: sparse, irregular, nonlinear, stiff, and heterogeneous. We discuss the particular structure of these systems making the application of a domain decomposition method interesting. Thus, we study several space parallelization methods: the fine parallelization of each costly tasks, the resolution of the nonlinear system by decomposition into weakly coupled subnetworks, first on each integration step separately, and then by waveform relaxation method. We also address the time parallelization with a Parareal-based algorithm and a space-time parallel method which benefits from the coupled properties of waveform relaxation and Parareal methods. In this work, we focus on methods which ensure a fast convergence of domain decomposition methods whatever the number of subdomains/processors used. In order to achieve such a goal, we introduce space preconditioning techniques to improve the scalability of the parallelization methods considered.
430

Autour de quelques processus à accroissements stationnaires et autosimilaires / Around some selfsimilar processes with stationary increments

Arras, Benjamin 11 December 2014 (has links)
Dans ce travail de thèse, nous nous intéressons à certaines propriétés d'une classe de processus stochastiques à accroissements stationnaires et autosimilaires. Ces processus sont représentés par des intégrales multiples de Wiener-Itô. Dans le premier chapitre, nous étudions les propriétés géométriques des trajectoires de ce type de processus. En particulier, nous obtenons un développement en ondelettes presque-sûr. Celui-ci permet alors de trouver une borne supérieure pour le module de continuité uniforme, une borne supérieure pour le comportement asymptotique du processus et un résultat presque-sûr concernant les coefficients ponctuel et local de Hölder. De plus, nous obtenons des bornes inférieures et supérieures pour les dimensions de Hausdorff du graphe et de l'image des versions multidimensionnelles anisotropes de la classe de processus considérée. Dans le deuxième et le troisième chapitre de cette thèse, nous nous intéressons au calcul différentiel stochastique relatif au processus de Rosenblatt. A l'aide de la théorie des distributions de Hida, nous définissons une intégrale stochastique par rapport au processus de Rosenblatt. Nous obtenons une formule d'Itô pour certaines fonctionnelles du processus de Rosenblatt. Nous calculons explicitement la variance de l'intégrale stochastique par rapport au processus de Rosenblatt pour une classe spécifique d'intégrandes aléatoires. Enfin, nous comparons l'intégrale introduite avec d'autres définitions utilisées dans la littérature et procédons à une étude fine des termes résiduels faisant le lien entre ces différentes définitions. / In this PhD thesis, we are concerned with some properties of a class of self-similar stochastic processes with stationary increments. These processes are represented by multiple Wiener-Itô integrals. In the first chapter, we study geometric properties of the sample path of this type of processes. Specifically, we obtain an almost sure wavelet expansion which, in turn, allows us to compute an upper bound for the uniform modulus of continuity, an upper bound for the asymptotic growth at infinity of the processes and the almost sure values of the pointwise and local Hölder exponents at any points. Moreover, we obtain lower and upper bounds for the Hausdorff dimensions of the graph and the image of multidimensional anisotropic versions of the class of processes previously considered. In the second and in the third chapters, we are interested in the stochastic calculus with respect to the Rosenblatt process. Using Hida distributions theory, we define a stochastic integral with respect to the Rosenblatt process. We obtain an Itô formula for some functional of the Rosenblatt process. We compute explicitly the variance of the stochastic integral with respect to the Rosenblatt process for a specific class of stochastic integrands. At last, we compare the considered integral with other definitions used in the literature and provide a careful analysis of the residual terms linking the different definitions of integrals.

Page generated in 0.0242 seconds