• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

Ordonnancement pour les nouvelles plateformes de calcul avec GPUs / Scheduling for new computing platforms with GPUs

Monna, Florence 25 November 2014 (has links)
De plus en plus d'ordinateurs utilisent des architectures hybrides combinant des processeurs multi-cœurs (CPUs) et des accélérateurs matériels comme les GPUs (Graphics Processing Units). Ces plates-formes parallèles hybrides exigent de nouvelles stratégies d'ordonnancement adaptées. Cette thèse est consacrée à une caractérisation de ce nouveau type de problèmes d'ordonnancement. L'objectif le plus étudié dans ce travail est la minimisation du makespan, qui est un problème crucial pour atteindre le potentiel des nouvelles plates-formes en Calcul Haute Performance.Le problème central étudié dans ce travail est le problème d'ordonnancement efficace de n tâches séquentielles indépendantes sur une plateforme de m CPUs et k GPUs, où chaque tâche peut être exécutée soit sur un CPU ou sur un GPU, avec un makespan minimal. Ce problème est NP-difficiles, nous proposons donc des algorithmes d'approximation avec des garanties de performance allant de 2 à (2q + 1)/(2q) +1/(2qk), q> 0, et des complexités polynomiales. Il s'agit des premiers algorithmes génériques pour la planification sur des machines hybrides avec une garantie de performance et une fin pratique. Des variantes du problème central ont été étudiées : un cas particulier où toutes les tâches sont accélérées quand elles sont affectées à un GPU, avec un algorithme avec un ratio de 3/2, un cas où les préemptions sont autorisées sur CPU, mais pas sur GPU, le modèle des tâches malléables, avec un algorithme avec un ratio de 3/2. Enfin, le problème avec des tâches dépendantes a été étudié, avec un algorithme avec un ratio de 6. Certains des algorithmes ont été intégré dans l'ordonnanceur du système xKaapi. / More and more computers use hybrid architectures combining multi-core processors (CPUs) and hardware accelerators like GPUs (Graphics Processing Units). These hybrid parallel platforms require new scheduling strategies. This work is devoted to a characterization of this new type of scheduling problems. The most studied objective in this work is the minimization of the makespan, which is a crucial problem for reaching the potential of new platforms in High Performance Computing. The core problem studied in this work is scheduling efficiently n independent sequential tasks with m CPUs and k GPUs, where each task of the application can be processed either on a CPU or on a GPU, with minimum makespan. This problem is NP-hard, therefore we propose approximation algorithms with performance ratios ranging from 2 to (2q+1)/(2q)+1/(2qk), q>0, and corresponding polynomial time complexities. The proposed solving method is the first general purpose algorithm for scheduling on hybrid machines with a theoretical performance guarantee that can be used for practical purposes. Some variants of the core problem are studied: a special case where all the tasks are accelerated when assigned to a GPU, with a 3/2-approximation algorithm, a case where preemptions are allowed on CPUs, the same problem with malleable tasks, with an algorithm with a ratio of 3/2. Finally, we studied the problem with dependent tasks, providing a 6-approximation algorithm. Experiments based on realistic benchmarks have been conducted. Some algorithms have been integrated into the scheduler of the xKaapi runtime system for linear algebra kernels, and compared to the state-of-the-art algorithm HEFT.
472

Résolution de systèmes polynomiaux structurés de dimension zéro. / Solving zero-dimensional structured polynomial systems

Svartz, Jules 30 October 2014 (has links)
Les systèmes polynomiaux à plusieurs variables apparaissent naturellement dans de nombreux domaines scientifiques. Ces systèmes issus d'applications possèdent une structure algébrique spécifique. Une méthode classique pour résoudre des systèmes polynomiaux repose sur le calcul d'une base de Gröbner de l'idéal associé au système. Cette thèse présente de nouveaux outils pour la résolution de tels systèmes structurés, lorsque la structure est induite par l'action d'un groupe ou une structure monomiale particulière, qui englobent les systèmes multi-homogènes ou quasi-homogènes. D'une part, cette thèse propose de nouveaux algorithmes qui exploitent ces structures algébriques pour améliorer l'efficacité de la résolution de systèmes (systèmes invariant sous l'action d'un groupe ou à support dans un ensemble de monômes particuliers). Ces techniques permettent notamment de résoudre un problème issu de la physique pour des instances hors de portée jusqu'à présent. D'autre part, ces outils permettent d'améliorer les bornes de complexité de résolution de plusieurs familles de systèmes polynomiaux structurés (systèmes globalement invariant sous l'action d'un groupe abélien, individuellement invariant sous l'action d'un groupe quelconque, ou ayant leur support dans un même polytope). Ceci permet en particulier d'étendre des résultats connus sur les systèmes bilinéaires aux systèmes mutli-homogènes généraux. / Multivariate polynomial systems arise naturally in many scientific fields. These systems coming from applications often carry a specific algebraic structure.A classical method for solving polynomial systems isbased on the computation of a Gr\"obner basis of the ideal associatedto the system.This thesis presents new tools for solving suchstructured systems, where the structure is induced by the action of a particular group or a monomial structure, which include multihomogeneous or quasihomogeneous systems.On the one hand, this thesis proposes new algorithmsusing these algebraic structures to improve the efficiency of solving suchsystems (invariant under the action of a group or having a support in a particular set of monomials). These techniques allow to solve a problem arising in physics for instances out of reach until now.On the other hand, these tools improve the complexity bounds for solving several families of structured polynomial systems (systems globally invariant under the action of an abelian group or with their support in the same polytope). This allows in particular to extend known results on bilinear systems to general mutlihomogeneous systems.
473

Apports des architectures hybrides à l'imagerie profondeur : étude comparative entre CPU, APU et GPU. / Contributions of hybrid architectures to depth imaging : a CPU, APU and GPU comparative study

Said, Issam 21 December 2015 (has links)
Les compagnies pétrolières s'appuient sur le HPC pour accélérer les algorithmes d'imagerie profondeur. Les grappes de CPU et les accélérateurs matériels sont largement adoptés par l'industrie. Les processeurs graphiques (GPU), avec une grande puissance de calcul et une large bande passante mémoire, ont suscité un vif intérêt. Cependant le déploiement d'applications telle la Reverse Time Migration (RTM) sur ces architectures présente quelques limitations. Notamment, une capacité mémoire réduite, des communications fréquentes entre le CPU et le GPU présentant un possible goulot d'étranglement à cause du bus PCI, et des consommations d'énergie élevées. AMD a récemment lancé l'Accelerated Processing Unit (APU) : un processeur qui fusionne CPU et GPU sur la même puce via une mémoire unifiée. Dans cette thèse, nous explorons l'efficacité de la technologie APU dans un contexte pétrolier, et nous étudions si elle peut surmonter les limitations des solutions basées sur CPU et sur GPU. L'APU est évalué à l'aide d'une suite OpenCL de tests mémoire, applicatifs et d'efficacité énergétique. La faisabilité de l'utilisation hybride de l'APU est explorée. L'efficacité d'une approche par directives de compilation est également étudiée. En analysant une sélection d'applications sismiques (modélisation et RTM) au niveau du noeud et à grande échelle, une étude comparative entre CPU, APU et GPU est menée. Nous montrons la pertinence du recouvrement des entrées-sorties et des communications MPI par le calcul pour les grappes d'APU et de GPU, que les APU délivrent des performances variant entre celles du CPU et celles du GPU, et que l'APU peut être aussi énergétiquement efficace que le GPU. / In an exploration context, Oil and Gas (O&G) companies rely on HPC to accelerate depth imaging algorithms. Solutions based on CPU clusters and hardware accelerators are widely embraced by the industry. The Graphics Processing Units (GPUs), with a huge compute power and a high memory bandwidth, had attracted significant interest.However, deploying heavy imaging workflows, the Reverse Time Migration (RTM) being the most famous, on such hardware had suffered from few limitations. Namely, the lack of memory capacity, frequent CPU-GPU communications that may be bottlenecked by the PCI transfer rate, and high power consumptions. Recently, AMD has launched theAccelerated Processing Unit (APU): a processor that merges a CPU and a GPU on the same die, with promising features notably a unified CPU-GPU memory. Throughout this thesis, we explore how efficiently may the APU technology be applicable in an O&G context, and study if it can overcome the limitations that characterize the CPU and GPU based solutions. The APU is evaluated with the help of memory, applicative and power efficiency OpenCL benchmarks. The feasibility of the hybrid utilization of the APUs is surveyed. The efficiency of a directive based approach is also investigated. By means of a thorough review of a selection of seismic applications (modeling and RTM) on the node level and on the large scale level, a comparative study between the CPU, the APU and the GPU is conducted. We show the relevance of overlapping I/O and MPI communications with computations for the APU and GPUclusters, that APUs deliver performances that range between those of CPUs and those of GPUs, and that the APU can be as power efficient as the GPU.
474

L'architecture Path Computation Element (PCE) pour les réseaux MPLS et son application à l'internet des objets / The Path Computation Element (PCE) for MPLS networks and its application to the Internet of Things (IoT)

Vasseur, Jean-Philippe 18 January 2013 (has links)
Les réseaux Telecom sont désormais en charge du transport d’une large variété de trafic de types donnés, voix, vidéo et autres protocoles industriels réclamant des garantie de qualité de service strictes. L’ingénierie de trafic permet non seulement d’optimiser les ressources réseaux mais aussi de parvenir à garantir ces qualités de service exprimées en termes de délais dans le réseau, de gigue mais aussi de taux de disponibilité en présence de pannes de liens ou de nœuds. La technologie MPLS TE, basée sur la commutation de labels le long de chemins contraints a permis d’atteindre ces objectifs et fut déployée dans de nombreux réseaux. L’objectif de cette thèse est de proposer un nouveau modèle architectural nommé PCE, ainsi que des protocoles et algorithmes novateurs afin de résoudre plusieurs problèmes d’envergure liés à l’ingénierie de trafic et disponibilité du réseau. L’architecture PCE est tout d’abord décrite ainsi que le protocole de signalisation PCEP utilisé entre clients et serveurs, puis les protocoles de découvertes de PCE et algorithmes de partage de charge. Ensuite un nouvel algorithme récursif est spécifié permettant grâce à un calcul collaboratif et récursif distribué impliquant une suite de PCEs de calculer le chemin optimal pour des tunnels inter-domaines. Un nouveau paradigme pour le calcul des chemin de secours est spécifié qui permet à chaque nœud d’agir en tant que PCE pour le calcul des tunnels de secours de chacun de ses voisins dans l’hypothèse que sa propre panne, permettant une utilisation partagée des ressources réseau dédiées au secours pour des tunnels protégeant des ressources indépendantes... / Modern data networks carry a wide variety of traffic such as voice, video, data and other industrial protocols that require guaranteed quality of service. Traffic Engineering (TE) allows for network resource optimization while meeting service level agreement for these sensitive traffics in terms of delays, jitter but also network reliability in case of network element failure. To that end a technology making use of constrained paths using label switching (called MPLS TE) has been developed and widely used in a number of networks. The objective of this thesis is to propose a new architecture model referred to as the Path Computation Element (PCE) along with a number of protocols and algorithms in order to tackle a number of technical challenges. First the PCE architecture is described in terms of functional blocks with its protocols: the signalization protocol called PCEP used between client and servers in charge of computing label switched path in the network, the process of PCE discovery and load balancing. Then a new backward recursive algorithm is specified allowing for the computation of optimal inter-domain tunnels, which involves a series of stateless PCEs. We then introduce a paradigm shift consisting distributing the computation of backup tunnels in the network used by the well-known technology called Fast Reroute. Thanks to this new paradigm, each node independently acts as a PCE computing the back tunnels of all of its neighbors, thus maximizing the degree of sharing of the backup capacity among tunnels that protect independent resources. We conclude this thesis by showing how the PCE architecture can be applied (with adaptations specified in the last two chapt...
475

Synthetic boundary condition for compressible near wall turbulence / Condition aux limites synthétiques pour la turbulence compressible de paroi

Hong, Ye 27 September 2019 (has links)
La simulation numérique directe des couches limites turbulentes nécessite une résolution spatiale élevée, en particulier proche des parois afin de capturer les différentes échelles de longueur inhérentes à la turbulence. Pour réduire le coût de calcul lié à la haute résolution spatiale, nous étudions les techniques qui éliminent la région de paroi en utilisant une condition aux limites artificielle aux bords d’un domaine de calcul réduit. Une stratégie de reconstruction basée sur la POD est mise en œuvre afin de générer des conditions aux limites synthétiques permettant de récupérer les caractéristiques spatiales et dynamiques correctes de la turbulence dans la région centrale du canal. La condition aux limites a été testée à deux hauteurs différentes. Les statistiques du canal réduit ont été comparées à celles du canal complet prise comme valeur de référence. Une bonne concordance est observée pour le profil de vitesse moyenne et la contrainte de cisaillement turbulente. La procédure s’est avérée robuste à la hauteur à laquelle la condition aux limites est imposée et permet une réduction drastique des coûts de calcul. / Direct Numerical Simulation of turbulent boundary layers requires a high spatial resolution specially near the wall to capture the different length scales inherent of turbulence. To reduce the computing cost related to the high spatial resolution, we investigate techniques that bypass the wall region by using an artificial boundary condition at the bound of a reduced computational domain. A reconstruction strategy based on POD is implemented in order to generate synthetic boundary conditions such that the correct spatial characteristics and dynamics of the turbulence are recovered in the core region of the channel. The boundary condition was tested at two different heights. Statistics in the reduced channel were compared with those of a reference case. A good agreement is observed for the mean velocity profile and the turbulent shear stress. The procedure was found to be robust with the boundary height and results in a drastic computational cost reduction.
476

Algorithmes rapides pour le calcul symbolique de certaines intégrales de contour à paramètre / Efficient algorithms for the symbolic computation of certain contour integrals with one parameter

Dumont, Louis 05 December 2016 (has links)
Cette thèse traite de problèmes d'intégration symbolique en calcul formel. L'objectif principal est de mettre au point des algorithmes permettant de calculer rapidement des fonctions qui sont présentées sous la forme d'intégrales de contour dépendant d'un paramètre.On commence par aborder le problème du calcul de l'intégrale d'une fraction rationnelle bivariée par rapport à l'une de ses variables. Le résultat est alors une fonction algébrique qui s'exprime comme une somme de résidus de l'intégrande. On met au point deux algorithmes qui calculent efficacement un polynôme annulateur pour chacun des résidus, et ensuite pour la somme, ce qui donne accès à un polynôme annulateur pour l'intégrale elle-même.Ces algorithmes s'appliquent presque directement au calcul d'un polynôme annulateur pour la diagonale d'une fraction rationnelle bivariée, c'est-à-dire la série univariée obtenue à partir du développement en série d'une fraction rationnelle bivariée en ne gardant que les coefficients diagonaux. En effet, ces diagonales peuvent s'écrire comme des intégrales de fractions rationnelles. Dans une autre application, on donne un nouvel algorithme pour le développement des séries génératrices de plusieurs familles de marches unidimensionnelles sur les entiers. Il repose sur une analyse fine des tailles des équations algébriques et différentielles satisfaites par ces séries.Dans un second temps, on s'intéresse au calcul de l'intégrale d'un terme mixte hypergéométrique et hyperexponentiel. Cette fois-ci le résultat est une suite polynomialement récursive. On élabore une méthode pour mettre sous forme normale les divers décalages d'un terme donné. Ceci permet d'appliquer la méthode du télescopage créatif par réductions pour calculer efficacement une récurrence à coefficients polynomiaux satisfaite par l'intégrale. / In this thesis, we provide solutions to some symbolic integration problems in computer algebra. The main objective is to effectively and efficiently compute functions that appear as contour integrals depending on one parameter.First, we consider the computation of the integral of a bivariate rational function with regard to one of the variables. The result is then an algebraic function that can be expressed as a sum of residues of the integrand. We design two algorithms that efficiently compute an annihilating polynomial for each residue, and then for their sum, which yields an annihilating polynomial for the integral itself.These algorithms apply almost directly to the computation of an annihilating polynomial for the diagonal of a rational function, that is, the univariate power series obtained from the expansion of a bivariate rational function by only keeping the diagonal coefficients. Indeed, these diagonals can be written as integrals of rational functions. In another application, we give a new algorithm for the Taylor expansion of the generating functions for several families of unidimensional lattice walks. It relies on a fine analysis of the sizes of the algebraic and differential equations satisfied by these generating functions.Secondly, we consider integrals of mixed hypergeometric and hyperexponential terms. In this case, the result is a polynomially recursive sequence. We devise a method to rewrite the various shifts of a given term under a normal form. This allows us to apply the method of reduction-based creative telescoping in order to efficiently compute a recurrence with polynomial coefficients for the integral.
477

Investigations in Computer-Aided Mathematics : Experimentation, Computation, and Certification / Investigations en Mathématiques Assistées par Ordinateur : Expérimentation, Calcul et Certification

Sibut Pinote, Thomas 04 December 2017 (has links)
Cette thèse propose trois contributions aux preuves mathématiques assistées par ordinateur. On s'intéresse non seulement aux preuves reposant sur le calcul, mais aussi aux preuves formelles, qui sont àla fois produites et vérifiées à l'aide d'un logiciel appelé assistant à la preuve.Dans la première partie, nous illustrons le thème de l'expérimentation au service de la preuve en nous intéressant au problème de la complexité des algorithmes de multiplication matricielle. Cette question a historiquement été posée de manière de plus en plus abstraite: les approches modernes ne construisent pas d'algorithmes explicites mais utilisent des résultats théoriques pour améliorer la borne inférieure sur la célèbre constante oméga. Nous sommes revenus à une approche plus pratique en essayant de programmer certains des algorithmes impliqués par ces résultats théoriques. Cette approche expérimentale a révélé un motif inattendu dans des algorithmes existants. Alors que ces algorithmes contiennent une nouvelle variable epsilon dont la présence est réputée les rendre impraticables pour des tailles de matrices raisonnables, nous avons découvert que nous pouvions construire des algorithmes de multiplication matricielle en parallèle sans epsilon avec une complexité asymptotique qui peut théoriquement battre l'algorithme de Strassen pour les multiplications. Un sous-produit de cette exploration est un outil symbolique en Ocaml qui peut analyser, composer et exporter des algorithmes de multiplication matricielle. Nous pensons aussi qu'il pourrait être utilisé pour construire de nouveaux algorithmes pratiques de multiplication matricielle.Dans la deuxième partie, nous décrivons une preuve formelle de l'irrationalité de la constante zeta(3), en suivant la démonstration historique due à Apéry. L'étape cruciale de cette preuve est d'établir que deux suites de nombres rationnels satisfont une surprenante récurrence commune. Il est en fait possible de "découvrir"cette récurrence en utilisant des algorithmes symboliques, et leurs implémentations existantes dans un système de calcul formel. De fait,ce travail constitue un exemple d'une approche dite sceptique de la démonstration formelle de théorèmes, dans lequel des calculs sont principalement réalisés par un logiciel efficace de calcul formel puis vérifiés formellement dans un assistant à la preuve. Incidemment, ce travail questionne la valeur des certificats de télescopage créatif comme preuves complètes d'identités. Cette preuve formelle est également basée sur de nouvelles bibliothèques de mathématiques,formalisées pour ses besoins. En particulier, nous avons formalisé et simplifié une étude du comportement asymptotique de la suite ppcm(1,.., n). Ce travail est conduit dans l'assistant à la preuve Coq et prolonge les bibliothèques Mathematical Components.Dans la dernière partie, nous présentons une procédure qui calcule les approximations d'une classe d'intégrales propres et impropres tout en produisant simultanément un preuve formelle Coq de la correction du résultat de ce calcul. Cette procédure utilise une combinaison d'arithmétique d'intervalles et d'approximations polynomiales rigoureuses de fonctions. Ce travail utilise crucialement les possibilités de calculer efficacement à l'intérieur de la logique sous-jacente au système Coq. Il s'agit d'une extension de la bibliothèque CoqInterval d'approximation numérique d'une classe d'expressions réelles. Sa mise en œuvre a également donné lieu à des extensions de la bibliothèque Coquelicot d'analyse réelle, notamment pour améliorer le traitement des intégrales impropres. Nous illustrons l'intérêt de cet outil et ses performances en traitant des exemples standards mais non triviaux de la littérature, sur lesquels d'autres outils se sont en certains cas révélés incorrects. / This thesis proposes three contributions to computer-aidedmathematical proofs. It deals, not only with proofs relying oncomputations, but also with formal proofs, which are both produced andverified using a piece of software called a proof assistant.In the first part, we illustrate the theme of experimentation at theservice of proofs by considering the problem of the complexity ofmatrix multiplication algorithms. This problem has historically beenapproached in an increasingly abstract way: modern approaches do notconstruct algorithms but use theoretical results to improve the lowerbound on the famous omega constant. We went back to a more practicalapproach by attempting to program some of the algorithms implied bythese theoretical results. This experimental approach reveals anunexpected pattern in some existing algorithms. While these algorithmscontain a new variable epsilon whose presence is reputed to renderthem inefficient for the purposes of reasonable matrix sizes, we havediscovered that we could build matrix multiplication algorithms inparallel without epsilon's with an asymptotic complexity which cantheoretically beat Strassen's algorithm in terms of the number ofmultiplications. A by-product of this exploration is a symbolic toolin Ocaml which can analyze, compose and export matrix multiplicationalgorithms. We also believe that it could be used to build newpractical algorithms for matrix multiplication.In the second part, we describe a formal proof of the irrationality ofthe constant zeta (3), following the historical demonstration due toApéry. The crucial step of this proof is to establish that twosequences of rational numbers satisfy a suprising commonrecurrence. It is in fact possible to "discover" this recurrence usingsymbolic algorithms, and their existing implementations in a computeralgebra system. In fact, this work is an example of a skepticalapproach to the formal proof of theorems, in which computations aremainly accomplished by an efficient computer algebra program, and thenformally verified in a proof assistant. Incidentally, this workquestions the value of creative telescoping certificates as completeproofs of identities. This formal proof is also based on newmathematical libraries, which were formalised for its needs. Inparticular, we have formalized and simplified a study of theasymptotic behaviour of the sequence lcm(1,..., n). This work isdeveloped in the Coq proof assistant and extends the MathematicalComponents libraries.In the last part, we present a procedure which computes approximationsof a class of proper and improper integrals while simultaneouslyproducing a Coq formal proof of the correction of the result of thiscomputation. This procedure uses a combination of interval arithmeticand rigorous polynomial approximations of functions. This work makescrucial use of the possibility to efficiently compute inside Coq'slogic. It is an extension of the CoqInterval library providingnumerical approximation of a class of real expressions. Itsimplementation has also resulted in extensions to the Coquelicotlibrary for real analysis, including a better treatment of improperintegrals. We illustrate the value of this tool and its performanceby dealing with standard but nontrivial examples from the literature,on which other tools have in some cases been incorrect.
478

Une méthode de décomposition de domaine mixte non-intrusive pour le calcul parallèle d’assemblages / A non-invasive mixed domain decomposition for parallel computation of assemblies

Oumaziz, Paul 07 July 2017 (has links)
Les assemblages sont des éléments critiques pour les structures industrielles. De fortes non-linéarités de type contact frottant, ainsi que des précharges mal maîtrisées rendent complexe tout dimensionnement précis. Présents en très grand nombre sur les structures industrielles (quelques millions pour un A380), cela implique de rafiner les modèles localement et donc de gérer des problèmes numé-riques de très grandes tailles. Les nombreuses interfaces de contact frottant sont des sources de difficultés de convergence pour les simulations numériques. Il est donc nécessaire de faire appel à des méthodes robustes. Il s’agit d’utiliser des méthodes itératives de décomposition de domaine, permettant de gérer des modèles numériques extrêmement grands, couplées à des techniques adaptées afin de prendre en compte les non-linéarités de contact aux interfaces entre sous-domaines. Ces méthodes de décomposition de domaine restent encore très peu utilisées dans un cadre industriel. Des développements internes aux codes éléments finis sont souvent nécessaires et freinent ce transfert du monde académique au monde industriel.Nous proposons, dans ces travaux de thèse, une mise-en-oeuvre non intrusive de ces méthodes de décomposition de domaine : c’est-à-dire sans développement au sein du code source. En particulier, nous nous intéressons à la méthode Latin dont la philosophie est particulièrement adaptée aux problèmes non linéaires. La structure est décomposée en sous-domaines reliés entre eux au travers d’interfaces. Avec la méthode Latin, les non-linéarités sont résolues séparément des aspects linéaires. La résolution est basée sur un schéma itératif à deux directions de recherche qui font dialoguer les problèmes linéaires globaux etles problèmes locaux non linéaires.Au cours de ces années de thèse, nous avons développé un outil totalement non intrusif sous Code_Aster permettant de résoudre par une technique de décomposition de domaine mixte des problèmes d’assemblage. Les difficultés posées par le caractère mixte de la méthode Latin sont résolues par l’introduction d’une direction de recherche non locale. Des conditions de Robin sur les interfaces des sous-domaines sont alors prises en compte simplement sans modifier les sources de Code_Aster. Nous avons proposé une réécriture algébrique de l’approche multi-échelle assurant l’extensibilité de la méthode. Nous nous sommes aussi intéressés à coupler la méthode Latin en décomposition de domaine à un algorithme de Krylov. Appliqué uniquement à un problème sous-structuré avec interfaces parfaites, ce couplage permet d’accélérer la convergence. Des structures préchargées avec de nombreuses interfaces de contact frottant ont été traitées. Des simulations qui n’auraient pu être menées par un calcul direct sous Code_Aster ont été réalisées via cette stratégie de décomposition de domaine non intrusive. / Abstract : Assemblies are critical elements for industrial structures. Strong non-linearities such as frictional contact, as well as poorly controlled preloads make complex all accurate sizing. Present in large numbers on industrial structures (a few million for an A380), this involves managing numerical problems of very large size. The numerous interfaces of frictional contact are sources of difficulties of convergence for the numerical simulations. It is therefore necessary to use robust but also reliable methods. The use of iterative methods based on domain decomposition allows to manage extremely large numerical models. This needs to be coupled with adaptedtechniques in order to take into account the nonlinearities of contact at the interfaces between subdomains. These methods of domain decomposition are still scarcely used in industries. Internal developments in finite element codes are often necessary, and thus restrain this transfer from the academic world to the industrial world.In this thesis, we propose a non-intrusive implementation of these methods of domain decomposition : that is, without development within the source code. In particular, we are interested in the Latin method whose philosophy is particularly adapted to nonlinear problems. It consists in decomposing the structure into sub-domains that are connected through interfaces. With the Latin method the non-linearities are solved separately from the linear differential aspects. Then the resolution is based on an iterative scheme with two search directions that make the global linear problems and the nonlinear local problems dialogue.During this thesis, a totally non-intrusive tool was developed in Code_Aster to solve assembly problems by a mixed domain decomposition technique. The difficulties posed by the mixed aspect of the Latin method are solved by the introduction of a non-local search direction. Robin conditions on the subdomain interfaces are taken into account simply without modifying the sources of Code_Aster. We proposed an algebraic rewriting of the multi-scale approach ensuring the extensibility of the method. We were also interested in coupling the Latin method in domain decomposition to a Krylov algorithm. Applied only to a substructured problem with perfect interfaces, this coupling accelerates the convergence. Preloaded structures with numerous contact interfaces have been processed. Simulations that could not be carried out by a direct computationwith Code_Aster were performed via this non-intrusive domain decomposition strategy.
479

Vers une meilleure utilisation des énergies renouvelables : application à des bâtiments scientifiques / Towards a better use of renewable energies : application to scientific buildings

Courchelle, Inès de 20 November 2017 (has links)
Les travaux de cette thèse portent sur l'optimisation des flux énergétiques et informatiques dans un réseau intelligent ayant pour but d'alimenter un centre de calcul via des énergies renouvelables. Dans cette thèse sont traités les problèmes liés à la mise en commun des informations de types énergétique et informatique dans une contrainte de réactivité forte à travers la création d'une architecture pour un réseau intelligent. La modélisation d'un tel réseau doit permettre la prise de décision de manière dynamique et autonome. L'objectif de cette modélisation, via un réseau intelligent, est l'optimisation des ressources renouvelables afin de diminuer l'empreinte écologique. / The work of this thesis deals with the optimization of energy and computer flows in an intelligent network aiming to supply a data center via renewable energies. In this thesis are treated the problems related to the pooling of energy and computer information in a strong reactivity constraint through the creation of an architecture for an intelligent network. The modeling of such a network must allow the decision making in a dynamic and autonomous way. The objective of this modeling, via an intelligent network, is the optimization of renewable resources in order to reduce the ecological footprint.
480

Utilisation des ondelettes de Haar en estimation bayésienne

Leblanc, Alexandre January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0362 seconds