• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 19
  • 4
  • Tagged with
  • 42
  • 17
  • 14
  • 14
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Captage du CO2 par procédé membranaire : application au transport routier

Nicolas, Charles-Henri 18 October 2011 (has links) (PDF)
Ces travaux portent sur la conception et le développement d'un procédé membranaire de captage/stockage du CO2 embarqué pour le transport routier. Dans une première partie, nous réalisons la simulation d'un procédé membranaire embarqué de captage du CO2 dans le cas d'un poids lourd (>3500 kg). Ceci comprend l'analyse énergétique de la séparation et de la compression des gaz, l'évaluation des surfaces et volumes requis ainsi que l'autonomie de l'unité de stockage et la surconsommation engendrée par ce dispositif. Nous étudions dans un second temps la relation entre qualité des supports fibres creuses et celle des membranes nanocomposites MFI-alumine synthétisées. Nous nous intéressons ensuite aux performances des membranes nanocomposites dans la séparation CO2/N2 en phase gazeuse. Plus particulièrement nous évaluons l'influence de la substitution isomorphique du silicium par le bore et le germanium, ainsi que l'échange du proton de valence par d'autres atomes, sur la séparation en question. Un chapitre est dédié à l'évaluation des paramètres thermodynamiques (adsorption) et cinétiques (diffusion) de la séparation CO2/N2. Enfin, nous analysons l'influence de la présence de polluants dans le mélange à séparer (eau, NOx, hydrocarbures) sur les performances séparatives des membranes synthétisées.
22

Imagerie multi-résolution par tomographie aux rayons X : application à la tomographie locale en science des matériaux

Zhang, Tao 22 May 2012 (has links) (PDF)
L'objectif de cette thèse étudie puis d'implémenter une méthode de reconstruction sur la tomographie aux rayons X qui permette de scanner des gros échantillons avec une bonne résolution qui permettrait de scanner l'intérieur d'un cylindre(tomographie locale) et caractériser des matériaux réels. Notre méthode peut être réalisé pour améliorer la quantitative et la qualitative d'image de fantôme. Dans cette thèse, cet méthode est utilisé sue les matériaux cellulaires. Nous avons réalisé des essais in situ en tomographie aux rayons X sur le mousse ERG et les sphères creuses. Un comparaison entre les résultats d'Élément Finis et des essais réels montre le mécanisme d'endommagement de ces matériaux.
23

Développement d'un système "générique" de production d'anticorps murins et recombinants par bioingénierie / Development of a generic system for the production of murine and recombinant antibodies by bioengineering

Yakoub, Walid 25 October 2017 (has links)
Les anticorps monoclonaux (AcM) sont des protéines ayant une reconnaissance antigénique spécifique utilisée pour le développement de réactifs thérapeutiques et diagnostiques. La production commerciale est réalisée en cultivant des cellules hôtes dans des bioréacteurs spécifiques. La densité cellulaire et le métabolisme cellulaire sont des paramètres clés pour le rendement élevé des AcM. Bioréacteur à fibres creuses (HFB), une cartouche contenant des fibres poreuses emballées, est l'un des systèmes de production disponibles dans le commerce. Si la densité de cellules obtenue peut conduire à un rendement élevé, le coût de l'ensemble du dispositif, y compris les pompes et les cartouches très coûteuses, empêche son utilisation de petites unités. Comme une alternative économique, nous avons proposé ici d'étudier le potentiel des modules de dialyse de polysulfone du commerce, classiquement employés dans le traitement de l'insuffisance rénale en phase terminale. Cependant, la membrane de polysulfone native a démontré une adsorption de protéines non spécifique significative préjudiciable à la production d'AcMs. De plus des enjeux normatifs viennent se greffer à ces problématiques scientifiques et technico-économiques, avec le cas des normes (ISO 13485/ AC S99-104/ GMP FDA /BPF…) qui imposent des méthodes de travail normalisées. Ce travail de thèse consiste en la conception d’un bioréacteur jetable, sur la base d’une cartouche de dialyse médicale à fibres creuses. Ce système doit offrir toutes les garanties en termes de production, de facilité d’utilisation, de stérilité, et permettre de concentrer les produits de cytoculture. La méthodologie scientifique a été couplée à une démarche qualité. La gestion de ce projet a été couplé à l’analyse de risques. En effet ce projet a été divisé en ses 5 composantes élémentaires décrite par Ishikawa par la méthode des 5 M. L’analyse de risque a consisté au calcul d’indice de criticité par la méthode AMDEC de chacune de ses familles de risques. Cette approche nous a permis de formaliser deux axes de recherche : i) la mise en œuvre d’une oxygénation efficace du milieu de culture (chapitre 4) et ii) les moyens de limiter le colmatage dans le module à fibres creuses pour obtenir une culture cellulaire conforme aux objectifs (chapitre 5). Le taux d’oxygénation est un facteur à prendre en compte dans un processus de culture cellulaire. L’oxygène peut être supplémenté selon deux modes, le mode passif ou le mode actif [Ozturk et Palsson 1990; Zhang S. et al 1992]. Il existe 2 types de système d’oxygénation : les système dit passif ou les échanges se font a travers une paroi de silicone et un système actif par aération directe dans le milieu de culture. Ce système est de loin l'opération la plus simple pour fournir de l'oxygène. Cependant, lorsque celui-ci est utilisé pour apporter de l’oxygène à des cultures de cellules mammifères, cela peut engendrer des altérations cellulaires. Des agents protecteurs chimiques peuvent être utilisés pour réduire les dommages cellulaires et la formation de mousse [Kamase et Moo-yung 1990; van Der pol L.A et al 1993]. Nos études ont démontré que l'addition d'agents anti-mousse peut entraîner une diminution du coefficient de transfert de masse d’O2 en phase liquide (Kl) [Kamase et Moo-yung 1990]. Nous avons établi l’efficacité de l’utilisation d’un polymère silice/silicone pour éliminer la mousse sur des cultures bactériennes et de cellules mammifères. Afin de limiter ces phénomènes de colmatage, les fibres de polysulfone ont été traitées avec plusieurs tensioactifs (acide pluronique F127, D-limonen et différentes huiles de silicone) qui ont conduit à une diminution significative de l'adsorption protéique. L'effet de ces surfactants sur les performances de filtration et sur la cytotoxicité a été étudié. Certains d'entre eux n'ont pas influencé ces paramètres alors que d'autres ont présenté des effets négatifs. / Monoclonal Antibodies (mAbs) are proteins with specific antigen recognition used for development of both therapeutic and diagnostic reagents. Commercial production is achieved by growing host cells in specific bioreactors. Cell density and cell metabolism are key parameters for high yield of mAbs. Hollow fiber bioreactor (I-IFB), a cartridge containing packed porous fibres, is one of the system for production commercially available. If the cell density achieved can lead to high yield, the cost of the whole device, including pumps and very expensive cartridges prevents its use of small units. As an economical alternative, we proposed here to investigate the potential of commercial polysulfone dialysis modules, classically employed in the treatment of end stage renal failure. However, the native polysulfone membrane demonstrated a significant non-specific protein adsorption detrimental to mAbs production. Moreover normative issues are added to these scientific and techno-economic issues, with the case of standards (ISO 13485 / AC S99-104 / GMP FDA / BPF ...) which impose standard working methods. This thesis consists of the design of a disposable bioreactor, based on a hollow-fiber medical dialysis cartridge. This system must offer all the guarantees in terms of production, ease of use, sterility, and allow to concentrate the cytoculture products. Scientific methodology has been coupled with a quality approach. The management of this project was coupled with the risk analysis. Indeed this project was divided into its 5 elementary components describe by Ishikawa by the 5M method. The risk analysis consisted in the calculation of the criticality index by the AMDEC method of each of its families of risks. This approach allowed us to formalize two research axes: i) the implementation of an effective oxygenation of the culture medium (chapter 4) and ii) the means of limiting the clogging in the hollow fiber module to obtain a culture consistent with the objectives (Chapter 5). The rate of oxygenation is a factor to be taken into account in a cell culture process. Oxygen can be supplemented in two modes, passive mode or active mode [Ozturk and Palsson 1990; Zhang S. et al 19921. There are two types of oxygenation system: the so-called passive system or the exchanges are made through a silicone wall and an active system by direct aeration in the culture medium. This system is by far the simplest operation for providing oxygen. However, when it is used to supply oxygen to mammalian cell cultures, this can cause cellular damage. Chemical protective agents can be used to reduce cell damage and DKamase and Moo-yung 1990 foam formation; van Der pol L.A. et al 1993 Cl. Our studies have shown that the addition of antifoaming agents can lead to a decrease in the liquid phase (K2) mass transfer coefficient of D Kamase and Moo-yung 1990C]. We have established the effectiveness of using a silica / silicone polymer to remove foam on bacterial and mammalian cell cultures. In order to limit these adsorption phenomena, polysulfone fibers were treated with several surfactants (pluronic acid F 127, D-limonen, and different silicone oils) which led to a significant decrease in protein adsorption. The effect of such surfactants on the filtration performances and on cytotoxicity were investigated. Some of the them did not influence these parameters while some presented negative effects. Finally, different cell culture parameters (cells densities, production yield, flow properties, fouling) were studied, as well as the performance of the bioreactor in perfusion continuous mode. The bioreactor was maintained in continuous mode for fifteen days and the production yield per batch was 250 mg of AcMs. The results obtained in this work allowed us to define the next steps to be taken, and are the subject of the Perspectives section.
24

Compréhension et quantification des mécanismes hydrodynamiques locaux liés à l'aération au sein de faisceaux de fibres creuses immergées. / Understanding and quantification of local hydrodynamics mechanisms related to aeration within submerged hollow fiber bundles

Bessière-Pacurar, Charlotte 20 December 2010 (has links)
La thèse est consacrée à l’étude de l’influence de l’aération sur le colmatage demembranes fibres creuses, en application aux bioréacteurs à membranes (BAMs)traitant les eaux usées. Un pilote expérimental permet des expériences de filtrationpar plusieurs faisceaux de fibres creuses immergées, en filtration externe-interne, lacompacité des fibres est proche de la configuration de modules membranairesindustriels. Les fibres ont une surface totale de 1,2 m. Les filtrations sont menéessur une suspension synthétique complexe dont les caractéristiques rhéologiquessont comparables à celles des boues activées de BAM. Les différents paramètresde l’aération testés sont le débit d’air, le lieu d’injection des bulles, et le type debulles injectées (grosses ou fines), pour un flux de filtration constant égalementparamètre d’étude. Pour des conditions d’aération montrant des performances defiltration contrastées, il est effectué la caractérisation locale de la phase gaz parbisonde optique, à l’intérieur des faisceaux de fibres. La rétention gazeuse et lesprofils de vitesse (tant la vitesse moyenne des bulles, que les fluctuations de vitesse)sont mesurés et analysés en fonction des paramètres d’aération. La synthèse des résultats met en évidence deux mécanismes hydrodynamiqueslocaux liés à l’aération, et permettant d’expliquer les performances de filtrationconsidérées. Les perspectives de l’étude proposent des emplacements pour lesaérateurs ce qui pourrait mener à une meilleure utilisation de l’air pour la réductiondu colmatage dans les bioréacteurs à membranes. / This thesis is dedicated to better understand the role of aeration to limit fouling onsubmerged hollow fibers membrane fouling, for wastewater treatment industry. Thisstudy uses an innovative experimental setup to perform outside-in filtrationexperiments thanks to several submerged loose hollow fibers organized in confinedbundles. The total membrane area is about 1.2 m2; the configuration of the bundlesis close to the one found in Membrane Bioreactors (MBRs). A complex synthetic fluidwith rheological characteristics close to MBRs sludge is used. Different aerationconditions such as the air flowrate, the location of the air injection, the type ofbubbles injected (whether they are coarse or fine bubbles injected in the reactor)were tested and membrane performances were analysed under a low or a ratherhigh flux of filtration. In specific aeration conditions showing a different behaviour interm of fouling, local characterization of the dispersed phase in an air and watersystem was undertaken by optical probes. Gas hold up and both mean and rootmean square bubble velocity profiles were determined and analysed regarding thelocation of air injection, the air flowrate and the type of bubbles. This study helps understanding the link between local hydrodynamics and foulingmechanisms and could lead to input for aeration device design and location in orderto decrease operating costs due to aeration in Membrane Bioreactors technology.
25

Methods for solving discontinuous-Galerkin finite element equations with application to neutron transport / Méthodes de résolution d'équations aux éléments finis Galerkin discontinus et application à la neutronique

Murphy, Steven 26 August 2015 (has links)
Cette thèse traite des méthodes d’éléments finis Galerkin discontinus d’ordre élevé pour la résolution d’équations aux dérivées partielles, avec un intérêt particulier pour l’équation de transport des neutrons. Nous nous intéressons tout d’abord à une méthode de pré-traitement de matrices creuses par blocs, qu’on retrouve dans les méthodes Galerkin discontinues, avant factorisation par un solveur multifrontal. Des expériences numériques conduites sur de grandes matrices bi- et tri-dimensionnelles montrent que cette méthode de pré-traitement permet une réduction significative du ’fill-in’, par rapport aux méthodes n’exploitant pas la structure par blocs. Ensuite, nous proposons une méthode d’éléments finis Galerkin discontinus, employant des éléments d’ordre élevé en espace comme en angle, pour résoudre l’équation de transport des neutrons. Nous considérons des solveurs parallèles basés sur les sous-espaces de Krylov à la fois pour des problèmes ’source’ et des problèmes aux valeur propre multiplicatif. Dans cet algorithme, l’erreur est décomposée par projection(s) afin d’équilibrer les contraintes numériques entre les parties spatiales et angulaires du domaine de calcul. Enfin, un algorithme HP-adaptatif est présenté ; les résultats obtenus démontrent une nette supériorité par rapport aux algorithmes h-adaptatifs, à la fois en terme de réduction de coût de calcul et d’amélioration de la précision. Les valeurs propres et effectivités sont présentées pour un panel de cas test industriels. Une estimation précise de l’erreur (avec effectivité de 1) est atteinte pour un ensemble de problèmes aux domaines inhomogènes et de formes irrégulières ainsi que des groupes d’énergie multiples. Nous montrons numériquement que l’algorithme HP-adaptatif atteint une convergence exponentielle par rapport au nombre de degrés de liberté de l’espace éléments finis. / We consider high order discontinuous-Galerkin finite element methods for partial differential equations, with a focus on the neutron transport equation. We begin by examining a method for preprocessing block-sparse matrices, of the type that arise from discontinuous-Galerkin methods, prior to factorisation by a multifrontal solver. Numerical experiments on large two and three dimensional matrices show that this pre-processing method achieves a significant reduction in fill-in, when compared to methods that fail to exploit block structures. A discontinuous-Galerkin finite element method for the neutron transport equation is derived that employs high order finite elements in both space and angle. Parallel Krylov subspace based solvers are considered for both source problems and $k_{eff}$-eigenvalue problems. An a-posteriori error estimator is derived and implemented as part of an h-adaptive mesh refinement algorithm for neutron transport $k_{eff}$-eigenvalue problems. This algorithm employs a projection-based error splitting in order to balance the computational requirements between the spatial and angular parts of the computational domain. An hp-adaptive algorithm is presented and results are collected that demonstrate greatly improved efficiency compared to the h-adaptive algorithm, both in terms of reduced computational expense and enhanced accuracy. Computed eigenvalues and effectivities are presented for a variety of challenging industrial benchmarks. Accurate error estimation (with effectivities of 1) is demonstrated for a collection of problems with inhomogeneous, irregularly shaped spatial domains as well as multiple energy groups. Numerical results are presented showing that the hp-refinement algorithm can achieve exponential convergence with respect to the number of degrees of freedom in the finite element space
26

Séparation membranaire de l'azote et de l'oxygène : application à la diminution des émissions d'oxydes d'azote des moteurs Diesel / Nitrogen and oxygen membrane separation : application to decrease nitrogen oxides emissions of diesel engines

Lagrèze, Frédéric 03 February 2010 (has links)
L’objet de cette thèse est l’étude de la séparation membranaire de l’air appliquée à la réduction desémissions d’oxyde d’azote (NOx) des moteurs Diesel. Il a en effet été démontré précédemment quel’utilisation d’air dopé en azote pour la combustion Diesel entrainait une diminution des émissions deNOx. Les travaux présentés ici ont consisté à produire des outils de modélisation d’un module deséparation membranaire des gaz de type fibres creuses et à valider expérimentalement ces outils.Deux approches de modélisation ont été retenues, une approche génie chimique a conduit à unmodèle monodimensionnel applicable en régime stationnaire ; une approche dynamique des fluidesa permis de développer un modèle bidimensionnel valable en régime transitoire. Le premier modèlea été utilisé pour le dimensionnement de modules, le second pour simuler les performances deséparation de ces modules. Par ailleurs, l’influence du taux de dopage en azote de l’air sur la quantitéde NOx émis a été numériquement étudiée à l’aide d’un outil commercial. Enfin, la possibilitéd’implanter un tel module sur un moteur Diesel de série et les paramètres limitants ont été étudiés àl’aide d’un code commercial et d’un modèle développé par Renault. / The purpose of this work is the study of the air membrane separation applied to the reduction ofnitrogen oxides (NOx) emissions of Diesel engines. As a matter of fact, previous works proved thatusing nitrogen-doped air in Diesel combustion led to lower NOx emissions. The study presentedherein consisted in developing a set of modeling tools simulating a gas separation hollow fibersmembrane module and in experimentally validating these tools. A chemical engineering approachresulted in a monodimensional model suitable for stationary regime; a flow dynamic approach led toa bidimensional model dedicated to transitory regime. The first model was used to design modulessize, the second one to simulate separation performances of these modules. Beside, the impact ofnitrogen doping on NOx emissions was numerically studied with a commercial software. Finally, thefeasibility of the introduction of such a module in a mass-produced Diesel engine was investigatedwith a model developed at Renault on a commercial software.
27

Hydrogels physiques de chitosane sous forme de macro-fibres creuses et multi-membranaires : mise en oeuvre et étude microstructurale / Hollow and multi-membrane chitosan physical hydrogels : process of elaboration and microstructural study

Rivas Araiza, Rocio Nohemi 08 April 2010 (has links)
Ce travail a eu pour objectif la mise au point d'un nouveau procédé de filage par voie humide dans des conditions de coagulation interrompue pour la formation des fibres creuses mono- et multi-membranaire à base d’hydrogels de chitosane. Pour cela, l’étude du rôle des paramètres de filage (vitesse d’extrusion et d’étirage) et des paramètres physico-chimiques de coagulation (concentration du collodion, nature et concentration de l’agent coagulant) a d'abord permis d’élaborer des fibres creuses à partir d’un macrofilament liquide. Cette approche a été généralisée pour la fabrication de fibres creuses multi-membranaires en mettant au point un procédé de neutralisation à plusieurs étapes au moyen de bains successifs coagulation/lavage conduisant ainsi à la formation d’un assemblage de membranes et d’espaces membranaires. En modifiant la viscosité du collodion et la nature et concentration de la base neutralisante, la microstructure des hydrogels de chitosane a été analysée par diffusion/diffraction de rayonnement (X et lumière) et microscopie électronique. Selon les conditions de coagulation, il est possible de former des hydrogels par assemblages d'agrégats ou encore des structures bien organisées comme les gels de chitosane avec micro-canaux. En résumé, ce travail a permis d’apporter de nouveaux éléments sur le phénomène de coagulation du chitosane pour la formation d’une large gamme de matériaux bio-inspirés "leurres des milieux biologiques" à propriétés biologiques contrôlées pour l'ingénierie tissulaire: tube creux ou multi-membranaires comme substituts vasculaires, ou comme guides pour régénération nerveuse / The main objective of this work was to develop an interrupted wet-spinning process for the elaboration of hollow and multi-membrane chitosane fibers. The knowledge of the specific role of the processing parameters (extrusion rate and coagulation time) and physico-chemical parameters of coagulation (chitosane dope concentration, nature and concentration of the coagulant agent) allow us to elaborate hollow fibers from a liquid macrofiber of chitosane by interrupting the coagulation step through water washing. This approach was generalized for the elaboration of multi-membrane hollow fibers by alternating coagulation baths and water washing baths in a sequenced coagulation process. By modifying the dope viscosity and the nature and concentration of the coagulant agent, the microstructure of chitosan hydrogels was studied by specific scattering and microscopy techniques. Depending on the coagulation conditions, it was possible to process hydrogels with different microstructure consisting of aggregates assembled into micrometric clusters or capillary gels with more organized structures of periodic parallel micro-channels. This work opens the way to elaboration of a wide range of chitosan physical hydrogels based on the concept of “decoy of biological media” with tuneable biological properties for tissue engineering: hollow tubes and multi-membrane tubes as blood vessel substitutes or nerve guides
28

Bridging the Gap Between H-Matrices and Sparse Direct Methods for the Solution of Large Linear Systems / Combler l’écart entre H-Matrices et méthodes directes creuses pour la résolution de systèmes linéaires de grandes tailles

Falco, Aurélien 24 June 2019 (has links)
De nombreux phénomènes physiques peuvent être étudiés au moyen de modélisations et de simulations numériques, courantes dans les applications scientifiques. Pour être calculable sur un ordinateur, des techniques de discrétisation appropriées doivent être considérées, conduisant souvent à un ensemble d’équations linéaires dont les caractéristiques dépendent des techniques de discrétisation. D’un côté, la méthode des éléments finis conduit généralement à des systèmes linéaires creux, tandis que les méthodes des éléments finis de frontière conduisent à des systèmes linéaires denses. La taille des systèmes linéaires en découlant dépend du domaine où le phénomène physique étudié se produit et tend à devenir de plus en plus grand à mesure que les performances des infrastructures informatiques augmentent. Pour des raisons de robustesse numérique, les techniques de solution basées sur la factorisation de la matrice associée au système linéaire sont la méthode de choix utilisée lorsqu’elle est abordable. A cet égard, les méthodes hiérarchiques basées sur de la compression de rang faible ont permis une importante réduction des ressources de calcul nécessaires pour la résolution de systèmes linéaires denses au cours des deux dernières décennies. Pour les systèmes linéaires creux, leur utilisation reste un défi qui a été étudié à la fois par la communauté des matrices hiérarchiques et la communauté des matrices creuses. D’une part, la communauté des matrices hiérarchiques a d’abord exploité la structure creuse du problème via l’utilisation de la dissection emboitée. Bien que cette approche bénéficie de la structure hiérarchique qui en résulte, elle n’est pas aussi efficace que les solveurs creux en ce qui concerne l’exploitation des zéros et la séparation structurelle des zéros et des non-zéros. D’autre part, la factorisation creuse est accomplie de telle sorte qu’elle aboutit à une séquence d’opérations plus petites et denses, ce qui incite les solveurs à utiliser cette propriété et à exploiter les techniques de compression des méthodes hiérarchiques afin de réduire le coût de calcul de ces opérations élémentaires. Néanmoins, la structure hiérarchique globale peut être perdue si la compression des méthodes hiérarchiques n’est utilisée que localement sur des sous-matrices denses. Nous passons en revue ici les principales techniques employées par ces deux communautés, en essayant de mettre en évidence leurs propriétés communes et leurs limites respectives, en mettant l’accent sur les études qui visent à combler l’écart qui les séparent. Partant de ces observations, nous proposons une classe d’algorithmes hiérarchiques basés sur l’analyse symbolique de la structure des facteurs d’une matrice creuse. Ces algorithmes s’appuient sur une information symbolique pour grouper les inconnues entre elles et construire une structure hiérarchique cohérente avec la disposition des non-zéros de la matrice. Nos méthodes s’appuient également sur la compression de rang faible pour réduire la consommation mémoire des sous-matrices les plus grandes ainsi que le temps que met le solveur à trouver une solution. Nous comparons également des techniques de renumérotation se fondant sur des propriétés géométriques ou topologiques. Enfin, nous ouvrons la discussion à un couplage entre la méthode des éléments finis et la méthode des éléments finis de frontière dans un cadre logiciel unique. / Many physical phenomena may be studied through modeling and numerical simulations, commonplace in scientific applications. To be tractable on a computer, appropriated discretization techniques must be considered, which often lead to a set of linear equations whose features depend on the discretization techniques. Among them, the Finite Element Method usually leads to sparse linear systems whereas the Boundary Element Method leads to dense linear systems. The size of the resulting linear systems depends on the domain where the studied physical phenomenon develops and tends to become larger and larger as the performance of the computer facilities increases. For the sake of numerical robustness, the solution techniques based on the factorization of the matrix associated with the linear system are the methods of choice when affordable. In that respect, hierarchical methods based on low-rank compression have allowed a drastic reduction of the computational requirements for the solution of dense linear systems over the last two decades. For sparse linear systems, their application remains a challenge which has been studied by both the community of hierarchical matrices and the community of sparse matrices. On the one hand, the first step taken by the community of hierarchical matrices most often takes advantage of the sparsity of the problem through the use of nested dissection. While this approach benefits from the hierarchical structure, it is not, however, as efficient as sparse solvers regarding the exploitation of zeros and the structural separation of zeros from non-zeros. On the other hand, sparse factorization is organized so as to lead to a sequence of smaller dense operations, enticing sparse solvers to use this property and exploit compression techniques from hierarchical methods in order to reduce the computational cost of these elementary operations. Nonetheless, the globally hierarchical structure may be lost if the compression of hierarchical methods is used only locally on dense submatrices. We here review the main techniques that have been employed by both those communities, trying to highlight their common properties and their respective limits with a special emphasis on studies that have aimed to bridge the gap between them. With these observations in mind, we propose a class of hierarchical algorithms based on the symbolic analysis of the structure of the factors of a sparse matrix. These algorithms rely on a symbolic information to cluster and construct a hierarchical structure coherent with the non-zero pattern of the matrix. Moreover, the resulting hierarchical matrix relies on low-rank compression for the reduction of the memory consumption of large submatrices as well as the time to solution of the solver. We also compare multiple ordering techniques based on geometrical or topological properties. Finally, we open the discussion to a coupling between the Finite Element Method and the Boundary Element Method in a unified computational framework.
29

Captage du CO2 par procédé membranaire : application au transport routier / High-flux MFI-alumina hollow fibres : a membrane-based process for on-board CO2 capture from internal combustion vehicles

Nicolas, Charles-Henri 18 October 2011 (has links)
Ces travaux portent sur la conception et le développement d’un procédé membranaire de captage/stockage du CO2 embarqué pour le transport routier. Dans une première partie, nous réalisons la simulation d’un procédé membranaire embarqué de captage du CO2 dans le cas d’un poids lourd (>3500 kg). Ceci comprend l’analyse énergétique de la séparation et de la compression des gaz, l’évaluation des surfaces et volumes requis ainsi que l’autonomie de l’unité de stockage et la surconsommation engendrée par ce dispositif. Nous étudions dans un second temps la relation entre qualité des supports fibres creuses et celle des membranes nanocomposites MFI-alumine synthétisées. Nous nous intéressons ensuite aux performances des membranes nanocomposites dans la séparation CO2/N2 en phase gazeuse. Plus particulièrement nous évaluons l’influence de la substitution isomorphique du silicium par le bore et le germanium, ainsi que l’échange du proton de valence par d’autres atomes, sur la séparation en question. Un chapitre est dédié à l’évaluation des paramètres thermodynamiques (adsorption) et cinétiques (diffusion) de la séparation CO2/N2. Enfin, nous analysons l’influence de la présence de polluants dans le mélange à séparer (eau, NOx, hydrocarbures) sur les performances séparatives des membranes synthétisées. / This work focuses on the conception and development of a membrane-based process for an on-board CO2 capture/storage application. In a first part, we simulate an on-board CO2 capture unit based on a membrane process for the case study of a heavy vehicle (>3500 kg). This study includes an energy analysis of the impact of gas separation and compression on the required membrane surface and module volume, as well the autonomy of the storage unit and the energy overconsumption involved in the process. In a second part, we study the influence of the hollow-fibre support quality on the final intergrowth level of nanocomposite MFI-alumina membranes. Special attention is devoted to the influence of the isomorphic substitution of silica by boron and germanium, and replacement of the counter-cation (proton) by other elements, on the CO2/N2 separation and permeance properties. Next, a complete chapter has been devoted to the evaluation of the thermodynamic (adsorption) and kinetic (diffusion) parameters in the CO2/N2 separation. Finally, we analyze the influence of standard pollutants (water, NOx, hydrocarbons) on the CO2 separation properties of the synthesized membranes.
30

Memory and performance issues in parallel multifrontal factorizations and triangular solutions with sparse right-hand sides / Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux

Rouet, François-Henry 17 October 2012 (has links)
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l’utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d’entrées de l’inverse d’une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d’abord plusieurs schémas de stockage qui permettent de réduire significativement l’espace mémoire utilisé lors de la résolution, dans le cadre d’exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d’accès aux facteurs, qui sont stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d’opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d’abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les technique de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d’algorithmes de répartition et d’ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l’utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d’inconnues) et sur des machines massivement parallèles (jusqu’à quelques milliers de coeurs). Elles ont permis d’améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur). / We consider the solution of very large sparse systems of linear equations on parallel architectures. In this context, memory is often a bottleneck that prevents or limits the use of direct solvers, especially those based on the multifrontal method. This work focuses on memory and performance issues of the two memory and computationally intensive phases of direct methods, that is, the numerical factorization and the solution phase. In the first part we consider the solution phase with sparse right-hand sides, and in the second part we consider the memory scalability of the multifrontal factorization. In the first part, we focus on the triangular solution phase with multiple sparse right-hand sides, that appear in numerous applications. We especially emphasize the computation of entries of the inverse, where both the right-hand sides and the solution are sparse. We first present several storage schemes that enable a significant compression of the solution space, both in a sequential and a parallel context. We then show that the way the right-hand sides are partitioned into blocks strongly influences the performance and we consider two different settings: the out-of-core case, where the aim is to reduce the number of accesses to the factors, that are stored on disk, and the in-core case, where the aim is to reduce the computational cost. Finally, we show how to enhance the parallel efficiency. In the second part, we consider the parallel multifrontal factorization. We show that controlling the active memory specific to the multifrontal method is critical, and that commonly used mapping techniques usually fail to do so: they cannot achieve a high memory scalability, i.e. they dramatically increase the amount of memory needed by the factorization when the number of processors increases. We propose a class of "memory-aware" mapping and scheduling algorithms that aim at maximizing performance while enforcing a user-given memory constraint and provide robust memory estimates before the factorization. These techniques have raised performance issues in the parallel dense kernels used at each step of the factorization, and we have proposed some algorithmic improvements. The ideas presented throughout this study have been implemented within the MUMPS (MUltifrontal Massively Parallel Solver) solver and experimented on large matrices (up to a few tens of millions unknowns) and massively parallel architectures (up to a few thousand cores). They have demonstrated to improve the performance and the robustness of the code, and will be available in a future release. Some of the ideas presented in the first part have also been implemented within the PDSLin (Parallel Domain decomposition Schur complement based Linear solver) solver.

Page generated in 0.0374 seconds