• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 74
  • 14
  • Tagged with
  • 186
  • 186
  • 131
  • 101
  • 87
  • 35
  • 33
  • 33
  • 29
  • 29
  • 29
  • 24
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

A user-centered and autonomic multi-cloud architecture for high performance computing applications / Un utilisateur centré et multi-cloud architecture pour le calcul des applications de haute performance

Ferreira Leite, Alessandro 02 December 2014 (has links)
Le cloud computing a été considéré comme une option pour exécuter des applications de calcul haute performance. Bien que les plateformes traditionnelles de calcul haute performance telles que les grilles et les supercalculateurs offrent un environnement stable du point de vue des défaillances, des performances, et de la taille des ressources, le cloud computing offre des ressources à la demande, généralement avec des performances imprévisibles mais à des coûts financiers abordables. Pour surmonter les limites d’un cloud individuel, plusieurs clouds peuvent être combinés pour former une fédération de clouds, souvent avec des coûts supplémentaires légers pour les utilisateurs. Une fédération de clouds peut aider autant les fournisseurs que les utilisateurs à atteindre leurs objectifs tels la réduction du temps d’exécution, la minimisation des coûts, l’augmentation de la disponibilité, la réduction de la consommation d’énergie, pour ne citer que ceux-Là. Ainsi, la fédération de clouds peut être une solution élégante pour éviter le sur-Approvisionnement, réduisant ainsi les coûts d’exploitation en situation de charge moyenne, et en supprimant des ressources qui, autrement, resteraient inutilisées et gaspilleraient ainsi de énergie. Cependant, la fédération de clouds élargit la gamme des ressources disponibles. En conséquence, pour les utilisateurs, des compétences en cloud computing ou en administration système sont nécessaires, ainsi qu’un temps d’apprentissage considérable pour maîtrises les options disponibles. Dans ce contexte, certaines questions se posent: (a) Quelle ressource du cloud est appropriée pour une application donnée? (b) Comment les utilisateurs peuvent-Ils exécuter leurs applications HPC avec un rendement acceptable et des coûts financiers abordables, sans avoir à reconfigurer les applications pour répondre aux normes et contraintes du cloud ? (c) Comment les non-Spécialistes du cloud peuvent-Ils maximiser l’usage des caractéristiques du cloud, sans être liés au fournisseur du cloud ? et (d) Comment les fournisseurs de cloud peuvent-Ils exploiter la fédération pour réduire la consommation électrique, tout en étant en mesure de fournir un service garantissant les normes de qualité préétablies ? À partir de ces questions, la présente thèse propose une solution de consolidation d’applications pour la fédération de clouds qui garantit le respect des normes de qualité de service. On utilise un système multi-Agents pour négocier la migration des machines virtuelles entre les clouds. En nous basant sur la fédération de clouds, nous avons développé et évalué une approche pour exécuter une énorme application de bioinformatique à coût zéro. En outre, nous avons pu réduire le temps d’exécution de 22,55% par rapport à la meilleure exécution dans un cloud individuel. Cette thèse présente aussi une architecture de cloud baptisée « Excalibur » qui permet l’adaptation automatique des applications standards pour le cloud. Dans l’exécution d’une chaîne de traitements de la génomique, Excalibur a pu parfaitement mettre à l’échelle les applications sur jusqu’à 11 machines virtuelles, ce qui a réduit le temps d’exécution de 63% et le coût de 84% par rapport à la configuration de l’utilisateur. Enfin, cette thèse présente un processus d’ingénierie des lignes de produits (PLE) pour gérer la variabilité de l’infrastructure à la demande du cloud, et une architecture multi-Cloud autonome qui utilise ce processus pour configurer et faire face aux défaillances de manière indépendante. Le processus PLE utilise le modèle étendu de fonction avec des attributs pour décrire les ressources et les sélectionner en fonction des objectifs de l’utilisateur. Les expériences réalisées avec deux fournisseurs de cloud différents montrent qu’en utilisant le modèle proposé, les utilisateurs peuvent exécuter leurs applications dans un environnement de clouds fédérés, sans avoir besoin de connaître les variabilités et contraintes du cloud. / Cloud computing has been seen as an option to execute high performance computing (HPC) applications. While traditional HPC platforms such as grid and supercomputers offer a stable environment in terms of failures, performance, and number of resources, cloud computing offers on-Demand resources generally with unpredictable performance at low financial cost. Furthermore, in cloud environment, failures are part of its normal operation. To overcome the limits of a single cloud, clouds can be combined, forming a cloud federation often with minimal additional costs for the users. A cloud federation can help both cloud providers and cloud users to achieve their goals such as to reduce the execution time, to achieve minimum cost, to increase availability, to reduce power consumption, among others. Hence, cloud federation can be an elegant solution to avoid over provisioning, thus reducing the operational costs in an average load situation, and removing resources that would otherwise remain idle and wasting power consumption, for instance. However, cloud federation increases the range of resources available for the users. As a result, cloud or system administration skills may be demanded from the users, as well as a considerable time to learn about the available options. In this context, some questions arise such as: (a) which cloud resource is appropriate for a given application? (b) how can the users execute their HPC applications with acceptable performance and financial costs, without needing to re-Engineer the applications to fit clouds' constraints? (c) how can non-Cloud specialists maximize the features of the clouds, without being tied to a cloud provider? and (d) how can the cloud providers use the federation to reduce power consumption of the clouds, while still being able to give service-Level agreement (SLA) guarantees to the users? Motivated by these questions, this thesis presents a SLA-Aware application consolidation solution for cloud federation. Using a multi-Agent system (MAS) to negotiate virtual machine (VM) migrations between the clouds, simulation results show that our approach could reduce up to 46% of the power consumption, while trying to meet performance requirements. Using the federation, we developed and evaluated an approach to execute a huge bioinformatics application at zero-Cost. Moreover, we could decrease the execution time in 22.55% over the best single cloud execution. In addition, this thesis presents a cloud architecture called Excalibur to auto-Scale cloud-Unaware application. Executing a genomics workflow, Excalibur could seamlessly scale the applications up to 11 virtual machines, reducing the execution time by 63% and the cost by 84% when compared to a user's configuration. Finally, this thesis presents a product line engineering (PLE) process to handle the variabilities of infrastructure-As-A-Service (IaaS) clouds, and an autonomic multi-Cloud architecture that uses this process to configure and to deal with failures autonomously. The PLE process uses extended feature model (EFM) with attributes to describe the resources and to select them based on users' objectives. Experiments realized with two different cloud providers show that using the proposed model, the users could execute their application in a cloud federation environment, without needing to know the variabilities and constraints of the clouds.
182

A parallel iterative solver for large sparse linear systems enhanced with randomization and GPU accelerator, and its resilience to soft errors / Un solveur parallèle itératif pour les grands systèmes linéaires creux, amélioré par la randomisation et l'utilisation des accélérateurs GPU, et sa résilience aux fautes logicielles

Jamal, Aygul 28 September 2017 (has links)
Dans cette thèse de doctorat, nous abordons trois défis auxquels sont confrontés les solveurs d'algèbres linéaires dans la perspective des futurs systèmes exascale: accélérer la convergence en utilisant des techniques innovantes au niveau algorithmique, en profitant des accélérateurs GPU (Graphics Processing Units) pour améliorer le calcul sur plusieurs systèmes, en évaluant l'impact des erreurs due à l'augmentation du parallélisme dans les superordinateurs. Nous nous intéressons à l'étude des méthodes permettant d'accélérer la convergence et le temps d'exécution des solveurs itératifs pour les grands systèmes linéaires creux. Le solveur plus spécifiquement considéré dans ce travail est le “parallel Algebraic Recursive Multilevel Solver (pARMS)” qui est un soldeur parallèle sur mémoire distribuée basé sur les méthodes de sous-espace de Krylov.Tout d'abord, nous proposons d'intégrer une technique de randomisation appelée “Random Butterfly Transformations (RBT)” qui a été proposée avec succès pour éliminer le coût du pivotage dans la résolution des systèmes linéaires denses. Notre objectif est d'appliquer cette technique dans le préconditionneur ARMS de pARMS pour résoudre plus efficacement le dernier système Complément de Schur dans l'application du processus à multi-niveaux récursif. En raison de l'importance considérable du dernier Complément de Schur pour certains problèmes de test, nous proposons également d'utiliser une variante creux de RBT suivie d'un solveur direct creux (SuperLU). Les résultats expérimentaux sur certaines matrices de la collection de Davis montrent une amélioration de la convergence et de la précision par rapport aux implémentations existantes.Ensuite, nous illustrons comment une approche non intrusive peut être appliquée pour implémenter des calculs GPU dans le solveur pARMS, plus particulièrement pour la phase de préconditionnement locale qui représente une partie importante du temps pour la résolution. Nous comparons les solveurs purement CPU avec les solveurs hybrides CPU / GPU sur plusieurs problèmes de test issus d'applications physiques. Les résultats de performance du solveur hybride CPU / GPU utilisant le préconditionnement ARMS combiné avec RBT, ou le préconditionnement ILU(0), montrent un gain de performance jusqu'à 30% sur les problèmes de test considérés dans nos expériences.Enfin, nous étudions l'effet des défaillances logicielles variable sur la convergence de la méthode itérative flexible GMRES (FGMRES) qui est couramment utilisée pour résoudre le système préconditionné dans pARMS. Le problème ciblé dans nos expériences est un problème elliptique PDE sur une grille régulière. Nous considérons deux types de préconditionneurs: une factorisation LU incomplète à double seuil (ILUT) et le préconditionneur ARMS combiné avec randomisation RBT. Nous considérons deux modèle de fautes logicielles différentes où nous perturbons la multiplication du vecteur matriciel et la phase de préconditionnement, et nous comparons leur impact potentiel sur la convergence. / In this PhD thesis, we address three challenges faced by linear algebra solvers in the perspective of future exascale systems: accelerating convergence using innovative techniques at the algorithm level, taking advantage of GPU (Graphics Processing Units) accelerators to enhance the performance of computations on hybrid CPU/GPU systems, evaluating the impact of errors in the context of an increasing level of parallelism in supercomputers. We are interested in studying methods that enable us to accelerate convergence and execution time of iterative solvers for large sparse linear systems. The solver specifically considered in this work is the parallel Algebraic Recursive Multilevel Solver (pARMS), which is a distributed-memory parallel solver based on Krylov subspace methods.First we integrate a randomization technique referred to as Random Butterfly Transformations (RBT) that has been successfully applied to remove the cost of pivoting in the solution of dense linear systems. Our objective is to apply this method in the ARMS preconditioner to solve more efficiently the last Schur complement system in the application of the recursive multilevel process in pARMS. The experimental results show an improvement of the convergence and the accuracy. Due to memory concerns for some test problems, we also propose to use a sparse variant of RBT followed by a sparse direct solver (SuperLU), resulting in an improvement of the execution time.Then we explain how a non intrusive approach can be applied to implement GPU computing into the pARMS solver, more especially for the local preconditioning phase that represents a significant part of the time to compute the solution. We compare the CPU-only and hybrid CPU/GPU variant of the solver on several test problems coming from physical applications. The performance results of the hybrid CPU/GPU solver using the ARMS preconditioning combined with RBT, or the ILU(0) preconditioning, show a performance gain of up to 30% on the test problems considered in our experiments.Finally we study the effect of soft fault errors on the convergence of the commonly used flexible GMRES (FGMRES) algorithm which is also used to solve the preconditioned system in pARMS. The test problem in our experiments is an elliptical PDE problem on a regular grid. We consider two types of preconditioners: an incomplete LU factorization with dual threshold (ILUT), and the ARMS preconditioner combined with RBT randomization. We consider two soft fault error modeling approaches where we perturb the matrix-vector multiplication and the application of the preconditioner, and we compare their potential impact on the convergence of the solver.
183

Analyse et modélisation du comportement différé du béton: application aux poutres mixtes, préréfléchies et précontraintes / Analysis and modelling of the delayed behaviour of concrete: application to composite precambered prestressed beams

Staquet, Stéphanie 01 September 2004 (has links)
The aim of this thesis is to assess the time-dependent behavior of a new kind of composite railway bridge deck composed by two precambered and prestressed beams. The method used until now to design these bridge decks is a simple classical computation method with a variable modular ratio. They have been placed only with simply supported spans up to 26 m.<p>It is now considered to apply this construction method for the building of continuous bridges (with larger spans) by connecting simply supported decks on their supports. It is known that this kind of construction will induce an additional and strong time-dependent redistribution of internal forces within the structure. It was felt that an in-depth understanding of the influence of the concrete time-dependent effects in this kind of composite structures is needed before proceeding with the design of statically indeterminate bridges. Two cross-section analysis programs applying the principle of superposition were developed: the first used the age adjusted effective modulus method and the second the step-by-step method. However, it is known that the delayed behavior of concrete does not fully comply with the principle of superposition. It appears that after a period of compression creep, creep recovery is significantly less than predicted by the superposition principle. In the construction phases of this bridge deck, the concrete fibers belonging to the bottom side of prestressed beams undergo a stress/strain history of significant unloading when the permanent loads are applied step-by-step. Moreover, these methods assume that the relative humidity remains constant. Finally, a lot of bridge decks are heated in order to transfer the prestressing as soon as possible. To evaluate more finely the time-dependent effects of concrete in such composite (and rather complex) structures with variable loading history, several steps have been carried out: <p>-Analysis of the influence of the heat treatment applied in the workshop and the level of applied stress on the creep and the shrinkage of the concrete.<p>-Analysis of the recovery phenomenon of the concrete resulting in the selection of the two-function method with the recovery function proposed by Yue and Taerwe.<p>-Development of a cross-section analysis program applying the two-function method to take into account more finely the recovery phenomenon, what resulted in a optimization of the phases of construction of the bridge decks by decreasing the minimum age of concrete before prestressing from 40 hours to 20 hours. <p>-Development of a structural analysis program with beam finite elements and applying the two-function method,what has resulted in an optimization of the phases of construction of continuous bridges composed by the junction of two bridge decks. <p>-Proposition of a modelling based on the understanding of the physico-chemical phenomenona which are at the origin of the delayed effects and coupled to a local analysis of the evolution of the degree of hydration and the internal relative humidity in order to take into account the changes of the boundaries conditions in terms of heat and moisture exchanges occurring along the construction history of the bridge decks in the evaluation of their long-term behavior. For each component of the delayed strains (the thermal strain, the autogenous shrinkage, the desiccation shrinkage, the desiccation creep, the basic creep), a modelling has been proposed.<p>-Development of a cross-section analysis program based on the numerically stable algorithm with increasing time steps for integral-type aging creep proposed by Bažant and including the different components of the delayed effects according to the proposed modelling.<p>The results seem to be very promising since it was possible to reproduce in a more realistic way the evolutions of the measured strains of the composite railway bridge deck instrumented in June 2000 and situated near Brussels South Station. <p><p><p>L’objectif de cette thèse est de prédire le comportement à long terme de structure mixte type pont-bac composée de poutres préfléchies, précontraintes et construites par phases. A l’heure actuelle, ils sont dimensionnés à l’état limite de service par une méthode traditionnelle pseudo-élastique avec un coefficient d’équivalence acier-béton variable. Il est envisagé d’étendre ce type de construction à la réalisation de viaducs hyperstatiques permettant de franchir de plus grandes portées en établissant une continuité entre deux travées au droit de leur support commun. Il est connu que ce type de construction induit une importante redistribution des efforts internes dans la structure. Il est donc indispensable d’évaluer très finement l’influence des effets différés du béton sur ce type de construction. Deux programmes généraux d’analyse de section basés sur la méthode du module effectif ajusté et la méthode pas-à-pas ont tout d’abord été développés. Ces méthodes appliquent le principe de superposition. Des limitations propres à ces méthodes ont été relevées pour des historiques où le béton subit plusieurs déchargements significatifs par rapport à son état de contrainte initial juste après le transfert de la précontrainte. Ces méthodes ont aussi l’inconvénient de supposer une humidité relative constante. Enfin,pour pouvoir être mis en précontrainte le plus tôt possible, les ponts-bacs sont chauffés. Les caractéristiques de retrait et de fluage s’écartent de celles déterminées en laboratoire sur des éprouvettes conservées à 20°C. Pour lever les limitations des méthodes classiques et évaluer plus finement l’état de contrainte et de déformation à long terme dans ce type de structure, plusieurs étapes ont été effectuées :<p>-Analyse de l’influence d’un traitement thermique appliqué dans les mêmes conditions que celles effectuées chez le préfabricant ainsi que du niveau de contrainte appliqué sur les déformations différées du béton. <p>-Analyse de l’influence de l’application de déchargements à des âges divers sur les éprouvettes de béton permettant de mettre en évidence le fait que la méthode dite aux deux fonctions avec la fonction de recouvrance proposée par Yue et Taerwe reproduit la plupart des résultats expérimentaux de manière très satisfaisante.<p>-Développement d’un programme d’analyse en section suivant la méthode pas-à-pas étendu à la méthode aux deux fonctions afin de mieux tenir compte de la recouvrance, ce qui a permis d’optimiser les phases de préfabrication des ponts-bacs en changeant l’instant de mise en précontrainte. Les simulations ont montré que si le béton du pont-bac est chauffé, la mise en précontrainte peut s’effectuer à 20 heures d’âge du béton. <p>-Développement d’un programme d’analyse de structure au moyen d’éléments finis de type poutre et dont l’algorithme de résolution applique la méthode aux deux fonctions, ce qui a permis d’optimiser les phases de construction de viaducs hyperstatiques constitués par la jonction de deux ponts-bacs. <p>-Proposition d’une modélisation fondée sur la compréhension des phénomènes physico-chimiques à l’origine des effets différés et couplée à une étude locale de l’évolution du degré d’hydratation et de la teneur en eau permettant de tenir compte des changements de conditions aux limites en terme d’échange de chaleur et d’humidité qui ont lieu au cours de l’histoire des ponts-bacs dans l’évaluation de leur comportement à long terme. Pour chaque composante des déformations différées (le retrait thermique, le retrait endogène, le retrait et le fluage de dessiccation, le fluage fondamental), une modélisation a été proposée.<p>-Développement d’un programme d’analyse de section basé sur une approche incrémentale avec l’algorithme récursif et exponentiel proposé par Bažant et dans lequel les composantes des effets différés ont été intégrées suivant la modélisation proposée. <p>Les résultats sont encourageants car ils ont permis de reproduire de manière beaucoup plus réaliste les évolutions des déformations mesurées dans le pont-bac instrumenté à Bruxelles. <p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
184

Contribution à la modélisation eulérienne unifiée de l’injection : de la zone dense au spray polydispersé / Contribution to a unified Eulerian modeling of fuel injection : from dense liquid to polydisperse spray

Essadki, Mohamed 13 February 2018 (has links)
L’injection directe à haute pression du carburant dans les moteurs à combustion interne permet une atomisation compacte et efficace. Dans ce contexte, la simulation numérique de l’injection est devenue un outil fondamental pour la conception industrielle. Cependant,l’écoulement du carburant liquide dans une chambre occupée initialement par l’air est un écoulement diphasique très complexe ; elle implique une très large gamme d’échelles. L’objectif de cette thèse est d’apporter de nouveaux éléments de modélisation et de simulation afin d’envisager une simulation prédictive de ce type d’écoulement avec un coût de calcul abordable dans un contexte industriel. En effet, au vu du coût de calcul prohibitif de la simulation directe de l’ensemble des échelles spatiales et temporelles, nous devons concevoir une gamme de modèles d’ordre réduit prédictifs. En outre, des méthodes numériques robustes, précises et adaptées au calcul de haute performance sont primordiales pour des simulations complexes.Cette thèse est dédiée au développement d’un modèle d’ordre réduit Eulérien capable de capter tant la polydispersiond’un brouillard de goutte dans la zone dispersée,que la dynamique de l’interface dans le régime de phases séparées. En s’appuyant sur une extension des méthodes de moments d’ordre élevé à des moments fractionnaires qui représentent des quantités géométriques de l’interface, et sur l’utilisation de variables géométrique sen sous-échelle dans la zone où l’interface gaz-liquide ne peut plus être complètement résolue, nous proposons une approche unifiée où un ensemble de variables géométriques sont transportées et valides dans les deux régimes d’écoulement [...]. / Direct fuel injection systems are widely used in combustionengines to better atomize and mix the fuel withthe air. The design of new and efficient injectors needsto be assisted with predictive simulations. The fuel injectionprocess involves different two-phase flow regimesthat imply a large range of scales. In the context of thisPhD, two areas of the flow are formally distinguished:the dense liquid core called separated phases and thepolydisperse spray obtained after the atomization. Themain challenge consists in simulating the combinationof these regimes with an acceptable computational cost.Direct Numerical Simulations, where all the scales needto be solved, lead to a high computational cost for industrialapplications. Therefore, modeling is necessaryto develop a reduced order model that can describe allregimes of the flow. This also requires major breakthroughin terms of numerical methods and High PerformanceComputing (HPC).This PhD investigates Eulerian reduced order models todescribe the polydispersion in the disperse phase andthe gas-liquid interface in the separated phases. First,we rely on the moment method to model the polydispersionin the downstream region of the flow. Then,we propose a new description of the interface by usinggeometrical variables. These variables can provide complementaryinformation on the interface geometry withrespect to a two-fluid model to simulate the primary atomization.The major contribution of this work consistsin using a unified set of variables to describe the tworegions: disperse and separated phases. In the case ofspherical droplets, we show that this new geometricalapproach can degenerate to a moment model similar toEulerian Multi-Size Model (EMSM). However, the newmodel involves fractional moments, which require somespecific treatments. This model has the same capacityto describe the polydispersion as the previous Eulerianmoment models: the EMSM and the multi-fluid model.But, it also enables a geometrical description of the interface...].
185

Effet de la stérilisation par électrons accélérés sur les COC et sur l'impact des interactions avec des molécules actives / Effect of electron beam radio-sterilization on cyclo olefin copolymers and its impact on the interactions with active molecules

Barakat, Hala 24 January 2013 (has links)
L’objectif de ce travail de thèse était d’étudier l’effet de la stérilisation par électrons accélérés sur les copolymères d’oléfines cycliques (COC), utilisés comme conditionnement de produits pharmaceutiques, ainsi que son impact sur les interactions avec des formulations pharmaceutiques. Grâce à la méthodologie analytique adoptée qui a fait appel à différentes techniques de caractérisation, telles que la chromatographie d’exclusion stérique, la chromatographie liquide haute performance à polarité de phases inversée, la spectroscopie infra rouge à transformée de Fourier, la microscopie à force atomique et les mesures d’angles de contact, nous avons pu mettre en évidence différents types de modifications dans le volume et sur la surface du matériau après stérilisation ainsi qu’après vieillissement. La modification principale du dans la masse du matériau, observée à la dose réglementaire de stérilisation (25 kGy), est la scission des chaînes du polymère, qui s’accompagne de la création de composés de faible masse molaire, donc de migrants potentiels risquant d’influencer la sécurité d’emploi des COC. En effet, certains de ces composés ont été retrouvés avec une concentration relativement importante dans les solutions de mise en contact avec les COC stérilisés, et notamment en solution aqueuse. Toutefois, l’étude préliminaire de toxicité a montré l’absence de cytotoxicité des extractibles obtenus à la dose de la stérilisation.Les modifications relatives à la surface des COC radio-stérilisés sont, quant à elles, de deux natures : physique avec une augmentation de la rugosité de surface et chimique avec la formation de produits d’oxydation polaires ; ces deux types de modifications conduisent à l’augmentation de la mouillabilité de surface. Cependant dans certains cas, notamment après vieillissement, ces modifications sont relativement faibles, même à des doses supérieures à celle préconisée pour la stérilisation, ce qui peut être corrélé à l’absence de l’effet de l’irradiation sur le comportement des COC vis-à-vis des solutions médicamenteuses. En effet, aucune variation de la sorption des principes actifs choisis n’a été montrée entre les COC irradiés et non irradiés vieillis. / The aim of this work was to study the effect of electron beam radio-sterilization on cyclo olefins copolymers (COC) used as pharmaceutical storage materials, as well as to investigate its impact on the interaction with pharmaceuticals formulations. Due to the analytical methodology used which dealt with different techniques of characterization such as size exclusion chromatography, reversed phase high performance liquid chromatography, Fourier transformed infrared spectroscopy, atomic force microscopy and contact angle measurements, we have been able to put into evidence different kinds of modifications both in the bulk and on the surface of the sterilized material and also after ageing.The principal modification of material’s bulk, observed at the recommended dose for sterilization (25 kGy), was polymer chains scissions, accompanied with creation of low molecular weight compounds, that are potentials migrants that risk to affect the safe use of COC. Indeed, some of these compounds have been found with a relatively important concentration in the solutions where sterilized COC was stored, especially in aqueous solutions. However, the preliminary study of toxicity has shown the absence of cytotoxicity of the extractables obtained at the sterilization dose.Surface modifications of radio-sterilized COC are of two types: a physical one, with an increase of the surface’s roughness and a chemical one with the formation of polar oxidation products; these two modifications result in an increase of surface’s wettability that may be important. However, in some cases such as for aged samples, these modifications are relatively weak even at doses higher than the one recommended for sterilization, which can explain the absence of the effect of radiation on the behavior of COC towards drug solutions. Indeed, no variation of drug sorption has been observed between aged COC irradiated and none irradiated.
186

Méthodes d'ordre élevé et méthodes de décomposition de domaine efficaces pour les équations de Maxwell en régime harmonique / Efficient high order and domain decomposition methods for the time-harmonic Maxwell's equations

Bonazzoli, Marcella 11 September 2017 (has links)
Les équations de Maxwell en régime harmonique comportent plusieurs difficultés lorsque la fréquence est élevée. On peut notamment citer le fait que leur formulation variationnelle n’est pas définie positive et l’effet de pollution qui oblige à utiliser des maillages très fins, ce qui rend problématique la construction de solveurs itératifs. Nous proposons une stratégie de solution précise et rapide, qui associe une discrétisation par des éléments finis d’ordre élevé à des préconditionneurs de type décomposition de domaine. La conception, l’implémentation et l’analyse des deux méthodes sont assez difficiles pour les équations de Maxwell. Les éléments finis adaptés à l’approximation du champ électrique sont les éléments finis H(rot)-conformes ou d’arête. Ici nous revisitons les degrés de liberté classiques définis par Nédélec, afin d’obtenir une expression plus pratique par rapport aux fonctions de base d’ordre élevé choisies. De plus, nous proposons une technique pour restaurer la dualité entre les fonctions de base et les degrés de liberté. Nous décrivons explicitement une stratégie d’implémentation qui a été appliquée dans le langage open source FreeFem++. Ensuite, nous nous concentrons sur les techniques de préconditionnement du système linéaire résultant de la discrétisation par éléments finis. Nous commençons par la validation numérique d’un préconditionneur à un niveau, de type Schwarz avec recouvrement, avec des conditions de transmission d’impédance entre les sous-domaines. Enfin, nous étudions comment des préconditionneurs à deux niveaux, analysés récemment pour l’équation de Helmholtz, se comportent pour les équations de Maxwell, des points de vue théorique et numérique. Nous appliquons ces méthodes à un problème à grande échelle qui découle de la modélisation d’un système d’imagerie micro-onde, pour la détection et le suivi des accidents vasculaires cérébraux. La précision et la vitesse de calcul sont essentielles dans cette application. / The time-harmonic Maxwell’s equations present several difficulties when the frequency is large, such as the sign-indefiniteness of the variational formulation, the pollution effect and the problematic construction of iterative solvers. We propose a precise and efficient solution strategy that couples high order finite element (FE) discretizations with domain decomposition (DD) preconditioners. High order FE methods make it possible for a given precision to reduce significantly the number of unknowns of the linear system to be solved. DD methods are then used as preconditioners for the iterative solver: the problem defined on the global domain is decomposed into smaller problems on subdomains, which can be solved concurrently and using robust direct solvers. The design, implementation and analysis of both these methods are particularly challenging for Maxwell’s equations. FEs suited for the approximation of the electric field are the curl-conforming or edge finite elements. Here, we revisit the classical degrees of freedom (dofs) defined by Nédélec to obtain a new more friendly expression in terms of the chosen high order basis functions. Moreover, we propose a general technique to restore duality between dofs and basis functions. We explicitly describe an implementation strategy, which we embedded in the open source language FreeFem++. Then we focus on the preconditioning of the linear system, starting with a numerical validation of a one-level overlapping Schwarz preconditioner, with impedance transmission conditions between subdomains. Finally, we investigate how two-level preconditioners recently analyzed for the Helmholtz equation work in the Maxwell case, both from the theoretical and numerical points of view. We apply these methods to the large scale problem arising from the modeling of a microwave imaging system, for the detection and monitoring of brain strokes. In this application accuracy and computing speed are indeed of paramount importance.

Page generated in 0.0539 seconds