• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 11
  • 2
  • Tagged with
  • 48
  • 12
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Scaling the solution of large sparse linear systems using multifrontal methods on hybrid shared-distributed memory architectures / Scalabilité des méthodes multifrontales pour la résolution de grands systèmes linéaires creux sur architectures hybrides à mémoire partagée et distribuée

Sid Lakhdar, Mohamed Wissam 01 December 2014 (has links)
La résolution de systèmes d'équations linéaires creux est au cœur de nombreux domaines d'applications. De même que la quantité de ressources de calcul augmente dans les architectures modernes, offrant ainsi de nouvelles perspectives, la taille des problèmes rencontré de nos jours dans les applications de simulations numériques augmente aussi et de façon significative. L'exploitation des architectures modernes pour la résolution efficace de problèmes de très grande taille devient ainsi un défit a relever, aussi bien d'un point de vue théorique que d'un point de vue algorithmique. L'objectif de cette thèse est d'adresser les problèmes de scalabilité des solveurs creux directs basés sur les méthodes multifrontales en environnements parallèles asynchrones. Dans la première partie de la thèse, nous nous intéressons a l'exploitation du parallélisme multicoeur sur les architectures a mémoire partagée. Nous introduisons une variante de l'algorithme Geist-Ng afin de gérer aussi bien un parallélisme a grain fin, a travers l'utilisation de librairies BLAS séquentiel et parallèle optimisées, que d'un parallélisme a plus gros grain, a travers l'utilisation de parallélisme a base de directives OpenMP. Nous considérons aussi des aspects mémoire afin d'améliorer les performances sur des architectures NUMA: (i) d'une part, nous analysons l'influence de la localité mémoire et utilisons des stratégies d'allocation mémoire adaptatives pour gérer les espaces de travail privés et partagés; (ii) d'autre part, nous nous intéressons au problème de partages de ressources sur les architectures multicoeurs, qui induisent des pénalités en termes de performances. Enfin, afin d'éviter que des ressources ne reste inertes a la fin de l'exécution de leurs taches, et ainsi, afin d'exploiter au mieux les ressources disponibles, nous proposons un algorithme conceptuellement proche de l'approche dite de vol de travail, et qui consiste a assigner les ressources de calculs inactives au taches de travail actives de façon dynamique. Dans la deuxième partie de cette thèse, nous nous intéressons aux architectures hybrides, a base de mémoire partagées et de mémoire distribuées, pour lesquels un travail particulier est nécessaire afin d'améliorer la scalabilité du traitement de problèmes de grande taille. Nous étudions et optimisons tout d'abord les noyaux d'algèbre linéaire danse utilisé dans les méthodes multifrontales en environnent distribué asynchrone, en repensant les variantes right-looking et left-looking de la factorisation LU avec pivotage partiel dans notre contexte distribué. De plus, du fait du parallélisme multicoeurs, la proportion des communications relativement aux calculs et plus importante. Nous expliquons comment construire des algorithmes de mapping qui minimisent les communications entres nœuds de l'arbre de dépendances de la méthode multifrontale. Nous montrons aussi que les communications asynchrones collectives deviennent christiques sur grand nombres de processeurs, et que les broadcasts asynchrones a base d'arbres de broadcast doivent être utilisés. Nous montrons ensuite que dans un contexte multifrontale complètement asynchrone, où plusieurs instances de tels communications ont lieux, de nouveaux problèmes de synchronisation apparaissent. Nous analysons et caractérisons les situations de deadlock possibles et établissons formellement des propriétés générales simples afin de résoudre ces problèmes de deadlock. Nous établissons par la suite des propriétés nous permettant de relâcher les synchronisations induites par la solutions précédentes, et ainsi, d'améliorer les performances. Enfin, nous montrons que les synchronisations peuvent être relâchées dans un solveur creux danse et illustrons les gains en performances, sur des problèmes de grande taille issue d'applications réelles, dans notre environnement multifrontale complètement asynchrone. / The solution of sparse systems of linear equations is at the heart of numerous applicationfields. While the amount of computational resources in modern architectures increases and offersnew perspectives, the size of the problems arising in today’s numerical simulation applicationsalso grows very much. Exploiting modern architectures to solve very large problems efficiently isthus a challenge, from both a theoretical and an algorithmic point of view. The aim of this thesisis to address the scalability of sparse direct solvers based on multifrontal methods in parallelasynchronous environments.In the first part of this thesis, we focus on exploiting multi-threaded parallelism on sharedmemoryarchitectures. A variant of the Geist-Ng algorithm is introduced to handle both finegrain parallelism through the use of optimized sequential and multi-threaded BLAS libraries andcoarser grain parallelism through explicit OpenMP based parallelization. Memory aspects arethen considered to further improve performance on NUMA architectures: (i) on the one hand,we analyse the influence of memory locality and exploit adaptive memory allocation strategiesto manage private and shared workspaces; (ii) on the other hand, resource sharing on multicoreprocessors induces performance penalties when many cores are active (machine load effects) thatwe also consider. Finally, in order to avoid resources remaining idle when they have finishedtheir share of the work, and thus, to efficiently exploit all computational resources available, wepropose an algorithm wich is conceptually very close to the work-stealing approach and whichconsists in dynamically assigning idle cores to busy threads/activities.In the second part of this thesis, we target hybrid shared-distributed memory architectures,for which specific work to improve scalability is needed when processing large problems. We firststudy and optimize the dense linear algebra kernels used in distributed asynchronous multifrontalmethods. Simulation, experimentation and profiling have been performed to tune parameterscontrolling the algorithm, in correlation with problem size and computer architecture characteristics.To do so, right-looking and left-looking variants of the LU factorization with partialpivoting in our distributed context have been revisited. Furthermore, when computations are acceleratedwith multiple cores, the relative weight of communication with respect to computationis higher. We explain how to design mapping algorithms minimizing the communication betweennodes of the dependency tree of the multifrontal method, and show that collective asynchronouscommunications become critical on large numbers of processors. We explain why asynchronousbroadcasts using standard tree-based communication algorithms must be used. We then showthat, in a fully asynchronous multifrontal context where several such asynchronous communicationtrees coexist, new synchronization issues must be addressed. We analyse and characterizethe possible deadlock situations and formally establish simple global properties to handle deadlocks.Such properties partially force synchronization and may limit performance. Hence, wedefine properties which enable us to relax synchronization and thus improve performance. Ourapproach is based on the observation that, in our case, as long as memory is available, deadlockscannot occur and, consequently, we just need to keep enough memory to guarantee thata deadlock can always be avoided. Finally, we show that synchronizations can be relaxed in astate-of-the-art solver and illustrate the performance gains on large real problems in our fullyasynchronous multifrontal approach.
32

Un modèle de programmation à grain fin pour la parallélisation de solveurs linéaires creux / A fine grain model programming for parallelization of sparse linear solver

Rossignon, Corentin 17 July 2015 (has links)
La résolution de grands systèmes linéaires creux est un élément essentiel des simulations numériques.Ces résolutions peuvent représenter jusqu’à 80% du temps de calcul des simulations.Une parallélisation efficace des noyaux d’algèbre linéaire creuse conduira donc à obtenir de meilleures performances. En mémoire distribuée, la parallélisation de ces noyaux se fait le plus souvent en modifiant leschéma numérique. Par contre, en mémoire partagée, un parallélisme plus efficace peut être utilisé. Il est doncimportant d’utiliser deux niveaux de parallélisme, un premier niveau entre les noeuds d’une grappe de serveuret un deuxième niveau à l’intérieur du noeud. Lors de l’utilisation de méthodes itératives en mémoire partagée,les graphes de tâches permettent de décrire naturellement le parallélisme en prenant comme granularité letravail sur une ligne de la matrice. Malheureusement, cette granularité est trop fine et ne permet pas d’obtenirde bonnes performances à cause du surcoût de l’ordonnanceur de tâches.Dans cette thèse, nous étudions le problème de la granularité pour la parallélisation par graphe detâches. Nous proposons d’augmenter la granularité des tâches de calcul en créant des agrégats de tâchesqui deviendront eux-mêmes des tâches. L’ensemble de ces agrégats et des nouvelles dépendances entre lesagrégats forme un graphe de granularité plus grossière. Ce graphe est ensuite utilisé par un ordonnanceur detâches pour obtenir de meilleurs résultats. Nous utilisons comme exemple la factorisation LU incomplète d’unematrice creuse et nous montrons les améliorations apportées par cette méthode. Puis, dans un second temps,nous nous concentrons sur les machines à architecture NUMA. Dans le cas de l’utilisation d’algorithmeslimités par la bande passante mémoire, il est intéressant de réduire les effets NUMA liés à cette architectureen plaçant soi-même les données. Nous montrons comment prendre en compte ces effets dans un intergiciel àbase de tâches pour ainsi améliorer les performances d’un programme parallèle. / Solving large sparse linear system is an essential part of numerical simulations. These resolve can takeup to 80% of the total of the simulation time.An efficient parallelization of sparse linear kernels leads to better performances. In distributed memory,parallelization of these kernels is often done by changing the numerical scheme. Contrariwise, in sharedmemory, a more efficient parallelism can be used. It’s necessary to use two levels of parallelism, a first onebetween nodes of a cluster and a second inside a node.When using iterative methods in shared memory, task-based programming enables the possibility tonaturally describe the parallelism by using as granularity one line of the matrix for one task. Unfortunately,this granularity is too fine and doesn’t allow to obtain good performance.In this thesis, we study the granularity problem of the task-based parallelization. We offer to increasegrain size of computational tasks by creating aggregates of tasks which will become tasks themself. Thenew coarser task graph is composed by the set of these aggregates and the new dependencies betweenaggregates. Then a task scheduler schedules this new graph to obtain better performance. We use as examplethe Incomplete LU factorization of a sparse matrix and we show some improvements made by this method.Then, we focus on NUMA architecture computer. When we use a memory bandwidth limited algorithm onthis architecture, it is interesting to reduce NUMA effects. We show how to take into account these effects ina task-based runtime in order to improve performance of a parallel program.
33

Hollow Beta zeolites : synthesis and impact of the hollow morphology on diffusion and catalysis / Encapsulation de nanoparticules en cristaux creux de zéolithe Beta

Morgado Prates, Ana Rita 18 September 2019 (has links)
De par leur morphologie, les cristaux creux de zéolithe permettent d’étudier les phénomènes de limitations diffusionnelles en catalyse et également d’encapsuler des particules métalliques ; les nano-réacteurs ainsi obtenus ont montré des activités catalytiques originales. Leur synthèse, qui nécessite des caractéristiques structurales particulières, a longtemps été limitée aux zéolithes de structure MFI. Le but de cette thèse était d’étudier différentes voies de synthèse pour préparer des cristaux creux de zéolithe Beta, une des zéolithes les plus utilisées dans l’industrie. Deux voies ont été suivies : l’utilisation d’un zincosilicate de même structure que la zéolithe Beta comme gabarit sacrificiel et une méthode plus classique de désilication sélective. L’encapsulation de nanoparticules de platine dans les cristaux obtenus selon la première voie a été confirmée par l’hydrogénation d’aromatiques substitués. L’’influence de la morphologie sur la diffusion de différentes molécules a été étudiée par ZLC : le temps caractéristique de diffusion a été réduit de 30 à 83 % par rapport à des cristaux conventionnels. Malgré cela, la présence d’une cavité dans les cristaux de zéolithe Beta n’a pas d’effets sur l’activité catalytique dans les réactions d’hydro-isomérisation du nC16 et du craquage du cyclohexane. La thèse discute de la présence/absence de limitations diffusionnelles / Hollow zeolite single crystals have received particular interest in catalysis. The presence of a large cavity in these model zeolites enables the study of diffusional limitation in Catalysis. The cavity also enables the encapsulation of metal nanoparticles. However, their synthesis requires specific structural characteristics and it has been limited for long to zeolites with the MFI structure. The objective of this PhD work was to investigate the synthesis of hollow Beta zeolites (*BEA framework type) and study the impact of the hollow morphology on molecular diffusion and catalysis. Two different strategies have been envisaged: a dissolution/recrystallization approach using CIT-6, a zincosilicate with the same *BEA topology and a selective desilication route. Pt nanoparticles encapsulated in hollow crystals obtained from CIT-6 showed remarkable size-selectivity in the hydrogenation of aromatics. The effect of the hollow morphology in molecular diffusion was studied using the ZLC technique; the characteristic diffusion time of the hollow morphology was reduced by 30-83% compared to the corresponding bulk zeolite. Despite that, the hollow structure had no influence on the catalytic activities for the hydroisomerization of n-C16 and for the cracking of cyclohexane. The presence/absence of diffusional limitation is discussed
34

Mécanismes et spécificité du priming immunitaire antiviral chez un Lophotrochozoaire, l'huitre creuse Crassostrea gigas. / Mechanisms and specificity of antiviral immune priming in a Lophtrochozoan, the Pacific oyster Crassostrea gigas

Lafont, Maxime 22 November 2017 (has links)
Depuis 2008, des épisodes de surmortalité massive d’origine multifactorielle, affectent mondialement les élevages de juvéniles d’huître creuse Crassostrea gigas dont le virus de type herpès, l’OsHV-1, peut être considéré comme un des agents pathogènes majeurs. L’immunité des huîtres, repose sur un système immunitaire inné et a longtemps été considéré comme peu spécifique et dépourvu de mémoire. Cependant, cette vision a été remise en question via des études ayant démontré l’existence d’une réponse immunitaire spécifique et mémoire chez des invertébrés. Dans le cadre de cette thèse, l’objectif était de caractériser le priming immunitaire antiviral ainsi que ses mécanismes chez l’huître face au virus OsHV-1. En stimulant les huîtres avec un agent mimétique viral, le poly(I:C), nos travaux ont montré que cette molécule protégeait spécifiquement contre l’OsHV-1 en milieu contrôlé et en milieu naturel sur le long terme, en améliorant le taux de survie des huîtres de près de 100%, mais pas d’infections bactériennes. Une approche RNA-seq nous a permis d’identifier différentes voies de signalisations immunitaires antivirales régulées suite à la stimulation par le poly(I:C). Les profils de régulation sont majoritairement maintenus dans le temps (au moins 10 jours), ce qui pourrait expliquer la protection observée. L’ensemble de ces résultats montre l’existence d’un phénomène de priming immunitaire antiviral efficace chez un Lophotrochozoaire et apporte une contribution à la compréhension des mécanismes moléculaires sous-jacents à ce phénomène. Ces travaux ont permis d’apporter des pistes de sortie de crise pour la filière ostréicole jusqu’alors inexplorées. / Since 2008, mass mortality events of multifactorial origin have affected the Pacific oyster Crassostrea gigas farms worldwide, in which a herpesvirus, the OsHV-1, can be considered as one of the major pathogens. The immunity of oysters, as for all invertebrates, is based on an innate immune system that has long been considered to be scarcely specific and to lack memory. However, in recent years this simplistic view has been questioned through studies that have demonstrated the existence of a specific immune response and memory. However, knowledge about the mechanisms underlying these phenomena still remains extremely fragmentary. The aim of this thesis was to characterize the antiviral immune priming and its mechanisms in the oyster against OsHV-1. By stimulating oysters with a viral mimic, poly(I:C), we have shown that this molecule specifically protects against OsHV-1 in controlled environment and in natural environment, protecting oysters from mass mortality events on the long term (min. 5 months) by improving oyster survival by almost 100% but does not protect against bacterial infection. A RNA-seq approach carried out during this thesis allowed us to identify different antiviral immune pathways regulated following the stimulation by poly(I:C). The regulation profiles are mostly maintained over time (at least 10 days), which could explain the observed protection. All these results show the existence of an effective antiviral immune priming phenomenon in a Lophotrochozoan and contribute to the understanding of the molecular mechanisms underlying this phenomenon. This work opens new perspectives hitherto unexplored to support oyster farming against this crisis.
35

Auto-tuning pour la détection automatique du meilleur format de compression pour matrice creuse / Auto-tuning for the automatic sparse matrix optimal compression format detection

Mehrez, Ichrak 27 September 2018 (has links)
De nombreuses applications en calcul scientifique traitent des matrices creuses de grande taille ayant des structures régulières ou irrégulières. Pour réduire à la fois la complexité spatiale et la complexité temporelle du traitement, ces matrices nécessitent l'utilisation d'une structure particulière de stockage (ou de compression) des données ainsi que l’utilisation d’architectures cibles parallèles/distribuées. Le choix du format de compression le plus adéquat dépend généralement de plusieurs facteurs dont, en particulier, la structure de la matrice creuse, l'architecture de la plateforme cible et la méthode numérique utilisée. Etant donné la diversité de ces facteurs, un choix optimisé pour un ensemble de données d'entrée peut induire de mauvaises performances pour un autre. D’où l’intérêt d’utiliser un système permettant la sélection automatique du meilleur format de compression (MFC) en prenant en compte ces différents facteurs. C’est dans ce cadre précis que s’inscrit cette thèse. Nous détaillons notre approche en présentant la modélisation d'un système automatique qui, étant donnée une matrice creuse, une méthode numérique, un modèle de programmation parallèle et une architecture, permet de sélectionner automatiquement le MFC. Dans une première étape, nous validons notre modélisation par une étude de cas impliquant (i) Horner, et par la suite le produit matrice-vecteur creux (PMVC), comme méthodes numériques, (ii) CSC, CSR, ELL, et COO comme formats de compression, (iii) le data parallèle comme modèle de programmation et (iv) une plateforme multicœurs comme architecture cible. Cette étude nous permet d’extraire un ensemble de métriques et paramètres qui influent sur la sélection du MFC. Nous démontrons que les métriques extraites de l'analyse du modèle data parallèle ne suffisent pas pour prendre une décision (sélection du MFC). Par conséquent, nous définissons de nouvelles métriques impliquant le nombre d'opérations effectuées par la méthode numérique et le nombre d’accès à la mémoire. Ainsi, nous proposons un processus de décision prenant en compte à la fois l'analyse du modèle data parallèle et l'analyse de l’algorithme. Dans une deuxième étape, et en se basant sur les données que nous avons extrait précédemment, nous utilisons les algorithmes du Machine Learning pour prédire le MFC d’une matrice creuse donnée. Une étude expérimentale ciblant une plateforme parallèle multicœurs et traitant des matrices creuses aléatoires et/ou provenant de problèmes réels permet de valider notre approche et d’évaluer ses performances. Comme travail futur, nous visons la validation de notre approche en utilisant d'autres plateformes parallèles telles que les GPUs. / Several applications in scientific computing deals with large sparse matrices having regular or irregular structures. In order to reduce required memory space and computing time, these matrices require the use of a particular data storage structure as well as the use of parallel/distributed target architectures. The choice of the most appropriate compression format generally depends on several factors, such as matrix structure, numerical method and target architecture. Given the diversity of these factors, an optimized choice for one input data set will likely have poor performances on another. Hence the interest of using a system allowing the automatic selection of the Optimal Compression Format (OCF) by taking into account these different factors. This thesis is written in this context. We detail our approach by presenting a design of an auto-tuner system for OCF selection. Given a sparse matrix, a numerical method, a parallel programming model and an architecture, our system can automatically select the OCF. In a first step, we validate our modeling by a case study that concerns (i) Horner scheme, and then the sparse matrix vector product (SMVP), as numerical methods, (ii) CSC, CSR, ELL, and COO as compression formats; (iii) data parallel as a programming model; and (iv) a multicore platform as target architecture. This study allows us to extract a set of metrics and parameters that affect the OCF selection. We note that data parallel metrics are not sufficient to accurately choose the most suitable format. Therefore, we define new metrics involving the number of operations and the number of indirect data access. Thus, we proposed a new decision process taking into account data parallel model analysis and algorithm analysis.In the second step, we propose to use machine learning algorithm to predict the OCF for a given sparse matrix. An experimental study using a multicore parallel platform and dealing with random and/or real-world random matrices validates our approach and evaluates its performances. As future work, we aim to validate our approach using other parallel platforms such as GPUs.
36

On the Solution Phase of Direct Methods for Sparse Linear Systems with Multiple Sparse Right-hand Sides / De la phase de résolution des méthodes directes pour systèmes linéaires creux avec multiples seconds membres creux

Moreau, Gilles 10 December 2018 (has links)
Cette thèse se concentre sur la résolution de systèmes linéaires creux dans le contexte d’applications massivement parallèles. Ce type de problèmes s’exprime sous la forme AX=B, où A est une matrice creuse d’ordre n x n, i.e. qui possède un nombre d’entrées nulles suffisamment élevé pour pouvoir être exploité, et B et X sont respectivement la matrice de seconds membres et la matrice de solution de taille n x nrhs. Cette résolution par des méthodes dites directes est effectuée grâce à une étape de factorisation qui réduit A en deux matrices triangulaires inférieure et supérieure L et U, suivie de deux résolutions triangulaires pour calculer la solution.Nous nous intéressons à ces résolutions avec une attention particulière apportée à la première, LY=B. Dans beaucoup d’applications, B possède un grand nombre de colonnes (nrhs >> 1) transformant la phase de résolution en un goulot d’étranglement. Elle possède souvent aussi une structure creuse, donnant l’opportunité de réduire la complexité de cette étape.Cette étude aborde sous des angles complémentaires la résolution triangulaire de systèmes linéaires avec seconds membres multiples et creux. Nous étudions dans un premier temps la complexité asymptotique de cette étape dans différents contextes (2D, 3D, facteurs compressés ou non). Nous considérons ensuite l’exploitation de cette structure et présentons de nouvelles approches s’appuyant sur une modélisation du problème par des graphes qui permettent d’atteindre efficacement le nombre minimal d’opérations. Enfin, nous donnons une interprétation concrète de son exploitation sur une application d’électromagnétisme pour la géophysique. Nous adaptons aussi des algorithmes parallèles aux spécificités de la phase de résolution.Nous concluons en combinant l'ensemble des résultats précédents et en discutant des perspectives de ce travail. / We consider direct methods to solve sparse linear systems AX = B, where A is a sparse matrix of size n x n with a symmetric structure and X and B are respectively the solution and right-hand side matrices of size n x nrhs. A is usually factorized and decomposed in the form LU, where L and U are respectively a lower and an upper triangular matrix. Then, the solve phase is applied through two triangular resolutions, named respectively the forward and backward substitutions.For some applications, the very large number of right-hand sides (RHS) in B, nrhs >> 1, makes the solve phase the computational bottleneck. However, B is often sparse and its structure exhibits specific characteristics that may be efficiently exploited to reduce this cost. We propose in this thesis to study the impact of the exploitation of this structural sparsity during the solve phase going through its theoretical aspects down to its actual implications on real-life applications.First, we investigate the asymptotic complexity, in the big-O sense, of the forward substitution when exploiting the RHS sparsity in order to assess its efficiency when increasing the problem size. In particular, we study on 2D and 3D regular problems the asymptotic complexity both for traditional full-rank unstructured solvers and for the case when low-rank approximation is exploited. Next, we extend state-of-the-art algorithms on the exploitation of RHS sparsity, and also propose an original approach converging toward the optimal number of operations while preserving performance. Finally, we show the impact of the exploitation of sparsity in a real-life electromagnetism application in geophysics that requires the solution of sparse systems of linear equations with a large number of sparse right-hand sides. We also adapt the parallel algorithms that were designed for the factorization to solve-oriented algorithms.We validate and combine the previous improvements using the parallel solver MUMPS, conclude on the contributions of this thesis and give some perspectives.
37

Algorithmes parallèles efficaces pour le calcul formel : algèbre linéaire creuse et extensions algébriques

Dumas, Jean-Guillaume 20 December 2000 (has links) (PDF)
Depuis quelques années, l'extension de l'utilisation de l'informatique dans tous les domaines de recherche scientifique et technique se traduit par un besoin croissant de puissance de calcul. Il est donc vital d'employer les microprocesseurs en parallèle. Le problème principal que nous cherchons à résoudre dans cette thèse est le calcul d'une forme canonique de très grandes matrices creuses à coefficients entiers, la forme normale de Smith. Par "très grandes", nous entendons un million d'inconnues et un million d'équations, c'est-à-dire mille milliards de variables. De tels systèmes sont même, en général, impossibles à stocker actuellement. Cependant, nous nous intéressons à des systèmes dans lesquels beaucoup de ces variables sont identiques et valent zéro; on parle dans ce cas de système creux. Enfin, nous voulons résoudre ces systèmes de manière exacte, c'est-à-dire que nous travaillons avec des nombres entiers ou dans une structure algébrique plus petite et autorisant toutes les opérations classiques, un corps fini. La reconstruction de la solution entière à partir des solutions plus petites est ensuite relativement aisée.
38

Contribution à la parallélisation de méthodes numériques à matrices creuses skyline. Application à un module de calcul de modes et fréquences propres de Systus

Bassomo, Pierre 12 July 1999 (has links) (PDF)
L'augmentation continue de la puissance des ordinateurs personnels (stations de travail ou PCs) et l'émergence de réseaux à haut débits fournissent de nouvelle opportunités de réalisation de machines parallèle à faible coût, en comparaison des machines parallèles traditionnelles. On peut aujourd 'hui construire de véritables machines parallèles en interconnectant des processeurs standards. Le fonctionnement de cet ensemble de processeurs en tant que machines parallèle est alors assuré par des logiciels tels que PVM et MPI. Quelle que soit la machine parallèle considérée, concevoir des applications parallèles impose, soit des outils de parallélisation automatique, soit un effort du programmeur suivant des méthodologies de programmation. Dans cette thèse, nous proposons une méthodologie de parallélisation des méthodes numériques. En général les méthodes numériques sont une chaîne d'algorithmes s'appelant les uns après les autres tout au long de leur exécution. A moins d'aborder leur parallélisation à partir du problème physique qu'elles traitent, par exemple par des techniques de décomposition de domaines, l'approche de parallélisation la plus réaliste est celle de type client/serveur.
39

Optique non-linéaire à haute intensité : Compression d'impulsions laser Interaction laser-plasma

Malvache, Arnaud 12 December 2011 (has links) (PDF)
Cette thèse principalement théorique se situe dans le cadre de l'utilisation du laser de la Salle Noire du LOA, qui fournit des impulsions ultracourtes (2 cycles optiques) et énergétiques (1mJ) à 1kHz, stabilisées en CEP, pour générer des harmoniques sur cible solide. D'une part, pour profiter pleinement des ressources du laser, j'ai développé un code de simulation de propagation dans une fibre creuse qui, associé à une analyse expérimentale, a permis de repousser la limite en énergie de cette technique de compression. J'ai d'autre part utilisé des simulations PIC et j'ai développé un modèle de simulation de l'émission CWE pour quantifier sa dépendance aux conditions laser et plasma. Ce travail a servi premièrement à expliquer la variation expérimentale du spectre CWE à la CEP de l'impulsion laser. Deuxièmement, à partir d'une étude paramétrique expérimentale des spectres CWE, de remonter à des informations sur le plasma tels que le gradient de densité et la température électronique.
40

Contribution à la modélisation de la pulvérisation d'un liquide phytosanitaire en vue de réduire les pollutions

De Luca, Magali 06 December 2007 (has links) (PDF)
La viticulture est une activité très consommatrice de pesticides (20% de la consommation totale française). Par conséquent, il semble capital d'optimiser les procédés de pulvérisation en milieu agricole afin de réduire les quantités de produits appliquées. Les traitements sont la plupart du temps pulvérisés sous forme d'une bouillie liquide composée d'eau et de matières actives, auxquelles sont ajoutées d'autres substances comme les surfactants et les adjuvants afin de faciliter leur emploi et d'améliorer leur efficacité. Des études récentes ont souligné que les tailles et vitesses de gouttes produites en sortie de buses ont un fort impact sur l'efficacité des traitements. En effet, suivant ces caractéristiques, les gouttes sont plus ou moins soumises aux phénomènes d'évaporation, de dérive ou de ruissellement. L'objectif de la présente étude est donc de modéliser l'atomisation des jets de pesticides afin d'obtenir la dispersion liquide, et les caractéristiques du jet. Ces données pourront servir de conditions initiales aux modèles de transport et de dépôt. Pour cela, un modèle Eulérien développé dans le secteur automobile est utilisé. Il suppose l'écoulement turbulent d'un « pseudo-fluide » avec une masse volumique comprise entre celle d'un liquide et celle d'un gaz. La dispersion du liquide dans la phase gazeuse est calculée grâce à l'équation de la fraction massique liquide moyenne. La taille moyenne des fragments liquides produits est quant à elle déterminée au moyen d'une équation pour la surface moyenne de l'interface liquide-gaz par unité de volume, dans laquelle sont pris en compte les phénomènes physiques responsables de la production et destruction de surface. La modélisation de la turbulence est assurée par le modèle aux tensions de Reynolds. Les équations du modèle ont été implémentées dans le code commercial CFD, Fluent et appliquées au cas d'une buse à turbulence agricole. Des calculs numériques tridimensionnels de l'écoulement interne et externe de la buse ont été réalisés jusqu'à une distance d'environ 1cm de la sortie. Les résultats numériques délivrés par le modèle semblent montrer un bon accord avec les photographies des jets obtenues par ombroscopie. Ils indiquent la formation d'une nappe liquide creuse en sortie de buse et la présence de zones de recirculation au sein de l'écoulement, soulignant l'existence d'un coeur d'air. Pour ce qui est des tailles de gouttes, les résultats mettent en évidence la présence d'une couronne de gouttes relativement grosses et, au milieu, de gouttes plus fines, conformément aux expérimentations. Ils soulignent également le fait que la cassure du spray se produit très près de la sortie de la buse.

Page generated in 0.0519 seconds