Spelling suggestions: "subject:"cancéreuse""
1 |
Guéret à la fin de l'Ancien régime : démographie & société /Parelon, Geneviève. January 2000 (has links)
Texte remanié de: Th. doct.--Hist.--Limoges, 1996. Titre de soutenance : Guéret au dix-huitième siècle : une petite ville et son rayonnement. / Bibliogr. p. 352-364.
|
2 |
Les maçons de la Creuse : les origines du mouvement /Moulin, Annie, January 1994 (has links)
Thèse 3e cycle--Histoire--Clermont-Ferrand, 1986. / Précédemment paru sous le titre : "Les maçons de la Haute-Marche au XVIIIe siècle" Bibliogr. p. IX-X. Index.
|
3 |
Les Maçons de la Haute-Marche au XVIIIe siècle /Moulin, Annie, January 1986 (has links)
Thèse de IIIe cycle--Clermont-Ferrand II, 1986.
|
4 |
Méthode de Krylov itératives avec communication et efficacité énergétique optimisées sur machine hétérogène / Krylov iterative method with communication and energy efficiency optimization on heterogeneous clustersChen, Langshi 04 November 2015 (has links)
Les méthodes de Krylov sont fréquemment utilisés dans des problèmes linéaires, comme de résoudre des systèmes linéaires ou de trouver des valeurs propres et vecteurs propres de matrices, avec une taille extrêmement grande. Comme ces méthodes itératives nécessitent un calcul intensif, ils sont normalement déployés sur des grands clusters avec les mémoires distribués et les données communiqués par MPI. Lorsque la taille du problème augmente, la communication devient un bouchon principale d'atteindre une haute scalabité à cause de deux raisons: 1) La plupart des méthodes itératives comptent sur BLAS-2 matrices-vecteurs opérations de bas niveau qui sont communication intensive. 2) Le mouvement de données (accès à la mémoire, la communication par MPI) est beaucoup plus lent que la fréquence du processeur. Dans le cas des opérations de matrice creuse tels que la multiplication de matrices creuses et vecteurs (SpMV), le temps de communication devient dominant par rapport au temps de calcul. En outre, l'avènement des accélérateurs et coprocesseurs comme le GPU de NVIDIA fait le coût du calcul moins cher, tandis que le coût de la communication reste élevé dans des systèmes hétérogènes. Ainsi, la première partie de nos travaux se concentre sur l'optimisation des coûts de communication pour des méthodes itératives sur des clusters hétérogènes. En dehors du coût de communication, le mur de la puissance et de l’énergie devient un autre bouchon de scalabité pour le futur calcul exascale. Les recherches indiquent que la mise en œuvre des implémentations d'algorithmes qui sont informées pourrait efficacement réduire la dissipation de puissance des clusters. Nous explorons également la mise en œuvre des méthodes et des implémentations qui économisent l'énergie dans notre expérimentation. Enfin, l'optimisation de la communication et la mise en œuvre de l'efficacité énergétique seraient intégrés dans un schéma de méthode GMRES, qui exige un cadre d'auto-tuning pour optimiser sa performance. / Iterative methods are frequently used in extremely large scale linear problems, such solving linear systems or finding eigenvalue/eigenvectors of matrices. As these iterative methods require a substantial computational workload, they are normally deployed on large clusters of distributed memory architectures communicated via MPI. When the problem size scales up, the communication becomes a major bottleneck of reaching a higher scalability because of two reasons: 1) Many of the iterative methods rely on BLAS-2 low level matrix vector kernels that are communication intensive. 2) Data movement (memory access, MPI communication) is much slower than processor's speed. In case of sparse matrix operations such as Sparse Matrix Vector Multiplication (SpMV), the communication even replaces the computation as the dominant time cost. Furthermore, the advent of accelerators/coprocessors like Nvidia's GPU make computation cost more cheaper, while the communication cost remains high in such CPU-coprocessor heterogeneous systems. Thus, the first part of our work focus on the optimization of communication cost of iterative methods on heterogeneous clusters. Besides the communication cost, power wall becomes another bottleneck of future exascale computing in recent time. Researches indicate that a power-aware algorithmic implementation strategy could efficiently reduce the power dissipation of large clusters. We also explore the potential energy saving implementation of iterative methods in our experimentation. Finally, both the communication optimization and energy efficiency implementation would be integrated into a GMRES method, which demands an auto-tuning framework to maximize its performance.
|
5 |
Eléments pour la conduite d'une politique documentaire au sein de la Bibliothèque Départementale de la CreuseFrigau, Brice Le Seven, Aline. January 2005 (has links) (PDF)
Mémoire d'étude diplôme de conservateur des bibliothèques : Bibliothéconomie : Villeurbanne, ENSSIB : 2004.
|
6 |
Accueil et représentations des étrangers en Limousin : le cas de la Creuse (XIXe siècle-1945) / Immigration and representations of aliens in the Limousin region (1815-1945) : the case of the Creuse areaDenis, Marion 17 December 2013 (has links)
Cette thèse a pour objectif de retracer l'histoire de l'immigration entre 1815 et 1945 dans le département de la Creuse. Il s'est agi de quantifier la présence d'étrangers et son évolution, mais surtout de cerner l'accueil qui lui est fait et les perceptions qu'elle suscite, dans un espace a priori peu concerné par l'immigration, car très rural, sous-industrialisé et marqué au XIXe siècle par l'émigration. La présence étrangère reste effectivement très diffuse avant 1914 : ce sont essentiellement des réfugiés politiques qui sont accueillis et la question de l'immigration n'est pas tout un enjeu politique dans un département où s'ancre une forte tradition de gauche. Avec la Première Guerre mondiale, l'agrarisme, et en particulier la hantise du manque de bras pour l'agriculture, commencent à teinter favorablement les perceptions des étrangers. Ceux-ci deviennent visibles car ils sont plus nombreux dans les années 1920 et, plus encore, dans la décennie suivante. On ne trouve dans la Creuse qu'un écho très assourdi des crispations et de la xénophobie caractéristiques des années 1930. Après 1939, celle-ci accueille des vagues successives de personnes étrangères au département, dont de nombreux Juifs qui gagnent la zone libre. Étrangers et Juif y subissent la politique de surveillance, de mise au travail et de répression du régime de Vichy (GTE, persécutions antisémites). A l'unisson de la crise d'identité nationale, les représentations de ces catégories se troublent dans un premier temps avant que l'opinion publique creusoise ne sorte progressivement de sa myopie, surtout après 1943, lorsque le STO contribue à un net détachement vis-à-vis du régime du maréchal Pétain. / This thesis aims at tracing back the history of immigration from 1815 to 1945, focusing more particularly on the Creuse area. The work does not only consist in quantifying the presence of immigrants and its evolution but it also deals with the way they were received and how local people welcomed this presence in this region which was, in theory, not affected by immigration but rather by emigration (in the nineteenth century) for it was rural, under-industrialized and poorly urbanized. Thus, foreigners there remained very scattered until 1914. Most of them were asylum seekers. At that time, immigration was not a political issue in this region characterized by a strong left-wing tradition. During WWl, both agrarianism and the fear labour force in agriculture could be lacking, led local people to get a more positive view on immigrants. In the meantime they got more visible as they became more numerous in the 1920s, and even more so in the following decade. The common trend of tensions and xenophobia of the 1930s was neve1theless not so obvious in the Creuse region. After 1939, successive waves of immigrants (among which many French Jews and foreigners) willing to reach the Free Zone settled the Creuse region. These populations were the victims of the surveillance, forced labour and repression policies of the Vichy regime (work camps, anti-Semitic persecution). Those categories of people were then represented and considered negatively in a moment of national identity crisis. After 1943 though, forced labour (STO) was extended to natives, which contributed to slow but true defiance towards the regime and Maréchal Pétain.
|
7 |
Bases creuses en algèbre linéaire exacte et simplification algorithmique de modèles biologiques / Sparse basis in exact linear algebra and algorithmic simplification of biological modelsTemperville, Alexandre 11 July 2016 (has links)
Les nouveaux algorithmes présentés dans cette thèse contribuent à la thématique générale de la simplification des modèles biologiques : le calcul de bases creuses de lois de conservation, la simplification des systèmes d'équations différentielles paramétriques, fréquents en modélisation, et le reverse engineering des modèles. Les algorithmes de cette thèse sont basés sur de l'algèbre linéaire exacte. Le chapitre 2 présente un algorithme glouton exact et garanti permettant de calculer une base la plus creuse parmi toutes les bases d'un espace vectoriel. On l'applique au calcul de lois de conservation de modèles biologiques. Dans le chapitre 3, une variante de cet algorithme utilise la résolution de plusieurs programmes linéaires (avec l'algorithme du simplexe) en variables réelles. Cette variante permet de calculer des bases creuses sans garantir qu'elles soient complètes ou les plus creuses. Le chapitre 4 présente un algorithme permettant de calculer une base la plus creuse modulo un espace vectoriel. Il permet de simplifier des fractions rationnelles en effectuant des changements de variables. Enfin, le chapitre 5 présente un algorithme qui, dans le cas où l'ensemble des lois de conservation d'un modèle biologique n'admet pas de base complète de lois à coefficients positifs, suggère des modèles enrichis d'une ou plusieurs espèces. / The new algorithms introduced in this thesis contribute to the general theme of simplification of biological model : the computation of sparse bases of conservation laws, the simplification of parametric systems of differential equations, frequent in modelling, and the reverse engineering of models. The algorithms of this thesis are based on exact linear algebra. The chapter 2 introduces a greedy, exact and guaranteed algorithm which allows to compute a sparsest basis among all the bases of a vector space. We apply it to the computation of conservation laws of biological models. In the chapter 3, a variant of this algorithm uses the resolution of several linear programs (with the simplex algorithm) in real variables. This variant allows to compute sparse bases without guarantee they are complete or sparsest. The chapter 4 introduces an algorithm which allows to compute a sparsest basis modulo a vector space. It was developed with the aim to simplify rational fractions using changes of variables. The chapter 5 introduces an algorithm which suggests models enriched of one or several species, in the case where the set of conservation laws does not admit a complete basis of laws with nonnegative coefficients.
|
8 |
Entreprises et patronat de l'industrie de la confection, de Paris à Argenton-sur-Creuse (Indre) aux XIXe et XXe sièclesLandais-Courant, Frédérique. Brelot, Claude-Isabelle January 2001 (has links)
Thèse de doctorat : Histoire : Lyon 2 : 2001. / Titre provenant de l'écran-titre. Bibliogr.
|
9 |
Modélisation d'une cathode creuse pour propulseur à plasma / Modelling of a hollow cathode for plasma thrustersSary, Gaétan 28 September 2016 (has links)
La cathode creuse est un élément clef des propulseurs à plasma. Dans un propulseur à plasma, un gaz propulsif est ionisé dans un canal de décharge puis accéléré hors de celui-ci afin de créer la poussée. Dans le propulseur de Hall en particulier, l'ionisation du gaz est provoquée par l'injection dans le canal de décharge d'un intense courant électronique (de quelques ampères à plus d'une centaine d'ampères). L'élément chargé de fournir le courant électronique de la décharge, la cathode creuse, est crucial dans le fonctionnement du propulseur. Or, celle-ci est souvent idéalisée dans les modèles de propulseur et n'est que rarement étudiée pour sa physique propre. Pourtant, le développement de propulseurs de Hall de haute puissance, destinés à terme à équiper l'ensemble des missions spatiales, requiert la mise au point de cathodes capable de délivrer un fort courant (jusqu'à plus de 100 A) sur des durées de l'ordre de la dizaine de milliers d'heures. Or, la mise au point de nouvelles cathodes s'est révélée difficile en raison de l'absence de modèle susceptible de prédire a priori les performances d'une cathode en fonction de sa conception. On se propose ici de mettre en place un modèle prédictif de cathode creuse capable de retranscrire la physique du fonctionnement de la cathode. L'objectif in fine est bien sûr d'utiliser ce modèle afin de faire le lien entre la conception de la cathode et son fonctionnement dans le but de guider le développement de futures cathodes. On présentera tout d'abord brièvement le contexte d'application des cathodes creuses, et on donnera un rapide aperçu du principe de fonctionnement global de la cathode. Ensuite, après avoir effectué un tour d'horizon des différents modèles numériques de cathode creuse préexistants dans la littérature, on détaillera le modèle de la cathode développé ici, qui incorpore une description fluide du plasma, ainsi que des transferts thermiques aux parois, qui conditionnent en grande partie le bon fonctionnement de la cathode. Un soin particulier sera apporté à la validation des résultats de simulation vis-à-vis des mesures expérimentales disponibles dans la littérature, ce qui nous permettra de perfectionner certains points du modèle afin de mieux traduire la réalité physique. En particulier, une modélisation spécifique de la région de transition entre la décharge interne de la cathode et la plume du propulseur sera réalisée. Ce modèle permettra de mettre en évidence certains phénomènes d'instabilité du plasma spécifiques de cette décharge, qui ont été jusqu'ici observés expérimentalement mais jamais pleinement intégrés aux modèles de cathode creuse. A l'aide du modèle validé, on procèdera à l'analyse physique de l'ensemble des phénomènes qui gouvernent le fonctionnement d'une cathode particulière, la cathode NSTAR développée par la NASA au Jet Propulsion Laboratory. Ensuite, on s'appuiera sur le modèle numérique pour comprendre l'impact sur le fonctionnement de la cathode des choix de conception au travers d'une étude paramétrique autour de la cathode NSTAR. Les tendances dégagées nous permettront de formuler des recommandations quant au développement de cathodes de haute puissance. Enfin, dans le but d'illustrer la versatilité du modèle développé, le comportement d'une cathode creuse employant une géométrie alternative à la cathode NSTAR sera également présenté. / A hollow cathode is a critical component of plasma thrusters. In a plasma thruster, a propellant gas is ionized in a discharge chamber and accelerated out of it so as to generate thrust. In Hall thrusters in particular, the ionization of the gas is caused by an intense electron current (from a few to hundred amps) which flows through the discharge chamber. The hollow cathode is the device which is responsible for providing the discharge current. This key element is often idealized in thruster numerical models and its physical behavior is rarely studied for its own sake. Yet, developing high power Hall thrusters, designed to propel in the long run every type of space mission, requires new hollow cathodes able to supply an intense electron current (over 100 A) over a duration on the order of ten thousand hours. So far, designing new cathodes proved difficult because of the lack of model capable of predicting the performance of a cathode based on its design. In this work, we build up a predictive model of a hollow cathode capable of simulating the physics relevant to the operation of the cathode. In the end, we aim at using this model to associate design characteristics of the cathode to key aspects of the cathode performance during operation. Our goal with this model is to guide the development of future high power hollow cathodes. We will first briefly describe the range of application of hollow cathodes related to space propulsion. Then we will give a brief account of the working principles of the cathode and we will set the numerical models available in the literature prior to this one out. The numerical model developed in this work will then be described. It includes a fluid treatment of the plasma as well as an account of the heat fluxes to the walls which largely control the performance of the cathode. Simulation results will be thoroughly compared to experimental measurements available in the literature and specific aspects of the model will be refined to match up simulation results with the physical reality. For instance, a model that specifically represents the transition region between the internal plasma of the cathode and the plume of the cathode will be described. This model will enable us to highlight plasma instability phenomena which were so far observed experimentally, yet never properly included in hollow cathode models. Using the model just developed, we will analyze the physics of a particular hollow cathode which has been developed by NASA at the Jet Propulsion Laboratory, the NSTAR hollow cathode. Then, thanks to the numerical model, we will be able to carry out a parametric study revolving around the design of the NSTAR cathode. This will allow us to bring out the influence of the design on the cathode performance and we will eventually express recommendations regarding the design of future high power cathodes. To conclude, the versatility of the numerical model built up here will also be displayed through simulations of the behavior of a hollow cathode based on an alternate geometry.
|
10 |
Contributions au partitionnement de graphes parallèle multi-niveauxPellegrini, François 03 December 2009 (has links) (PDF)
Le partitionnement de graphes est une technique employée dans de nombreux domaines scientifiques. Il est utilisé pour résoudre des problèmes d'optimisation, modélisés sous la forme de graphes valués ou non, et pour lesquels la recherche de bonnes solutions équivaut au calcul, éventuellement récursivement, de coupes sommet ou arête les plus petites possible et qui équilibrent les tailles des sous-parties séparées. La plupart des méthodes actuelles de partitionnement de graphes mettent en oeuvre un schéma multi-niveaux, dans lequel le graphe à partitionner est successivement contracté pour former une famille de graphes de plus en plus petits, mais de structure topologique similaire, de sorte qu'une partition initiale calculée sur le plus petit graphe puisse être propagée de proche en proche, par prolongations et raffinements successifs, jusqu'à obtenir un partitionnement du graphe initial. Du fait de l'augmentation croissante de la taille des problèmes à résoudre, ceux-ci ne peuvent plus être traités de façon séquentielle sur un unique ordinateur. Il est donc nécessaire de concevoir des algorithmes parallèles de partitionnement de graphes, aptes à traiter des graphes à plusieurs milliards de sommets distribués sur plusieurs milliers de processeurs. Plusieurs auteurs s'étaient déjà attelés à cette tâche, mais la performance des algorithmes proposés, ou la qualité des solutions produites, se dégradent lorsque le nombre de processeurs augmente. Ce mémoire présente les travaux réalisées au sein du projet PT-Scotch sur la conception d'algorithmes efficaces et robustes pour la parallélisation du schéma multi-niveaux. Il se concentre en particulier sur les phases de contraction et de raffinement, qui sont les plus critiques en termes de performance et de qualité des solutions produites. Il propose un algorithme parallèle probabiliste d'appariement, ainsi qu'un ensemble de méthodes permettant de réduire l'espace des solutions au cours la phase de raffinement et facilitant l'usage de méthodes globales, qui passent mieux à l'échelle mais sont en général bien plus coûteuses que les algorithmes d'optimisation locale habituellement mis en oeuvre dans le cas séquentiel.
|
Page generated in 0.0494 seconds