• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 7
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Etude et optimisation de calorimètres en milieu inactif dédiés à la mesure de l"échauffement nucléaire dans le RJH : des phénomèmes physiques à l'étalonnage / Study and optimization of calorimeters under out of pile conditions dedicated to nuclear heating measurements in the JHR : from physical phenomema to calibration

De Vita, Cédric 16 June 2016 (has links)
L’instrumentation et la mesure en ligne pour les Material Testing Reactors sont en pleine expansion en France en particulier avec la construction du Réacteur Jules Horowitz (RJH) qui possédera des capacités expérimentales accrues (conditions extrêmes). Conception/développement/optimisation de moyens expérimentaux sont requis pour une caractérisation fine des conditions expérimentales régnant dans ce MTR. C’est dans ce contexte que s’inscrivent mes travaux de thèse. Plus précisément depuis 2009, le CEA et l'Université d'Aix-Marseille (Laboratoire IM2NP UMR7334, eq. Microcapteurs-Instrumentation) conduisent des programmes de recherche au sein du laboratoire commun LIMMEX afin de proposer de nouveaux capteurs et dispositifs dédiés à la détermination spatiale et temporelle des flux neutrons/photons et de l’échauffement nucléaire dans les matériaux inertes par interactions rayonnements nucléaires/matière dans les canaux du RJH. Les travaux de ma thèse ont porté sur la calorimétrie, méthode permettant la quantification de l’échauffement nucléaire. L’objectif était d’étudier et d’optimiser la méthode et les capteurs hors flux nucléaires et d'améliorer les étapes conduisant à la quantification de l’échauffement nucléaire. Ces travaux expérimentaux et numériques ont comporté trois volets principaux. Le 1er a porté sur des études sur la réponse et le comportement de calorimètres différentiels classiques. Le 2ème volet a été dédié à des études sur la méthode d’étalonnage des calorimètres prototypes. Le 3ème volet a consisté à l’interprétation de mesures d’échauffement nucléaire et à la simulation de nouveaux capteurs pouvant mesurer un échauffement nucléaire de 20W.g-1 dans le RJH. / The instrumentation and on-line measurement for Material Testing Reactors are booming in France in particular with the construction of the Jules Horowitz Reactor (RJH), which possess increased experimental capacity (extreme conditions). Design / development / optimization of experimental resources are required for a detailed characterization of experimental conditions in the MTR. It is in this context that fit my thesis work. Specifically since 2009, the CEA and the University of Aix-Marseille (IM2NP Laboratory UMR7334, eq. Microcapteurs-Instrumentation) lead research programs in the LIMMEX joint laboratory to provide new sensors and devices dedicated to determining spatial and temporal neutron / photon fluxes and nuclear heating in the inert materials by nuclear radiation / matter interactions in the channels of RJH. The work of my thesis focused on calorimetry method for the quantification of nuclear heating. The objective was to study and optimize the method and sensors excluding nuclear flow and improve the steps leading to the quantification of nuclear heating. These experimental and numerical works involved three main components. The first focused on studies of the response and behavior of conventional differential calorimeters. The second part was devoted to studies on the calibration method calorimeters prototypes. The third component was the interpretation of nuclear heating measures and simulation of new sensors that can measure a nuclear heating of 20W.g-1 in the JHR.
2

Simulation informatique d'expérience aléatoire et acquisition de notions de probabilité au lycée

Françoise, Gaydier 17 November 2011 (has links) (PDF)
Les programmes affirment que simuler une expérience aléatoire, c'est simuler sa loi de probabilité : nous montrons que ce n'est pas une nécessité. Nous avons entrepris une analyse a priori de la tâche de simulation d'une expérience aléatoire lorsqu'on ne la fait pas dériver de sa loi de probabilité ; cela nous a amenée à préciser les liens qu'entretiennent une expérience aléatoire, ses modélisations probabilistes et ses simulations. Nous proposons un modèle de ces liens, où intervient une étape de pré-modèlisation, commune aux deux tâches de simulation et de modélisation probabiliste, étape pendant laquelle sont choisies les hypothèses de modélisation. La simulation peut alors se construire à partir d'un cahier des charges qui décrit les différentes actions constituant l'expérience aléatoire et leur enchaînement, pour une imitation au plus près cette expérience. La simulation informatique apparaît alors comme une activité essentiellement de type algorithmique. Nous avons mené une expérimentation auprès de lycéens pour observer quelles techniques ils mettent en œuvre pour simuler une expérience aléatoire, et dans quelle mesure ils utilisent le modèle probabiliste ou des simulations pour résoudre un problème de prise de décision dans une situation où intervient le hasard. Une fois choisies les hypothèses de modélisation, l'imitation au plus près n'utilise pas la théorie des probabilités. Certains problèmes résolus par une exploitation statistique des simulations peuvent donc permettre d'introduire des notions de la théorie des probabilités telles que : risque, intervalle et niveau de confiance, adéquation d'un modèle probabiliste aux données expérimentales.
3

Méthodologie d'identification et d'évitement des cycles de gel du processeur pour l'optimisation de la performance du logiciel sur le matériel / Avoidance and identification methodology of processor stall cycles for software-on-hardware performance optimization

Njoyah ntafam, Perrin 20 April 2018 (has links)
L’un des objectifs de la microélectronique est de concevoir et fabriquer des SoCs de petites tailles, à moindre coût et visant des marchés tel que l’internet des objets. À matériel fixe sur lequel l’on ne dispose d’aucune marge de manœuvre, l’un des challenges pour un développeur de logiciels embarqués est d’écrire son programme de manière à ce qu’à l’exécution, le logiciel développé puisse utiliser au mieux les capacités de ces SoCs. Cependant, ces programmes n’utilisent pas toujours correctement les capacités de traitement disponibles sur le SoC. L’estimation et l’optimisation de la performance du logiciel devient donc une activité cruciale. A l’exécution, ces programmes sont très souvent victimes de l’apparition de cycles de gel de processeur dus à l’absence de données en mémoire cache. Il existe plusieurs approches permettant d’éviter ces cycles de gel de processeur. Par l’exemple l’utilisation des options de compilation adéquates pour la génération du meilleur code exécutable possible. Cependant les compilateurs n’ont qu’une idée abstraite (sous forme de formules analytiques) de l’architecture du matériel sur lequel le logiciel s’exécutera. Une alternative est l’utilisation des processeurs « Out–Of–Order ». Mais ces processeurs sont très couteux en terme de coût de fabrication car nécessites une surface de silicium importante pour l’implantation de ces mécanismes. Dans cette thèse, nous proposons une méthode itérative basée sur les plateformes virtuelles précises au niveau du cycle qui permet d’identifier les instructions du programme à optimiser responsables à l’exécution, de l’apparition des cycles de gel de processeur dus à l’absence de données dans le cache L1. L’objectif est de fournir au développeur des indices sur les emplacements du code source de son programme en langage de haut niveau (C/C++ typiquement) qui sont responsables de ces gels. Pour chacune de ces instructions, nous fournissons leur contribution au rallongement du temps d’exécution totale du programme. Finalement nous estimons le gain potentiel maximal qu’il est possible d’obtenir si tous les cycles de gel identifiés sont évités en insérant manuellement dans le code source du programme à optimiser, des instructions de pré–chargement de données dirigé par le logiciel. / One of microelectronics purposes is to design and manufacture small-sized, low-cost SoCs targeting markets such as the Internet of Things. With fixed hardware on which there is no possible flexibility, one of the challenges for an embedded software developer is to write his program so that, at runtime, the software developed can make the best use of these SoC capabilities. However, these programs do not always properly use the available SoC processing capabilities. Software performance estimation and optimization is then a crucial activity. At runtime, these programs are very often victims of processor data stall cycles. There are several approaches to avoiding these processor data stall cycles. For example, using the appropriate compilation options to generate the best executable code. However, the compilers have only an abstract knowledge (as analytical formulas) of the hardware architecture on which the software will be executed. Another way of solving this issue is to use Out-Of- Order processors. But these processors are very expensive in terms of manufacturing cost because they require a large silicon surface for the implementation of the Out-Of-Order mechanism. In this thesis, we propose an iterative methodology based on cycle accurate virtual platforms, which helps identifying precisely instructions of the program which are responsible of the generation of processor data stall cycles. The goal is to provide the developer with clues on the source code lignes of his program’s in high level language (C/C++ typically) which are responsible of these stalls. For each instructions, we provide their contribution to lengthening of the total program execution time. Finally, we estimate the maximum potential gain that can be achieved if all identified stall cycles are avoided by manually inserting software preloading instructions into the source code of the program to optimize.
4

Caractérisation et simulation des processus de transferts lors d'injection de résine pour le procédé RTM

Lecointe, Damien 05 July 1999 (has links) (PDF)
Le procédé Resin Transfer Molding est une technologie de fabrication de pièces en matériaux composites. Une compréhension et une modélisation des phénomènes physiques qui interviennent dans certaines étapes de la fabrication apportent une contribution importante à la maîtrise de ce procédé. Les travaux abordés dans cette étude se situent dans le cadre d'un programme plus général visant le contrôle et le pilotage du RTM. Tout d'abord, une caractérisation de la perméabilité des renforts dans la direction perpendiculaire aux plis va compléter les résultats obtenus dans des études préalables sur les perméabilités planes. Ensuite, nous étudierons de près les transferts thermiques durant l'injection et la cuisson. Pour cela, plusieurs étapes sont nécessaires: caractérisation des propriétés thermiques (avec notamment le développement d'un montage destiné à mesurer les conductivités thermiques dans le plan des fibres), étude théorique et étude expérimentale à l'aide d'un moule instrumenté. Des simulations numériques permettront alors de valider les modèles développés. Ces travaux devront ensuite servir de base à l'amélioration du logiciel de simulation LCMFLOT. Enfin, une première étape vers l'optimisation du remplissage a été réalisée afin de pouvoir piloter les machines d'injection en imposant une vitesse d'imprégnation constante pendant le remplissage. Cette optimisation est basée sur l'exploitation des résultats de simulation.
5

Représentation spatiale des risques de propagation des pollutions par hydrocarbures en milieu souterrain : application en milieu alluvial

Anker, Wolfram 14 November 1997 (has links) (PDF)
Ce travail de thèse est destiné à l'élaboration d'une méthodologie d'analyse des risques issus des pollutions accidentelles par hydrocarbures. Cette méthodologie s'appuie sur l'intégration d'outils de modélisation des phénomènes complexes de pollution des eaux souterraines par les LN APL ("Light Non Aqueous Phase Liquids"). En zone non saturée, il s'agit de représenter un écoulement polyphasique puisque les phases air, eau et huile coexistent. La modélisation de la propagation d'une pollution polyphasique se heurte aux limites dues aux nombreuses incertitudes introduites par les phénomènes de non-linéarité. Néanmoins, les échelles spatiales et temporelles sont plus petites qu'en zone saturée. De ce fait, 1' erreur introduite pour 1' estimation des risques est moins importante. En zone saturée, la propagation de la pollution se fait sous forme dissoute. Nous effectuons la simulation par approche hydrodispersive. Dans cette zone, la direction de propagation est essentiellement horizontale. Il est donc nécessaire de disposer d'un outil d'analyse spatiale pour estimer les risques de propagation. Pour obtenir une erreur homogène sur tout le trajet de propagation d'une pollution ponctuelle, il faut prendre en compte l'influence de l'échelle à laquelle les coefficients de dispersivité sont déterminés. A l'aide d'un système d'information géographique, les paramètres d'un site d'application test sont introduits dans les modèles hydrodynamiques. L'interprétation des résultats s'effectue par analyse spatiale pour représenter l'évolution spatio-temporelle de la propagation de la pollution.
6

Modeling and design of a physical vapor deposition process assisted by thermal plasma (PS-PVD) / Modélisation et dimensionnement d'un procédé de dépôt physique en phase vapeur assisté par plasma thermique

Ivchenko, Dmitrii 20 December 2018 (has links)
Le procédé de dépôt physique en phase vapeur assisté par plasma thermique (PS-PVD) consiste à évaporer le matériau sous forme de poudre à l’aide d’un jet de plasma d’arc soufflé pour produire des dépôts de structures variées obtenus par condensation de la vapeur et/ou dépôt des nano-agrégats. Dans le procédé de PS-PVD classique, l’intégralité du traitement du matériau est réalisée dans une enceinte sous faible pression, ce qui limite les phénomènes d’évaporation ou nécessite d’utiliser des torches de puissance importante. Dans ce travail, une extension du procédé de PS-PVD conventionnel à un procédé à deux enceintes est proposée puis explorée par voie de modélisation et de simulation numérique : la poudre est évaporée dans une enceinte haute pression (105 Pa) reliée par une tuyère de détente à une enceinte de dépôt basse pression (100 ou 1 000 Pa), permettant une évaporation énergétiquement plus efficace de poudre de Zircone Yttriée de granulométrie élevée, tout en utilisant des torches de puissance raisonnable. L’érosion et le colmatage de la tuyère de détente peuvent limiter la faisabilité d’un tel système. Aussi, par la mise en oeuvre de modèles numériques de mécaniquedes fluides et basé sur la théorie cinétique de la nucléation et de la croissance d’agrégats, on montre que, par l’ajustement des dimensions du système et des paramètres opératoires ces deux problèmes peuvent être contournés ou minimisés. En particulier, l’angle de divergence de la tuyère de détente est optimisé pour diminuer le risque de colmatage et obtenir le jet et le dépôt les plus uniformes possibles à l'aide des modèles susmentionnés, associés à un modèle DSMC (Monte-Carlo) du flux de gaz plasmagène raréfié. Pour une pression de 100 Pa, les résultats montrent que la barrière thermique serait formée par condensation de vapeur alors que pour 1 000 Pa, elle serait majoritairement formée par dépôt de nano-agrégats. / Plasma Spray Physical Vapor Deposition (PS-PVD) aims to substantially evaporate material in powder form by means of a DC plasma jet to produce coatings with various microstructures built by vapor condensation and/or by deposition of nanoclusters. In the conventional PS-PVD process, all the material treatment takes place in a medium vacuum atmosphere, limiting the evaporation process or requiring very high-power torches. In the present work, an extension of conventional PS-PVD process as a two-chamber process is proposed and investigated by means of numerical modeling: the powder is vaporized in a high pressure chamber (105 Pa) connected to the low pressure (100 or 1,000 Pa) deposition chamber by an expansion nozzle, allowing more energetically efficient evaporation of coarse YSZ powders using relatively low power plasma torches. Expansion nozzle erosion and clogging can obstruct the feasibility of such a system. In the present work, through the use of computational fluid dynamics, kinetic nucleation theory and cluster growth equations it is shown through careful adjustment of system dimensions and operating parameters both problems can be avoided or minimized. Divergence angle of the expansion nozzle is optimized to decrease the clogging risk and to reach the most uniform coating and spray characteristics using the aforementioned approaches linked with a DSMC model of the rarefied plasma gas flow. Results show that for 100 Pa, the thermal barrier coating would be mainly built from vapor deposition unlike 1,000 Pa for which it is mainly built by cluster deposition.
7

Modèles intégrés pour l'évaluation des actions territoriales de réduction des émissions de gaz à effet de serre. Application aux réseaux de chaleur : Application aux réseaux de chaleur : HeatGrid, un modèle de simulation énergétique pour un management stratégique / Integrated models for evaluation of local actions for the reduction of greenhouse gases emissions : HeatGrid, an energy simulation model for a strategic management of district heating networks

Marguerite, Charlotte 24 March 2014 (has links)
Du fait de la flexibilité énergétique qu'ils offrent et de leur potentiel de diminution des émissions de GES et de polluants, les réseaux de chaleur (RdC) sont un des leviers d'actions des politiques énergétiques locales en constante progression. Leur déploiement et/ou rénovation n'est pas qu'une question technico-économique classique, dans la mesure où ils sont au cœur d'un ensemble d'acteurs interconnectés, aux objectifs spécifiques, tous parties prenantes des politiques énergétiques locales. Dans ce contexte, les outils permettant à ces différents acteurs l'évaluation des actions liées aux RdC sont très importants. Ils doivent permettre l'évaluation de scénarios de conception, d'actions de rénovation, de performance et de suivi... Parmi les outils permettant ces évaluations, les approches par modélisation sont souvent trop spécifiques à une situation, un type de réseau un acteur... Le travail réalisé consiste à développer un outils de modélisation de RdC, offrant la flexibilité recherchée. "HeatGrid" permet de modéliser des architectures de réseaux variées. A chaque pas de temps, le fonctionnement du réseau est simulé grâce au formalisme de la programmation linéaire. Cet outil peut être utilisé en phase de conception ou d'exploitation d'un réseau. L'approche de modélisation permet d'évaluer et de comparer sous les aspects économiques, énergétiques et techniques d'un RdC sous différents scénarios. Plusieurs exemples sont simulés et analysés dans le but d'illustrer le potentiel du modèle. / Because of the energy flexibility that they offer and their potential to reduce GHG emissions, disctrict heating (DH) networks are a tool of local energy policies in constant progression. Their develpment and/or renovation is not only a classic technico-economical question, insofar as interconnected stakeholders of local energy policies, taking into account specific objectives, are concerned by DH networks. In this context, tools which enable these different stakeholders to evaluate actions related to DH networks are essential. They must be helpful for the assessment of renovation actions, the monitoring and the evaluation of performances....Among the tools that allow theses evaluations, the modelling approaches are often too specific to a situation, a type of network, a stakeholder... The work of the thesis consists in developing a DH modeling tool that has this desired flexibility. The proposed tool "HeatGrid" can model various network architectures. At each time step, the network running is simulated via linear programming formalism. This tool can be applied either at the design stage of a DH or at the operating stage. The model based approach enables the evaluation and comparison of economic, energy and technical aspects of the DH system in different scenarios. Several examples are simulated and analyzed in order to illustrate the potential of the model.

Page generated in 0.1603 seconds