• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 7
  • 1
  • Tagged with
  • 28
  • 12
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Diagnostic et commande tolérante aux défauts appliqués à un système de conversion électromécanique à base d’une machine asynchrone triphasée / Diagnostic and fault tolerant control applied to an electromechanical conversion system based on three phase induction motor

Maamouri, Rebah 19 December 2017 (has links)
L’objectif de cette thèse est de proposer des stratégies de diagnostic dans le cas d'une commande en vitesse sans capteur mécanique (vitesse/position) d’une machine asynchrone triphasée en présence de défaut d'ouverture des transistors IGBT (Insulated Gate Bipolar Transistor) de l’onduleur. Une étude de l’impact de ces défauts sur les performances de ces structures sans capteur mécanique en termes de stabilité et de robustesse des observateurs en mode dégradé est présentée. Un observateur par mode glissant (Sliding Mode Observer) à base de modèle est développé et validé expérimentalement en vue de la commande sans capteur mécanique de la machine asynchrone triphasée. Les signaux issus de l’observateur (approche modèle) sont utilisés conjointement avec ceux mesurés (approche signale) pour former une approche hybride de diagnostic de défauts des transistors IGBT de l’onduleur. Un observateur par mode glissant d’ordre 2 à base d’un algorithme Super-Twisting est ensuite développé en vue d’améliorer la stabilité et d’assurer la continuité de fonctionnement du système en présence d'un défaut afin de pouvoir appliquer une stratégie de commande tolérante aux défauts dans les meilleures délais et conditions de fonctionnement. / The main goal of this thesis is to propose diagnostic strategies in the case of a sensorless speed control of a three-phase induction motor under an opened-switch or opened-phase fault. A qualitative analysis of the performances, in terms of stability and robustness, of sensorless control applied to the electrical drive in pre-fault and post-fault operation modes is presented. A model-based sliding mode observer is developed and experimentally validated for sensorless speed control of three-phase induction motor. The signals issued from the observer (model approach) as well as the measured ones (signal approach) are simultaneously used to form a hybrid approach for inverter open-switch fault detection and identification. A second-order sliding mode observer based on Super-Twisting algorithm (STA) is also developed to improve the stability and to ensure the continuity of operation of the electrical drive especially during transient states induced by the fault, permitting thus to apply the reconfiguration step without losing the control
22

DIAGNOSTIC LOGIQUE DES SYSTEMES COMPLEXES ET DYNAMIQUES DANS UN CONTEXTE MULTI-AGENT

TOUAF, SAMIR 02 March 2005 (has links) (PDF)
Cette thèse propose une méthodologie pour la conception de systèmes de diagnostic fiables permettant d'appréhender les systèmes dynamiques complexes et spatialement distribués. Les résultats proposés s'appuient d'une part sur des techniques d'analyse diagnostic formelle ou à base de consistance, qui permettent de garantir la justesse de l'analyse diagnostic, et d'autre part, sur le paradigme multi-agents. Les algorithmes proposés permettent de déduire tous les défauts possibles pour un comportement observé en les classant suivant différents critères de vraisemblance. Notre contribution a consisté à proposer une méthode de diagnostic qui tire partie des deux approches DX (communauté d'Intelligence Artificielle) et FDI (communauté Automatique) en distinguant la phase de détection, qui peut se faire à base de techniques variées et parfois très sophistiquées (observateur d'état, relation de parité, traitement de signal,...), de la phase de localisation ou d'analyse diagnostic, qui doit permettre de garantir ce qui peut l'être et d'analyser toutes les informations disponibles pour en déduire le diagnostic le plus juste et complet possible. De plus, nous avons montré qu'il était possible d'appréhender des incertitudes de décision en transposant la logique de l'analyse diagnostic en logique floue. Le travail présenté dans ce mémoire a été développé dans le cadre du projet européen MAGIC (Multi-Agents-Based Diagnostic Data Acquisition and Management in Complex systems). Les résultats sont en cours de transfert vers différentes industries grâce aux partenaires industriels du projet : les entreprises SATE (System Advanced Technologies Engineering) et SMS-DEMAG.
23

Logique de séparation et vérification déductive / Separation logic and deductive verification

Bobot, François 12 December 2011 (has links)
Cette thèse s'inscrit dans la démarche de preuve de programmes à l'aide de vérification déductive. La vérification déductive consiste à produire, à partir des sources d'un programme, c'est-à-dire ce qu'il fait, et de sa spécification, c'est-à-dire ce qu'il est sensé faire, une conjecture qui si elle est vraie alors le programme et sa spécification concordent. On utilise principalement des démonstrateurs automatiques pour montrer la validité de ces formules. Quand ons'intéresse à la preuve de programmes qui utilisent des structures de données allouées en mémoire, il est élégant et efficace de spécifier son programme en utilisant la logique de séparation qui est apparu il y a une dizaine d'année. Cela implique de prouver des conjectures comportant les connectives de la logique de séparation, or les démonstrateurs automatiques ont surtout fait des progrès dans la logique du premier ordre qui ne les contient pas.Ce travail de thèse propose des techniques pour que les idées de la logique de séparation puissent apparaître dans les spécifications tout en conservant la possibilité d'utiliser des démonstrateurs pour la logique du premier ordre. Cependant les conjectures que l'ont produit ne sont pas dans la même logique du premier ordre que celles des démonstrateurs. Pour permettre une plus grande automatisation, ce travail de thèse a également défini de nouvelles conversions entre la logique polymorphe du premier ordre et la logique multi-sortée dupremier ordre utilisé par la plupart des démonstrateurs.La première partie a donné lieu à une implémentation dans l'outil Jessie, la seconde a donné lieu à une participation conséquente à l'écriture de l'outil Why3 et particulièrement dans l'architecture et écriture des transformations qui implémentent ces simplifications et conversions. / This thesis comes within the domain of proofs of programs by deductive verification. The deductive verification generates from a program source and its specification a mathematical formula whose validity proves that the program follows its specification. The program source describes what the program does and its specification represents what the program should do. The validity of the formula is mainly verified by automatic provers. During the last ten years separation logic has shown to be an elegant way to deal with programs which use data-structures with pointers. However it requires a specific logical language, provers, and specific reasoning techniques.This thesis introduces a technique to express ideas from separation logic in the traditional framework of deductive verification. Unfortunately the mathematical formulas produced are not in the same first-order logic than the ones of provers. Thus this work defines new conversions between the polymorphic first-order logic and the many-sorted logic used by most proves.The first part of this thesis leads to an implementation in the Jessietool. The second part results in an important participation to the writing of the Why3 tool, in particular in the architecture and writing of the transformations which implement these conversions.
24

Analyse de l'évolution de l'Administration canadienne de la sûreté du transport aérien

Chaparro, Natalia 08 1900 (has links)
La présente étude a analysé l’évolution de l’Administration Canadienne de la Sureté du Transport Aérien (ACSTA) depuis sa mise en place jusqu’aujourd’hui, ainsi que les acteurs individuels ou institutionnels impliqués dans ce processus. L’ACSTA gravite dans un champ organisationnel ‐ensemble d’organisations qui constituent un domaine reconnu de la vie institutionnelle (DiMaggio et Powell, 1983)-­ au sein duquel agissent différents acteurs qui ont influencé non seulement sa création, mais qui ont continué à jouer un rôle important tout au long de son évolution. Nous avons défini le champ de la sûreté aérienne et au sein de celui‐ci, nous avons analysé les mécanismes institutionnels, tout en identifiant et définissant le rôle des différents acteurs en présence. Il ressort de nos analyses que principalement deux types de contraintes institutionnelles (DiMaggio et Powell, 1983) ont influencé la création et le développement de l’ACSTA. Premièrement, mis à part les contraintes coercitives émanant de la règlementation internationale de l’Organisation de l’Aviation Civile Internationale, il apparait que d’autres contraintes du même type proviennent du gouvernement américain, par le biais de pressions visant à la mise en place de mesures sécuritaires, tant au moment de la création que tout le long de l’évolution de l’organisation. Il est à noter, cependant, le rôle du terrorisme et des tentatives d’attentat comme provocant de telles contraintes. Deuxièmement, nous avons identifié des contraintes du type normatif, c’est-à‐dire celles qui proviennent des valeurs, des normes et du bagage professionnel lié à la sécurité et à la sureté aérienne. Il apparait que les contraintes normatives agissent constamment alors que les contraintes coercitives surgissent ponctuellement tout au long de la période analysée. / This study analyzed the evolution of the Canadian Air Transport Security Administration (CATSA) since its creation up to today, as well as the individual and / or institutional actors implied in this process. CATSA gravitates in an organizational field ‐the group of organizations that constitute a recognized area of institutional life (DiMaggio and Powell, 1983)- in which different actors, who not only influenced its creation, continued to play an important role all along its evolution. We have defined the air transport security field and within, we have analyzed the institutional mechanisms while identifying and defining the role of the different actors. Our analysis suggests that mainly two types of institutional isomorphisms (DiMaggio and Powell, 1983) have influenced the creation and the evolution of CATSA. Besides the coercive constraints coming from the International Civil Aviation Organization’s international regulation, it appears that other similar pressures emanate from the government of the United States by the means of coercive isomorphism, aiming the establishment of security measures all along CATSA’s evolution. It should be noted, however, the role of terrorists and their attempts to attack, as the catalyst actors and events of such coercive isomorphism. Second of all, we have also identified normative pressures originating from the values and standards from the professional network, or branch, linked to air transport security. It appears that the normative pressures appear regularly, while the coercive pressures emerge punctually all along the analyzed time period.
25

Analyse de l'évolution de l'Administration canadienne de la sûreté du transport aérien

Chaparro, Natalia 08 1900 (has links)
La présente étude a analysé l’évolution de l’Administration Canadienne de la Sureté du Transport Aérien (ACSTA) depuis sa mise en place jusqu’aujourd’hui, ainsi que les acteurs individuels ou institutionnels impliqués dans ce processus. L’ACSTA gravite dans un champ organisationnel ‐ensemble d’organisations qui constituent un domaine reconnu de la vie institutionnelle (DiMaggio et Powell, 1983)-­ au sein duquel agissent différents acteurs qui ont influencé non seulement sa création, mais qui ont continué à jouer un rôle important tout au long de son évolution. Nous avons défini le champ de la sûreté aérienne et au sein de celui‐ci, nous avons analysé les mécanismes institutionnels, tout en identifiant et définissant le rôle des différents acteurs en présence. Il ressort de nos analyses que principalement deux types de contraintes institutionnelles (DiMaggio et Powell, 1983) ont influencé la création et le développement de l’ACSTA. Premièrement, mis à part les contraintes coercitives émanant de la règlementation internationale de l’Organisation de l’Aviation Civile Internationale, il apparait que d’autres contraintes du même type proviennent du gouvernement américain, par le biais de pressions visant à la mise en place de mesures sécuritaires, tant au moment de la création que tout le long de l’évolution de l’organisation. Il est à noter, cependant, le rôle du terrorisme et des tentatives d’attentat comme provocant de telles contraintes. Deuxièmement, nous avons identifié des contraintes du type normatif, c’est-à‐dire celles qui proviennent des valeurs, des normes et du bagage professionnel lié à la sécurité et à la sureté aérienne. Il apparait que les contraintes normatives agissent constamment alors que les contraintes coercitives surgissent ponctuellement tout au long de la période analysée. / This study analyzed the evolution of the Canadian Air Transport Security Administration (CATSA) since its creation up to today, as well as the individual and / or institutional actors implied in this process. CATSA gravitates in an organizational field ‐the group of organizations that constitute a recognized area of institutional life (DiMaggio and Powell, 1983)- in which different actors, who not only influenced its creation, continued to play an important role all along its evolution. We have defined the air transport security field and within, we have analyzed the institutional mechanisms while identifying and defining the role of the different actors. Our analysis suggests that mainly two types of institutional isomorphisms (DiMaggio and Powell, 1983) have influenced the creation and the evolution of CATSA. Besides the coercive constraints coming from the International Civil Aviation Organization’s international regulation, it appears that other similar pressures emanate from the government of the United States by the means of coercive isomorphism, aiming the establishment of security measures all along CATSA’s evolution. It should be noted, however, the role of terrorists and their attempts to attack, as the catalyst actors and events of such coercive isomorphism. Second of all, we have also identified normative pressures originating from the values and standards from the professional network, or branch, linked to air transport security. It appears that the normative pressures appear regularly, while the coercive pressures emerge punctually all along the analyzed time period.
26

Modélisation des stratégies de remplacement de composant et de systèmes soumis à l'obsolescence technologique

Clavareau, Julien 12 September 2008 (has links)
Ce travail s’inscrit dans le cadre d’étude de la sûreté de fonctionnement.<p>La sûreté de fonctionnement est progressivement devenue partie intégrante de l’évaluation des performances des systèmes industriels. En effet, les pannes d’équipements, les pertes de production consécutives, et la maintenance des installations ont un impact économique majeur dans les entreprises. Il est donc essentiel pour un manager de pouvoir estimer de manière cohérente et réaliste les coûts de fonctionnement de l’entreprise, en tenant notamment compte des caractéristiques fiabilistes des équipements utilisés, ainsi que des coûts induits entre autres par le non-fonctionnement du système et la restauration des performances de ses composants après défaillance.<p><p>Le travail que nous avons réalisé dans le cadre de ce doctorat se concentre sur un aspect particulier de la sûreté de fonctionnement, à savoir les politiques de remplacement d’équipements basées sur la fiabilité des systèmes qu’ils constituent. La recherche menée part de l’observation suivante :si la littérature consacrée aux politiques de remplacement est abondante, elle repose généralement sur l’hypothèse implicite que les nouveaux équipements envisagés présentent les mêmes caractéristiques et performances que celles que possédaient initialement les composants objets du remplacement.<p>La réalité technologique est souvent bien différente de cette approche, quelle que soit la discipline industrielle envisagée. En effet, de nouveaux équipements sont régulièrement disponibles sur le marché ;ils assurent les mêmes fonctions que des composants plus anciens utilisés par une entreprise, mais présentent de meilleures performances, par exemple en termes de taux de défaillance, consommation d’énergie, " intelligence " (aptitude à transmettre des informations sur leur état de détérioration).<p>De plus, il peut devenir de plus en plus difficile de se procurer des composants de l’ancienne génération pour remplacer ceux qui ont été déclassés. Cette situation est généralement appelée obsolescence technologique.<p><p>Le but de ce travail est de prolonger et d’approfondir, dans le cadre de la sûreté de fonctionnement, les réflexions engagées par les différents articles présentés dans la section état de l’art afin de définir et de modéliser des stratégies de remplacements d’équipements soumis à obsolescence technologique. Il s’agira de proposer un modèle, faisant le lien entre les approches plus économiques et celles plus fiabilistes, permettant de définir et d’évaluer l’efficacité, au sens large, des différentes stratégies de remplacement des unités obsolètes. L’efficacité d’une stratégie peut se mesurer par rapport à plusieurs critères parfois contradictoires. Parmi ceux-ci citons, évidemment, le coût total moyen engendré par la stratégie de remplacement, seul critère considéré dans les articles cités au chapitre 2, mais aussi la façon dont ces coûts sont répartis au cours du temps tout au long de la stratégie, la variabilité de ces coûts autour de leur moyenne, le fait de remplir certaines conditions comme par exemple d’avoir remplacé toutes les unités d’une génération par des unités d’une autre génération avant une date donnée ou de respecter certaines contraintes sur les temps de remplacement.<p><p>Pour arriver à évaluer les différentes stratégies, la première étape sera de définir un modèle réaliste des performances des unités considérées, et en particulier de leur loi de probabilité de défaillance. Etant donné le lien direct entre la probabilité de défaillance d’un équipement et la politique de maintenance qui lui est appliquée, notamment la fréquence des maintenances préventives, leur effet, l’effet des réparations après défaillance ou les critères de remplacement de l’équipement, un modèle complet devra considérer la description mathématique des effets des interventions effectuées sur les équipements. On verra que la volonté de décrire correctement les effets des interventions nous a amené à proposer une extension des modèles d’âge effectif habituellement utilisés dans la littérature.<p>Une fois le modèle interne des unités défini, nous développerons le modèle de remplacement des équipements obsolètes proprement dit. <p><p>Nous appuyant sur la notion de stratégie K proposée dans de précédents travaux, nous verrons comment adapter cette stratégie K à un modèle pour lequel les temps d’intervention ne sont pas négligeables et le nombre d’équipes limité. Nous verrons aussi comment tenir compte dans le cadre de cette stratégie K d’une part des contraintes de gestion d’un budget demandant en général de répartir les coûts au cours du temps et d’autre part de la volonté de passer d’une génération d’unités à l’autre en un temps limité, ces deux conditions pouvant être contradictoires.<p>Un autre problème auquel on est confronté quand on parle de l’obsolescence technologique est le modèle d’obsolescence à adopter. La manière dont on va gérer le risque d’obsolescence dépendra fortement de la manière dont on pense que les technologies vont évoluer et en particulier du rythme de cette évolution. Selon que l’on considère que le temps probable d’apparition d’une nouvelle génération est inférieur au temps de vie des composants ou supérieur à son temps de vie les solutions envisagées vont être différentes. Lors de deux applications numériques spécifiques.<p><p>Nous verrons au chapitre 12 comment envisager le problème lorsque l’intervalle de temps entre les différentes générations successives est largement inférieur à la durée de vie des équipements et au chapitre 13 comment traiter le problème lorsque le délai entre deux générations est de l’ordre de grandeur de la durée de vie des équipements considérés.<p><p>Le texte est structuré de la manière suivante :Après une première partie permettant de situer le contexte dans lequel s’inscrit ce travail, la deuxième partie décrit le modèle interne des unités tel que nous l’avons utilisé dans les différentes applications. La troisième partie reprend la description des stratégies de remplacement et des différentes applications traitées. La dernière partie permet de conclure par quelques commentaires sur les résultats obtenus et de discuter des perspectives de recherche dans le domaine.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
27

Analyse probabiliste du risque de stockage de déchets radioactifs par la méthode des arbres d'événements continus

Smidts, Olivier 23 October 1997 (has links)
Les études du risque du stockage de déchets radioactifs comprennent, comme toute étude du risque, un traitement de l'incertitude. L'outil de calcul du risque, appelé outil PRA (Probabilistic Risk Assessment), est formé d'un code de calcul d'écoulement des eaux souterraines et de transport de chaînes de radionucléides. Ce type d'outil est essentiel pour l'évaluation de performance de la barrière géologique. Le manque de connaissances au sujet de la variabilité (dans l'espace et le temps) des propriétés hydrogéologiques de cette barrière est la raison primaire de l'incertitude et des méthodes stochastiques ont été développées en hydrogéologie pour le traiter.<p>Dans cette thèse, l'analyse d'incertitude liée à la composition du milieu géologique est partagée entre l'écoulement et le transport de la manière suivante: a) une solution moyenne de l'écoulement est tout d'abord déterminée à l'aide d'un code basé sur la méthode des différences finies. Cette solution est ensuite soumise à une analyse de sensibilité. Cette analyse débouche sur la résolution d'un problème inverse afin d'améliorer l'estimation initiale des paramètres moyens d'écoulement; b) l'effet de la variation aléatoire de la vitesse d'écoulement est envisagé lors du transport des radionucléides. Le transport est résolu à l'aide d'une méthode Monte Carlo non analogue.<p><p>L'analyse de sensibilité du problème d'écoulement est réalisée à l'aide d'une méthode variationnelle. La méthode proposée a comme avantage celui de pouvoir quantifier l'incertitude de structure; c'est-à-dire l'incertitude liée à la géométrie du milieu géologique.<p>Une méthodologie Monte Carlo non analogue est utilisée pour le transport de chaînes de radionucléides en milieu stochastique. Les apports de cette méthodologie pour le calcul du risque reposent sur trois points:<p>1) L'utilisation d'une solution de transport simple (sous la forme d'une solution adjointe) dans les mécanismes de la simulation Monte Carlo. Cette solution de transport permet de résumer, entre deux positions successives du marcheur aléatoire, les processus chimicophysiques (advection, diffusion-dispersion, adsorption, désorption,) apparaissant à l'échelle microscopique. Elle rend possible des simulations efficaces de transport en accélérant les mécanismes de transition des marcheurs aléatoires dans le domaine géologique et dans le temps.<p>2) L'application de la méthode des arbres d'événements continus au transport de chaînes de radionucléides. Cette méthode permet d'envisager les transitions radioactives entre éléments d'une chaîne selon un même formalisme que celui qui prévaut pour les simulations de transport d'un radionucléide unique. Elle permet donc de passer du transport d'un radionucléide au transport d'une chaîne de radionucléides sans coûts supplémentaires en temps de calcul et avec un coût supplémentaire en mémoire limité.<p>3) L'application de techniques dites de "double randomization" au problème de transport de radionucléides dans un milieu géologique stochastique. Ces techniques permettent de combiner efficacement une simulation Monte Carlo de paramètres avec une simulation Monte Carlo de transport et ainsi d'inclure l'incertitude associée à la composition du milieu géologique explicitement dans le calcul du risque.<p><p>Il ressort de ce travail des perspectives prometteuses de développements ultérieurs de la méthodologie Monte Carlo non analogue pour le calcul du risque.<p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
28

Neutronic study of the mono-recycling of americum in PWR and of the core conversion INMNSR using the MURE code / Étude neutronique du mono-recyclage de l'Américium en REP et la conversion du coeur MNSR à l'aide du code MURE

Sogbadji, Robert 11 July 2012 (has links)
Le code MURE est basé sur le couplage d’un code Monte Carlo statique et le calcul de l’évolution pendant l’irradiation et les différentes périodes du cycle (refroidissement, fabrication). Le code MURE est ici utilisé pour analyser deux différentes questions : le mono-recyclage de l’Am dans les réacteurs français de type REP et la conversion du coeur du MNSR (Miniature Neutron Source Reactor) au Ghana d’un combustible à uranium hautement enrichi (HEU) vers un combustible faiblement enrichi (LEU), dans le cadre de la lutte contre la prolifération. Dans les deux cas, une comparaison détaillée est menée sur les taux d’irradiation et les radiotoxicités induites (combustibles usés, déchets).Le combustible UOX envisagé est enrichi de telle sorte qu’il atteigne un taux d’irradiation de 46 GWj/t et 68 GWj/t. Le combustible UOX usé est retraité, et le retraitement standard consiste à séparer le plutonium afin de fabriquer un combustible MOX sur base d’uranium appauvri. La concentration du Pu dans le MOX est déterminée pour atteindre un taux d’irradiation du MOX de 46 et 68 GWj/t. L’impact du temps de refroidissement de l’UOX usé est étudié (5 à 30 ans), afin de quantifier l’impact de la disparition du 241PU (fissile) par décroissance radioactive (T=14,3 ans). Un refroidissement de 30 ans demande à augmenter la teneur en Pu dans le MOX. L’241Am, avec une durée de vie de 432 ans, jour un rôle important dans le dimensionnement du site de stockage des déchets vitrifiés et dans leur radiotoxicité à long terme. Il est le candidat principal à la transmutation, et nous envisageons donc son recyclage dans le MOX, avec le plutonium. Cette stratégie permet de minimiser la puissance résiduelle et la radiotoxicité des verres, en laissant l’Am disponible dans les MOX usés pour une transmutation éventuelle future dans les réacteurs rapides. Nous avons étudié l’impact neutronique d’un tel recyclage. Le temps de refroidissement de l’UOX est encore plus sensible ici car l’241Am recyclé est un fort poison neutronique qui dégrade les performances du combustible (taux d’irradiation, coefficients de vide et de température). Néanmoins, à l’exception de quelques configurations, le recyclage de l’Am ne dégrade pas les coefficients de sûreté de base. Le réacteur MNSR du Ghana fonctionne aujourd’hui avec de l’uranium enrichi à 90,2% (HEU), et nous étudions ici la possibilité de le faire fonctionner avec de l’uranium enrichi à 12,5%, en passant d’un combustible sur base d’aluminium à un oxyde. Les simulations ont été menées avec le code MURE, et montrent que le coeur LEU peut-être irradié plus longtemps, mais demande d’intervenir plus tôt sur le pilotage en jouant sur la quantité de béryllium en coeur. Les flux de neutrons dans les canaux d’irradiation sont similaires pour les coeurs HEU et LEU, de même pour les coefficients de vide. Le combustible LEU usé présente cependant une radiotoxicité et une chaleur résiduelle plus élevée, du fait de la production plus importante de transuraniens pendant l’irradiation. / The MURE code is based on the coupling of a Monte Carlo static code and the calculation of the evolution of the fuel during irradiation and cooling periods. The MURE code has been used to analyse two different questions, concerning the mono-recycling of Am in present French Pressurized Water Reactor, and the conversion of high enriched uranium (HEU) used in the Miniature Neutron Source Reactor in Ghana into low enriched uranium (LEU) due to proliferation resistance issues. In both cases, a detailed comparison is made on burnup and the induced radiotoxicity of waste or spent fuel. The UOX fuel assembly, as in the open cycle system, was designed to reach a burn-up of 46GWd/T and 68GWd/T. The spent UOX was reprocessed to fabricate MOX assemblies, by the extraction of Plutonium and addition of depleted Uranium to reach burn-ups of 46GWd/T and 68GWd/T, taking into account various cooling times of the spent UOX assembly in the repository. The effect of cooling time on burnup and radiotoxicity was then ascertained. Spent UOX fuel, after 30 years of cooling in the repository required higher concentration of Pu to be reprocessed into a MOX fuel due to the decay of Pu-241. Americium, with a mean half-life of 432 years, has high radiotoxic level, high mid-term residual heat and a precursor for other long lived isotope. An innovative strategy consists of reprocessing not only the plutonium from the UOX spent fuel but also the americium isotopes which dominate the radiotoxicity of present waste. The mono-recycling of Am is not a definitive solution because the once-through MOX cycle transmutation of Am in a PWR is not enough to destroy all the Am. The main objective is to propose a “waiting strategy” for both Am and Pu in the spent fuel so that they can be made available for further transmutation strategies. The MOXAm (MOX and Americium isotopes) fuel was fabricated to see the effect of americium in MOX fuel on the burn-up, neutronic behavior and on radiotoxicity. The MOXAm fuel showed relatively good indicators both on burnup and on radiotoxicity. A 68GWd/T MOX assembly produced from a reprocessed spent 46GWd/T UOX assembly showed a decrease in radiotoxicity as compared to the open cycle. All fuel types understudy in the PWR cycle showed good safety inherent feature with the exception of the some MOXAm assemblies which have a positive void coefficient in specific configurations, which could not be consistent with safety features. The core lifetimes of the current operating 90.2% HEU UAl fuel and the proposed 12.5% LEU UOX fuel of the MNSR were investigated using MURE code. Even though LEU core has a longer core life due to its higher core loading and low rate of uranium consumption, the LEU core will have it first beryllium top up to compensate for reactivity at earlier time than the HEU core. The HEU and LEU cores of the MNSR exhibited similar neutron fluxes in irradiation channels, negative feedback of temperature and void coefficients, but the LEU is more radiotoxic after fission product decay due to higher actinides presence at the end of its core lifetime.

Page generated in 0.0442 seconds