• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 13
  • 3
  • Tagged with
  • 47
  • 22
  • 15
  • 12
  • 12
  • 10
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Dictionary learning methods for single-channel source separation / Méthodes d'apprentissage de dictionnaire pour la séparation de sources audio avec un seul capteur

Lefèvre, Augustin 03 October 2012 (has links)
Nous proposons dans cette thèse trois contributions principales aux méthodes d'apprentissage de dictionnaire. La première est un critère de parcimonie par groupes adapté à la NMF lorsque la mesure de distorsion choisie est la divergence d'Itakura-Saito. Dans la plupart des signaux de musique on peut trouver de longs intervalles où seulement une source est active (des soli). Le critère de parcimonie par groupe que nous proposons permet de trouver automatiquement de tels segments et d'apprendre un dictionnaire adapté à chaque source. Ces dictionnaires permettent ensuite d'effectuer la tâche de séparation dans les intervalles où les sources sont mélangés. Ces deux tâches d'identification et de séparation sont effectuées simultanément en une seule passe de l'algorithme que nous proposons. Notre deuxième contribution est un algorithme en ligne pour apprendre le dictionnaire à grande échelle, sur des signaux de plusieurs heures. L'espace mémoire requis par une NMF estimée en ligne est constant alors qu'il croit linéairement avec la taille des signaux fournis dans la version standard, ce qui est impraticable pour des signaux de plus d'une heure. Notre troisième contribution touche à l'interaction avec l'utilisateur. Pour des signaux courts, l'apprentissage aveugle est particulièrement dificile, et l'apport d'information spécifique au signal traité est indispensable. Notre contribution est similaire à l'inpainting et permet de prendre en compte des annotations temps-fréquences. Elle repose sur l'observation que la quasi-totalité du spectrogramme peut etre divisé en régions spécifiquement assignées à chaque source. Nous décrivons une extension de NMF pour prendre en compte cette information et discutons la possibilité d'inférer cette information automatiquement avec des outils d'apprentissage statistique simples. / In this thesis we provide three main contributions to blind source separation methods based on NMF. Our first contribution is a group-sparsity inducing penalty specifically tailored for Itakura-Saito NMF. In many music tracks, there are whole intervals where only one source is active at the same time. The group-sparsity penalty we propose allows to blindly indentify these intervals and learn source specific dictionaries. As a consequence, those learned dictionaries can be used to do source separation in other parts of the track were several sources are active. These two tasks of identification and separation are performed simultaneously in one run of group-sparsity Itakura-Saito NMF. Our second contribution is an online algorithm for Itakura-Saito NMF that allows to learn dictionaries on very large audio tracks. Indeed, the memory complexity of a batch implementation NMF grows linearly with the length of the recordings and becomes prohibitive for signals longer than an hour. In contrast, our online algorithm is able to learn NMF on arbitrarily long signals with limited memory usage. Our third contribution deals user informed NMF. In short mixed signals, blind learning becomes very hard and sparsity do not retrieve interpretable dictionaries. Our contribution is very similar in spirit to inpainting. It relies on the empirical fact that, when observing the spectrogram of a mixture signal, an overwhelming proportion of it consists in regions where only one source is active. We describe an extension of NMF to take into account time-frequency localized information on the absence/presence of each source. We also investigate inferring this information with tools from machine learning.
32

Approche de recherche intelligente fondée sur le modèle des Topic Maps : application au domaine de la construction durable / An Intelligent Research Approach based on Topic Map Model

Ellouze, Nebrasse 03 December 2010 (has links)
Cette thèse aborde les problématiques liées à la construction de Topic Maps et à leur utilisation pour la recherche d’information dans le cadre défini par le Web sémantique (WS). Le WS a pour objectif de structurer les informations disponibles sur le Web. Pour cela, les ressources doivent être sémantiquement étiquetées par des métadonnées afin de permettre d'optimiser l'accès à ces ressources. Ces métadonnées sont actuellement spécifiées à l'aide des deux standards qui utilisent le langage XML : RDF et les Topic Maps. Un contenu à organiser étant très souvent volumineux et sujet à enrichissement perpétuel, il est pratiquement impossible d’envisager une création et gestion d’une Topic Map, le décrivant, de façon manuelle. Plusieurs travaux de recherche ont concerné la construction de Topic Maps à partir de documents textuels [Ellouze et al. 2008a]. Cependant, aucune d’elles ne permet de traiter un contenu multilingue. De plus, bien que les Topic Maps soient, par définition, orientées utilisation (recherche d’information), peu d’entre elles prennent en compte les requêtes des utilisateurs.Dans le cadre de cette thèse, nous avons donc conçu une approche que nous avons nommée ACTOM pour « Approche de Construction d’une TOpic Map Multilingue ». Cette dernière sert à organiser un contenu multilingue composé de documents textuels. Elle a pour avantage de faciliter la recherche d’information dans ce contenu. Notre approche est incrémentale et évolutive, elle est basée sur un processus automatisé, qui prend en compte des documents multilingues et l’évolution de la Topic Map selon le changement du contenu en entrée et l’usage de la Topic Map. Elle prend comme entrée un référentiel de documents que nous construisons suite à la segmentation thématique et à l’indexation sémantique de ces documents et un thésaurus du domaine pour l’ajout de liens ontologiques. Pour enrichir la Topic Map, nous nous basons sur deux ontologies générales et nous explorons toutes les questions potentielles relatives aux documents sources. Dans ACTOM, en plus des liens d’occurrences reliant un Topic à ses ressources, nous catégorisons les liens en deux catégories: (a) les liens ontologiques et (b) les liens d’usage. Nous proposons également d’étendre le modèle des Topic Maps défini par l’ISO en rajoutant aux caractéristiques d’un Topic des méta-propriétés servant à mesurer la pertinence des Topics plus précisément pour l’évaluation de la qualité et l’élagage dynamique de la Topic Map. / The research work in this thesis is related to Topic Map construction and their use in semantic annotation of web resources in order to help users find relevant information in these resources. The amount of information sources available today is very huge and continuously increasing, for that, it is impossible to create and maintain manually a Topic Map to represent and organize all these information. Many Topic Maps building approaches can be found in the literature [Ellouze et al. 2008a]. However, none of these approaches takes as input multilingual document content. In addition, although Topic Maps are basically dedicated to users navigation and information search, no one approach takes into consideration users requests in the Topic Map building process. In this context, we have proposed ACTOM, a Topic Map building approach based on an automated process taking into account multilingual documents and Topic Map evolution according to content and usage changes. To enrich the Topic Map, we are based on a domain thesaurus and we propose also to explore all potential questions related to source documents in order to represent usage in the Topic Map. In our approach, we extend the Topic Map model that already exists by defining the usage links and a list of meta-properties associated to each Topic, these meta-properties are used in the Topic Map pruning process. In our approach ACTOM, we propose also to precise and enrich semantics of Topic Map links so, except occurrences links between Topics and resources, we classify Topic Map links in two different classes, those that we have called “ontological links” and those that we have named “usage links”.
33

Non-Convex Optimization for Latent Data Models : Algorithms, Analysis and Applications / Optimisation Non Convexe pour Modèles à Données Latentes : Algorithmes, Analyse et Applications

Karimi, Belhal 19 September 2019 (has links)
De nombreux problèmes en Apprentissage Statistique consistent à minimiser une fonction non convexe et non lisse définie sur un espace euclidien. Par exemple, les problèmes de maximisation de la vraisemblance et la minimisation du risque empirique en font partie.Les algorithmes d'optimisation utilisés pour résoudre ce genre de problèmes ont été largement étudié pour des fonctions convexes et grandement utilisés en pratique.Cependant, l'accrudescence du nombre d'observation dans l'évaluation de ce risque empirique ajoutée à l'utilisation de fonctions de perte de plus en plus sophistiquées représentent des obstacles.Ces obstacles requièrent d'améliorer les algorithmes existants avec des mis à jour moins coûteuses, idéalement indépendantes du nombre d'observations, et d'en garantir le comportement théorique sous des hypothèses moins restrictives, telles que la non convexité de la fonction à optimiser.Dans ce manuscrit de thèse, nous nous intéressons à la minimisation de fonctions objectives pour des modèles à données latentes, ie, lorsque les données sont partiellement observées ce qui inclut le sens conventionnel des données manquantes mais est un terme plus général que cela.Dans une première partie, nous considérons la minimisation d'une fonction (possiblement) non convexe et non lisse en utilisant des mises à jour incrémentales et en ligne. Nous proposons et analysons plusieurs algorithmes à travers quelques applications.Dans une seconde partie, nous nous concentrons sur le problème de maximisation de vraisemblance non convexe en ayant recourt à l'algorithme EM et ses variantes stochastiques. Nous en analysons plusieurs versions rapides et moins coûteuses et nous proposons deux nouveaux algorithmes du type EM dans le but d'accélérer la convergence des paramètres estimés. / Many problems in machine learning pertain to tackling the minimization of a possibly non-convex and non-smooth function defined on a Many problems in machine learning pertain to tackling the minimization of a possibly non-convex and non-smooth function defined on a Euclidean space.Examples include topic models, neural networks or sparse logistic regression.Optimization methods, used to solve those problems, have been widely studied in the literature for convex objective functions and are extensively used in practice.However, recent breakthroughs in statistical modeling, such as deep learning, coupled with an explosion of data samples, require improvements of non-convex optimization procedure for large datasets.This thesis is an attempt to address those two challenges by developing algorithms with cheaper updates, ideally independent of the number of samples, and improving the theoretical understanding of non-convex optimization that remains rather limited.In this manuscript, we are interested in the minimization of such objective functions for latent data models, ie, when the data is partially observed which includes the conventional sense of missing data but is much broader than that.In the first part, we consider the minimization of a (possibly) non-convex and non-smooth objective function using incremental and online updates.To that end, we propose several algorithms exploiting the latent structure to efficiently optimize the objective and illustrate our findings with numerous applications.In the second part, we focus on the maximization of non-convex likelihood using the EM algorithm and its stochastic variants.We analyze several faster and cheaper algorithms and propose two new variants aiming at speeding the convergence of the estimated parameters.
34

Large scale support vector machines algorithms for visual classification / Algorithmes de SVM pour la classification d'images à grande échelle

Doan, Thanh-Nghi 07 November 2013 (has links)
Nous présentons deux contributions majeures : 1) une combinaison de plusieurs descripteurs d’images pour la classification à grande échelle, 2) des algorithmes parallèles de SVM pour la classification d’images à grande échelle. Nous proposons aussi un algorithme incrémental et parallèle de classification lorsque les données ne peuvent plus tenir en mémoire vive. / We have proposed a novel method of combination multiple of different features for image classification. For large scale learning classifiers, we have developed the parallel versions of both state-of-the-art linear and nonlinear SVMs. We have also proposed a novel algorithm to extend stochastic gradient descent SVM for large scale learning. A class of large scale incremental SVM classifiers has been developed in order to perform classification tasks on large datasets with very large number of classes and training data can not fit into memory.
35

Algorithms for deterministic parallel graph exploration / Algorithmes pour l'exploration parallèle d'un graphe déterminé

Pajak, Dominik 13 June 2014 (has links)
Nous étudions dans cette thèse le problème de l’exploration parallèle d’un graphe à l’aide des multiples, synchronisés et mobiles agents. Chaque agent est une entité individuelle qui peut, indépendamment des autres agents, visiter les sommets du graphe ou parcourir ses arêtes. Le but de ensemble des agents est de visiter tous les sommets de graphe.Nous étudions d’abord l’exploration du graphe dans un modèle où chaque agent est équipé de mémoire interne, mais les noeuds n’ont pas de mémoire. Dans ce modèle les agents sont autorisés à communiquer entre eux en échangeant des messages. Nous présentons des algorithmes qui s’exécutent dans un minimum de temps possible pour polynomiale nombre d’agents (polynomiale en nombre de sommets du graphe). Nous étudions aussi quelle est l’impact de différentes méthodes des communications. Nous étudions des algorithmes où les agents peuvent se communiquer à distance arbitraire,mais aussi où communication est possible seulement entre les agents situés dans le même sommet. Dans les deux cas nous présentons des algorithmes efficaces. Nous avons aussi obtenu des limites inférieures qui correspondent bien à la performance des algorithmes.Nous considérons également l’exploration de graphe en supposant que les mouvements des agents sont déterminés par le soi-disant rotor-router mécanisme. Du point de vue d’un sommet fixé, le rotor- router envoie des agents qui visitent les sommet voisins dans un mode round-robin. Nous étudions l’accélération défini comme la proportion entre le pire des cas de l’exploration d’un agent unique et des plusieurs agents. Pour générales graphes, nous montrerons que le gain de vitesse en cas de multi-agent rotor-router est toujours entre fonction logarithmique et linéaire du nombre d’agents. Nous présentons également des résultats optimaux sur l’accélération de multi-agent rotor-router pour cycles, expanseurs, graphes aléatoires, cliques, tores de dimension fixé et une analyse presque optimale pour hypercubes.Finalement nous considérons l’exploration sans collision, où chaque agent doit explorer le graphe de manière indépendante avec la contrainte supplémentaire que deux agents ne peuvent pas occuper le même sommet. Dans le cas où les agents sont donnés le plan de graphe, on présente un algorithme optimal pour les arbres et un algorithme asymptotiquement optimal pour générales graphes. Nous présentons aussi des algorithmes dans le cas de l’exploration sans collision des arbres et des générales graphes dans la situation où les agents ne connaissent pas le graphe. Nous fermons la thèse par des observations finales et une discussion de problèmes ouverts liés dans le domaine de l’exploration des graphes. / In this thesis we study the problem of parallel graph exploration using multiple synchronized mobile agents. Each mobile agent is an entity that can, independently of other agents, visit vertices of the graph and traverse its edges. The goal of the agents is to visit all vertices of the graph. We first study graph exploration in the model where agents are equipped with internal memory but no memory is available at the nodes. Agents in this model are also allowed to communicate between each other by exchanging messages. We present algorithms working in a minimal possible time for a team of polynomial size (in the number of vertices of the graph). We also study the impact of the available range of communication by analysing algorithms for agents which can communicate at arbitrary distance, or only with other agents located at the same node. We present efficient algorithms and lower bounds that almost match our positive results in both communication models. We also consider graph exploration when movements of agents are determined according to the so-called rotor-router mechanism. From the perspective of a fixed node, the rotor-router sends out agents which visit the node along its outgoing edges, ina round-robin fashion. We study the speedup which is the ratio between the worst-case exploration of a single agent and of multiple agents. We first show that the speed up for general graphs for the multi-agent rotor-router is always between logarithmic and linear in the number of agents. We also present a tight analysis of the speedup for the multi-agent rotor-router for cycles, expanders, random graphs, cliques, constant dimensional tori and an almost-tight analysis for hypercubes. Finally we consider collision-free exploration, where each agent has to explore the graph independently with the additional constraint that no two agents can occupy the same node at the same time. In the case when agents are given the map of the graph, we show an optimal algorithm for trees and an asymptotically optimal algorithm for general graphs. We also present algorithms for collision-free exploration of trees and general graphs in the case when agents have no initial knowledge about the graph. We close the thesis with concluding remarks and a discussion of related open problems in the area of graph exploration.
36

Formage incrémental de tôle d'aluminium : étude du procédé à l'aide de la mesure de champs et identification de modèles de comportement

Decultot, Nicolas 10 December 2009 (has links) (PDF)
Ce travail est consacré à l'étude du procédé de formage incrémental simple point (Single Point Incremental Forming, SPIF). Ce nouveau procédé de mise en forme de tôles à froid est surtout utilisé pour le prototypage et la réalisation de petites séries. Son principe est basé sur le repoussage local de la matière par un poinçon de petite taille devant les dimensions de la tôle et contrôlé en déplacement. Dans un premier temps, un pilote de SPIF équipé d'un capteur de forces tri-axes et d'un banc multi-caméras permettant l'utilisation de la mesure de champs par stéréo-corrélation a été développé au laboratoire. Au moyen de celui-ci, une étude paramétrique du procédé SPIF concernant entre autre la formabilité et l'emboutissabilité de tôles d'alliage d'aluminium a été tout d'abord réalisée. Ensuite, plusieurs méthodes d'identification ont été mises en œuvre afin d'identifier les paramètres de critères de plasticité (Hill48, Hill90 et Barlat) et de lois d'écrouissage isotrope permettant de modéliser le comportement élastoplastique anisotrope des tôles étudiées. La méthode d'identification à partir de mesures de champs par recalage de modèle Eléments-Finis a notamment été développée. Enfin, à partir des modèles identifiés, une simulation éléments finis d'une trajectoire simple en formage incrémental a été réalisée, ces résultats sont comparés avec des résultats expérimentaux.
37

Algorithms for Deterministic Parallel Graph Exploration

Pajak, Dominik 13 June 2014 (has links) (PDF)
Nous étudions dans cette thèse le problème de l'exploration parallèle d'un graphe à l'aide des multiples, synchronisés et mobiles agents. Chaque agent est une entité individuelle qui peut, indépendamment des autres agents, visitez les sommets du graphe ou parcourir ses arêtes. Le but de ensemble des agents est de visiter tous les sommets de graphe. Nous étudions d'abord l'exploration du graphe dans un modèle où chaque agent est équipé de mémoire interne, mais les nœuds n'ont pas de mémoire. Dans ce modèle les agents sont autorisés à communiquer entre eux en échangeant des messages. Nous présentons des algorithmes qui s'exécutent dans un minimum de temps possible pour polynomiale nombre d'agents (polynomiale en nombre de sommets du graphe). Nous étudions aussi quelle est l'impacte de différent méthodes des communications. Nous étudions des algorithmes où les agents peuvent se communiquer à distance arbitraire, mais aussi où communication est possible seulement entre les agents situés dans le même sommet. Dans les deux cas nous présentons des algorithmes efficaces. Nous avons aussi obtenu des limites inférieures qui correspondent bien à la performance des algorithmes. Nous considérons également l'exploration de graphe en supposant que les mouvements des agents sont déterminés par le soi-disant rotor-router mécanisme. Du point de vue d'un sommet fixé, le rotor- router envoie des agents qui visitent les sommet voisins dans un mode round-robin. Nous étudions l'accélération défini comme la proportion entre le pire des cas de l'exploration d'un agent unique et des plusieurs agents. Pour générales graphes, nous montrerons que le gain de vitesse en cas de multi-agent rotor-router est toujours entre fonction logarithmique et linéaire du nombre d'agents. Nous présentons également des résultats optimaux sur l'accélération de multi-agent rotor-router pour cycles, expanseurs, graphes aléatoires, cliques, tores de dimension fixé et une analyse presque optimale pour hypercubes. Finalement nous considérons l'exploration sans collision, où chaque agent doit explorer le graphe de manière indépendante avec la contrainte supplémentaire que deux agents ne peuvent pas occuper le même sommet. Dans le cas où les agents sont donnés le plan de graphe, on présente un algorithme optimal pour les arbres et un algorithme asymptotiquement optimal pour générales graphes. Nous présentons aussi des algorithmes dans le cas de l'exploration sans collision des arbres et des générales graphes dans la situation où les agents ne connaissent pas le graphe. Nous fermons la thèse par des observations finales et une discussion de problèmes ouverts liés dans le domaine de l'exploration des graphes.
38

Apprentissage incrémental pour la construction de bases lexicales évolutives : application en désambiguïsation d'entités nommées

Girault, Thomas 18 June 2010 (has links) (PDF)
Certaines applications du traitement automatique des langues sont amenées à traiter des flux de données textuelles caractérisés par l'emploi d'un vocabulaire en perpétuelle évolution, que ce soit au niveau de la création des mots que des sens de ceux existant déjà. En partant de ce constat, nous avons mis au point un algorithme incrémental pour construire automatiquement et faire évoluer une base lexicale qui répertorie des unités lexicales non étiquetées sémantiquement observées dans des flux. Cette base lexicale est représentée par un treillis de Galois qui organise des concepts formels (assimilés à des unités de sens) sur des niveaux de granularité allant du très spécifique au très général. Cette représentation est complétée par une modélisation vectorielle visualisable qui tient compte des aspects continus du sens et de la proximité sémantique entre concepts. Ce modèle est alors exploité pour propager l'étiquetage manuel d'un petit nombre d'entités nommées (EN : unités lexicales qui se référent habituellement à des personnes, des lieux, des organisations...) à d'autres EN non étiquetées observées dans un flux pendant la construction incrémentale du treillis. Les concepts de ce treillis sont enrichis avec les étiquettes d'EN observées dans un corpus d'apprentissage. Ces concepts et leurs étiquettes attachées sont respectivement employés pour l'annotation non supervisée et la classification supervisée des EN d'un corpus de test.
39

Modélisation et optimisation numérique de l'emboutissage de pièces de précision en tôlerie fine / Modelisation and numerical optimisation of heigh precision thin metallic parts stamping

Azaouzi, Mohamed 11 December 2007 (has links)
Le présent travail de thèse s’inscrit dans le cadre d’un projet industriel proposé par une entreprise luxembourgeoise et en collaboration avec le Centre de Recherche Public Henry Tudor du Luxembourg (Laboratoire des Technologies Industriels (LTI)). L’objectif consiste à mettre au point une méthode numérique de détermination de la forme des outils d’emboutissage et du flan de pièces de précision en tôlerie fine pour que ce dernier, une fois déformé en une ou plusieurs opérations, correspond à la définition tridimensionnelle du cahier des charges. La méthode a pour objectif de remplacer une démarche expérimentale coûteuse par essais–erreur. Deux démarches numériques sont proposées, la première est relative à la détermination de la forme du flan. Elle consiste à estimer la forme du flan par Approche Inverse en partant de la forme 3D demandée. Puis, un logiciel de simulation incrémental par éléments finis en 3D est utilisé dans une procédure d’optimisation heuristique pour déterminer la forme du flan. Dans la deuxième démarche, il s’agit de déterminer la forme des outils d’emboutissage en utilisant le logiciel de simulation incrémental couplé avec une méthode de compensation du retour élastique en 2D. La démarche numérique est validée expérimentalement dans le cas d’un emboutissage réalisé en une ou plusieurs passes, à l’aide d’une presse manuelle, sans serre flan et avec des outils de forme très complexe. / The present study deals with an industrial project proposed by a luxembourgian enterprise and in collaboration with the luxembourgian research centre Henry Tudor (Laboratory of Industrial Technologies (LTI)). The main objective is to build a numerical approaches for the determination of the initial blank shape contour and tools shape for 3D thin metallic precision parts obtained by stamping, knowing the 3D CAD geometry of the final part. The purpose of the present procedure is to replace the expensive and time consuming experimental trial and error optimization method. Two numerical approaches have been proposed, the first is regarding the determination of the blank shape. An estimation of the blank shape can be given using the Inverse Approach. Update of the blank shape will then be continued by iterations combining heuristic optimization algorithms and incremental stamping codes. The second approach is based on precise finite element models and on spring-back compensation algorithm. The numerical approaches are tested in the case of a special stamping process where the parts are pressed in one or more steps using a manual press, without blank holder and by the mean of complex shape tools.
40

Modélisation du comportement effectif du combustible MOX : par une analyse micro-mécanique en champs de transformation non uniformes

Largenton, Rodrigue 29 June 2012 (has links)
Parmi les combustibles nucléaires irradiés dans les Réacteurs à Eau Pressurisée d'Électricité de France, on trouve le combustible MOX, acronyme anglais de Mixed Oxide car il combine du dioxyde de plutonium et d'uranium. On y distingue trois phases, correspondant à des teneurs massiques en plutonium différentes. La teneur en matière fissile y étant différente, ces phases évoluent différemment sous irradiation, tant du point de vue mécanique que du point de vue chimique. Pour modéliser correctement le comportement macroscopique du combustible MOX dans un code de calcul industriel, les modèles ont besoin d'être alimentés de façon pertinente en propriétés effectives, mais il est aussi intéressant de disposer d'informations sur les champs locaux afin d'établir des couplages entre les mécanismes (couplage mécanique physico-chimie). L'objectif de la thèse fut donc de développer une modélisation par changement d'échelles, basée sur l'approche NTFA (Michel et Suquet 2003). Ces développements ont été réalisés sur des microstructures tridimensionnelles (3D) représentatives du combustible MOX et pour un comportement local visco-élastique vieillissant avec déformations libres. Dans un premier temps, pour représenter le combustible MOX en 3D nous avons utilisé des méthodes existantes pour traiter et segmenter les images expérimentales 2D, puis nous avons remonté les informations 2D indispensables (fuseau diamétral des inclusions et fractions surfaciques respectives) en 3D par la méthode stéréologique de Saltykov (Saltykov 1967) et enfin nous avons développé des outils pour représenter et discrétiser un composite multiphasé particulaire, type MOX. / Among the nuclear fuels irradiated in the Pressure Water Reactor of Électricité de France, MOX fuel is used, a Mixed OXide of plutonium and uranium. In this fuel, three phases with different plutonium content can be observed. The different fissile plutonium content in each phase leads different mechanical and physico-chemical evolutions under irradiation. To predict correctly the macroscopic behavior of MOX nuclear fuels in industrial nuclear fuel codes, models need to be fed in effective properties. But it's also interresting to obtain the local fields to establish coupling between mechanisms (mechanical and physico-chemical coupling). The aim of the PhD was to develop homogenisation method based on Non uniform Transformation Field Analysis (NTFA Michel and Suquet 2003}). These works were realised on three dimensions MOX microstructures and for local ageing visco-elastic behavior with free strains. The first work of the PhD was the numerical representation of the MOX microstructure in 3D. Three steps were realized. The first one consisted in the acquisition and the treatment of experimental pictures thanks to two soft-wares already developed. The second used the stereological model of textit{Saltykov} cite{R2S67} to go back up the two-dimensional statistical information in three-dimensional. And the last step was to develop tools which are able to build a numerical representation of the MOX microstructure. The second work of the PhD was to develop the NTFA model. Some theoretical (three dimensional, free strains and ageing hadn't ever studied) and numerical (choice and reduction of plastic modes, impact of the microstructures) studies were realised.

Page generated in 0.4559 seconds