• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 19
  • 8
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 117
  • 117
  • 36
  • 23
  • 19
  • 15
  • 13
  • 12
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Structural priors for multiobject semi-automatic segmentation of three-dimensional medical images via clustering and graph cut algorithms / A priori de structure pour la segmentation multi-objet d'images médicales 3d par partition d'images et coupure de graphes

Kéchichian, Razmig 02 July 2013 (has links)
Nous développons une méthode générique semi-automatique multi-objet de segmentation d'image par coupure de graphe visant les usages médicaux de routine, allant des tâches impliquant quelques objets dans des images 2D, à quelques dizaines dans celles 3D quasi corps entier. La formulation souple de la méthode permet son adaptation simple à une application donnée. En particulier, le modèle d'a priori de proximité que nous proposons, défini à partir des contraintes de paires du plus court chemin sur le graphe d'adjacence des objets, peut facilement être adapté pour tenir compte des relations spatiales entre les objets ciblés dans un problème donné. L'algorithme de segmentation peut être adapté aux besoins de l'application en termes de temps d'exécution et de capacité de stockage à l'aide d'une partition de l'image à segmenter par une tesselation de Voronoï efficace et contrôlable, établissant un bon équilibre entre la compacité des régions et le respect des frontières des objets. Des évaluations et comparaisons qualitatives et quantitatives avec le modèle de Potts standard confirment que notre modèle d'a priori apporte des améliorations significatives dans la segmentation d'objets distincts d'intensités similaires, dans le positionnement précis des frontières des objets ainsi que dans la robustesse de segmentation par rapport à la résolution de partition. L'évaluation comparative de la méthode de partition avec ses concurrentes confirme ses avantages en termes de temps d'exécution et de qualité des partitions produites. Par comparaison avec l'approche appliquée directement sur les voxels de l'image, l'étape de partition améliore à la fois le temps d'exécution global et l'empreinte mémoire du processus de segmentation jusqu'à un ordre de grandeur, sans compromettre la qualité de la segmentation en pratique. / We develop a generic Graph Cut-based semiautomatic multiobject image segmentation method principally for use in routine medical applications ranging from tasks involving few objects in 2D images to fairly complex near whole-body 3D image segmentation. The flexible formulation of the method allows its straightforward adaption to a given application.\linebreak In particular, the graph-based vicinity prior model we propose, defined as shortest-path pairwise constraints on the object adjacency graph, can be easily reformulated to account for the spatial relationships between objects in a given problem instance. The segmentation algorithm can be tailored to the runtime requirements of the application and the online storage capacities of the computing platform by an efficient and controllable Voronoi tessellation clustering of the input image which achieves a good balance between cluster compactness and boundary adherence criteria. Qualitative and quantitative comprehensive evaluation and comparison with the standard Potts model confirm that the vicinity prior model brings significant improvements in the correct segmentation of distinct objects of identical intensity, the accurate placement of object boundaries and the robustness of segmentation with respect to clustering resolution. Comparative evaluation of the clustering method with competing ones confirms its benefits in terms of runtime and quality of produced partitions. Importantly, compared to voxel segmentation, the clustering step improves both overall runtime and memory footprint of the segmentation process up to an order of magnitude virtually without compromising the segmentation quality.
112

Three-dimensional analysis of bone cellular tissue from SR CT Imaging / Analyse tridimensionnelle du tissu cellulaire osseux par tomographie Synchrotron

Dong, Pei 21 February 2014 (has links)
Le système ostéocytaire soulève un intérêt croissant depuis quelques années car il est joue un rôle important dans l'adaptation de l'os. Le système ostéocytaire est inclus dans un réseau poreux dénommé le réseau lacuno-canaliculaire (LCN). L’observation du système ostéocytaire est difficile car les ostéocytes sont profondément enfouies dans la matrice osseuse et difficilement accessible par les techniques optiques. Récemment l’équipe de Creatis a montré la faisabilité d’imager le LCN en 3D grâce à la micro tomographie par rayonnement synchrotron. Toutefois, il n’existe actuellement pas de méthodes d’analyse permettant de quantifier, de façon automatique, le réseau lacuno-canaliculaire en 3D. L’objectif de cette thèse était de développer des méthodes d’analyse d’images permettant d’extraire des paramètres quantitatifs sur le réseau lacuno-canaliculaire. La première partie, consacrée à l’état de l’art. Le chapitre 1 présente les objectifs de ce travail. Le chapitre 2 rappelle les éléments de base sur le tissu osseux et présente les caractéristiques du réseau lacuno-canaliculaire. Le chapitre 3 présente les différentes méthodes d’imagerie utilisées jusqu’à présent pour étudier le réseau lacuno-canaliculaire. Le chapitre 4 présente l’état de l’art sur les paramètres qui sont classiquement utilisés pour caractériser le réseau lacuno-canaliculaire. La seconde partie est consacrée aux contributions de ce travail. Le chapitre 5 présente les deux systèmes expérimentaux de l’ESRF sur lesquels des images d’échantillons osseux ont été acquises. Le chapitre 6 décrit la méthode développée pour la quantification des lacunes ostéocytaires à partir d’images à l’échelle micrométrique. Elle propose de calculer des paramètres issus des moments géométriques ainsi que des paramètres basés sur la notion de volumes intrinsèques. Les méthodes sont appliquées à une série de 13 échantillons acquis en collaboration avec le Laboratoire d’Imagerie Paramétrique, Paris. Les résultats obtenus sont comparés et discutés par rapport à ceux de la littérature. Le chapitre 7 décrit la quantification des canalicules reliant les ostéocytes à partir d’images à l’échelle sous-micrométrique. En particulier, nous nous sommes intéressées à estimer le nombre de canalicules issues d’une lacune ostéocytaire, paramètre encore jamais mesuré en 3D. L’évolution de ce paramètre en fonction de la distance au centre de la lacune a permis de mettre en évidence et de quantifier la ramification des canalicules. Le chapitre 8 propose l’application des méthodes développées à une série d’échantillons acquis en collaboration le groupe de Sharmila Majumdar à l’université de San Francisco. Dans ce chapitre, nous avons travaillé sur une nouvelle méthode de segmentation du réseau lacuno-canaliculaire basée sur une méthode de chemins géodésiques. Les premiers résultats acquis sur 8 échantillons humains d’âges différents sont présentés. Finalement, le chapitre 9 conclut ce travail et présente des perspectives. / The osteocyte system has raised increasing interest in the recent years, since it is hypothesized to play an important role in orchestrating bone adaptation through mechanosensation and bone mechanotransduction mechanism. The osteocytes are deeply buried within the bone matrix, where their bodies are encysted in cavities called lacunae and their stellular processes are enclosed in tunnels called canaliculi. Together, they formed the lacuno-canalicular network (LCN). The geometry of the LCN is of importance since it is supposed to potentially affect and reflect the viability of the osteocyte and is supposed to be related to biomechanical constraints at the cell level. However, studying the LCN is quite challenging, due to limitations in an ideal imaging modality and the lack of quantitative analysis tools. In this thesis, we propose computational efficient and automated methods to quantify the 3D morphological properties of the LCN from synchrotron radiation (SR) micro / nano-CT images. For image acquisition, we used the SR micro/nano-CT setups installed on beamlines ID19 and ID22 at ESRF. A series of human cortical samples were imaged with spatial resolutions ranging between 3.5 µm to 60 nm. For the 3D assessment of lacunae, we used an image moment-based approach to calculate the volume, length, width, height and anisotropy of each osteocyte lacuna. We employed a fast algorithm to further calculate the surface area, the Euler number and the SMI of each lacuna. Validation of segmentation and experimental results on 13 bone samples are presented. For the 3D assessment of canaliculi, we propose a method to quantify the canalicular ramification around each lacuna. After segmentation, our method first labels each lacuna from the LCN. Then, a signature of the numbers of canaliculi at different distances from the lacunar surface is estimated through the calculation of topological parameters. Validation of this method and statistical results a large 3D SR micro-CT image of a human femoral bone sample are reported. We also improved the segmentation of the canaliculi and illustrated the feasibility of the application on a series of bone samples. We investigated a segmentation approach based on minimum cost paths and geodesic voting. A parallel computation scheme was implemented to reduce the computation times. The LCN was characterized by using the previous methods. Besides, we introduced the parameters from the Voronoi tessellation. Statistical results are reported on 8 large 3D micro-CT images, including around a hundred lacunae and the canaliculi. Future works will concern the improvement of canaliculi segmentation of from images at 300 nm as well as its evaluation and further characterization of LCN from SR CT images at both 300 nm and 50 nm. This work opens many perspectives for a better knowledge of the physiopathology of bone at the cellular scale.
113

Myocardial motion estimation from 2D analytical phases and preliminary study on the hypercomplex signal / Estimation du mouvement cardiaque par la phase analytique et étude préliminaire du signal hypercomplexe

Wang, Liang 19 December 2014 (has links)
Les signaux analytiques multidimensionnels nous permettent d'avoir des possibilités de calculer les phases et modules. Cependant, peu de travaux se trouvent sur les signaux analytiques multidimensionnels qui effectuent une extensibilité appropriée pour les applications à la fois sur du traitement des données médicales 2D et 3D. Cette thèse a pour objectif de proposer des nouvelles méthodes pour le traitement des images médicales 2D/3D pour les applications de détection d'enveloppe et d'estimation du mouvement. Premièrement, une représentation générale du signal quaternionique 2D est proposée dans le cadre de l'algèbre de Clifford et cette idée est étendue pour modéliser un signal analytique hypercomplexe 3D. La méthode proposée décrit que le signal analytique complexe 2D, est égal aux combinaisons du signal original et de ses transformées de Hilbert partielles et totale. Cette écriture est étendue au cas du signal analytique hypercomplexe 3D. Le résultat obtenu est que le signal analytique hypercomplexe de Clifford peut être calculé par la transformée de Fourier complexe classique. Basé sur ce signal analytique de Clifford 3D, une application de détection d'enveloppe en imagerie ultrasonore 3D est présentée. Les résultats montrent une amélioration du contraste de 7% par rapport aux méthodes de détection d'enveloppe 1D et 2D. Deuxièmement, cette thèse propose une approche basée sur deux phases spatiales du signal analytique 2D appliqué aux séquences cardiaques. En combinant l'information de ces phases des signaux analytiques de deux images successives, nous proposons un estimateur analytique pour les déplacements locaux 2D. Pour améliorer la précision de l'estimation du mouvement, un modèle bilinéaire local de déformation est utilisé dans un algorithme itératif. Cette méthode basée sur la phase permet au déplacement d'être estimé avec une précision inférieure au pixel et est robuste à la variation d'intensité des images dans le temps. Les résultats de sept séquences simulées d'imagerie par résonance magnétique (IRM) marquées montrent que notre méthode est plus précise comparée à des méthodes récentes utilisant la phase du signal monogène ou des méthodes classiques basées sur l'équation du flot optique. Les erreurs d'estimation de mouvement de la méthode proposée sont réduites d'environ 33% par rapport aux méthodes testées. En outre, les déplacements entre deux images sont cumulés en temps, pour obtenir la trajectoire d'un point du myocarde. En effet, des trajectoires ont été calculées sur deux patients présentant des infarctus. Les amplitudes des trajectoires des points du myocarde appartenant aux régions pathologiques sont clairement réduites par rapport à celles des régions normales. Les trajectoires des points du myocarde, estimées par notre approche basée sur la phase de signal analytique, sont donc un bon indicateur de la dynamique cardiaque locale. D'ailleurs, elles s'avèrent cohérentes à la déformation estimée du myocarde. / Different mathematical tools, such as multidimensional analytic signals, provide possibilities to calculate multidimensional phases and modules. However, little work can be found on multidimensional analytic signals that perform appropriate extensibility for the applications on both of the 2D and 3D medical data processing. In this thesis, based on the Hahn 1D complex analytic, we aim to proposed a multidimensional extension approach from the 2D to a new 3D hypercomplex analytic signal in the framework of Clifford algebra. With the complex/hypercomplex analytic signals, we propose new 2D/3D medical image processing methods for the application of ultrasound envelope detection and cardiac motion estimation. Firstly, a general representation of 2D quaternion signal is proposed in the framework of Clifford algebra and this idea is extended to generate 3D hypercomplex analytic signal. The proposed method describes that the complex/hypercomplex 2D analytic signals, together with 3D hypercomplex analytic signal, are equal to different combinations of the original signal and its partial and total Hilbert transforms, which means that the hypercomplex Clifford analytic signal can be calculated by the classical Fourier transform. Based on the proposed 3D Clifford analytic signal, an application of 3D ultrasound envelope detection is presented. The results show a contrast optimization of about 7% comparing with 1D and 2D envelope detection methods. Secondly, this thesis proposes an approach based on two spatial phases of the 2D analytic signal applied to cardiac sequences. By combining the information of these phases issued from analytic signals of two successive frames, we propose an analytical estimator for 2D local displacements. To improve the accuracy of the motion estimation, a local bilinear deformation model is used within an iterative estimation scheme. This phase-based method allows the displacement to be estimated with subpixel accuracy and is robust to image intensity variation in time. Results from seven realistic simulated tagged magnetic resonance imaging (MRI) sequences show that our method is more accurate compared with the state-of-the-art method. The motion estimation errors (end point error) of the proposed method are reduced by about 33% compared with that of the tested methods. In addition, the frame-to-frame displacements are further accumulated in time, to allow for the calculation of myocardial point trajectories. Indeed, from the estimated trajectories in time on two patients with infarcts, the shape of the trajectories of myocardial points belonging to pathological regions are clearly reduced in magnitude compared with the ones from normal regions. Myocardial point trajectories, estimated from our phase-based analytic signal approach, are therefore a good indicator of the local cardiac dynamics. Moreover, they are shown to be coherent with the estimated deformation of the myocardium.
114

Simulation et reconstruction 3D à partir de caméra Compton pour l’hadronthérapie : Influence des paramètres d’acquisition / Simulation and reconstruction from Compton caméra for hadrontherapy : Influence of the acquisition parameters

Hilaire, Estelle 18 November 2015 (has links)
L'hadronthérapie est une méthode de traitement du cancer qui emploie des ions (carbone ou proton) au lieu des rayons X. Les interactions entre le faisceau et le patient produisent des radiations secondaires. Il existe une corrélation entre la position d'émission de certaines de ces particules et la position du pic de Bragg. Parmi ces particules, des gamma-prompt sont produits par les fragments nucléaires excités et des travaux actuels ont pour but de concevoir des systèmes de tomographie par émission mono-photonique capable d'imager la position d'émission ces radiations en temps réel, avec une précision millimétrique, malgré le faible nombre de données acquises. Bien que ce ne soit pas actuellement possible, le but in fine est de surveiller le dépôt de dose. La caméra Compton est un des système TEMP qui a été proposé pour imager ce type de particules, car elle offre une meilleure résolution énergétique et la possibilité d'avoir une image 3D. Cependant, en pratique l'acquisition est affectée par le bruit provenant d'autres particules secondaires, et les algorithmes de reconstruction des images Compton sont plus compliqués et encore peu aboutis, mais sur une bonne voie de développement. Dans le cadre de cette thèse, nous avons développé une chaîne complète allant de la simulation de l'irradiation d'un fantôme par un faisceau de protons allant jusqu'à la reconstruction tomographique des images obtenues à partir de données acquises par la caméra Compton. Nous avons étudié différentes méthodes de reconstruction analytiques et itératives, et nous avons développé une méthode de reconstruction itérative capable de prendre en compte les incertitudes de mesure sur l'énergie. Enfin nous avons développé des méthodes pour la détection de la fin du parcours des distributions gamma-prompt reconstruites. / Hadrontherapy is a cancer treatment method which uses ions (proton or carbon) instead of X-rays. Interactions between the beam and the patient produce secondary radiation. It has been shown that there is a correlation between the emission position of some of these particles and the Bragg peak position. Among these particles, prompt-gamma are produced by excited nuclear fragments and current work aims to design SPECT systems able to image the emission position the radiation in real time, with a millimetric precision, despite the low data statistic. Although it is not currently possible, the goal is to monitor the deposited dose. The Compton camera is a SPECT system that proposed for imaging such particles, because it offers a good energy resolution and the possibility of a 3D imaging. However, in practice the acquisition is affected by noise from other secondary particles and the reconstruction algorithms are more complex and not totally completed, but the developments are well advanced. In this thesis, we developed a complete process from the simulation of irradiation of a phantom by a proton beam up to the tomographic reconstruction of images obtained from data acquired by the Compton camera. We studied different reconstruction methods (analytical and iterative), and we have developed an iterative method able to consider the measurement uncertainties on energy. Finally we developed methods to detect the end-of-range of the reconstructed prompt-gamma distributions.
115

Image reconstruction for Compton camera with application to hadrontherapy / Reconstruction d'images pour la caméra Compton avec application en hadronthérapie

Lojacono, Xavier 26 November 2013 (has links)
La caméra Compton est un dispositif permettant d’imager les sources de rayonnement gamma. Ses avantages sont sa sensibilité (absence de collimateur mécanique) et la possibilité de reconstruire des images 3D avec un dispositif immobile. Elle également adaptée pour des sources à large spectre énergétique. Ce dispositif est un candidat prometteur en médecine nucléaire et en hadronthérapie. Ces travaux, financés par le projet européen ENVISION (European NoVel Imaging Systems for ION therapy) Coopération-FP7, portent sur le développement de méthodes de reconstruction d’images pour la caméra Compton pour la surveillance de la thérapie par ions. Celle-ci nécessite idéalement une reconstruction temps réel avec une précision millimétrique, même si le nombre de données acquises est relativement faible. Nous avons développé des méthodes analytiques et itératives. Leurs performances sont analysées dans le contexte d’acquisitions réalistes (géométrie de la caméra, nombre d’événements). Nous avons développé une méthode analytique de rétroprojection filtrée. Cette méthode est rapide mais nécessite beaucoup de données. Nous avons également développé des méthodes itératives utilisant un algorithme de maximisation de la fonction de vraisemblance. Nous avons proposé un modèle probabiliste pour l’estimation des éléments de la matrice système nécessaire à la reconstruction et nous avons développé différentes approches pour le calcul de ses éléments : l’une néglige les incertitudes de mesure sur l’énergie, l’autre les prend en compte en utilisant une distribution gaussienne. Nous avons étudié une méthode simplifiée utilisant notre modèle probabiliste. Plusieurs reconstructions sont menées à partir de données simulées, obtenues avec Geant4, mais provenant aussi de plusieurs prototypes simulés de caméra Compton proposés par l’Institut de Physique Nucléaire de Lyon (IPNL) et par le Centre de recherche de Dresde-Rossendorf en Allemagne. Les résultats sont prometteurs et des études plus poussées, à partir de données encore plus réalistes, viseront à les confirmer. / The Compton camera is a device for imaging gamma radiation sources. The advantages of the system lie in its sensitivity, due to the absence of mechanical collimator, and the possibility of imaging wide energy spectrum sources. These advantages make it a promising candidate for application in hadrontherapy. Funded by the european project ENVISION, FP7-Cooperation Work Program, this work deals with the development of image reconstruction methods for the Compton camera. We developed both analytical and iterative methods in order to reconstruct the source from cone-surface projections. Their performances are analyzed with regards to the context (geometry of the camera, number of events). We developped an analytical method using a Filtered BackProjection (FBP) formulation. This method is fast but really sensitive to the noise. We have also developped iterative methods using a List Mode-Maximum Likelihood Expectation Maximization (LM-MLEM) algorithm. We proposed a new probabilistic model for the computation of the elements of the system matrix and different approaches for the calculation of these elements neglecting or not the measurement uncertainties. We also implemented a simplified method using the probabilistic model we proposed. The novelty of the method also lies on the specific discretization of the cone-surface projections. Several studies are carried out upon the reconstructions of simulated data worked out with Geant4, but also simulated data obtained from several prototypes of Compton cameras under study at the Institut de Physique Nucléaire de Lyon (IPNL) and at the Research Center of Dresden-Rossendorf. Results are promising, and further investigations on more realistic data are to be done.
116

Évolution dentaire dans les populations humaines de la fin du Pléistocène et du début de l’Holocène (19000 – 5500 cal. BP) : une approche intégrée des structures externe et interne des couronnes pour le Bassin aquitain et ses marges / Dental evolution in Late Pleistocene and Early Holocene human populations (19000 – 5500 cal. BP) : a whole crown perspective in the Aquitaine Basin, southwest France, and its margins

Le Luyer, Mona 07 January 2016 (has links)
À partir de la fin du Pléistocène, une réduction de la taille des dents humaines et une simplification morphologique ont été observées et débattues en lien avec des changements culturels et environnementaux. Suite à de nouvelles découvertes et à la révision des contextes archéologiques de certains gisements, une réévaluation de la nature des variations de plus de 1900 couronnes dentaires est proposée pour 176 individus de la fin du Paléolithique, du Mésolithique et du début du Néolithique provenant du Bassin aquitain et de ses marges. Particulièrement, les variations de la structure interne (épaisseur de l’émail, proportions des tissus dentaires, morphologie de la jonction émail-dentine) ont été évaluées de manière non invasive grâce aux méthodes d’imagerie 3D (microtomographie) et de morphométrie géométrique afin de caractériser et d’interpréter l’évolution des couronnes dentaires selon une approche intégrée. Les résultats des analyses morphométriques montrent une discontinuité entre les populations de la fin du Pléistocène et celles du début de l’Holocène. Une réduction des dimensions externes, des épaisseurs de l’émail et des proportions des tissus est mesurée entre la fin du Paléolithique et le Mésolithique, alors que des différences majeures dans les types d’usure et la distribution de l’émail sont observées entre le Mésolithique et le Néolithique. Ces données suggèrent que les modifications induites par les changements environnementaux de l’Holocène ont eu un impact plus important sur la réduction dentaire dans les populations humaines et que les changements culturels néolithiques ont surtout affecté la distribution de l’émail. Enfin, une corrélation entre le type d’usure occlusale et la distribution de l’épaisseur de l’émail a été mise en évidence et associée à des changements de régime alimentaire. En particulier, l’épaisseur de l’émail peut évoluer rapidement comme une réponse sélective aux changements fonctionnels dans la biomécanique de la mastication. / Since the Late Pleistocene, a reduction in size and a morphological simplification of human teeth have been observed and arguably linked to cultural and environmental changes. Following new discoveries along with the revision of key archaeological contexts, a re-assessment of the nature of crown variations on more than 1900 teeth is proposed for 176 Late Paleolithic, Mesolithic and Early Neolithic individuals from the Aquitaine Basin and its margins. In particular, a non-invasive assessment of internal tooth structure variability (enamel thickness, dental tissue proportions, enamel-dentine junction morphology) has been performed using 3D imaging methods (microtomography) and geometric morphometrics in order to characterize and interpret dental evolution from a whole crown perspective. Results from the morphometric analyses show a discontinuity between Late Pleistocene and Early Holocene populations. External dimensions, enamel thicknesses and tissue proportions are reduced in Mesolithic individuals compared to those of the Late Paleolithic, while major differences are observed in occlusal wear patterns and enamel distribution between Mesolithic and Early Neolithic samples. These data suggest that environmentally-driven modifications during the Early Holocene had a major impact on dental reduction in human populations and that Neolithic cultural changes had mostly affected enamel distribution. Finally, a correlation between occlusal wear pattern and enamel thickness distribution is observed and associated with dietary changes. In particular, enamel thickness may have rapidly evolved as a selective response to functional changes in masticatory biomechanics.
117

Thermal finite element analysis of ceramic/metal joining for fusion using X-ray tomography data

Evans, Llion Marc January 2013 (has links)
A key challenge facing the nuclear fusion community is how to design a reactor that will operate in environmental conditions not easily reproducible in the laboratory for materials testing. Finite element analysis (FEA), commonly used to predict components’ performance, typically uses idealised geometries. An emerging technique shown to have improved accuracy is image based finite element modelling (IBFEM). This involves converting a three dimensional image (such as from X ray tomography) into an FEA mesh. A main advantage of IBFEM is that models include micro structural and non idealised manufacturing features. The aim of this work was to investigate the thermal performance of a CFC Cu divertor monoblock, a carbon fibre composite (CFC) tile joined through its centre to a CuCrZr pipe with a Cu interlayer. As a plasma facing component located where thermal flux in the reactor is at its highest, one of its primary functions is to extract heat by active cooling. Therefore, characterisation of its thermal performance is vital. Investigation of the thermal performance of CFC Cu joining methods by laser flash analysis and X ray tomography showed a strong correlation between micro structures at the material interface and a reduction in thermal conductivity. Therefore, this problem leant itself well to be investigated further by IBFEM. However, because these high resolution models require such large numbers of elements, commercial FEA software could not be used. This served as motivation to develop parallel software capable of performing the necessary transient thermal simulations. The resultant code was shown to scale well with increasing problem sizes and a simulation with 137 million elements was successfully completed using 4096 cores. In comparison with a low resolution IBFEM and traditional FEA simulations it was demonstrated to provide additional accuracy. IBFEM was used to simulate a divertor monoblock mock up, where it was found that a region of delamination existed on the CFC Cu interface. Predictions showed that if this was aligned unfavourably it would increase thermal gradients across the component thus reducing lifespan. As this was a feature introduced in manufacturing it would not have been accounted for without IBFEM.The technique developed in this work has broad engineering applications. It could be used similarly to accurately model components in conditions unfeasible to produce in the laboratory, to assist in research and development of component manufacturing or to verify commercial components against manufacturers’ claims.

Page generated in 0.0481 seconds