• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 30
  • 3
  • Tagged with
  • 116
  • 116
  • 116
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Multiscale modeling of multiferroic nanocomposites / Modelisation multi-échelle des nanocomposites multiferroiques

Prokhorenko, Sergei 08 September 2014 (has links)
Au cours des dernières décennies, la recherche de nouveaux matériaux multiferroïques nanostructurés avec des propriétés optimisées a conduit à l'élaboration d'une grande variété de modèles théoriques et des approches de simulation. Allant des modèles ab initio capables de décrire les propriétés à la température nulle des composés artificiels monocristallins à des approximations phénoménologiques pour la description des composites à la mésoscopique, ces recherches ont soulevé la question fondamentale de la relation entre la géométrie de la structure des systèmes hétérogènes et les propriétés des leurs transitions de phase. Cependant, malgré des progrès significatifs en la matière,cette question n'a pas encore été élucidée et les relations entre les modèles à différentes échelles ne sont pas entièrement distingués. La présente étude est consacrée à lier l’ensemble des modèles décrivant les matériaux nanocomposites multiferroïques à différentes échelles. Tout d'abord, nous présentons un développement méthodologique de l'approche Hamiltonien effectif couramment utilisé pour étudier les transitions de phase structurales. Les modifications introduites permettent d'étendre cette méthode pour prédire les propriétés à la température finie des systèmes hétérogènes. Le modèle construit est ensuite utilisé pour étudier les propriétés des nanostructures et solutions solides (BiFeO3)(BaTiO3). Recourant à des simulations Monte-Carlo, nous montrons que notre modèle fournit des résultats qui sont en ligne avec les observations expérimentales récentes et qu’il permet de prédire théoriquement les propriétés d'une large gamme de systèmes avec différentes géométries composites. La deuxième partie de l'étude consiste en l'application de la théorie de Ginzburg-Landau des transitions de phase à l’étude des propriétés des multicouches ferroélectriques et ferromagnétiques avec des interfaces épitaxiales. Plus précisément, nous décrivons théoriquement l’effet magnétoélectrique exhibé par les hétérostructures autonomes Pb(Zr0.5 Ti0.5) O3-FeGaB et BaTiO3-FeGaB. Enfin, nous montrons que la géométrie multicouche d'un nanocomposite ferroélectrique et ferromagnétique ouvre la voie à une amélioration radicale du signal de charge de sortie. / During past decades, the search for new nanostructured multiferroic materials with optimized properties has lead to the development of a vast variety of theoretical models and simulation approaches. Spreading from first principles based models able to describe zero-temperature properties of artificial single crystal compounds to phenomenological approximations for composites with mesoscale morphology, these investigations have raised the fundamental question of how the geometry of the structure affects the properties of phase transitions exhibited by heterogeneous systems. However, despite significant progress, the answer to this question still lacks clarity and the bridge connecting models at different scales is not fully constructed. The current study is devoted to linking together models of multiferroic nanocomposite materials applicable at different scales. First, we present a methodological development of effective Hamiltonian approach commonly used to study structural phase transitions. The introduced modifications allow to extend this widely used method to predict finite-temperature properties of compositionally heterogeneous systems. The constructed model is then used to study properties of (BiFeO3)(BaTiO3) nanostructures and solid-solutions. Resorting to Monte-Carlo simulations, we show that our model provides results that are in-line with recent experimental observations and allows to theoretically predict properties of a wide range of systems with different composite geometries. The second part of the study consists inapplication of Landau theory of phase transitions to investigate the properties of ferroelectric-ferromagnetic multilayerswith epitaxial interfaces. Specifically, we theoretically describe the strain-mediated direct ME effect exhibited byfree-standing Pb(Zr0.5 Ti0.5 )O3 -FeGaB and BaTiO3 -FeGaB heterostructures. Finally, we show that the multilayer geometry of a ferroelectric-ferromagnetic nanocomposite opens the way for a drastic enhancement of the output charge signal.
52

Simulations Monte Carlo sur processeur graphique en curiethérapie à bas débit de dose pour le cancer de la prostate

Bonenfant, Éric 19 April 2018 (has links)
Ce mémoire porte sur l’étude d’un algorithme Monte Carlo en curiethérapie à bas débit de dose sur processeur graphique. Avec le développement de cette plate-forme de calcul, l’application de la méthode Monte Carlo fait un pas en avant quant à son utilisation clinique dans un département de radio-oncologie. Le travail se déroule en deux parties. Premièrement, le développement d’un algorithme Monte Carlo sur processeur graphique, bGPUMCD, est poursuivi dans le but d’en améliorer les performances. Deuxièmement, une source de curiethérapie à bas débit de dose, la SelectSeed de Nucletron, est simulée et étalonnée pour être en accord avec les données du rapport du Task Group 43 de l’American Association of Physicists in Medicine. Avec cette source, quatre cas cliniques sont ensuite simulés pour montrer la concordance des résultats avec un autre algorithme Monte Carlo bien établi et évaluer les temps de calcul pour une éventuelle utilisation clinique de l’algorithme.
53

Élaboration des éléments d'une simulation Monte Carlo permettant l'évaluation d'une planification de traitement en radiothérapie externe : compression d'images DICOM à l'aide d'un octree et modélisation de la tête d'un accélérateur linéaire

Hubert-Tremblay, Vincent 11 April 2018 (has links)
L'objectif de ce travail est de développer deux modules pour créer une simulation Monte Carlo ayant comme objectif futur de calculer les doses de radiation d'un traitement en radiothérapie externe. Le premier module permet de lire, modéliser et réduire le nombre de voxels présent dans une série d'images médicales de type DICOM. La réduction doit se faire tout en gardant les informations essentielles pour une simulation Monte Carlo. Un algorithme a été développé pour appliquer une compression de type octree à la distribution des densités électroniques recueillies dans les images de tomodensitométrie. L'image résultante possède ainsi une certaine anisotropie au niveau de la résolution. Des résultats obtenus, la réduction du nombre total de voxels atteinte est de l'ordre de 75% de la taille initiale. Les simulations Monte Carlo démontrent qu'aucune information dosimétrique n'est perdue après la transformation. L'efficacité de la simulation se trouve améliorée tant au niveau de sa rapidité que de son utilisation de la mémoire. Le second module développé est un modèle d'accélérateur linéaire de type Primus (Siemens). Ce modèle permet d'obtenir des distributions de doses pour deux faisceaux de photons d'énergies différentes (6 et 23 megavolts [MV]). Dans les deux cas, les distributions de doses ont été comparées à des mesures expérimentales prises avec une chambre à ionisation. Les distributions de doses dans l'axe central du faisceau ont atteint un niveau de précision de 2%. Au niveau des distributions de doses hors axe, les déviations maximales sont de l'ordre de 5% et de 2mm dans les pénombres. Pour le faisceau de 23 MV, la géométrie présente une asymétrie qui devra être corrigée en modifiant le filtre égalisateur ou en utilisant une source de radiation asymétrique. Dans tous les cas, l'ouverture des collimateurs secondaires devra être optimisée afin d'éliminer les erreurs au niveau de la pénombre. Une fois ces modifications effectuées, les images DICOM compressées avec l'octree pourront être insérées à l'intérieur du modèle de l'accélérateur. Ce faisant, il suffirait d'ajuster la configuration des faisceaux et du patient pour évaluer un traitement en radiothérapie externe.
54

Dosimétrie Monte Carlo de curiethérapie interstitielle à haut débit de dose pour le cas gynécologique

Desbiens, Maxime 18 April 2018 (has links)
La curiethérapie à haut débit de dose utilisant un projecteur de source d’Ir-192 peut être utilisée efficacement dans le traitement d’une tumeur gynécologique maligne. Le traitement peut être interstitiel ou endocavitaire, dépendamment des caractéristiques de la tumeur et de l’anatomie de la patiente. En clinique, la dosimétrie est faite par l’application du formalisme TG-43. Le but de cette étude est d’évaluer à l’aide de simulations Monte Carlo (MC) l’impact dosimétrique lors d’un traitement interstitiel de la présence d’un applicateur et de poches d’air dans le volume cible en plus des hétérogénéités tissulaires. Les effets du blindage et du diamètre de l’applicateur dans un traitement endocavitaire ainsi que l’effet de la voxelisation ont aussi été évalués. Dans tous les cas, la dosimétrie a été réalisée à l’aide de la suite logicielle MC Geant4. Les résultats ont démontré que, dans certaines situations, les simulations MC mènent à des corrections significatives de la dose. / High dose rate brachytherapy using an Ir-192 remote afterloader can be successfully used in the management of gynecologic malignancies. Treatment can be either interstitial or endocavitary depending of the tumor caracteritics and patient’s anatomy. Clinically, the dosimetry is made through the application of the TG-43 formalism. The purpose of this study is to assess with Monte Carlo (MC) method and for an interstitial treatment dosimetric effects of the presence of the applicator and air pockets in clinical target volume and organs at risk along with tissue heterogeneities. As a related work, assessment of the effects of shielding and applicator diameters on the dose distribution of intracavitary treatment and voxelisation effects of the applicator in an interstitial treatment has been performed. In all cases, dosimetry has been achieved with the Geant4 MC toolkit. Results have shown that, in some situations, MC simulations lead to significant dose corrections.
55

Contribution de l'approche contrainte/résistance à l'évaluation de la fiabilité des structures

Bereriche, Youcef 16 April 2018 (has links)
Dans ce mémoire, on traite des méthodes et d'outils d'évaluation de la fiabilité des systèmes mécanique. La fiabilité dans ce contexte est définie comme étant la probabilité que la résistance soit supérieure à la sollicitation que le système subit. On considère que la résistance est aléatoire et que l'occurrence et l'intensité de la sollicitation sont aléatoires. Les outils d'analyse et d'évaluation de la fiabilité, retenus dans ce travail, permettent d'évaluer et d'optimiser les performances d'un système existant ou d'intégrer le caractère aléatoire de sollicitation et de la résistance, en phase de conception. Des exemples d'applications issus des domaines du génie mécanique et de la sécurité des structures sont rapportés dans ce mémoire pour illustrer les différents concepts théoriques. Le contenu de ce mémoire a été conçu et structuré de manière à servir de document de référence pour la conception et l'exploitation de systèmes assujettis à des sollicitations dont l'intensité et l'occurrence sont aléatoires et dont la résistance se dégrade, aléatoirement également, selon l'âge et l'usage du système.
56

Amélioration du calcul de dose TG-43 en curiethérapie à bas débit par un algorithme de dose primaire et diffusée sur processeur graphique

Bourque, Alexandre 19 April 2018 (has links)
Les calculs de dose en curiethérapie à bas débit reposent depuis 1995 sur un formalisme qui considère le milieu irradié comme étant homogène et constitué d’eau afin de mieux accommoder les temps de calcul clinique. Ce travail présente une amélioration de ce formalisme dosimétrique issu du protocole TG-43 de l’AAPM (American Association of Physicists in Medicine), utilisé actuellement dans les systèmes de planification de traitement (SPT) clinique. Avec l’ajout d’un tracé radiologique pour tenir compte des hétérogénéités et en séparant la dose primaire de la dose diffusée, il est possible de raffiner les calculs dosimétriques. Or, cette modification au calcul le rendant plus complexe était coûteuse en temps d’exécution jusqu’à très récemment. Elle se voit matérialisée dans ce travail avec l’arrivée récente de la technologie GPGPU, les calculs scientifiques sur périphériques graphiques. En exploitant le parallélisme des calculs de dose en curiethérapie à bas débit pour les implants permanents, l’algorithme baptisé TG-43-RT pour TG-43 avec tracé de rayons (Ray-Tracing en anglais) permet d’obtenir des facteurs d’accélération de l’ordre de 103 par rapport au CPU. Seulement 0.5 s par source est requis dans une géométrie de 1003 voxels, et les dosimétries d’anatomies hétérogènes sont sensiblement améliorées. Le TG-43-RT corrige les dépôts de dose en aval des hétérogénéités et réduit les effets indésirables de l’atténuation inter-sources. Des écarts de dose de plus de 80% au-delà d’une calcification avaient de quoi influencer les HDV, or, le TG-43-RT ramène ces déviations en-deçà de l’incertitude de 8.7% (2σ) concédée par les SPT, tel qu’établi dans le TG-138. Les simulations Monte Carlo ont été employées pour servir de référence absolue à la méthode développée et quantifier les améliorations dosimétriques relatives à l’actuel calcul de dose. L’algorithme a été testé d’un point de vue clinique dans un fantôme de prostate avec des sources d’125I et dans un fantôme de sein avec des sources de 103Pd pour unifier les corrections apportées. / Brachytherapy dose calculations have been relying since 1995 on a formalism that considers the whole geometry as a homogeneous water tank. This gives the opportunity to compute dose distributions within a reasonable clinical timeframe, but with considerable approximations that can influence or even change the treatment. This work presents an upgraded version of this formalism derived from the TG-43 protocol (AAPM), currently used in actual treatment planning systems. The new algorithm includes a primary and scatter dose separation using ray-tracing operation to account for heterogeneities through the medium. These modifications to the dose calculation are very power consuming and too long for the clinical needs when executed on modern CPUs. With the GPGPU technology, a GPU-driven algorithm allows a complex handling of the anatomic heterogeneities in the dose calculation and keeps execution times below 0.5 s/seed. The algorithm was named TG-43-RT for TG-43 with Ray-Tracing and accelerations factors of three order of magnitude were obtained over a regular CPU implementation. The TG-43-RT algorithm adequatly corrects dose deposition along heterogeneities and it reduces interseed attenuation effects. Dose is scored in the medium instead of water, which also applies a severe correction for high heterogeneous medium like the breast. Deviations of more than 80% in dose deposition were obtained over calcification inside the prostate when compared to Monte Carlo simulations. This kind of deviation influences DVH shape. However, the TG-43-RT was keeping those deviations within the 8.7% uncertainty range (2σ) associated with a regular TG-43 evaluation as stated in the TG-138. Monte Carlo simulations were used as a gold standard to get an absolute dose calculation reference. The algorithm was also tested in a prostate phantom with 125I seeds and in a breast phantom with 103Pd seeds to mimic real anatomic geometries and unify the applied corrections.
57

Modélisation neutronique des réacteurs à lit de boulets dans le code APOLLO2

Grimod, Maurice 07 December 2010 (has links) (PDF)
DANS LA THÈSE, UNE NOUVELLE TECHNIQUE ITÉRATIVE D'HOMOGÉNÉISATION POUR LES RÉACTEURS À LIT DE BOULETS EST DÉVELOPPÉE. LE MODÈLE CONSIDÈRE LES DIFFÉRENCES SPECTRALES, PROPRES À CHAQUE TYPE DE BOULET, POUR LES CALCULS D'HOMOGÉNÉISATION ET D'ÉVOLUTION MICROSCOPIQUE. LA MÉTHODE DÉVELOPPÉE DANS LE CODE DE CALCUL NEUTRONIQUE APOLLO2 A ÉTÉ VÉRIFIÉE PAR COMPARAISON AVEC DES SIMULATIONS MONTE CARLO DE RÉFÉRENCE, AVEC TRIPOLI4. LES RÉSULTATS OBTENUS PAR LE MODÈLE APOLLO2 SONT PEU DIFFÉRENTS DE LA RÉFÉRENCE (MOINS DE 100 PCM SUR LE KEFF, DE ±4% SUR LA DISTRIBUTION DES TAUX DE PRODUCTION, AVEC UNE DIFFÉRENCE DE 3% AU POINT CHAUD). ENSUITE, UNE PREMIÈRE VALIDATION A ÉTÉ RÉALISÉE PAR RAPPORT À LA PREMIÈRE DIVERGENCE DU PROTOTYPE HTR-10. LE NOMBRE OBTENU AVEC LE NOUVEAU MODÈLE EST SEULEMENT DE 77 BOULETS EN DESSOUS DE LA VALEUR EXPÉRIMENTAL DE 16890 BOULETS. UNE MÉTHODE A ENSUITE ÉTÉ DÉVELOPPÉE POUR ÉVALUER LA COMPOSITION DU CŒUR À L'ÉQUILIBRE, LIÉE À LA RÉ-CIRCULATION DES BOULETS. LA NOUVELLE MÉTHODE A ÉTÉ APPLIQUÉE POUR ÉVALUER LE BIAIS ASSOCIÉ À L'EMPLOI D'UN SEUL BOULET DE COMPOSITION ISOTOPIQUE MOYENNE. LES DIFFÉRENCES SPECTRALES ENTRE LES DIFFÉRENTS TYPES DE BOULETS ÉTANT EN GRANDE PARTIE DUES AUX RÉSONANCES DU PU240, LE BIAIS EST PLUS IMPORTANT QUAND LE CŒUR EST CHARGÉ AVEC UN COMBUSTIBLE DE PU, OÙ ON OBSERVE DES ÉCARTS SUR LES DISTRIBUTIONS DE PUISSANCES ET LES CONCENTRATIONS DE ± 10%. POUR CONCLURE, EN SE BASANT SUR L'EXPÉRIENCE ACCUMULÉE AU CEA ET AVEC LA MÉTHODE DÉVELOPPÉE ICI, ON POURRAIT MONTER UN SCHÉMA ITÉRATIF DE CALCUL COUPLÉ NEUTRONIQUE - THERMO-HYDRAULIQUE, EN CALCULANT LE CŒUR 3D EN DIFFUSION ET EN ASSOCIANT À CHAQUE RÉGION DE SPECTRE UNE GÉOMÉTRIE MULTI-BOULETS.
58

Modélisation markovienne des dynamiques d'usages des sols. Cas des parcelles situées sur le bord du corridor forestier {Ranomafana-Andringitra}

Raherinirina, Angelo 08 February 2013 (has links) (PDF)
Nous proposons une démarche markovienne d'inférence et de modéli- sation de dynamiques agraires dans le cadre d'usage de parcelles situées en lisière du corridor forestier reliant les deux parcs nationaux de Ranomafana et d'An- dringitra. La préservation de la forêt de la côte est de Madagascar est cruciale, il est donc pertinent de développer des outils permettant de mieux comprendre les dynamiques de déforestation puis de l'usage des parcelles et enfin de leur éventuel retour à l'état de forêt. Nous nous appuyons sur deux jeux de don- nées de terrain établis par l'IRD. Dans ce genre d'étude, une étape préliminaire consiste à construire la matrice de transition empirique, cela s'apparente donc à une modélisation markovienne de la dynamique. Dans ce cadre nous considérons l'approche par maximum de vraisemblance et l'approche bayésienne. Cette der- nière approche nous permet d'intégrer des informations non-présentes dans les données mais reconnues par les spécialistes, elle fait appel à des techniques d'ap- proximation de Monte Carlo par chaînes de Markov (MCMC). Nous étudions les propriétés asymptotiques des modèles obtenus à l'aide de ces deux approches et notamment le temps de convergence vers la loi quasi-stationnaire dans le premier cas et vers la loi stationnaire dans le second. Nous testons différentes hypothèses portant sur les modèles. Cette approche markovienne n'est plus valide sur le deuxième jeu de données, plus étendu, où il a fallu faire appel à une approche semi-markovienne : les lois des temps de séjour dans un état donné ne sont plus né- cessairement géométriques et peuvent dépendre de l'état suivant. À nouveau nous faisons appel aux approches par maximum de vraisemblance et bayésienne. Nous étudions le comportement asymptotique de chacun de ces modèles. En termes applicatifs, nous avons pu déterminer les échelles de temps de ces dynamiques.
59

Approximation particulaire et méthode de Laplace pour le filtrage bayésien / Particle approximation and the Laplace method for Bayesian filtering

Bui Quang, Paul 01 July 2013 (has links)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité. / The thesis deals with the contribution of the Laplace method to the approximation of the Bayesian filter in hidden Markov models with continuous state--space, i.e. in a sequential framework, with target tracking as the main application domain. Originally, the Laplace method is an asymptotic method used to compute integrals, i.e. in a static framework, valid in theory as soon as the function to be integrated exhibits an increasingly dominating maximum point, which brings the essential contribution to the integral. The two main contributions of the thesis are the following. Firstly, we have combined the Laplace method and particle filters: indeed, it is well-known that sequential Monte Carlo methods based on importance sampling are inefficient when the weighting function (here, the likelihood function) is too much spatially localized, e.g. when the variance of the observation noise is too small, whereas this is precisely the situation where the Laplace method is efficient and theoretically justified, hence the natural idea of combining the two approaches. We thus propose an algorithm associating the Laplace method and particle filtering, called the Laplace particle filter. Secondly, we have analyzed the approximation of the Bayesian filter based on the Laplace method only (i.e. without any generation of random samples): the objective has been to control the propagation of the approximation error from one time step to the next time step, in an appropriate asymptotic framework, e.g. when the variance of the observation noise goes to zero, or when the variances of the model noise and of the observation noise jointly go (with the same rate) to zero, or more generally when the information contained in the system goes to infinity, with an interpretation in terms of identifiability.
60

Calculs de sensibilités par méthode de Monte-Carlo, pour la conception de procédés à énergie solaire concentrée / Monte-Carlo Method and sensitivity computations for the design of concentrated solar energy processes

De la Torre, Jérémie 04 February 2011 (has links)
Dans le contexte énergétique mondial de raréfaction des ressources fossiles, et de réduction des émissions de gaz à effet de serre, l’agence internationale de l’énergie prévoit que la filière solaire thermodynamique fournisse en 2050 plus de 10% de l’électricité mondiale. De gros efforts de recherche sont nécessaires pour atteindre cet objectif. Les axes de développement actuels des technologies solaires à concentration portent, entre autres, sur les systèmes optiques composés de multiples miroirs (champs d’héliostats, concentrateurs linéaires de Fresnel, Beam-Down), sur les récepteurs solaires volumétriques (récepteurs à air, lits fluidisés) et sur les réacteurs (chimie à haute température, photobioréacteurs, dessalement par voie thermodynamique). Le transfert d’énergie par rayonnement est un des phénomènes prépondérants dans les systèmes optiques concentrateurs et dans les récepteurs solaires volumétriques. Les laboratoires Rapsodee et Laplace ont développé en quelques années d’étroite collaboration un savoir faire méthodologique sur la modélisation des transferts radiatifs et le calcul de sensibilité par la Méthode de Monte- Carlo et ils ont accumulé une expérience pratique, issue de la synthèse d’image, en programmation scientifique en interaction avec des chercheurs en informatique. Nous montrons dans ce manuscrit dans quelle mesure l’association de ces compétences théoriques et pratiques permet de répondre à certains besoins de la communauté du solaire à concentration et nous donnons des éléments de réponses ou des pistes à explorer en vue de surmonter les difficultés restantes que nous avons rencontrées. / The decrease of the fossil energy resources and the reduction of the emissions of greenhouse effect gas are major environmental issues. In this global situation, the International Energy Agency expects that solar power will provide more than 10% of the world electricity in 2050. Significant research efforts are needed to achieve this goal. Radiative transfer is one of the main physical phenomena in solar optical concentrators and in volumetric solar receivers. In few years of closely work, the laboratories Rapsodee and Laplace developed a methodological know-how in using Monte-Carlo methods for the modeling of radiative transfer and the sensitivity computations. They have also accumulated some experience in scientific programming and algorithms optimisation. We show in this dissertation how the combination of these physicists theoretical and practical skills can meet certain needs of the community of solar concentration. We give some answers or clues to be explored to get through the remaining difficulties we encountered.

Page generated in 0.0859 seconds