• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 220
  • 90
  • 22
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 341
  • 83
  • 72
  • 45
  • 42
  • 38
  • 31
  • 30
  • 20
  • 19
  • 19
  • 18
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Synthèse de catalyseurs de type coeur@coquille pour le procédé d’hydrodésulfuration en phase gazeuse / Synthesis of core shell catalysts for hydrodesulfurization process

Wery, Madeleine 26 September 2018 (has links)
Afin de réduire la teneur en soufre des essences, l’hydrodésulfuration transforme les molécules soufrées en hydrocarbures en présence d’un catalyseur supporté (métaux de transition sulfurés : MoS2) et dopé (Co, Ni). Cette phase active, déposée sur des nanoparticules, présente un nombre plus important de défauts, sites actifs essentiels à la catalyse. Les nanoparticules ont un ratio S/V élevé, une grande réactivité de surface avec une juste utilisation des quantités de métaux. L’objectif de ce projet de thèse est de synthétiser des catalyseurs nanométriques de type coeur@coquille possédant une meilleure activité catalytique qu’un simple mélange mécanique de deux métaux sulfurés. Le coeur est composé de Fe3O4 ou de nanodiamants et la coquille de MoS2, NiMoS, CoMoS ou NiCoMoS, supporté sur du TiO2 ou de la γ-Al2O3. Une réaction modèle (HDS du thiophène) a été utilisée afin d’évaluer l’activité catalytique et d’optimiser la structure du catalyseur. L’étude portera sur les paramètres de synthèse et l’effet de la taille du coeur, la synthèse utilisée, les interactions entre le coeur et la coquille, le support, la (co)– promotion (Ni/Co) et l’activation par la température. / In hydrodesulfurization of fossil fuels, the sulfur levels are reduced by sulfur extraction from hydrocarbons by using supported catalysts (MoS2), doped (Co, Ni). Ultra-deep hydrodesulfurization will be achieved by improving new catalysts. Nanoparticles are a promising candidate with their high S/V ratio and permit to use the precise amount of metallic sulphide. The aim of this thesis is the synthesis of core@shell nanometric catalyst with improved activities. Core composed of Fe3O4 or nanodiamonds will be surrounded by a shell formed of MoS2, NiMoS, CoMoS or NiCoMoS, supported on TiO2, γ-Al2O3. Model reaction (thiophene) has allowed to compare conversion rates between each catalyst. Additionally, characterizations have provided a better understanding of the HDS catalyst structure and performances. Some factors have been investigated such as the size of the core, theinteractions between the core and the shell, the type of synthesis, the support chosen, the synergetic effect with doping ions and also the activation of the catalyst at low temperature.
202

Massively Parallel Cartesian Discrete Ordinates Method for Neutron Transport Simulation / SN cartésien massivement parallèle pour la simulation neutronique

Moustafa, Salli 15 December 2015 (has links)
La simulation haute-fidélité des coeurs de réacteurs nucléaires nécessite une évaluation précise du flux neutronique dans le coeur du réacteur. Ce flux est modélisé par l’équation de Boltzmann ou équation du transport neutronique. Dans cette thèse, on s’intéresse à la résolution de cette équation par la méthode des ordonnées discrètes (SN) sur des géométries cartésiennes. Cette méthode fait intervenir un schéma d’itérations à source, incluant un algorithme de balayage sur le domaine spatial qui regroupe l’essentiel des calculs effectués. Compte tenu du très grand volume de calcul requis par la résolution de l’équation de Boltzmann, de nombreux travaux antérieurs ont été consacrés à l’utilisation du calcul parallèle pour la résolution de cette équation. Jusqu’ici, ces algorithmes de résolution parallèles de l’équation du transport neutronique ont été conçus en considérant la machine cible comme une collection de processeurs mono-coeurs indépendants, et ne tirent donc pas explicitement profit de la hiérarchie mémoire et du parallélisme multi-niveaux présents sur les super-calculateurs modernes. Ainsi, la première contribution de cette thèse concerne l’étude et la mise en oeuvre de l’algorithme de balayage sur les super-calculateurs massivement parallèles modernes. Notre approche combine à la fois la vectorisation par des techniques de la programmation générique en C++, et la programmation hybride par l’utilisation d’un support d’exécution à base de tâches: PaRSEC. Nous avons démontré l’intérêt de cette approche grâce à des modèles de performances théoriques, permettant également de prédire le partitionnement optimal. Par ailleurs, dans le cas de la simulation des milieux très diffusifs tels que le coeur d’un REP, la convergence du schéma d’itérations à source est très lente. Afin d’accélérer sa convergence, nous avons implémenté un nouvel algorithme (PDSA), adapté à notre implémentation hybride. La combinaison de ces techniques nous a permis de concevoir une version massivement parallèle du solveur SN Domino. Les performances de la partie Sweep du solveur atteignent 33.9% de la performance crête théorique d’un super-calculateur à 768 cores. De plus, un calcul critique d’un réacteur de type REP 900MW à 26 groupes d’énergie mettant en jeu 1012 DDLs a été résolu en 46 minutes sur 1536 coeurs. / High-fidelity nuclear reactor core simulations require a precise knowledge of the neutron flux inside the reactor core. This flux is modeled by the linear Boltzmann equation also called neutron transport equation. In this thesis, we focus on solving this equation using the discrete ordinates method (SN) on Cartesian mesh. This method involves a source iteration scheme including a sweep over the spatial mesh and gathering the vast majority of computations in the SN method. Due to the large amount of computations performed in the resolution of the Boltzmann equation, numerous research works were focused on the optimization of the time to solution by developing parallel algorithms for solving the transport equation. However, these algorithms were designed by considering a super-computer as a collection of independent cores, and therefore do not explicitly take into account the memory hierarchy and multi-level parallelism available inside modern super-computers. Therefore, we first proposed a strategy for designing an efficient parallel implementation of the sweep operation on modern architectures by combining the use of the SIMD paradigm thanks to C++ generic programming techniques and an emerging task-based runtime system: PaRSEC. We demonstrated the need for such an approach using theoretical performance models predicting optimal partitionings. Then we studied the challenge of converging the source iterations scheme in highly diffusive media such as the PWR cores. We have implemented and studied the convergence of a new acceleration scheme (PDSA) that naturally suits our Hybrid parallel implementation. The combination of all these techniques have enabled us to develop a massively parallel version of the SN Domino solver. It is capable of tackling the challenges posed by the neutron transport simulations and compares favorably with state-of-the-art solvers such as Denovo. The performance of the PaRSEC implementation of the sweep operation reaches 6.1 Tflop/s on 768 cores corresponding to 33.9% of the theoretical peak performance of this set of computational resources. For a typical 26-group PWR calculations involving 1.02×1012 DoFs, the time to solution required by the Domino solver is 46 min using 1536 cores.
203

Formulation de bitumes aux propriétés rhéologiques modulables / Bitumen with tunable rheological properties

Merce, Manuel 14 December 2015 (has links)
La construction des routes avec des techniques d'enrobage à chaud (T=160 °C) implique une consommation d'énergie fossile et des rejets de gaz à effet de serre importants. Une production plus écologique du bitume nécessite de diminuer les températures d'enrobage en conservant les propriétés mécaniques des enrobés ainsi obtenus. Le développement de techniques permettant de réduire les températures est donc un enjeu majeur de l'industrie routière. Dans ce travail, nous avons joué à la fois sur la composition et le procédé pour moduler les propriétés du bitume et atteindre l’objectif fixé.Nous avons décomposé le bitume en ses différentes fractions en utilisant des techniques de séparation asphaltènes/maltènes à l'aide d'un alcane (pentane et heptane). Nous avons formulé des bitumes à différentes proportions et natures d'asphaltènes en introduisant des protocoles de préparation originaux. A l’aide de techniques de caractérisation variées telles que la rhéologie, la diffusion des rayons X ou encore des techniques de microscopies et d'analyses thermiques, nous avons déterminéles rôles des différentes fractions du bitume. Nous avons ainsi montré l'impact important des asphaltènes, mais également des fractions que nous avons qualifiées « d'intermédiaires », sur les comportements rhéologiques. Enfin, nous avons élaboré des objets coeur-écorce, composés d’une écorce rigide, non collante, riche en asphaltènes et d’un coeur mou, riche en maltènes. Ces objets sont particulièrement intéressants pour le transport du bitume à température ambiante. / The classic manufacture of hot mix asphalt for road construction is associated with a high consumption of fossil fuels and a high level of emissions of greenhouse gases into the atmosphere. A cleaner production of bitumen requires lowering the manufacturing temperature of these products without impoverishing their level of mechanical performances. The development of technologies that enable temperature reduction had thus become a major objective in the field of road engineering. In this work, we are playing on both composition and process in order to control the final properties of the material and propose an interesting way to reduce temperature during transportation. We have been interested in the different fractions composing the bitumen. We have there by employed a separation technique with alkane (heptane and pentane) to segregate the maltenes and asphaltenes. We could therefore realize diverse reconstituted bitumen using original protocols. Using various characterization techniques (such as rheology, X-ray scattering, optic, electronic and atomic force microscopy, infrared spectroscopy, thermal analysis...), we get insight into the effect of asphaltenes content and nature on bitumen properties. Our results show the huge impact of asphaltenes and other fractions called "intermediate fractions" on bitumen rheological properties. Finally, we propose an innovative processing of bitumen via the elaboration of core/shell objects composed of a rigid, nonsticky and asphaltenes-rich corona and a soft maltenes-rich core. These objects are very interesting for transporting bitumen at ambient temperature.
204

Vers un langage synchrone sûr et securisé / Towards a safe and secure synchronous language

Attar, Pejman 12 December 2013 (has links)
Cette thèse propose une nouvelle approche du parallélisme et de la concurrence, posant les bases d'un langage de programmation à la fois sûr et "secure" (garantissant la sécurité des données), fondé sur une sémantique formelle claire et simple, tout en étant adapté aux architectures multi-cœur. Nous avons adopté le paradigme synchrone, dans sa variante réactive, qui fournit une alternative simple à la programmation concurrente standard en limitant l'impact des erreurs dépendant du temps ("data-races"). Dans un premier temps, nous avons considéré un langage réactif d'orchestration, DSL, dans lequel on fait abstraction de la mémoire (Partie 1). Dans le but de pouvoir traiter la mémoire et la sécurité, nous avons ensuite étudié (Partie 2) un noyau réactif, CRL, qui utilise un opérateur de parallélisme déterministe. Nous avons prouvé la réactivité bornée des programmes de CRL. Nous avons ensuite équipé CRL de mécanismes pour contrôler le flux d'information (Partie 3). Pour cela, nous avons d'abord étendu CRL avec des niveaux de sécurité pour les données, puis nous avons défini dans le langage étendu, SSL, un système de types permettant d'éviter les fuites d'information. Parallèlement (Partie 4), nous avons ajouté la mémoire à CRL, en proposant le modèle DSLM. En utilisant une notion d'agent, nous avons structuré la mémoire de telle sorte qu'il ne puisse y avoir de "data-races". Nous avons également étudié l'implémentation de DSLM sur les architectures multi-cœur, fondée sur la notion de site et de migration d'un agent entre les sites. L'unification de SSL et de DSLM est une piste pour un travail futur. / This thesis proposes a new approach to parallelism and concurrency, laying the basis for the design of a programming language with a clear and simple formal semantics, enjoying both safety and security properties, while lending itself to an implementation on multicore architectures. We adopted the synchronous programming paradigm, in its reactive variant, which provides a simple alternative to standard concurrent programming by limiting the impact of time-dependent errors ("data-races"). As a first step (Part 1), we considered a reactive orchestration language, DSL, which abstracts away from the memory. To set the basis for a formal treatment of memory and security, we then focussed on a reactive kernel, CRL, equipped with a deterministic parallel operator (Part 2). We proved bounded reactivity of CRL programs. Next, we enriched CRL with mechanisms for information flow control (Part 3). To this end, we first extended CRL with security levels for data. We then defined a type system on the extended language, SSL, which ensures the absence of information leaks. Finally, we added memory to CRL, as well as the notions of agent and site, thus obtaining the model DSLM (Part 4). We structured the memory in such a way that data-races cannot occur, neither within nor among agents. We also investigated the implementation of DSLM on multicore architectures, using the possibility of agent migration between sites. The unification of SSL and DSLM is left for future work.
205

Dosimétrie cardiovasculaire à l’aide de fantômes numériques hybrides en radiothérapie externe / Cardiovascular dosimetry using hybrid computational phantoms after external radiotherapie

Moignier, Alexandra 07 November 2014 (has links)
Les atteintes cardiovasculaires consécutives à la radiothérapie font partie des effets secondaires tardifs soulevant de nombreuses interrogations au sein de la communauté scientifique, notamment du point de vue de la relation dose-Effet et des effets concomitants d’autres facteurs de risque (chimiothérapie, cholestérol, âge, tension artérielle,…). Les coronaropathies post-Radiques sont une des principales causes de morbidité cardiaque. Cependant, l’étude des doses reçues par les coronaires lors d’une radiothérapie requiert des approximations importantes, notamment d’un point de vue morphologique. Pour les études rétrospectives avec des dossiers médicaux anciens, les informations anatomiques sont réduites à des radiographies orthogonales et quelques contours au simulateur. Pour les dossiers médicaux plus récents, l’utilisation de l’imagerie scanner pour la planification de traitement permet la considération d’une anatomie 3D, toutefois extrêmement limitée pour les coronaires en raison d’une résolution et d’un contraste trop faibles. Par ailleurs, lors de la planification de traitement des patients traités actuellement, les doses reçues par les artères coronaires sont rarement quantifiées en clinique, et quand elles le sont, c’est au moyen d’une segmentation par a priori anatomique. Ce travail de thèse propose une utilisation originale des fantômes numériques hybrides afin d’étudier les doses aux coronaires dans le cadre de radiothérapies du sein gauche et du lymphome de Hodgkin.Au cours de la thèse, une méthode d’insertion de fantômes numériques hybrides au format DICOM dans le système de planification de traitement a été développée et validée. Elle a été adaptée et testée avec des informations anatomiques limitées aux radiographies comme c’est le cas pour les dossiers médicaux anciens, pour des traitements du sein gauche.La méthode a également été adaptée pour effectuer des reconstructions dosimétriques précises aux artères coronaires de patients traités par radiothérapie pour un lymphome de Hodgkin médiastinal, ayant bénéficié d’un suivi cardiovasculaire incluant le diagnostic de sténoses coronariennes à l’aide d’un coroscanner. Par une étude cas-Témoin, le risque de sténoses à un segment d’artère coronaire donné a été évalué comme étant multiplié par 1,049 à chaque Gray aditionnel sur la dose médiane au segment d’artère coronaire.Pour les dossiers actuels, les incertitudes associées à l’approche de segmentation par a priori anatomique des artères coronaires ont été estimées dans le cadre du traitement du sein gauche, en simulant différentes topologies réalistes d’artères coronaires dans un unique thorax et en évaluant les doses, pour une balistique donnée avec et sans irradiation de la chaîne mammaire interne. La variabilité inter-Topologique de la dose moyenne à l’artère coronaire la plus irradiée, l’interventriculaire antérieure, a été estimée à respectivement 35%et 19% avec et sans irradiation de la chaîne mammaire interne tandis qu’avec la dose aux 2% du volume de l’artère interventriculaire les plus irradiés, cette variabilité est respectivement de 76% et 49%.Enfin, l’ordre de grandeur des écarts entre des mesures par films radiochromiques et des calculs de dose du système de planification de traitement ISOgray en bordure de champ et hors du champ a été évalué pour des configurations simple (fantôme physique homogène parallélépipédique, champ carré ouvert) et complexe (fantôme physique anthropomorphe avec hétérogénéités, faisceaux tangentiels rectangulaires avec filtres en coin). Ces écarts sont jugés significatifs essentiellement en bordure de champ quelle que soit la configuration. / Cardiovascular diseases following radiotherapy are major secondary late effects raising questions among the scientific community, especially regarding the dose-Effect relationship and confounding risk factors (chemotherapy, cholesterolemia, age at treatment, blood pressure,…). Post-Radiation coronary diseases are one of the main causes of cardiac morbidity. Some approximations are made when coronary doses due to radiotherapy are estimated, especially regarding the morphology. For retrospective studies with old medical records, only radiographs are usually available with sometimes some contours made with a simulator. For recent medical records, CT scans displaying the anatomy in 3D are used for radiotherapy simulation but do not allow the coronary artery visualization due to low resolution and contrast. Currently, coronary doses are barely assessed in clinical practice, and when it is done, anatomical prior knowledge is generally used. This thesis proposes an original approach based on hybrid computational phantoms to study coronary artery doses following radiotherapy for left-Side breast cancer and Hodgkin lymphoma.During the thesis, a method inserting hybrid computational phantoms in a DICOM format into the treatment planning system has been developed and validated. It has been adapted and tested in conditions where only radiographs provide anatomical information, as with old medical records for left side breast radiotherapy.The method has also been adapted to perform precise dose reconstructions to the coronary artery for patients treated for a mediastinal Hodgkin lymphoma and diagnosed with coronary stenosis through a coroscanner. A case-Control study was carried out and the risk of coronary stenosis on a coronary artery segment was assessed to be multiplied by 1.049 at each additional gray on the median dose to the coronary artery segment.For recent medical records, coronary doses uncertainties related to an approach by anatomical prior knowledge segmentation were estimated for a left side breast radiotherapy by simulating different realistic coronary artery topologies in a single representative thorax anatomy and calculating doses due to beam sets, with and without irradiation of the internal mammary chain. The inter-Topology variability of the mean dose to the most irradiated coronary artery, the left descending coronary artery, was assessed to 35% and 19% with and without the internal mammary chain irradiation, respectively; and it was of 76% and 49%, respectively, considering the dose to the most irradiated 2% of this coronary artery volume.Finally, an order of magnitude of the differences between measurments by radiochromic films and dose calculations by the ISOgray treatment planning system in the peripheral field area, has been estimated by for both a simple configuration (parallelepiped physical phantom, homogeneous media, open square field) and a complex configuration (anthropomorphic physical phantom, heterogeneous media, rectangular tangential beams with wedge filter). These differences were judged significant essentially around the geometrical border of the irradiation field for both configuration.
206

Segmentation et classification des signaux non-stationnaires : application au traitement des sons cardiaque et à l'aide au diagnostic / Segmentation and classification of non-stationary signals : Application on heart sounds analysis and auto-diagnosis domain

Moukadem, Ali 16 December 2011 (has links)
Cette thèse dans le domaine du traitement des signaux non-stationnaires, appliqué aux bruits du cœur mesurés avec un stéthoscope numérique, vise à concevoir un outil automatisé et « intelligent », permettant aux médecins de disposer d’une source d’information supplémentaire à celle du stéthoscope traditionnel. Une première étape dans l’analyse des signaux du cœur, consiste à localiser le premier et le deuxième son cardiaque (S1 et S2) afin de le segmenter en quatre parties : S1, systole, S2 et diastole. Plusieurs méthodes de localisation des sons cardiaques existent déjà dans la littérature. Une étude comparative entre les méthodes les plus pertinentes est réalisée et deux nouvelles méthodes basées sur la transformation temps-fréquence de Stockwell sont proposées. La première méthode, nommée SRBF, utilise des descripteurs issus du domaine temps-fréquence comme vecteur d’entré au réseau de neurones RBF qui génère l’enveloppe d’amplitude du signal cardiaque, la deuxième méthode, nommée SSE, calcule l’énergie de Shannon du spectre local obtenu par la transformée en S. Ensuite, une phase de détection des extrémités (onset, ending) est nécessaire. Une méthode d’extraction des signaux S1 et S2, basée sur la transformée en S optimisée, est discutée et comparée avec les différentes approches qui existent dans la littérature. Concernant la classification des signaux cardiaques, les méthodes décrites dans la littérature pour classifier S1 et S2, se basent sur des critères temporels (durée de systole et diastole) qui ne seront plus valables dans plusieurs cas pathologiques comme par exemple la tachycardie sévère. Un nouveau descripteur issu du domaine temps-fréquence est évalué et validé pour discriminer S1 de S2. Ensuite, une nouvelle méthode de génération des attributs, basée sur la décomposition modale empirique (EMD) est proposée.Des descripteurs non-linéaires sont également testés, dans le but de classifier des sons cardiaques normaux et sons pathologiques en présence des souffles systoliques. Des outils de traitement et de reconnaissance des signaux non-stationnaires basés sur des caractéristiques morphologique, temps-fréquences et non linéaire du signal, ont été explorés au cours de ce projet de thèse afin de proposer un module d’aide au diagnostic, qui ne nécessite pas d’information à priori sur le sujet traité, robuste vis à vis du bruit et applicable dans des conditions cliniques. / This thesis in the field of biomedical signal processing, applied to the heart sounds, aims to develop an automated and intelligent module, allowing medical doctors to have an additional source of information than the traditional stethoscope. A first step in the analysis of heart sounds is the segmentation process. The heart sounds segmentation process segments the PCG (PhonoCardioGram) signal into four parts: S1 (first heart sound), systole, S2 (second heart sound) and diastole. It can be considered one of the most important phases in the auto-analysis of PCG signals. The proposed segmentation module in this thesis can be divided into three main blocks: localization of heart sounds, boundaries detection of the localized heart sounds and classification block to distinguish between S1and S2. Several methods of heart sound localization exist in the literature. A comparative study between the most relevant methods is performed and two new localization methods of heart sounds are proposed in this study. Both of them are based on the S-transform, the first method uses Radial Basis Functions (RBF) neural network to extract the envelope of the heart sound signal after a feature extraction process that operates on the S-matrix. The second method named SSE calculates the Shannon Energy of the local spectrum calculated by the S-transform for each sample of the heart sound signal. The second block contains a novel approach for the boundaries detection of S1 and S2 (onset & ending). The energy concentrations of the S-transform of localized sounds are optimized by using a window width optimization algorithm. Then the SSE envelope is recalculated and a local adaptive threshold is applied to refine the estimated boundaries. For the classification block, most of the existing methods in the literature use the systole and diastole duration (systole regularity) as a criterion to discriminate between S1 and S2. These methods do not perform well for all types of heart sounds, especially in the presence of high heart rate or in the presence of arrhythmic pathologies. To deal with this problem, two feature extraction methods based on Singular Value Decomposition (SVD) technique are examined. The first method uses the S-Transform and the second method uses the Intrinsic Mode Functions (IMF) calculated by the Empirical Mode Decomposition (EMD) technique. The features are applied to a KNN classifier to estimate the performance of each feature extraction method. Nonlinear features are also tested in order to classify the normal and pathological heart sounds in the presence of systolic murmurs. Processing and recognition signal processing tools based on morphological, time-frequency and nonlinear signal features, were explored in this thesis in order to propose an auto-diagnosis module, robust against noise and applicable in clinical conditions.
207

Qualification du calcul de la puissance des coeurs de réacteurs à plaques : développement et application d'une nouvelle approche géostatistique / Qualification of the power profile for slabs core reactors : development and application of a new approach based on geostatistics

Simonini, Giorgio 04 October 2012 (has links)
Cette thèse a pour but de contribuer à la qualification du formulaire de calcul neutronique NARVAL, dédié aux coeurs de réacteurs à plaques. En particulier, l’objectif est de développer des méthodes innovantes permettant d’utiliser les données expérimentales inédites du programme HIPPOCAMPE pour évaluer la précision du profil de puissance calculé. La complexité provient de la localisation de l’instrumentation (chambres à fission placées entre les assemblages) et des hétérogénéités caractéristiques de ce type de coeurs (géométrie à plaques, poisons consommables et de contrôle solides). Pour aborder ce problème deux voies ont été mises en oeuvre : la première voie consiste à « combiner puis extrapoler » les écarts C/E observés afin de déterminer les incertitudes associées aux facteurs de puissance. Nous avons utilisé, pour ce faire, la méthode « P/A », traditionnellement employée dans les REP électrogènes mais jamais appliquée aux coeurs à plaques à ce jour. La deuxième voie passe, en revanche, par la reconstruction d’une nappe de puissance à utiliser comme référence (comparaison calcul/« expérience-reconstruite ») : nous avons focalisé notre travail sur des techniques géostatistiques. Après avoir constaté que les deux méthodes conduisent à des résultats satisfaisants (erreur comparable à l’incertitude expérimentale cible) nous avons continué notre recherche, en explorant les possibles développements et en introduisant en particulier une nouvelle méthode hybride (associant les techniques géostatistiques à la méthode P/A) qui permet d'améliorer ultérieurement la qualification du profil de puissance (écart-type des écarts C/E cohérent avec la constatation expérimentale). / The aim of this doctoral thesis work is to contribute to the experimental validation of a neutron physic code, called NARVAL, devoted to the analysis of slab cores reactors. The primary objective is to develop some innovative methods in order to validate the computed power map starting from the original experimental data, provided by the HIPPOCAMPE campaign. The particular position of the instrumentation (fission chambers located between the assemblies) and the strong heterogeneities, characterising this specific core design (slab geometry, burnable and control neutron absorbers in solid state) represent the main challenge of this work. Two different approaches are investigated : the first one consists in “combining and extrapolating” the observed calculated/experimental results in order to evaluate the uncertainty of power coefficients. Among different solutions, the “P/A” method is chosen : it is usually employed to perform conventional PWR plant analysis and has never been applied before to slab cores. The latter aims to reconstruct a power map that could be used as a direct reference for code validation : in this case the geostatistical techniques are selected. These methods provide satisfactory results as estimated errors are in good agreement with the experimental uncertainty target. Nevertheless, in this work a new hybrid method, applying the geostatistical technics to the P/A scheme, is investigated and developed. The good agreement between the experimental and the estimated validations of the computed power map attests the noteworthy performance of this new method.
208

Dendritic functionalization of core-shell magnetic nanoparticles for biotechnology / Fonctionnalisation dendritique de nanoparticules magnétiques coeur-écorce pour la biotechnologie

Artiomenco Mitcova, Liubov 17 April 2014 (has links)
Le but de ce travail a été d’élaborer des nanoparticules magnétiques (MNPs) fonctionnalisées avec un groupement maléimide, stables, dispersibles dans l’eau et qui assureront une immobilisation covalente,sélective et efficace de biomolécules. Bien qu’un large choix de MNPs soit disponible dans le commerce, lamodification chimique de surface des MNPs reste une étape indispensable pour l’élaboration de matériauxspécifiques. Un contrôle précis de la fonctionnalisation de surface des MNPs est crucial, car en découlentleurs propriétés physico-chimiques, leur stabilité colloïdale, et la préservation de l’activité biologique de labiomolécule immobilisée. Dans ce travail, nous proposons d’augmenter le nombre de groupes fonctionnels(maléimide) accessibles à la surface de MNPs, en la modifiant par des agents de couplage dendritiques. Deuxtypes de MNPs coeur-écorce de 300 nm (avec un noyau de γ-Fe2O3 et une écorce de polymère ou de silice)ont été utilisés. Afin d’étudier l’effet «dendritique» sur la fonctionnalisation de surface, trois types d’agentsde couplage ont été conçus: des agents de couplage linéaires (contenant un groupe maléimide), des agents decouplage dendritiques à deux branches (contenant deux groupes maléimide) et des agents de couplagedendritiques à quatre branches (contenant quatre groupes maléimide). L’efficacité de ces MNPsfonctionnalisées pour immobiliser des biomolécules ou des modèles de biomolécules a été étudiée. Cetteétude a démontré l’intérêt de la fonctionnalisation de la surface des MNPs coeur-écorce par des structuresdendritiques pour une immobilisation efficace et spécifique de biomolécules. / The purpose of this work is to design stable, water-dispersible, maleimide functionalized magneticnanoparticles (MNPs) that will ensure selective covalent immobilization of biomolecules. While, a largechoice of MNPs is now commercially available, the surface modification of MNPs remains an indispensablestep in the elaboration of such MNPs. A precise control over the surface functionalization of MNPs iscrucial, because it governs their physicochemical properties, their colloidal stability, and their biologicalbehaviour. In this work with the aim to increase the number of functional groups on MNPs’ surfaces, it wasproposed to functionalize MNPs with dendritic coupling agents and to compare their efficiency with thosefunctionalized with a linear analogue. Moreover, it was decided to investigate the “dendritic effect” of thesurface functionalization on two types of core-shell MNPs (300 nm) that consist of a maghemite (γ-Fe2O3)ferrofluid core coated with: (I) polymer shell or (II) silica shell. Therefore, three types of coupling agents(that possess an amino or silane anchoring site) were synthesized: linear coupling agents (containing onemaleimide functional group); two-branched coupling agents (containing two maleimide functional groups)and four-branched dendritic coupling agents (containing four maleimide functional groups). Then, thecapacity of MNPs functionalized with dendritic or linear coupling agents to immobilize biomolecules ormodels of biomolecules was investigated. This study proved the efficiency of the surface functionalizationwith dendritic structures for the immobilization of biomolecules.
209

Comprehension des mécanismes électrostatiques impliqués dans la plasticité structurale de la chromatine eucaryote

Bertin, Aurélie 16 June 2006 (has links) (PDF)
L'organisation de la chromatine eucaryote ainsi que les mécanismes qui régulent sa compaction restent discutés. Nous proposons de comprendre le rôle de variations locales de charges et de concentrations ioniques dans l'organisation supramoléculaire de la chromatine. Nous utilisons un système modèle, la particule cœur de nucléosome (NCP) constituée de 146pb d'ADN qui s'enroulent autour d'un octamère d'histones sur un 1.75 tours. Les extensions terminales des histones, les queues, sont mobiles et positivement chargées. A l'aide de NCPs reconstituées à partir d'ADN et d'histones intactes ou globulaires recombinants, nous montrons que les queues des histones H3 et H4 sont essentielles pour l'établissement d'interactions attractives entre NCPs, en solution diluée. Le rôle d'ions multivalents dans les interactions entre NCPs et la formation de précipités ont été étudiés. Le rôle des queues d'histones est également abordé pour la formation de phases denses obtenues sous stress osmotique.
210

Propriétés structurales et magnétiques d'agrégats mixtes CoxPt1-x et CoAg. Effets de proximité et blocage de Coulomb via un agrégat isolé

FAVRE, Luc 16 December 2004 (has links) (PDF)
Ce travail de thèse traite de la synthèse et de l'étude des propriétés d'agrégats mixtes magnétiques. Ils sont produits à l'aide d'une technique de co-dépôt utilisant source à vaporisation laser couplée avec une cellule d'évaporation. Les agrégats Co-Ag ont un diamètre moyen de 3,1 nm. L'argent ségrége pour former une structure coeur(Co)-coquille(Ag). Les agrégats CoPt ont une énergie d'anisotropie magnétique (MAE) supérieure à celle d'agrégats de cobalt pur. Ils possèdent un diamètre moyen de 2 nm et sont nanocristallisés dans une phase cfc chimiquement désordonnée. Des mesures de transport électronique à travers un agrégat CoPt isolé ont permis d'observer les effets du blocage de Coulomb et les niveaux d'énergie électroniques discrets de la particule. Nous avons également mesuré l'influence d'agrégats magnétiques sur la densité d'états locale d'une matrice supraconductrice de niobium. Nous avons pu mettre en évidence l'apparition d'états électroniques à l'intérieure de la bande interdite.

Page generated in 0.0464 seconds