951 |
Développement de composites polypropylène renforcés par des fibres de chanvre pour application automobile / Development of polypropylene composites reinforced with hemp fibers for automotive applicationPuech, Laurent 29 November 2017 (has links)
Face à la nécessité de trouver des alternatives aux ressources d’origine fossile et de limiter les impacts environnementaux de l’activité humaine, un important effort de recherche est actuellement en cours pour favoriser et accroître l’utilisation de produits issus de ressources renouvelables, comme les fibres végétales, dans la conception de pièces industrielles. Toutefois, de nombreux verrous scientifiques et technologiques restent encore à lever avant de pouvoir valoriser de façon fiable et durable ces fibres dans un contexte technique exigeant tel que celui du secteur l’automobile. Ainsi, l’amélioration de la qualité de l’interface fibres végétales / matrice polymère est un enjeu de taille car elle constitue une condition permettant de satisfaire les performances mécaniques requises telles que la rigidité, la résistance ou la tenue au choc. Dans ce contexte, l’objectif de la thèse a été le développement de fibres courtes de chanvre à propriétés de surface maitrisées et ciblées. Des solutions de fonctionnalisation de surface applicables par des procédés industrialisables ont été développées dans le but d’incorporer ces fibres dans une matrice polypropylène (PP). Les fibres de chanvre ont ainsi été traitées selon différentes stratégies de fonctionnalisation incluant l’utilisant du polypropylène greffé anhydride maléique (PP-g-MA), d’organosilanes, d’un acide aminé, d’isocyanates et d’un polyuréthane. Deux procédés de traitement à faible impact environnemental ont été comparés : le sprayage direct des fibres par les molécules de fonctionnalisation et l’incorporation de ces molécules par extrusion réactive. Les traitements en extrusion réactive se sont montrés plus efficaces que ceux réalisés par sprayage dans le cas du PP-g-MA. Trois voies de fonctionnalisation se sont avérées pertinentes au regard des propriétés mécaniques visées : i) l’utilisation de PP-g-MA seul en extrusion réactive ; ii) la fonctionnalisation par sprayage d’un aminosilane ou d’un acide aminé couplée à l’incorporation du PP-g-MA en extrusion réactive. S’appuyant sur le développement de moyens expérimentaux et d’analyses spécifiques, l’étude du comportement au choc des biocomposites a montré que les composites renforcés fibres de chanvre permettent d’absorber d’avantage d’énergie que les composites PP / verre (à taux volumique de renfort identique) pour une longueur de fissuration similaire. Une modélisation par éléments finis du comportement au choc des composites étudiés est également proposée. / Due to the necessity to find alternatives to fossil resources and to reduce the environmental impacts of human activity, a major research effort is currently ongoing in order to develop and increase the use of biobased products from renewable resources, such as natural fibers, in the design of industrial parts. However, many scientific and technological hurdles have yet to be removed so as to promote these products before we can reliably and durably use these fibers in a demanding technical context as in automotive sector. Thus, improving the quality of the interface between natural fibers and polymer matrix is a major challenge, since it constitutes a condition for satisfying the required mechanical performances, such as stiffness, tensile or impact strengths. In this context, the thesis objective was to develop short hemp fibers with controlled and targeted surface properties. Surface-functionalization solutions have been developed, to be used by industrial processes, with the aim of incorporating these fibers in a polypropylene (PP) matrix. Therefore, hemp fibers have been treated according to various functionalization strategies including the use of grafted polypropylene maleic anhydride (PP-g-MA), organosilanes, an amino acid, isocyanates and a polyurethane. Two treatments processes, with low environmental impact, were compared: the direct spraying of functionalization molecules on fibers and reactive extrusion incorporation of these molecules. Reactive extrusion treatments were more efficient than those performed by spraying in the case of PP-g-MA. Three functionalization lanes have been found to be relevant regarding the mechanical properties targeted: i) using PP-g-MA alone in reactive extrusion; ii) spraying-functionalization of an aminosilane or of an amino acid coupled with the incorporation of PP-g-MA into the reactive extrusion. Based on the development of experimental means and specific analyzes, the study of the impact behavior of biocomposites has shown that hemp fiber reinforced composites allow to absorb more energy than PP / glass composites (at identical reinforcing volume rate) for a similar crack length. Also, a finite element modeling of the impact behavior of the studied composites is propounded.
|
952 |
Désignations nominales des événements : étude et extraction automatique dans les textes / Nominal designation of events : study and automatic extraction in textsArnulphy, Béatrice 02 October 2012 (has links)
Ma thèse a pour but l'étude des désignations nominales des événements pour l'extraction automatique. Mes travaux s'inscrivent en traitement automatique des langues, soit dans une démarche pluridisciplinaire qui fait intervenir linguistique et informatique. L'extraction d'information a pour but d'analyser des documents en langage naturel et d'en extraire les informations utiles à une application particulière. Dans ce but général, de nombreuses campagnes d'extraction d'information ont été menées~: pour chaque événement considéré, il s'agit d'extraire certaines informations relatives (participants, dates, nombres, etc.). Dès le départ, ces challenges touchent de près aux entités nommées (éléments « notables » des textes, comme les noms de personnes ou de lieu). Toutes ces informations forment un ensemble autour de l'événement. Pourtant, ces travaux ne s'intéressent que peu aux mots utilisés pour décrire l'événement (particulièrement lorsqu'il s'agit d'un nom). L'événement est vu comme un tout englobant, comme la quantité et la qualité des informations qui le composent. Contrairement aux travaux en extraction d'informations générale, notre intérêt principal est porté uniquement sur la manière dont sont nommés les événements qui se produisent et particulièrement à la désignation nominale utilisée. Pour nous, l'événement est ce qui arrive, ce qui vaut la peine qu'on en parle. Les événements plus importants font l'objet d'articles de presse ou apparaissent dans les manuels d'Histoire. Un événement peut être évoqué par une description verbale ou nominale. Dans cette thèse, nous avons réfléchi à la notion d'événement. Nous avons observé et comparé les différents aspects présentés dans l'état de l'art jusqu'à construire une définition de l'événement et une typologie des événements en général, et qui conviennent dans le cadre de nos travaux et pour les désignations nominales des événements. Nous avons aussi dégagé de nos études sur corpus différents types de formation de ces noms d'événements, dont nous montrons que chacun peut être ambigu à des titres divers. Pour toutes ces études, la composition d'un corpus annoté est une étape indispensable, nous en avons donc profité pour élaborer un guide d'annotation dédié aux désignations nominales d'événements. Nous avons étudié l'importance et la qualité des lexiques existants pour une application dans notre tâche d'extraction automatique. Nous avons aussi, par des règles d'extraction, porté intérêt au cotexte d'apparition des noms pour en déterminer l'événementialité. À la suite de ces études, nous avons extrait un lexique pondéré en événementialité (dont la particularité est d'être dédié à l'extraction des événements nominaux), qui rend compte du fait que certains noms sont plus susceptibles que d'autres de représenter des événements. Utilisée comme indice pour l'extraction des noms d'événements, cette pondération permet d'extraire des noms qui ne sont pas présents dans les lexiques standards existants. Enfin, au moyen de l'apprentissage automatique, nous avons travaillé sur des traits d'apprentissage contextuels en partie fondés sur la syntaxe pour extraire de noms d'événements. / The aim of my PhD thesis is the study of nominal designations of events for automatic extraction. My work is part of natural language processing, or in a multidisciplinary approach that involves Linguistics and Computer Science. The aim of information extraction is to analyze natural language documents and extract information relevant to a particular application. In this general goal, many information extraction campaigns were conducted: for each event considered, the task of the campaign is to extract some information (participants, dates, numbers, etc..). From the outset these challenges relate closely to named entities (elements "significant" texts, such as names of people or places). All these information are set around the event and the work does not care about the words used to describe the event (especially when it comes to a name). The event is seen as an all-encompassing as the quantity and quality of information that compose it. Unlike work in general information retrieval, our main interest is focused only on the way are named events that occur particularly in the nominal designation used. For us, this is the event that happens that is worth talking about. The most important events are the subject of newspaper articles or appear in the history books. An event can be evoked by a verbal or nominal description. In this thesis, we reflected on the notion of event. We observed and compared the different aspects presented in the state of the art to construct a definition of the event and a typology of events generally agree that in the context of our work and designations nominal events. We also released our studies of different types of training corpus of the names of events, we show that each can be ambiguous in various ways. For these studies, the composition of an annotated corpus is an essential step, so we have the opportunity to develop an annotation guide dedicated to nominal designations events. We studied the importance and quality of existing lexicons for application in our extraction task automatically. We also focused on the context of appearance of names to determine the eventness, for this purpose, we used extraction rules. Following these studies, we extracted an eventive relative weighted lexicon (whose peculiarity is to be dedicated to the extraction of nominal events), which reflects the fact that some names are more likely than others to represent events. Used as a tip for the extraction of event names, this weight can extract names that are not present in the lexicons existing standards. Finally, using machine learning, we worked on learning contextual features based in part on the syntax to extract event names.
|
953 |
Automatic, adaptive, and applicative sentiment analysis / Analyse de sentiments automatique, adaptative et applicativePak, Alexander 13 June 2012 (has links)
L'analyse de sentiments est un des nouveaux défis apparus en traitement automatique des langues avec l'avènement des réseaux sociaux sur le WEB. Profitant de la quantité d'information maintenant disponible, la recherche et l'industrie se sont mises en quête de moyens pour analyser automatiquement les opinions exprimées dans les textes. Pour nos travaux, nous nous plaçons dans un contexte multilingue et multi-domaine afin d'explorer la classification automatique et adaptative de polarité.Nous proposons dans un premier temps de répondre au manque de ressources lexicales par une méthode de construction automatique de lexiques affectifs multilingues à partir de microblogs. Pour valider notre approche, nous avons collecté plus de 2 millions de messages de Twitter, la plus grande plate-forme de microblogging et avons construit à partir de ces données des lexiques affectifs pour l'anglais, le français, l'espagnol et le chinois.Pour une meilleure analyse des textes, nous proposons aussi de remplacer le traditionnel modèle n-gramme par une représentation à base d'arbres de dépendances syntaxiques. Dans notre modèles, les n-grammes ne sont plus construits à partir des mots mais des triplets constitutifs des dépendances syntaxiques. Cette manière de procéder permet d'éviter la perte d'information que l'on obtient avec les approches classiques à base de sacs de mots qui supposent que les mots sont indépendants.Finalement, nous étudions l'impact que les traits spécifiques aux entités nommées ont sur la classification des opinions minoritaires et proposons une méthode de normalisation des décomptes d'observables, qui améliore la classification de ce type d'opinion en renforçant le poids des termes affectifs.Nos propositions ont fait l'objet d'évaluations quantitatives pour différents domaines d'applications (les films, les revues de produits commerciaux, les nouvelles et les blogs) et pour plusieurs langues (anglais, français, russe, espagnol et chinois), avec en particulier une participation officielle à plusieurs campagnes d'évaluation internationales (SemEval 2010, ROMIP 2011, I2B2 2011). / Sentiment analysis is a challenging task today for computational linguistics. Because of the rise of the social Web, both the research and the industry are interested in automatic processing of opinions in text. In this work, we assume a multilingual and multidomain environment and aim at automatic and adaptive polarity classification.We propose a method for automatic construction of multilingual affective lexicons from microblogging to cover the lack of lexical resources. To test our method, we have collected over 2 million messages from Twitter, the largest microblogging platform, and have constructed affective resources in English, French, Spanish, and Chinese.We propose a text representation model based on dependency parse trees to replace a traditional n-grams model. In our model, we use dependency triples to form n-gram like features. We believe this representation covers the loss of information when assuming independence of words in the bag-of-words approach.Finally, we investigate the impact of entity-specific features on classification of minor opinions and propose normalization schemes for improving polarity classification. The proposed normalization schemes gives more weight to terms expressing sentiments and lower the importance of noisy features.The effectiveness of our approach has been proved in experimental evaluations that we have performed across multiple domains (movies, product reviews, news, blog posts) and multiple languages (English, French, Russian, Spanish, Chinese) including official participation in several international evaluation campaigns (SemEval'10, ROMIP'11, I2B2'11).
|
954 |
Génération automatique de questionnaires à choix multiples pédagogiques : évaluation de l'homogénéité des options / Automatic generation of educational multiple-choice questions : evaluation of option homogeneityPho, Van-Minh 24 September 2015 (has links)
Ces dernières années ont connu un renouveau des Environnements Informatiques pour l'Apprentissage Humain. Afin que ces environnements soient largement utilisés par les enseignants et les apprenants, ils doivent fournir des moyens pour assister les enseignants dans leur tâche de génération d'exercices. Parmi ces exercices, les Questionnaires à Choix Multiples (QCM) sont très présents. Cependant, la rédaction d'items à choix multiples évaluant correctement le niveau d'apprentissage des apprenants est une tâche complexe. Des consignes ont été développées pour rédiger manuellement des items, mais une évaluation automatique de la qualité des items constituerait un outil pratique pour les enseignants.Nous nous sommes intéressés à l'évaluation automatique de la qualité des distracteurs (mauvais choix de réponse). Pour cela, nous avons étudié les caractéristiques des distracteurs pertinents à partir de consignes de rédaction de QCM. Cette étude nous a conduits à considérer que l'homogénéité des distracteurs et de la réponse est un critère important pour valider les distracteurs. L'homogénéité est d'ordre syntaxique et sémantique. Nous avons validé la définition de l'homogénéité par une analyse de corpus de QCM, et nous avons proposé des méthodes de reconnaissance automatique de l'homogénéité syntaxique et sémantique à partir de cette analyse.Nous nous sommes ensuite focalisé sur l'homogénéité sémantique des distracteurs. Pour l'estimer automatiquement, nous avons proposé un modèle d'ordonnancement par apprentissage, combinant différentes mesures d'homogénéité sémantique. L'évaluation du modèle a montré que notre méthode est plus efficace que les travaux existants pour estimer l'homogénéité sémantique des distracteurs. / Recent years have seen a revival of Intelligent Tutoring Systems. In order to make these systems widely usable by teachers and learners, they have to provide means to assist teachers in their task of exercise generation. Among these exercises, multiple-choice tests are very common. However, writing Multiple-Choice Questions (MCQ) that correctly assess a learner's level is a complex task. Guidelines were developed to manually write MCQs, but an automatic evaluation of MCQ quality would be a useful tool for teachers.We are interested in automatic evaluation of distractor (wrong answer choice) quality. To do this, we studied characteristics of relevant distractors from multiple-choice test writing guidelines. This study led us to assume that homogeneity between distractors and answer is an important criterion to validate distractors. Homogeneity is both syntactic and semantic. We validated the definition of homogeneity by a MCQ corpus analysis, and we proposed methods for automatic recognition of syntactic and semantic homogeneity based on this analysis.Then, we focused our work on distractor semantic homogeneity. To automatically estimate it, we proposed a ranking model by machine learning, combining different semantic homogeneity measures. The evaluation of the model showed that our method is more efficient than existing work to estimate distractor semantic homogeneity
|
955 |
Searching for gravitational waves associated with gamma-ray bursts int 2009-2010 ligo-virgo data / Recherche d’ondes gravitationnelles associées aux sursauts gamma dans les données LIGO-Virgo de 2009-2010Was, Michal 27 June 2011 (has links)
Cette thèse présente les résultats de la recherche de signaux impulsionnels d’ondes gravitationnelles associés aux sursauts gamma dans les données 2009-2010 des interféromètres LIGO-Virgo. L’étude approfondie des mécanismesd’émission d’ondes gravitationnelles par les progéniteurs de sursauts gamma, ainsi que des mécanismes d’émission de rayons gamma eux-mêmes, permet de déterminer les caractéristiques essentielles du signal à détecter : polarisation, délai temporel, etc ... Cette connaissance de l’émission conjointe permet alors de construire une méthode d’analyse qui inclut les a priori astrophysiques. Cette méthode est de plus robuste vis-à-vis des bruits transitoires présents dans les données. L’absence de détection nous permet de placer des limites observationnelles inédites sur la population des sursauts gamma. / In this thesis we present the results of the search for gravitational wave bursts associated with gamma-ray bursts in the 2009-2010 data from the LIGOVirgo gravitational wave interferometer network. The study of gamma-ray bursts progenitors, both from the gamma-ray emission and the gravitational wave emission point of view, yields the characteristic of the sought signal: polarization, time delays, etc ... This knowledge allows the construction of a data analysis method which includes the astrophysical priors on joint gravitational wave and gamma-ray emission, and moreover which is robust to non-stationary transient noises, which are present in the data. The lack of detection in the analyzed data yields novel observational limits on the gamma-ray burst population.
|
956 |
Exploration d'architectures génériques sur FPGA pour des algorithmes d'imagerie multispectrale / Exploration of generic architectures on FPGA for algorithms of multispectral imagingTan, Junyan 12 June 2012 (has links)
Les architectures multiprocesseur sur puce (MPSoC) basées sur les réseaux sur puce (NoC) constituent une des solutions les plus appropriées pour les applications embarquées temps réel de traitement du signal et de l’image. De part l’augmentation constante de la complexité de ces algorithmes et du type et de la taille des données manipulées, des architectures MPSoC sont nécessaires pour répondre aux contraintes de performance et de portabilité. Mais l’exploration de l’espace de conception de telles architectures devient très coûteuse en temps. En effet, il faut définir principalement le type et le nombre des coeurs de calcul, l’architecture mémoire et le réseau de communication entre tous ces composants. La validation par simulation de haut niveau manque de précision, et la simulation de bas niveau est inadaptée au vu de la taille de l’architecture. L’émulation sur FPGA devient donc inévitable. Dans le domaine de l’image, l’imagerie spectrale est de plus en plus utilisée car elle permet de multiplier les intervalles spectraux, améliorant la définition de la lumière d’une scène pour permettre un accès à des caractéristiques non visibles à l’oeil nu. De nombreux paramètres modifient les caractéristiques de l’algorithme, ce qui influence l’architecture finale. L’objectif de cette thèse est de proposer une méthode pour dimensionner au plus juste l’architecture matérielle et logicielle d’une application d’imagerie multispectrale. La première étape est le dimensionnement du NoC en fonction du trafic sur le réseau. Le développement automatique d’une plateforme d’émulation sur mono ou multi FPGA facilite cette étape et détermine le positionnement des composants de calcul. Ensuite, le dimensionnement des composants de calcul et leurs fonctionnalités sont validés à l’aide de plateformes de simulation existantes, avant la génération du modèle synthétisable sur FPGA. Le flot de conception est ouvert dans le sens qu’il accepte différents NoC à condition d’avoir le modèle source HDL de ce composant. De nombreux résultats mettent en avant les paramètres importants qui ont une influence sur les performances des architectures et du NoC en particulier. Plusieurs solutions sont décrites, commentées et critiquées. Ces travaux nous permettent de poser les premiers jalons d’une plateforme d’émulation complète MPSoC à base de NoC / The Multiprocessor-System-On-Chip (MPSoC) architectures based on the Network-On-Chip (NoC) communication are the one of the most appropriate solution for image and signal processing applications under real time constraints. Due to the ever increasing complexity of these algorithms, the types and sizes of the data manipulated, the MPSoC architectures are necessary to meet the constraints of performance and portability. However exploring the design space of such architecture is time consuming. Indeed, many parameters should be defined such as the type and the number of processing cores, the memory architecture and the communication network between all these components. Validation by high-level simulations has the lack of the precision. Low-level simulation is inadequate for such big size of the architecture. Therefore, the emulation on FPGA becomes inevitable. In image processing, spectral imaging is more and more used. This technology captures light from more frequencies than the human eye increasing the number of wavelengths. Invisible details can be extracted from a scene. The difference between all spectral imaging applications is the number of wavelengths and the precision. Many parameters affect the characteristics of the algorithm, having a huge impact on the final architecture. The objective of this thesis is to propose a method for sizing one of the most accurate hardware and software architecture for multispectral imaging application. The first step is the design of the NoC based on the network traffic. The automatic development of an emulation platform on a single FPGA or multi-FPGAs simplifies this step and determines the positioning of the computational components. Then, the design of computational components and their functions are validated using existing simulation platforms. The synthesizable model of the architecture on FPGA is then generated. The design flow is open. Several NoC structures can be inserted using the source model of this component. The set of results obtained points out the major parameters influencing the performances of architecture and the NoC itself. Several solutions are described and analyzed. These studies allow us to lay the groundwork for a complete MPSoC emulation platform based on NoC
|
957 |
Préparation de matériaux d’électrode pour l’élimination et la valorisation de polluants azotés / Preparation of electrode materials for removal and valorization of nitrogenous pollutantsMirzaei, Peyman 16 October 2018 (has links)
Les technologies de traitement physico-chimique et biologique des eaux usées ne permettent pas un traitement efficace de l’azote puisque 40% est encore rejeté en rivière. La thèse porte sur le développement de nouveaux matériaux d’électrode pour la conversion des polluants azotés (nitrates, urée) en produits valorisables (NH3, H2) ou inertes (N2). Le travail consiste à synthétiser des matériaux composites constitués de nanoparticules mono ou bimétalliques jouant le rôle de catalyseurs, dispersées dans des carbones de grande surface spécifique. La forme ultra-divisée permet d’augmenter les surfaces actives et ainsi réduire les quantités de métal. Ces produits sont caractérisés par Microscopie Electronique à Balayage et en Transmission, par analyses ICP et DRX pour décrire leur morphologie, composition et structure. Des études électrochimiques analytiques sont ensuite réalisées à l’aide d’une MicroÉlectrode à Cavité afin de déterminer l’activité électro-catalytique des matériaux et accéder à des aspects mécanistiques. La première partie de la thèse a concerné l’électro-réduction des nitrates. Des composites Cu-Rh/C et Cu-Ni/C avec différentes compositions ont été synthétisés par une méthode chimique consistant à imprégner le carbone par des sels métalliques puis à les réduire par NaBH4 en présence d’un surfactant (CTAB). Les particules présentent des tailles d’environ 2 nm de diamètre. Ces bimétalliques présentent des courants plus élevés que ceux obtenus avec des particules monométalliques. En particulier, dans le cas du système Cu-Rh, il a été mis en évidence un comportement « bi-fonctionnel » où le cuivre réduit les nitrates en nitrites et le rhodium les nitrites en ammoniaque. Des matériaux composites ont ensuite été synthétisés dans les mêmes conditions mais en utilisant un carbone greffé afin de contrôler la dispersion et l’ancrage des nanoparticules. Pour cela, les carbones sont préalablement greffés par des groupements aryle avec substituant puis décorés des nanoparticules métalliques. Le but est de déterminer les conditions de greffage optimales conduisant aux réactivités les plus élevées en contrôlant l’épaisseur des films organiques greffés et la nature du substituant (-SH, -NH2, -COOH). La seconde partie de la thèse a concerné l’électro-oxydation de l’urée. Cette réaction est généralement effectuée sur des matériaux à base de nickel et, d’après la littérature, l’ajout d’un co-élément permet de modifier les propriétés électrochimiques (potentiel, intensité). Une étude sur des composites bimétalliques Ni100-xMx / C avec M = Co, Rh, Mn, Fe (selon la méthode déjà décrite ci-dessus) a été conduite pour déterminer le rôle de différents co-éléments. Le rhodium est apparu comme l’élément apportant la meilleure intensité et la meilleure stabilité. Une étude plus complète a alors été réalisée avec la synthèse de composites Ni100-xRhx / C avec différentes compositions par réduction des ions métalliques sous Ar/H2 dans un four à température modérée (500°C). L'oxydation électrochimique de l'urée est significativement améliorée par l'ajout de rhodium qui induit une forte diminution de la taille des nanoparticules (de 15 nm pour le nickel et à 2 nm le rhodium). Ce travail de thèse a montré l’intérêt d’utiliser des catalyseurs bimétalliques dispersés dans des matrices carbonées pour le traitement de polluants azotés. Elle confirme par ailleurs que la Microélectrode à Cavité est un outil performant pour l’étude des poudres grâce à la bonne résolution des signaux électrochimiques. La perspective la plus intéressante de ce travail est de poursuivre l’étude de l’électrocatalyse de l’urée sur les Ni-M/C pour pouvoir dépolluer l’urine tout en produisant à faible coût de l’hydrogène comme moyen de stockage de l’électricité renouvelable. Il a permis d’initier des collaborations avec d’autres laboratoires et un industriel de l’assainissement des eaux en vue de traiter de l’urine collectée à la source / Physico-chemical and biological wastewater treatment technologies do not allow efficient nitrogen treatment since 40% is still discharged into rivers. The thesis concerns the development of new electrode materials for the conversion of nitrogenous pollutants (nitrates, urea) into recoverable (NH3, H2) or inert products (N2). The work consists in synthesizing composite materials made of mono or bimetallic nanoparticles acting as catalysts, dispersed in large surface area carbons. The ultra-divided shape increases the active surface and thus reduces the amount of metal. These products are characterized by Scanning and Transmission Electron Microscopy, ICP and DRX analysis to describe their morphology, composition and structure. Electrochemical analytical studies are then carried out using a Cavity MicroElectrode to determine the electro-catalytic activity of the materials and access mechanistic aspects.The first part of the thesis concerned the electro-reduction of nitrates. Cu-Rh/C and Cu-Ni/C composites with different compositions were synthesized by a chemical method consisting of impregnating the carbon with metal salts and then reducing them with NaBH4 in the presence of a surfactant (CTAB). The particles are approximately 2 nm in diameter. These bimetals have higher currents than those obtained with monometallic particles. In particular, in the case of the Cu-Rh system, a "bi-functional" behavior has been demonstrated where copper reduces nitrates to nitrites and rhodium reduces nitrites to ammonia. Composite materials were then synthesized under the same conditions by using grafted carbon to control the dispersion and anchoring of nanoparticles. For this, the carbons are previously grafted by aryl groups with a substituent and then decorated with metal nanoparticles. The aim is to determine the optimal grafting conditions leading to the highest reactivity by controlling the thickness of the grafted organic films and the nature of the substituent (-SH, -NH2, -COOH). The second part of the thesis concerned the electro-oxidation of urea. This reaction is generally carried out on nickel-based materials and, according to the literature, the addition of a co-element makes it possible to modify the electrochemical properties (potential, intensity). A study on bimetallic composites Ni100-xMx / C with M = Co, Rh, Mn, Fe (according to the method described above) was conducted to determine the role of the different co-elements. Rhodium appeared as the element providing the best intensity and the best stability. A more complete study was then carried out by synthesizing Ni100-xRhx / C composites with different compositions through the reduction of metal ions under Ar/H2 in a furnace at moderate temperature (500°C). The electrochemical oxidation of urea is significantly improved by the addition of rhodium which induces a strong decrease in the nanoparticle size (from 15 nm for nickel to 2 nm for rhodium). This thesis work has shown the interest of using bimetallic catalysts dispersed in carbon matrices for the treatment of nitrogenous pollutants. It also confirms that the Cavity Microelectrode is a powerful tool for the study of powders thanks to the good resolution of electrochemical signals.The most interesting perspective of this work is to continue the study of urea electrocatalysis on Ni-M/C to be able to depollute urine while producing hydrogen at low cost for chemical storage of renewable electricity. It has enabled collaborations to be initiated with other laboratories and a water purification industrial company to treat urine collected separately
|
958 |
Optimisation du contraste dans les images polarimétriques : étude théorique, algorithmes et validation expérimentale / Contrast optimisation in polarimetric images : theoretical study, algorithms and experimental validationAnna, Guillaume 02 October 2013 (has links)
L'imagerie polarimétrique consiste à acquérir des images contenant des informations relatives à la polarisation de la lumière diffusée par une scène. L'objectif de cette thèse est d'utiliser les propriétés de ce type d'imagerie afin de d'améliorer le contraste entre plusieurs objets d'intérêt.Dans le cadre de l'optimisation du contraste entre deux objets d'intérêt, nous démontrons que, si l'on travaille à temps d'acquisition fixe, c'est l'acquisition d'une unique image avec des états d'illumination et d'analyse optimisés qui permet d'atteindre les meilleures performances. C'est pourquoi nous avons développé un imageur pouvant générer et analyser n'importe quel état de polarisation sur la sphère de Poincaré, en utilisant des cellules à cristaux liquides. Ces états peuvent être contrôlés afin de faire varier le contraste dans les images et nous montrons que les ``états optimaux" permettant de maximiser le contraste dépendent des conditions de mesure. En particulier, la valeur des états de polarisation maximisant le contraste entre deux objets d'intérêt dépend des bruits de mesure (bruit de détecteur, bruit de Poisson, Speckle) ainsi que des fluctuations spatiales des propriétés polarimétriques dans la scène. Une mauvaise estimation de la source de bruit peut donc amener à une perte significative de contraste.Nous nous intéressons ensuite à un scénario d'imagerie plus complexe où la scène peut être illuminée de manière non-uniforme. Nous proposons une méthode d'acquisition utilisant l'ensemble des degrés de liberté fournis par notre imageur et montrons que cette méthode permet d'augmenter significativement le contraste par rapport aux résultats obtenus avec d'autres types d'imagerie comme l'imagerie OSC (Orthogonal State Contrast).Nous étendons ensuite nos études à un cas ``multicibles" où plus de deux objets doivent être distingués. Nous montrons notamment que l'accroissement du nombre d'images peut dégrader le contraste et qu'il existe un nombre optimal d'images à acquérir si l'on travaille à temps d'acquisition fixe.Enfin, nous proposons une méthode visant à automatiser notre imageur pour l'optimisation du contraste en combinant de manière itérative l'acquisition d'images polarimétriques optimisées et un algorithme de segmentation par contours actifs statistiques. Des premiers résultats expérimentaux mettent en évidence l'avantage de cette intégration d'algorithmes de traitement numérique au c\oe ur du processus d'acquisition de l'image. / The polarimetric imaging consists in acquiring images containing information relating to the polarization of the scattered light from a scene. The objective of this thesis is to use the properties of this type of imaging to enhance the contrast between several objects of interest.Considering the optimization of the contrast between two objects of interest, we demonstrate that, if the time for the measurement is fixed, it is the acquisition of a single image with optimized states in illumination and analysis that achieves the best performance. That is why we have developed an imager that can generate and analyze any polarization state on the Poincaré sphere, using liquid crystal cells. These states can be controlled to modify the contrast in the images and we show that the ``optimal states" maximizing the contrast depend on the measurement conditions. Specifically, the value of the polarization states maximizing the contrast between two objects interest depends on the measurement noise (noise detector, Poisson noise, Speckle) and also of spatial fluctuations of polarimetric properties in the scene. Improper estimate of the noise source may therefore lead to a significant loss of contrast.We then consider a more complex imaging scenario where the scene can be illuminated non-uniformly. We propose a method of acquisition using all the degrees of freedom provided by our imaging and show that this method can significantly increase the contrast compared to results obtained with other types of polarimetric imaging such as OSC imaging (Orthogonal State Contrast).We then extend our studies to a ``multi-target case" where more than two objects must be distinguished. In particular, we show that increasing the number of images can degrade the contrast and that there is an optimum number of images to be acquired if one works with a fixed acquisition time.Finally, we propose a method to automate our imaging to optimize contrast by combining iteratively the acquisition of polarimetric images and optimized segmentation algorithm using statistical active contours. The first experimental results demonstrate the advantage of this integration of digital processing algorithms in the core of the image acquisition process.
|
959 |
Prise en compte des évolutions de la précipitation gamma prime dans la modélisation du comportement mécanique en traction du PER72® au cours du traitement thermique : application à la prévision des contraintes résiduelles après trempe / Consideration of the evolutions of gamma prime precipitation in the modelling of the tensile mechanical behavior of the PER72® during the heat treatment : application in the forecast of the residual stresses after quenchingLe Baillif, Paul 23 May 2018 (has links)
Le PER72® est un superalliage à base de nickel élaboré par Aubert & Duval, utilisé pour la fabrication de disques de turbines de moteurs d'hélicoptères. Dans le cadre de son élaboration, l'alliage subit un traitement thermique qui lui confère ses bonnes propriétés mécaniques, mais qui peut aussi être à l'origine de contraintes résiduelles pouvant fragiliser la pièce. L'objectif de ce travail de thèse consiste à étudier le traitement thermique de ce superalliage et proposer des lois de comportements mécaniques afin d'estimer les contraintes résiduelles créées lors de l'élaboration des disques. Les conditions de traitement thermique sont étudiées. D'une part, l'effet de la vitesse de refroidissement sur les propriétés de l'alliage est investigué. D'autre part, pour chaque vitesse de refroidissement, la trempe est interrompue à différentes températures pour procéder à des essais mécaniques de traction à chaud. Pour ce faire, un outillage permettant de réaliser le traitement thermique des éprouvettes directement sur la machine d'essai a été spécialement développé. De plus, pour chaque condition d’essai, une caractérisation de la microstructure des éprouvettes post-mortem est réalisée. En particulier, la taille et la fraction volumique des précipités de phase gamma' sont étudiées. L'objectif premier est de comprendre l'influence des conditions de traitement thermique sur les propriétés mécaniques et la microstructure de l'alliage. Dans un second temps, un lien entre la microstructure et les propriétés mécaniques est discuté. Enfin, un modèle de comportement thermomécanique adapté à la trempe est formulé. Dans sa formulation, ce modèle prend en compte les paramètres microstructuraux identifiés. / PER72® is a nickel-base superalloys developed by Aubert & Duval. This alloy is used in helicopter engine turbine disk manufacturing. During the elaboration, a heat treatment provides the alloy his good mechanical properties, but it can also be at the origin of residual stress that can affect the disk capabilities.The objective of this work is to study the heat treatment and formulate mechanical behaviour law in order to estimate residual stress generated during the process. The heat treatment conditions are studied. On one hand, the effect of cooling rate on mechanical properties is investigated. On the other hand, for each studied cooling rate, the quench is interrupted at a testing temperature to carry out a tensile test. A special testing device has been developed in order to carry out the heat treatment of alloy specimens directly on the testing machine. Moreover, for each testing condition, the microstructure is characterized. In particular, precipitate size and volume fraction have been measured. The first objective is to understand the influence of quenching conditions on mechanical properties and microstructure. A link between the microstructure and the mechanical properties is then discussed. Finally, a thermo-mechanical behaviour law is formulated. This model takes the identified microstructural parameters into account.
|
960 |
Post Examination of a High Flux Reactor Single Element with Ultra-Sounds / Mesure de distance inter plaques combustibles par méthode ultrasonore haute fréquenceZaz, Ghita 14 December 2015 (has links)
Le Réacteur à Haut Flux (RHF) de l'Institut Laue-Langevin (ILL), uniquement dédié à la recherche fondamentale, produit le flux continu de neutrons thermiques le plus intense au monde, soit 1.5 1015 neutrons par seconde et par cm2, avec une puissance thermique de 58 MW. Ce réacteur possède un cœur constitué d'un élément combustible unique en uranium très enrichi. Dans le cadre d'une étude sur le comportement des éléments combustibles après irradiation, l'ILL souhaite développer un dispositif capable d'aller mesurer la largeur du canal d'eau. Cette mesure permettra de caractériser le gonflement des plaques, inhérent à l'irradiation, ainsi que les modifications de structure (corrosion, décollement,…). Cependant, cette mesure de distance est délicate puisqu'une résolution de l'ordre du micromètre est recherchée alors que la dimension de l'espace inter-plaques est proche du millimètre. Les contraintes d'accès sont également difficiles du fait que l'élément combustible est placé à environ 5 m sous la surface de l'eau. En outre, tous les systèmes sont soumis à de fortes radiations. Basés sur des méthodes magnétiques, capacitives ou optiques, des dispositifs permettent aujourd'hui de mesurer des distances avec une résolution nanométrique et avec des fonctionnalités pouvant être adaptées dans des conditions de températures et de pression difficiles. Ces méthodes ne peuvent cependant pas être appliquées à des systèmes fortement radiatifs ou en immersion. Afin de répondre à cette problématique, deux transducteurs ultrasonores fonctionnant en émission-réceptions ont été conçus, étudiés et ensuite développés dans le cadre de cette thèse. Ces transducteurs sont montés sur une lame en acier inoxydable de 1 mm d'épaisseur afin d'autoriser l'accès à l'espace inter-plaques. Du fait de la haute résolution recherchée, les transducteurs sont excités à une fréquence au-delà de 120 MHz et intégrés dans un ensemble d'instruments de mesure comprenant un système d'acquisition haute fréquence, un traitement de signal de haute précision et une électronique spécifique développée pour améliorer le signal d'excitation.Connaissant la vitesse du son dans l'eau et l'épaisseur de la lame, les transducteurs mesurent la distance inter-plaque à partir de la détermination du temps de vol entre l'émission d'un pulse ultrasonore et la réception des échos réfléchis sur la surface de chacune des plaques. Deux expériences in-situ conduisant à une série de mesure de distance inter-plaque ont été réalisées au sein de l'élément combustible irradié du réacteur à haut flux. / The fuel elements of High Performance and Research Reactors are usually made of plates instead of rods. During irradiation, the fuel plates undergo limited swelling and an oxide layer appears on the outer surface of the cladding. However, measuring the inter-plate distance of such fuel elements isn't trivial mainly because of the requested resolution in constraint geometry. Indeed while the typical dimensions of the water channel between plates is close to two millimeter, a resolution of one micron is needed to characterize any fuel plate swelling. In order to perform such measurements, we designed a robust device based upon high frequency ultrasonic probes and adapted to the high radiation environment. It was thinned until 1 mm in order to be inserted into the 1.8 mm width water channel. To achieve the expected resolution, the system is excited with frequencies up to 120 MHz. Thanks to a highly performing signal processing; distance measurement is carried out through the ultrasonic waves' time of flight. One of the crucial points is then the evaluation of the local water temperature inside the water channel. To obtain a precise estimation of this parameter, the ultrasonic sensor is used as a thermometer thanks to the analysis of the spectral components of the acoustic signal propagating inside the sensor multilayered structure. The feasibility of temperature and distance measurement has already been proved with success on a full size irradiated fuel element of the RHF. Some experimental constraints were identified to improve the accuracy of the measurement system in future works.
|
Page generated in 0.0568 seconds