• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • Tagged with
  • 14
  • 14
  • 5
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Adaptation d'une méthode de synthèse et d'analyse pour une détermination globale des amides

Id-Hammou, Khadija January 2008 (has links) (PDF)
La présence d'amides dans l'environnement et leurs effets néfastes sur la santé a suscité le développement d'une méthode d'analyse globale des amides (R-CO-NH₂). Cette méthode est basée sur la chromatographie liquide à haute performance à phase inverse dotée respectivement d'un détecteur UV et fluorescence (HPLC-UV/FLUO). Ceci a nécessité la transformation des amides en dérivés amides susceptibles d'êtres détectés en UV et fluorescence. Lors de la présente étude, le réactif le chlorure de dansyle (DNS-Cl) a été utilisé pour la dérivatisation des amides. Le groupement sulfonyle du DNS-Cl réagit avec le groupement NH₂ des amides primaires pour former des produits dérivés aromatiques fluorescents. Les dérivés standards DNS-amides ne sont pas disponibles commercialement, ce qui a nécessité le développement d'une méthode de préparation des dérivés standards de trois classes d'amides primaires un amide aromatique, un amide aliphatique insaturé et deux amides aliphatiques saturés (benzamide, acrylamide, acétamide et propionamide). Le rendement moyen obtenu est de 55 % non optimisé. Les dérivés standards DNS-amides obtenus ont été d'abord caractérisés par infrarouge (IR) et la résonance magnétique nucléaire du proton (¹H) et du carbone 13 (¹³C) et par la suite analysés par le couplage HPLC-UV/FLUO. Les longueurs d'onde (λ) d'absorption, d'excitation et d'émission (déterminées par le spectrofluorimètre) employées lors de cette étude sont respectivement de 254 nm, 345 nm et de 535 nm. Les valeurs des limites de détection obtenues pour les quatre amides étudiés (benzamide, acrylamide, acétamide et propionamide) par HPLC-UV sont respectivement de 0,02 ppm, 0,02 ppm, 0,03 ppm et 0,03 ppm et celles obtenus par HPLC-FLUO sont respectivement de 0,01 ppm, 0,04 ppm, 0,004 ppm et 0,003 ppm. L'étude montre que le couplage HPLC-UV/FLUO permet d'avoir une bonne sensibilité et que la technique HPLC-FLUO est plus sélective que la technique HPLC-UV. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Amides, Benzamide, Acrylamide, Acétamide, Propionamide, Analyse globale, HPLC-UV/FLUO.
2

Développement, validation et application de méthodes d'analyse d'ultra-trace du Béryllium dans les matrices biologiques

Paquette, Vincent January 2008 (has links) (PDF)
Certaines études suggèrent que la forme chimique et la taille des particules de béryllium aient un rôle important à jouer sur sa toxicité. Le but principal du projet est de développer et valider des méthodes fiables, ayant des limites de détection au niveau d'ultra-trace, pour permettre d'analyser de faibles teneurs en béryllium dans différentes matrices biologiques. Cette étude s'inscrit dans un projet plus large où des souris ont été exposées par inhalation au Be (métal), BeO et BeAI (250 µg/m³, 6 h par jour, 14 jours). Les tissus et liquides biologiques suivants ont été prélevés sur les souris: sang, foie, poumon, rate et rein. Ils ont été digérés par une méthode, dans le cas des particules de Be (métal) et de BeAI, ou par une autre méthode, dans le cas de BeO. La méthode pour Be (métal) et BeAI consiste en une digestion humide avec un mélange (3:1) d'acide nitrique et perchlorique, tandis que la méthode pour BeO requiert l'ajout supplémentaire d'acide sulfurique. Les échantillons ont été analysés par ICP-MS avec le 6Li comme étalon interne. Les limites de détection méthodologiques ont été évaluées individuellement pour chaque matrice et chaque méthode. La limite de détection analytique moyenne est de 2 pg/mL en solution, ce qui correspond à l'équivalent de 0,02 ng/g de tissus biologiques. Dans le sang, elle est équivalente à 0,03 ng/mL. L'exactitude des méthodes a été confirmée à l'aide de matériel de référence certifié. Des méthodes fiables ont donc été développées, validées et ont des limites de détection parmi les meilleures de la littérature. Ces méthodes ont été utilisées pour évaluer la distribution du béryllium dans les différentes matrices biologiques en fonction de l'espèce chimique et de la taille des particules. Tel qu'attendu, les résultats toxicologiques ont démontré que la taille et la nature des particules de béryllium a une influence sur sa distribution dans l'organisme. Les méthodes développées ont démontré une sensibilité adéquate pour la grande majorité des échantillons analysés, démontrant ainsi leur efficacité face aux objectifs désirés du projet. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Béryllium, Digestion acide, Matrice biologique, ICP-MS, Ultra-trace.
3

Nouvelle méthode d'analyse rapide pour déterminer la capacité de charge du LiFePO₄

Trinh, Ngoc Duc 11 1900 (has links) (PDF)
Avec l'augmentation de la consommation d'énergie, il faut mettre de l'avant tout type d'énergie renouvelable. Cependant, la grande majorité de l'énergie consommée provient des combustibles fossiles, créant une grande quantité de gaz à effet de serre. Les systèmes de stockage permettent d'emmagasiner de l'énergie renouvelable et de pouvoir l'utiliser à bon escient. Plusieurs systèmes ont été développés pour cette fin et l'un d'eux est l'accumulateur (batterie) au lithium. Les accumulateurs lithium-ion sont très présents dans la vie quotidienne, notamment utilisés pour les ordinateurs portables, les téléphones cellulaires, les caméras numériques et les voitures hybrides ou électriques. Les accumulateurs lithium-ion présentent plusieurs avantages incluant une densité d'énergie élevée et une grande sécurité favorisant son utilisation dans les appareils portatifs. Beaucoup de recherches sont effectuées concernant la technologie lithium-ion, dont les matériaux de cathode. De ce lot, le phosphate de fer lithié (LiFePO4) a attiré l'attention de la communauté scientifique et est considéré comme étant l'un des matériaux de la prochaine génération des batteries lithium-ion. Le coût abordable lié à ce composé combiné à la présence abondante de fer contribue à son essor. Le potentiel standard du LiFePO4, ~3,4 V vs. Li/Li+, est plus faible que les matériaux conventionnels comme l'oxyde de cobalt, LiCoO2, mais la présence du fer et la forte liaison phosphate-oxygène sont des facteurs permettant d'accroître les propriétés de sécurité. La particularité de ce composé est la présence de deux phases solides (olivine et hétérosite) lors d'une charge/décharge d'une batterie au lithium. Pour étudier les performances électrochimiques, la méthode utilisée au niveau industriel demeure le cyclage des batteries en mode galvanostatique. Ceci permet d'obtenir la capacité, le nombre d'ampères par gramme de produit par unité de temps. Cependant, le LiFePO4 comporte des limitations autant pour la diffusion des ions de lithium dans sa structure que du transport de charge pour la réaction. Il est nécessaire d'ajouter un matériau conducteur, par exemple du carbone, pour s'assurer de la conductivité électronique lors de la préparation d'une électrode composite. La diminution de la taille des particules améliore la conductivité ionique en diminuant la distance à parcourir lors de la diffusion de Li+ dans la structure. Les performances électrochimiques du matériau actif dépendent aussi de la composition et de la structure de l'électrode composite de la batterie électrochimique. Dans le cadre de ce projet, une nouvelle méthode analytique a été développée pour déterminer la capacité de charge du composé LiFePO4, à la demande de l'industrie. Cette méthode nécessite l'utilisation d'un système électrochimique à trois électrodes d'électrolyse totale. L'oxydation de l'olivine LiFePO4 vers la phase hétérosite FePO4 s'effectue dans une solution organique (carbonate de propylène et LiPF6) avec la présence d'un médiateur redox, le 10-méthylphénothiazine (MPT). Le médiateur redox qui a été préalablement oxydé, possède un potentiel pouvant oxyder les particules de LiFePO4 en suspension et assure le transport de charge à l'électrode de travail. La quantité de charges injectée dans la solution est directement liée à la capacité de charge du matériau. Cette méthode permet donc l'analyse rapide pour obtenir la capacité de charge du LiFePO4, et pouvant être utilisée de façon routinière dans le milieu de l'industrie. Pour démontrer l'efficacité et la stabilité de la cellule électrochimique, une série d'analyses ont été effectuées, prouvant la reproductibilité de la méthode avec un écart-type relatif de 6.8%. Avec le même système électrochimique, au moins dix analyses d'un même échantillon peuvent être évaluées, sans observer une diminution de l'efficacité du signal. La versatilité de la technique a été démontrée par un emploi de divers échantillons. Les échantillons utilisés possèdent des valeurs de capacités différentes, des tailles de particule variées et avec/sans revêtement de carbone. Tous ces échantillons ont pu être analysés par cette méthode, ce qui n'est pas le cas pour la méthode standard employant les batteries électrochimiques. L'aptitude de cette technique à pouvoir être utilisée pour des particules sans revêtement de carbone est très avantageuse pour les analyses en industries. Les nanoparticules peuvent aussi être analysées par cette méthode, ce qui est difficile lors d'une préparation d'une électrode composite. Il faut souvent rajouter du carbone pour s'assurer de la connectivité entre les particules. Les valeurs émanant de la méthode développée ont été comparées avec la technique conventionnelle utilisée autant en industrie qu'en recherche, soit le cyclage galvanostatique de batteries au lithium. Les résultats obtenus par la méthode utilisant un médiateur redox démontrent une valeur de capacité supérieure à ceux observés par les batteries électrochimiques. Cela concorde avec les attentes, puisque le médiateur redox en solution recouvre et réagit complètement avec les particules de LiFePO4 et permet la délithiation complète, ce qui n'est pas observé pour les batteries où la capacité dépend de la structure et de la composition de l'électrode. La caractérisation effectuée par diffraction des rayons X et spectroscopie infrarouge à réflexion totale atténuée sur la poudre récoltée à la fin de l'électrolyse a été effectuée et démontre seulement la présence de la phase hétérosite à la fin de l'électrolyse, confirmant l'oxydation complète du produit de départ. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Batterie lithium-ion, Cathode, LiFePO4, 10-méthylphénothiazine, Électrolyse totale, Capacité de charge
4

L'analyse conceptuelle de textes assistée par ordinateur (LACTAO) : une expérimentation appliquée au concept d'évolution dans l'oeuvre d'Henri Bergson

Danis, Jean 03 1900 (has links) (PDF)
La présente recherche vise à expérimenter l'assistance informatique au processus d'analyse conceptuelle en philosophie. L'objectif spécifique de recherche consiste à explorer la portée d'un traitement informatique d'assistance à l'analyse du concept d'« évolution » dans l'œuvre d'Henri Bergson. Le traitement expérimenté (traitement LACTAO) repose sur l'hypothèse générale selon laquelle des processus de classification et de catégorisation, lorsque combinés au sein d'une chaîne de traitement, peuvent assister le chercheur dans la lecture et l'analyse exploratoire des propriétés d'un concept philosophique. Afin de mieux comprendre la problématique de l'assistance informatique à l'analyse des concepts de nature philosophique, nous faisons dans un premier temps un tour d'horizon des principaux outils et approches d'analyse des données textuelles, puis, dans un deuxième temps, nous abordons certains des principes théoriques qui sous-tendent les méthodes d'analyse conceptuelle issues de l'approche cognitiviste, de la théorie des espaces conceptuels (Gardenfors, 2000) ainsi que des approches discursives. À la suite de ces éléments théoriques, nous présentons la méthode particulière d'analyse conceptuelle qui est visée par l'expérimentation du traitement LACTAO dans l'analyse du concept d'« évolution » dans l’œuvre de Bergson. L'aspect informatique de la présente recherche est présenté par le biais de la description détaillée des différentes étapes de la chaîne de traitement LACTAO, des principaux postulats qui la sous-tendent et des choix d'opérationnalisation qu'elle suscite au sein de la méthode d'analyse du concept d'« évolution ». Les résultats de l'expérimentation du traitement sont présentés de façon à démontrer la portée de ce dernier dans l'assistance à un processus de lecture et d'analyse exploratoire en contexte de recherche. Nous proposons en conclusion une interprétation des résultats obtenus sous l'angle de la théorie des espaces conceptuels (Gardenfors, 2000) ainsi que des pistes de réflexion qui permettraient d'améliorer la portée du traitement au sein d'expérimentations futures. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : analyse conceptuelle en philosophie, analyse de textes assistée par ordinateur, Henri Bergson, espaces conceptuels, corpus philosophique, méthodologie, classification textuelle.
5

Le pragmatisme et l'analyse des phénomènes complexes dans la théorie des relations internationales : le cas des excuses dans la diplomatie américaine

Cornut, Jérémie 04 1900 (has links) (PDF)
Cette recherche se penche sur la manière dont plusieurs théories des relations internationales peuvent être combinées pour analyser un phénomène complexe. Elle répond aux critiques théoriques et métathéoriques auxquelles ce type de combinaison fait face. Il s'agit notamment de préciser son épistémologie - qui est décrite comme putnamienne, dans la lignée du réalisme pragmatique de Hilary Putnam – et sa cohérence explicative – mise à jour grâce à l'érotétique, c'est-à-dire la logique des questions et des réponses. Grâce aux concepts introduits, un phénomène fréquent et peu étudié, les excuses dans la diplomatie américaine, est analysé. L'objectif est de montrer en quoi trois cadres théoriques – dans la lignée respectivement de Hedley Bull, Costas Constantinou et Robert Putnam – sont compatibles et complémentaires pour permettre une meilleure compréhension du phénomène, c'est-à-dire, pour le dire en utilisant le concept de Railton, pour écrire la plus grande partie possible de son texte explicatif idéal. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Combinaison, Dialogue, Diplomatie américaine, Épistémologie, Érotétique, Excuses diplomatiques, Hilary Putnam, Paradigmatisme, Peter Railton, Phénomène complexe, Pluralisme, Pragmatisme, Problem-driven, Réalisme philosophique, Richard Rorty, Satisfaction, Synthèse, Texte explicatif idéal, Théorie des relations internationales, Theory-driven , William James
6

La démarche autobiographique, un outil d'accompagnement de la construction identitaire d'adolescents de la 5e secondaire

Cauvier, Johanne January 2008 (has links) (PDF)
Cette recherche qualitative/interprétative privilégie l'utilisation d'une démarche autobiographique comme recherche-formation auprès de vingt-sept adolescents de la 5e secondaire dans un cours optionnel « Formation de la personne ». La question centrale de cette recherche se formule ainsi: comment une démarche autobiographique dans un contexte scolaire peut-elle contribuer à la construction identitaire d'adolescents en fin d'études secondaires? Cette étude a pour objectifs de comprendre le processus de la construction identitaire chez l'adolescent et d'explorer la démarche autobiographique comme outil d'accompagnement dans cette construction identitaire d'adolescents de la 5e secondaire tel que vécu dans un cours optionnel « Formation de la personne ». Les fondements théoriques et épistémologiques de la recherche s'appuient sur une vision globale de la formation. De plus, les visées de production de connaissance et de formation sont liées à la recherche-formation valorisant épistémologiquement la notion d'expérience personnelle et sociale, tout en mettant en évidence la façon dont l'identité se forme et s'enrichit dans l'action à travers des situations concrètes, des événements existentiels. Dans cette recherche, deux analyses des matériaux ont été faites. Tout d'abord, par les auteurs des récits. En se positionnant en tant que chercheurs, ces derniers deviennent les premiers interprétants de leurs événements de vie. Une deuxième analyse a été réalisée selon la méthode d'analyse de théorisation afin de produire des connaissances sur la construction identitaire d'adolescents de la 5e secondaire et sur l'accompagnement d'une démarche autobiographique. La recherche démontre clairement que l'identité se construit progressivement d'un stade de vie à un autre et qu'il n'existe pas une adolescence, mais des adolescences. Le chemin de vie de chaque auteur est complexe et lie étroitement la relation à soi et la relation à autrui, les réalités individuelles et les réalités sociales ainsi que l'histoire transgénérationnelle dans laquelle l'adolescent est inscrit. Enfin, la démarche autobiographique s'avère un outil précieux dans la construction identitaire d'adolescents de la 5e secondaire. La démarche autobiographique soutient les auteurs dans le remaniement de leur rapport à soi, à l'autre et à la vie, les aide à faire le point sur leur vie, à prendre une distance à propos de certains événements avant de se propulser dans l'à-venir. Ces derniers ont acquis une plus grande conscience de soi, de l'autre et de leur environnement, ont développé des ressources personnelles et ont accru leur autonomie et leur affirmation de soi et ce, en se responsabilisant davantage vis-à-vis de leur vie. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Adolescence, Identité, Accompagnement éducatif, Démarche autobiographique, Recherche-formation, Méthode d'analyse de théorisation.
7

Capteurs passifs à transduction électromagnétique pour la mesure sans fil de la pression / Passive Micro-Sensors Based on Electromagnetic Transduction Principle for Remote pressure sensing

Jatlaoui, Mohamed Mehdi 20 April 2009 (has links)
Depuis quelques années on assiste à la prolifération de capteurs (pression, accélération, température) autonomes sans fil qui s'appuient sur la disponibilité d'une part d'éléments sensibles petits et performants et d'autre part sur de nouveaux circuits électroniques de communication à faible coût entre 300MHz et 3GHz. Ces composants répondent à la demande croissante pour des réseaux de capteurs communicants autonomes pour des applications distribuées de surveillance, d'analyse ou encore de diagnostic. Cependant, le développement de ces réseaux de capteurs communicants sans fil a mis en évidence une limitation intrinsèque de l'utilisation de la plupart des cellules de mesures existantes liée à l'autonomie énergétique du système. La majorité des recherches visant à augmenter l'autonomie des capteurs se focalisent d'une part sur la réduction de la consommation des cellules sensibles et des circuits électroniques et d'autre part sur la disponibilité de l'énergie embarquée. Bien que séduisantes, toutes ces solutions potentielles présentent des inconvénients majeurs tels que la complexité des dispositifs à mettre en œuvre, des faibles courants disponibles ou encore une quantité d'énergie stockée peu importante. Dans le cadre de cette thèse, on s'est intéressé au cas particulier des capteurs de pression et on a adopté une toute autre approche. En effet, l'objectif de ce travail consiste à repenser complètement le principe de fonctionnement du capteur en développant un nouveau mode de transduction complètement passif qui ne nécessite pas d'énergie embarquée et qui peut être interrogé à grande distance (plusieurs mètres à quelques dizaines de mètres) par radar. Ce mode baptisé `transduction électromagnétique' est basé sur la modification de la fréquence de résonance d'une fonction hyperfréquence par la grandeur à mesurer. Cette méthode originale de transduction convertit l'effet d'un gradient de pression en un décalage en fréquence. Dans une première étape, une validation théorique, par modélisation électromagnétique, du principe de fonctionnement est présentée. Ensuite, le dimensionnement de la cellule de mesure est réalisé en tenant compte, d'une part de l'aspect électromagnétique lié au circuit résonant, et d'autre part de l'aspect mécanique relatif aux contraintes technologiques pour les structures avec membrane silicium. Par la suite, des simulations électromagnétiques simplifiées ainsi que des simulations tenant compte de la déformation réelle de la membrane ont été réalisées pour valider, par simulation, le décalage en fréquence et ainsi valider le principe de fonctionnement du capteur. L'étape suivante a permis d'identifier les procédés technologiques en salle blanche qui ont permis de réaliser les premiers prototypes du capteur. Une fois les cellules de mesures fabriquées, des mesures RF ont été réalisées et viennent confirmer les résultats de simulations. Ensuite, en utilisant un banc de mesure spécialement dédié à ce type de capteurs, des mesures RF combinées avec des mesures en pression ont été menées pour la caractérisation en pression des prototypes et pour en extraire la sensibilité. Enfin, des perspectives sont ouvertes sur les aspects sans-fil et interrogation Radar du capteur / Manquant
8

Calcul simplifié des efforts dans les éléments d'une structure ne faisant pas partie du système de reprise des efforts sismiques

Beauchamp, Jonatan January 2016 (has links)
Selon les codes de construction canadiens, dans les bâtiments susceptibles d'être soumis à des efforts sismiques, un système de reprise des forces sismiques (SRFS) doit être défini et il doit être en mesure de reprendre la totalité des efforts latéraux infligés par les tremblements de terre. Cette hypothèse permet de dimensionner le SRFS sécuritairement, mais soulève également une difficulté : déterminer les efforts sismiques dans les éléments n'en faisant pas partie, c'est-à-dire les éléments du système de reprise des charges de gravité (SRCG). Cette difficulté a même été mise en évidence lors de récents séismes à travers le monde. En effet, plusieurs bâtiments munis d'un SRFS bien défini se sont effondrés ou ont dû être démolis sans que le SRFS n'ait atteint sa pleine capacité. C'est plutôt parce que le SRCG n'a pas été en mesure de subir les déplacements latéraux. Selon les codes de construction canadiens en vigueur (CNBC 2010 et CSA A23.3-14), les efforts dans les éléments ne faisant pas partie du SRFS doivent être déterminés par analyse non linéaire ou par une méthode simplifiée si certains critères sont respectés. Ce mémoire de maîtrise présente une nouvelle méthode pour calculer les efforts dans les éléments ne faisant pas partie du SRFS basée sur l'analyse dynamique linéaire. Cette nouvelle méthode est basée sur l'hypothèse que si, dans le modèle d'éléments finis d'un bâtiment, la rigidité des éléments qui ne font pas partie du SRFS est réduite par un facteur assez élevé, les déplacements du modèle complet seront égaux à ceux du SRFS et les efforts peuvent être déterminés en les majorant par le facteur de réduction de la rigidité. La nouvelle méthode est démontrée par le calcul de la réponse sismique de bâtiments de 12 étages en béton armé symétrique et asymétrique. Aussi, ces résultats sont comparés à ceux obtenus à partir de l'application de la méthode d'analyse simplifié proposé dans la norme canadienne calcul des structures en béton (CSA A23.3-14, art. 21.11.2.2). Afin d'avoir des valeurs de comparaison cohérentes, des analyses non linéaires dans le temps sont également effectuées. Les résultats montrent que la nouvelle méthode peut prédire adéquatement le cisaillement et le moment de flexion en requérant moins de temps de modélisation que la méthode simplifiée de la norme A23.3-14. Par conséquent, cette nouvelle méthode est un bon substitut à l'analyse non linéaire pour prédire les forces sismiques dans les éléments ne sont pas considérés partie du SRFS.
9

Méthodes d'analyse de la qualité de l'énergie électrique.<br />Application aux creux de tension et à la pollution harmonique.

Ignatova, Vanya 20 October 2006 (has links) (PDF)
La qualité de l'énergie électrique concerne tous les acteurs<br />du domaine énergétique, qu'ils soient gestionnaires de<br />réseaux, fournisseurs, producteurs, ou consommateurs d'électricité. <br />Le travail de recherche présenté dans ce <br />mémoire de Doctorat s'inscrit dans le domaine du monitoring de la qualité de l'énergie électrique. <br />Il a pour objectif d'introduire de nouvelles techniques dans <br />l'analyse des problèmes de la qualité de l'énergie électrique. <br />Trois méthodes différentes destinées à l'analyse des perturbations électriques ont été développées et testées.<br />La méthode du vecteur d'espace est dédiée à l'analyse automatique des perturbations électriques. <br />Elle donne detrès bonnes performances dans l'analyse des creux de tension, <br />car elle permet d'isoler, classifier de manière précise et caractériser ce type de perturbations.<br />La méthode des systèmes périodiques permet d'étudier <br />théoriquement la génération et la propagation des perturbations harmoniques au sein d'un réseau électrique.<br />Enfin, la méthode statistique matricielle a pour objectif <br />de représenter statistiquementn des signaux électriques<br />sans perte importante d'information à l'aide de matrices statistiques.
10

Développement et Validation d'un Outil Numérique Tridimensionnel pour décrire l'Endommagement et la Fissuration causés par la Réaction Alcali-Silice dans les Structures en Béton

Comby peyrot, Isabelle 01 December 2006 (has links) (PDF)
La Réaction Alcali-Silice (RAS) est une réaction chimique de dégradation des bétons occasionnant des désordres irréversibles au niveau de l'ouvrage. La modélisation de l'endommagement et de la fissuration d'une structure en béton tridimensionnelle victime de la RAS est donc de première importance en génie civil. Le logiciel FEMCAM (Finite Element Model for Concrete Analysis Method) a été développé dans ce cadre, afin de modéliser le comportement mécanique tridimensionnel des matériaux quasi-fragiles tels que les bétons. Dans cette thèse, nous avons développé une approche mésoscopique où le béton est considéré comme un matériau biphasé en présence de granulats et d'une pâte de mortier. Le modèle non local de Mazars avec formulation implicite a ainsi été implémenté et validé dans notre code Eléments Finis pour rendre compte du comportement élastique endommageable de la pâte de mortier. Nous abordons ensuite l'identification des paramètres élastiques et d'endommagement de ce modèle. Une attention particulière est portée à la campagne expérimentale menée au département Génie Civil de l'Ecole des Mines de Douai. Ces résultats expérimentaux ont été comparés aux résultats numériques via le module d'analyse inverse "RheOConcrete ". Des tests de compression, flexion trois points, essais brésiliens ont été ainsi réalisés. Les exemples d'applications proposés montrent l'influence du volume, de la répartition et du diamètre des granulats sur le comportement du béton. Nous utilisons ces résultats pour analyser les conséquences mécaniques de la RAS sur une éprouvette en béton. Les résultats numériques d'un béton soumis à un gonflement granulaire sont comparés aux résultats expérimentaux obtenus à l'Ecole des Mines de Douai. Cela permet de vérifier non seulement la cohérence du modèle numérique mais aussi de mieux comprendre l'influence de certains paramètres sur le mécanisme de la RAS. Enfin, nous soulignons l'importance de décrire avec précision les macrofissures générées par la réaction chimique. La dernière partie du mémoire concerne l'implémentation et la validation de la fissuration discrète en trois dimensions.

Page generated in 0.0494 seconds