• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 23
  • 4
  • 1
  • Tagged with
  • 64
  • 42
  • 15
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Simulation par éléments finis de la propagation de fissures de fatigue dans les matériaux polycristallins imagés par tomographie aux rayons X / Numerical simulation of fatigue crack propagation in real polycrystals imaged by X ray tomography

Li, Jia 15 December 2015 (has links)
La propagation des fissures courtes de fatigue dans un matériau polycristallin dépend fortement de la microstructure. Bien que de nombreuses études de caractérisation et de modélisation existent sur le sujet, la prédiction du chemin et de la vitesse de propagation de ce type de fissure n'est pas encore possible aujourd'hui.Afin de bien comprendre les mécanismes de propagation, la caractérisation in-situ d'un échantillon par la tomographie aux rayons X a été réalisée à l'ESRF en combinant deux techniques de caractérisation. La tomographie par Contraste de Diffraction (DCT) qui est une méthode non destructive permettant de caractériser en 3D la morphologie et l'orientation des grains constitutifs de la microstructure, à l'état non-déformé, et la tomographie par Contraste de Phase (PCT) qui permet d'obtenir la forme de fissure à divers étapes de la vie de l'éprouvette. Grâce à ces informations, il est possible de simuler la propagation de fissure en utilisant un maillage réaliste reconstruit à partir des images tomographiques. Dans ce travail, une étude de l'anisotropie de comportement élastique est effectuée dans un maillage microstructural 3D reconstruit à partir des images tomographiques. Cette étude permet de comparer les tenseurs de déformation élastique moyennés à chaque grain avec les mesures expérimentale. Ensuite, une nouvelle méthodologie est proposée pour simuler la propagation de fissure. Issue d'une simulation en plasticité cristalline, la direction et la vitesse de la propagation de fissure est déterminée par un post-traitement, ce qui permet de propager la fissure par remaillage. Cette méthode est appliquée dans un premier temps à un monocristal pré-fissuré pour prédire le trajet de fissuration en fonction des systèmes de glissement activés. L'ensemble de la démarche est enfin appliqué au polycristal complet imagé par tomographie. Le rôle du joint de grains et la vitesse de propagation sont également analysés. En comparant les résultats de simulation avec les mesures expérimentales, le critère de la propagation de fissure est discuté. / The short fatigue crack propagation in polycrystal materials depends strongly on microstructure. Although numerous studies of characterisation and of simulation, the prediction of the short fatigue crack propagation remains a challenge.In order to understand the mechanisms of short fatigue crack propagation, an in-situ characterisation by X-ray tomography was carried out at ESRF, using two techniques of tomography. Diffraction Contrast Tomography (DCT) that is a non-destructive method can be used to obtain 3D morphology and grain orientations in an undeformed state of polycrystal materials. Couple with Phase Contrast Tomography (PCT), it allows to characterise the short fatigue crack propagation at different loading stages. Access to this information, it is possible to simulate the short fatigue crack propagation using a 3D reel microstructural mesh reconstructed from the tomographic images.In this work, the elastic anisotropic behaviour in a 3D microstructural mesh is performed. The elastic strain tensors averaged in grains are also compared to the experimental measurements. Then, a new numerical approach is proposed to simulate crack propagation. From a crystal plasticity FE simulation, the crack growth direction is determined by a post processing. Next, the crack is propagated through remeshing. This approach is firstly applied to the single crystals, then to the polycrystal mesh reconstructed from the tomographic images. The grain boundary effects and the crack growth rate are also analysed. By comparing between simulation and experimental crack, the damage indicator is discussed at the end.
32

Contrôle du sillage d'un corps non profilé : application expérimentale à une maquette simplifiée de véhicule industriel / Flow control of bluff body wakes : experimental application to a simplified truck model

Chaligné, Sébastien 12 December 2013 (has links)
Ce manuscrit présente les travaux de thèse réalisés dans le cadre d’une convention CIFRE entre Renault Trucks et le LMFA. Une stratégie de contrôle d’écoulement, associant un volet déflecteur et des actionneurs de type jets pulsés et synthétiques, est étudiée expérimentalement en vue de réduire la traînée aérodynamique de corps non profilés à culot droit. Une première approche consiste à étudier l’influence de cette stratégie sur une maquette bidimensionnelle. Des mesures de vitesse dans le sillage proche par TR-PIV et par anémométrie à fil chaud démontrent qu’une certaine gamme de fréquence d’actionnement permet à l’écoulement de recoller sur le volet et de diminuer les fluctuations de vitesse dans la zone de recirculation, ce qui engendre une augmentation de la pression au culot. Une analyse par moyenne de phase et la détermination de corrélations spatio-temporelles permettent d’identifier les perturbations induites par le contrôle conduisant à ces modifications de l’écoulement. Un système de jets synthétiques est ensuite intégré à une maquette simplifiée de véhicule poids lourd à l’échelle 1/8e, dont le sillage est représentatif des remorques réelles. Des gains en traînée significatifs sont obtenus et sont associés aux mêmes phénomènes aérodynamiques que pour la maquette bidimensionnelle. Enfin, une étude paramétrique montre la robustesse du contrôle aux caractéristiques de la couche limite incidente aux jets et à la longueur du volet déflecteur. / This document presents the research work realized in the scope of a PhD thesis with Renault Trucks and the LMFA. A flow control strategy, combining an inclined flap with pulsed or synthetic jets, is experimentally studied to reduce the aerodynamic drag of square-back bluff bodies. A first approach consists in studying the effect of this strategy on the flow behind a twodimensional model. The near-wake flow is characterized by the use of velocity measurements obtained by Time-Resolved Particles Image Velocimetry and hot-wire Anemometry. These measurements show that the increase in rear base pressure, obtained in a specific range of actuation frequencies, is associated with the reattachment of the flow on the flap and with a decrease in velocity fluctuations within the recirculation area. A phase average analysis and the determination of space-time correlations allow identifying the aerodynamic disturbances induced by the control system and leading to these modifications of the wake flow. A synthetic jet system is integrated to a 1 :8 scale simplified truck model, with a wake flow similar to this of real trailers. Significant drag reductions are obtained using active control and are associated with the same flow phenomena as these observed in the two-dimensional model study. Eventually, a parametric study is performed and shows the robustness of the flow control strategy to the characteristics of the boundary layer developing on the model roof and to the flap length.
33

Modèle de dégradation d’images de documents anciens pour la génération de données semi-synthétiques / Semi-synthetic ancient document image generation by using document degradation models

Kieu, Van Cuong 25 November 2014 (has links)
Le nombre important de campagnes de numérisation mises en place ces deux dernières décennies a entraîné une effervescence scientifique ayant mené à la création de nombreuses méthodes pour traiter et/ou analyser ces images de documents (reconnaissance d’écriture, analyse de la structure de documents, détection/indexation et recherche d’éléments graphiques, etc.). Un bon nombre de ces approches est basé sur un apprentissage (supervisé, semi supervisé ou non supervisé). Afin de pouvoir entraîner les algorithmes correspondants et en comparer les performances, la communauté scientifique a un fort besoin de bases publiques d’images de documents avec la vérité-terrain correspondante, et suffisamment exhaustive pour contenir des exemples représentatifs du contenu des documents à traiter ou analyser. La constitution de bases d’images de documents réels nécessite d’annoter les données (constituer la vérité terrain). Les performances des approches récentes d’annotation automatique étant très liées à la qualité et à l’exhaustivité des données d’apprentissage, ce processus d’annotation reste très largement manuel. Ce processus peut s’avérer complexe, subjectif et fastidieux. Afin de tenter de pallier à ces difficultés, plusieurs initiatives de crowdsourcing ont vu le jour ces dernières années, certaines sous la forme de jeux pour les rendre plus attractives. Si ce type d’initiatives permet effectivement de réduire le coût et la subjectivité des annotations, reste un certain nombre de difficultés techniques difficiles à résoudre de manière complètement automatique, par exemple l’alignement de la transcription et des lignes de texte automatiquement extraites des images. Une alternative à la création systématique de bases d’images de documents étiquetées manuellement a été imaginée dès le début des années 90. Cette alternative consiste à générer des images semi-synthétiques imitant les images réelles. La génération d’images de documents semi-synthétiques permet de constituer rapidement un volume de données important et varié, répondant ainsi aux besoins de la communauté pour l’apprentissage et l’évaluation de performances de leurs algorithmes. Dans la cadre du projet DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) financé par l’ANR (Agence Nationale de la Recherche), nous avons mené des travaux de recherche relatifs à la génération d’images de documents anciens semi-synthétiques. Le premier apport majeur de nos travaux réside dans la création de plusieurs modèles de dégradation permettant de reproduire de manière synthétique des déformations couramment rencontrées dans les images de documents anciens (dégradation de l’encre, déformation du papier, apparition de la transparence, etc.). Le second apport majeur de ces travaux de recherche est la mise en place de plusieurs bases d’images semi-synthétiques utilisées dans des campagnes de test (compétition ICDAR2013, GREC2013) ou pour améliorer par ré-apprentissage les résultats de méthodes de reconnaissance de caractères, de segmentation ou de binarisation. Ces travaux ont abouti sur plusieurs collaborations nationales et internationales, qui se sont soldées en particulier par plusieurs publications communes. Notre but est de valider de manière la plus objective possible, et en collaboration avec la communauté scientifique concernée, l’intérêt des images de documents anciens semi-synthétiques générées pour l’évaluation de performances et le ré-apprentissage. / In the last two decades, the increase in document image digitization projects results in scientific effervescence for conceiving document image processing and analysis algorithms (handwritten recognition, structure document analysis, spotting and indexing / retrieval graphical elements, etc.). A number of successful algorithms are based on learning (supervised, semi-supervised or unsupervised). In order to train such algorithms and to compare their performances, the scientific community on document image analysis needs many publicly available annotated document image databases. Their contents must be exhaustive enough to be representative of the possible variations in the documents to process / analyze. To create real document image databases, one needs an automatic or a manual annotation process. The performance of an automatic annotation process is proportional to the quality and completeness of these databases, and therefore annotation remains largely manual. Regarding the manual process, it is complicated, subjective, and tedious. To overcome such difficulties, several crowd-sourcing initiatives have been proposed, and some of them being modelled as a game to be more attractive. Such processes reduce significantly the price andsubjectivity of annotation, but difficulties still exist. For example, transcription and textline alignment have to be carried out manually. Since the 1990s, alternative document image generation approaches have been proposed including in generating semi-synthetic document images mimicking real ones. Semi-synthetic document image generation allows creating rapidly and cheaply benchmarking databases for evaluating the performances and trainingdocument processing and analysis algorithms. In the context of the project DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) funded by ANR (Agence Nationale de la Recherche), we focus on semi-synthetic document image generation adapted to ancient documents. First, we investigate new degradation models or adapt existing degradation models to ancient documents such as bleed-through model, distortion model, character degradation model, etc. Second, we apply such degradation models to generate semi-synthetic document image databases for performance evaluation (e.g the competition ICDAR2013, GREC2013) or for performance improvement (by re-training a handwritten recognition system, a segmentation system, and a binarisation system). This research work raises many collaboration opportunities with other researchers to share our experimental results with our scientific community. This collaborative work also helps us to validate our degradation models and to prove the efficiency of semi-synthetic document images for performance evaluation and re-training.
34

Molecularly imprinted polymers as selective sorbents for recognition in complex aqueous samples / Polymères à empreintes moléculaires en tant qu’adsorbants sélectifs pour la reconnaissance dans des milieux aqueux complexes

Nestora, Sofia 13 April 2017 (has links)
Dans cette thèse, nous avons démontré la faisabilité de la préparation de polymères à empreinte moléculaires (MIP) hautement sélectifs pour la reconnaissance dans des matrices aqueuses complexes avec des applications dans les cosmétiques et en technologie alimentaire. Les MIP (de l'anglais molecularly imprinted polymers) sont des récepteurs synthétiques comparables aux anticorps, qui sont synthétisés par co-polymérisation de monomères fonctionnels et réticulants en présence d'un gabarit moléculaire. Leurs propriétés de reconnaissance moléculaire, associées à leur grande stabilité, robustesse mécanique, faible coût et leur synthèse facile les rendent extrêmement intéressants comme matériaux de capture sélective, avec des applications dans les séparations analytiques, la détection et la vectorisation des médicaments. Cependant, leur reconnaissance sélective dans des milieux aqueux reste toujours problématique et c'est l'une des raisons de leur expansion commerciale restreinte. Dans une première partie, nous avons développé un MIP fonctionnant en milieu aqueux pour son application comme ingrédient actif dans un déodorant. Les odeurs corporelles sont principalement dues à des acides gras volatils générés à partir de leurs précurseurs, des conjugués de glutamine par des enzymes hydrolytiques produites à partir de bactéries présentes sur la peau. La plupart des anti-transpirants et des déodorants actuellement commercialisés contiennent des sels d'aluminium et des agents antibactériens non spécifiques, respectivement. Cependant, l'utilisation extrêmement étendue de ces produits nécessite des solutions alternatives en ce qui concerne divers problèmes (environnement, respect de l'écosystème de la peau, toxicité, etc.). Pour cette raison, un MIP a été synthétisé pour capturer les précurseurs conjugués de glutamine afin qu'ils ne soient plus disponibles aux bactéries, empêchant ainsi leur transformation en composés malodorants. Afin de générer des liaisons sélectifs dans des environnements aqueux, un monomère à base d'amidinium qui peut former une interaction électrostatique stoechiométrique forte avec les groupes carboxyle sur le gabarit moléculaire a été synthétisé. Le MIP, mélangé dans une formulation dermo-cosmétique, pourrait capter sélectivement les précurseurs conjugués de glutamine, au milieu d'une multitude d'autres molécules présentes dans la sueur humaine. En outre, le MIP n’affecte pas les bactéries de la peau, ouvrant la voie à des déodorants innovateurs de nouvelle génération, moins problématiques pour la santé. Dans une deuxième partie, nous avons développé une procédure rapide et efficace basée sur l'extraction en phase solide à empreinte moléculaire (MISPE) pour la purification sélective de la bétanine et de son stéréoisomère l’isobétanine à partir d'extraits de betterave. La bétanine est un pigment naturel ayant un fort pouvoir antioxydant et dont les propriétés pharmacologiques sont de plus en plus étudiées. Ce pigment est actuellement utilisé comme simple colorant alimentaire. Dans notre étude, l'acide dipicolinique a été utilisé comme gabarit moléculaire pour la synthèse de MIP, en raison de sa similarité structurelle avec le groupe chromophore de la bétanine. Les procédures MISPE ont été optimisées permettant l'élimination presque complète des glucides issus de la matrice végétale ainsi que la majorité des protéines, ce qui permet d'obtenir un rendement élevé d'extraction de la bétanine / isobétanine en une seule étape. De plus, toute la procédure d'extraction a été réalisée dans des solvants respectueux de l'environnement, tels que l'éthanol ou l'eau. Pour conclure, nous sommes convaincus que ce travail pave le chemin au développement d'une nouvelle génération des MIP fonctionnant en milieu aqueux avec des propriétés de reconnaissance améliorées dans des environnements complexes, qui pourra s'appliquer également à d'autres domaines biotechnologiques et biomédicaux. / In this thesis, we have demonstrated the feasibility of preparing highly selective molecularly imprinted polymers (MIPs) for recognition in complex aqueous matrices with applications in cosmetics and food technology. MIPs are synthetic tailor-made receptors, with binding affinities and specificities comparable to those of natural antibodies. Their molecular recognition properties, combined with their high stability, mechanical robustness, low cost and easy synthesis make them extremely attractive as selective capture materials with applications in analytical and preparative separations, sensing and drug delivery, among others. However, their selective recognition in aqueous samples still remains problematic and is one of the reasons for their so far lilited commercial expansion. In the first part, we developed a water compatible MIP for its application as an active ingredient in a deodorant. Body odors are mainly due to volatile fatty acids generated from their glutamine conjugate precursors by hydrolytic enzymes from bacteria present on the skin. Most currently marketed anti-perspirants and deodorants contain, respectively aluminum salts and unspecific antibacterials. However, the extremely wide use of these products requires alternative solutions with regard to various problems (environmental, respect of skin ecosystem, toxicity, etc.). For this reason, a MIP was developed to capture the glutamine conjugate precursors so that they are no longer available to the bacteria, thus preventing their transformation to malodorous compounds. In order to generate binding selectivity in aqueous environments, an amidinium-based monomer which can form a strong stoichiometric electrostatic interaction with the carboxyl groups on the template, was synthesized. The MIP, blended in a dermo-cosmetic formulation, could capture selectively the glutamine precursors, amidst a multitude of other molecules present in human sweat. Furthermore, the MIP did not affect the skin bacteria, paving the way to an innovative and 'safer ' future-generation deodorant. In the second part, we developed a fast and efficient procedure based on molecularly imprinted solid­ phase extraction (MISPE) for the selective clean-up of betanin and its stereoisomer isobetanin from red beetroot extracts. Betanin is a natural pigment with significant antioxidant and biological activities currently used as food colorant. Dipicolinic acid was used as template for the MIP synthesis, because of its structural similarity to the chromophore group of betanin The MISPE procedures were optimized allowing the almost complete removal of carbohydrates and the majority of proteins, resulting in high extraction recovery of betanin / isobetanin in a single step. Moreover, the whole extraction procedure was performed in environmentally friendly solvents with either ethanol or water. To conclude, we believe that this study paves the way towards the development of a new generation of water compatible MIPs with improved recognition properties in highly complex aqueous environments, and should be applicable to other biotechnological and biomedical areas as well.
35

Passage de l'utilisation de colorants naturels aux colorants synthétiques pour des fibres textiles en milieu domestique : fin 19e, début 20e siècle

Lalonger, Louise 24 April 2018 (has links)
La fin du 19e siècle fût le théâtre de nombreuses découvertes dans le domaine des colorants de synthèse. Ces nouveaux produits viendront transformer les traditions reliées à la teinture de fibres textiles. En observant cette période de transition, l'auteure s'interroge sur la façon dont s'est fait le passage des colorants naturels aux colorants synthétiques pour la fabrication de textiles domestiques en milieu rural. Elle a choisi d'observer ce phénomène au Québec en confrontant les données d'enquêtes ethnologiques avec les résultats d'analyses chimiques sur une collection de textiles. Ces résultats permettront de documenter des collections tout en révisant des interprétations sur l'identification de colorants et sur la datation. / Québec Université Laval, Bibliothèque 2013
36

Finer grained evaluation methods for better understanding of deep neural network representations

Bordes, Florian 08 1900 (has links)
Établir des méthodes d'évaluation pour les systèmes d'intelligence artificielle (IA) est une étape importante pour précisément connaître leurs limites et ainsi prévenir les dommages qu'ils pourraient causer et savoir quels aspects devraient être améliorés. Cela nécessite d'être en mesure de dresser des portraits précis des limitations associées à un système d'IA donné. Cela demande l'accès à des outils et des principes fiables, transparent, à jour et faciles à utiliser. Malheureusement, la plupart des méthodes d'évaluation utilisées à ce jour ont un retard significatif par rapport aux performances toujours croissantes des réseaux de neurones artificiels. Dans cette thèse par articles, je présente des méthodes et des principes d'évaluation plus rigoureux pour obtenir une meilleur compréhension des réseaux de neurones et de leurs limitations. Dans le premier article, je présente Representation Conditional Diffusion Model (RCDM), une méthode d'évaluation à l'état de l'art qui permet, à partir d'une représentation donnée -- par exemple les activations d'une couche donnée d'un réseau de neurones artificiels -- de générer une image. En utilisant les dernières avancées dans la génération d'images, RCDM permet aux chercheur·euse·s de visualiser l'information contenue à l'intérieur d'une représentation. Dans le deuxième article, j'introduis la régularisation par Guillotine qui est une technique bien connue dans la littérature sur l'apprentissage par transfert mais qui se présente différemment dans la littérature sur l'auto-apprentissage. Pour améliorer la généralisation à travers différentes tâches, on montre qu'il est important d'évaluer un modèle en coupant un certain nombre de couches. Dans le troisième article, j'introduis le score DéjaVu qui quantifie à quel point un réseau de neurones a mémorisé les données d'entraînement. Ce score utilise une petite partie d'une image d'entraînement puis évalue quelles informations il est possible d'inférer à propos du reste de l'image. Dans le dernier article, je présente les jeux de données photo-réalistes PUG (Photorealistic Unreal Graphics) que nous avons développés. Au contraire de données réelles, pour lesquelles générer des annotations est un processus coûteux, l'utilisation de données synthétiques offre un contrôle total sur la scène générée et sur les annotations. On utilise un moteur de jeux vidéo qui permet la synthèse d'images photo-réalistes de haute qualité, afin d'évaluer la robustesse d'un réseau de neurones pré-entraîné, ceci sans avoir besoin d'adapter ce réseau avec un entraînement additionnel. / Carefully designing benchmarks to evaluate the safety of Artificial Intelligent (AI) agents is a much-needed step to precisely know the limits of their capabilities and thus prevent potential damages they could cause if used beyond these limits. Researchers and engineers should be able to draw precise pictures of the failure modes of a given AI system and find ways to mitigate them. Drawing such portraits requires reliable tools and principles that are transparent, up-to-date, and easy to use by practitioners. Unfortunately, most of the benchmark tools used in research are often outdated and quickly fall behind the fast pace of improvement of the capabilities of deep neural networks. In this thesis by article, I focus on establishing more fine-grained evaluation methods and principles to gain a better understanding of deep neural networks and their limitations. In the first article, I present Representation Conditional Diffusion Model (RCDM), a state-of-the-art visualization method that can map any deep neural network representation to the image space. Using the latest advances in generative modeling, RCDM sheds light on what is learned by deep neural networks by allowing practitioners to visualize the richness of a given representation. In the second article, I (re)introduce Guillotine Regularization (GR) -- a trick that has been used for a long time in transfer learning -- from a novel understanding and viewpoint grounded in the self-supervised learning outlook. We show that evaluating a model by removing its last layers is important to ensure better generalization across different downstream tasks. In the third article, I introduce the DejaVu score which quantifies how much models are memorizing their training data. This score relies on leveraging partial information from a given image such as a crop, and evaluates how much information one can retrieve about the entire image based on only this partial content. In the last article, I introduce the Photorealistic Unreal Graphics (PUG) datasets and benchmarks. In contrast to real data for which getting annotations is often a costly and long process, synthetic data offers complete control of the elements in the scene and labeling. In this work, we leverage a powerful game engine that produces high-quality and photorealistic images to evaluate the robustness of pre-trained neural networks without additional finetuning.
37

Behavior of synthetic fiber-reinforced concrete circular columns under cyclic flexure and constant axial load / Comportement des poteaux circulaires en béton renforcé avec fibres synthétiques soumis à charge axiale constante et flexion cyclique

Osorio Gomez, Laura Isabel January 2008 (has links)
La ductilité et la capacité à dissiper de l'énergie sont deux qualités très importantes pour les éléments structuraux des structures situées dans les régions sismiques comme l'est du Canada. Soulignons que Montréal occupe la deuxieme place en ce qui a trait au risque sismique au Canada. De plus, la réduction des coûts de maintenance des infrastructures est un sujet d'intérêt pour les propriétaries alors que ces derniers doivent en tout temps garantir la sécurité des usagers. Or, le béton renforcé avec des fibres synthétiques semble être un matériau qui remplit ces caractéristiques. Pourtant, son utilisation est actuellement limitée aux éléments non structuraux ou structuraux mais non principaux. Afin de généraliser l'utilisation du béton fibre dans le domaine structural, il faut continuer à produire et à analyser des données expérimentales qui permettront de valider et d'améliorer les prescriptions de design et les modèles analytiques actuels pour la conception des éléments en béton armé avec des fibres dans les zones sismiques. Dans ce contexte, six poteaux circulaires à grande-échelle ont été testés sous une charge axiale constante (25% de Agf'c) et en flexion cyclique. Trois poteaux ont été confectionnés en béton normal (BN) et les trois autres en béton renforcé avec des fibres synthétiques (BRFS). La résistance à la compression du béton spécifiée à 28 jours pour les spécimens était de 30 MPa. Le volume de fibres synthétiques en polypropylène-polyéthylène utilisé a été de 1%. Les trois poteaux en BN étaient renforcés par une armature transversale constituée d'une spirale ayant un pas de 42, 75 et 100 mm respectivement. Ces trois spécimens ont été comparés avec des spécimens similaires en BRFS. Les résultats montrent que la présence des fibres synthétiques dans la matrice de béton améliore le comportement ductile et la capacité a dissiper de l'énergie des spécimens. Il a été observé que cette amélioration n'est pas directement proportionnelle à la quantité d'armature transversale. Toutefois, l'utilisation du béton fibre semble rendre possible une réduction de l'armature transversale tout en conservant un aussi bon sinon un meilleur comportement.
38

Inversion linéarisée de profils de sismique marine en milieu stratifié élastique

Moinet, Frederic 18 November 1997 (has links) (PDF)
Un programme d'inversion des formes d'ondes sismiques a été développé pour estimer les propriétés d'un milieu stratifié élastique dans le domaine temps-distance. Ce programme est capable de prendre en compte des données haute~ fréquences (0-50 Hz) et des milieux finement stratifiés, ce qui en fait une méthode particulièrement adaptée à l'inversion de profils de sismique marine, y compris ceux enregistrés par des sismographes fond de mer. Le problème inverse est résolu par une tchnique de moindres carrés généralisée. Cette technique nécessite de pouvoir résoudre rapidement le problème direct et calculer efficacement la matrice des dérivées de Fréchet qui représente la sensibilité au premier ordre des champs d'ondes par rapport à de faibles modifications des paramètres élastiques du modèle. Le problème direct est résolu en utilisant une technique classique de matrices de réflexion-transmission généralisée combinée avec une intégration en nombres d'ondes discrets. Les dérivées de Fréchet sont obtenues sous forme analytique à l'aide des fonctions de Green du milieu non perturbé. Nous proposons deux approches pour calculer ces dérivées. La première consiste à les calculer directement dans le domaine temps-distance en représentant les interfaces par des arrangements réguliers de points diffractants. La deuxième approche est une nouvelle méthode de calcul basée sur une formulation analytique qui permet d'évaluer avec rapidité et précision les dérivées de Fréchet pour une perturbation des paramètres élastiques d'une couche plane d'extension infinie. La méthode d'inversion proprement dite utilise une technique de gradients conjugués dans le domaine temps-distance, en intégrant toutes les techniques développées précédemment. La méthode est illustrée par des exemples d'inversion de données synthétiques réalistes, mais aussi par des enregistrements réels de type OBS de la campagne Malis en Mer Ligure. La robustesse de la méthode a été étudiée en imposant aux données ou au milieu de propagation certaines erreurs violant les hypothèses de base de l'algorithme. La méthode permet par ailleurs de considérer un grand nombre de géométries source-récepteur et peut s'appliquer en particulier à des enregistrements de profils sismiques verticaux, ainsi qu'à des modèles présentant une forte variabilité des propriétés élastiques suivant la profondeur.
39

Pyrolyse rapide de biomasses et de leurs constituants. Application à l'établissement de lois prévisionnelles / Fast pyrolysis of different types of biomasses and of their components. Application to the determination of predictive laws

Kohler, Stefanie 01 April 2009 (has links)
La pyrolyse rapide de différents types de celluloses, lignines, xylanes ainsi que de mélanges synthétiques obtenus à partir de ces composés modèles et aussi de deux biomasses réelles (bois de bouleau et paille de blé), est étudiée dans un four à image. Les vitesses de perte de masse pour les composés modèles étudiés sont très différentes, de manière générale la plus grande vitesse de perte de masse est observée pour la cellulose, suivie du xylane et de la lignine. La lignine se distingue par un temps de début de réaction plus petit que celui observé pour le xylane et la cellulose. Pour un temps donné, le rendement en charbon est plus grand pour la lignine que pour le xylane. La formation de charbon à partir de la cellulose est marginale. La cellulose microgranulaire produit en majorité des vapeurs et très peu de gaz. La cellulose extraite du bois de bouleau montre un comportement intermédiaire entre le comportement de la cellulose microgranulaire et les lignines. Le xylane se distingue par une vitesse de formation de gaz supérieure à celles des vapeurs. Les mélanges synthétiques à partir des trois composés modèles montrent un comportement intermédiaire. Le bois de bouleau est plus réactif que la paille de blé et son comportement peut être comparé à celui de la cellulose extraite du bois de bouleau en ce qui concerne les vitesses de perte de masse et de formation de vapeurs. Une corrélation simple se basant sur l’addition pondérée des vitesses de formation des produits est établie et les résultats obtenus sont comparés aux résultats expérimentaux. Il s’avère que les inorganiques jouent un rôle important lors de la pyrolyse : le comportement de la paille de blé, une biomasse riche en inorganiques, ne peut pas être décrit par de telles corrélations. Des écarts moins significatifs entre les valeurs obtenues par les corrélations théoriques et celles provenant des résultats expérimentaux sont observés pour les mélanges synthétiques et le bois de bouleau. En conclusion, l’hypothèse d’une corrélation simple, appelée loi prévisionnelle, ne semble pas être justifiée sur les vitesses de formation de produits. Un modèle est alors développé qui permet de décrire le comportement pyrolytique à l’aide de courbes non linéaires pour la perte de masse et la production des produits. A l’exception de la paille de blé, de nouvelles lois prévisionnelles additives peuvent alors être déterminées de manière très satisfaisante au regard de la précision des mesures expérimentales / The fast pyrolysis of different types of celluloses, lignins, xylanes as well as different mixtures of these basic compounds and two real biomasses (birch wood and wheat straw) has been studied in an image furnace. The mass loss rates of each of the studied model compounds are very different, but usually higher for cellulose than xylane and higher for xylane than lignins. Lignins begin to react before xylane and cellulose. For a given pyrolysis time, lignins produce more char than xylane. Char formation from cellulose remains insignificant, close to zero. Microgranular cellulose gives mainly rise to vapours and very little gas is formed. Cellulose extracted from birch wood shows an intermediate behaviour between microgranular cellulose and lignins. Production rates of gases are higher than those of vapours for xylan. Regarding the mixtures of these three compounds, an intermediate behaviour can be observed. Birch wood is more reactive than wheat straw. Its pyrolytic behaviour is similar with that of cellulose extracted from birch wood with regard to concerning mass loss rates and vapours formation. A simple additive correlation relying on mass loss rates and products formations rates is elaborated and the results compared to the experimental values. It appears that inorganics play an important role in biomass pyrolysis : the pyrolytic behaviour of wheat straw, a biomass which is rich in inorganics, cannot be described by simple additive correlations. Less significant gaps between expected rates obtained by the correlations and the observed rates obtained by the experiments are found for synthetic mixtures and birch wood. In conclusion, the hypothesis of linear correlations cannot be supported for representing the products formations rates. A complete mathematical model is then developed revealing a non-linear behaviour of the variations of mass losses and products formations. Except for wheat straw, new additive correlations are then determined. The agreement with the experimental results is very satisfying with regard to the measurements accuracies
40

Etude par microscopie électronique des mécanismes d'action de vecteurs synthétiques pour le transfert de gènes

Le Bihan, Olivier 16 December 2009 (has links)
La grande majorité des essais cliniques de transfert de gènes in vivo utilise des vecteurs viraux. Si ces derniers sont efficaces, ils présentent des risques immunogènes, toxiques, voire mutagènes avérés. Les vecteurs synthétiques (non viraux), par leur grande modularité et leur faible toxicité représentent une alternative très prometteuse. Le principal frein à leur utilisation est leur manque d’efficacité. L’objectif majeur de ce travail de thèse a été de comprendre le mécanisme de transfert de gènes associé à différents complexes vecteurs synthétiques/ADN plasmidique, ce qui est indispensable pour une conception rationnelle de nouveaux vecteurs. Nous avons étudié, sur cellules en culture, le mécanisme de transfert de gènes associé à deux lipides cationiques ; le BGTC (bis(guanidinium)-tren-cholesterol) et la DOSP (DiOleylamine A-Succinyl-Paromomycine) qui sont connus pour être des vecteurs efficaces in vitro. Nous avons ainsi pu visualiser par microscopie électronique leurs voies d’entrée, leurs remaniements structuraux ainsi que leur échappement endosomal qui représente une étape clé du processus de transfert de gènes. L’identification non ambigüe des lipoplexes tout au long de leur trafic intracellulaire a été rendue possible grâce au marquage de l’ADN par des nanoparticules de silice dotées d’un cœur de maghémite (Fe2O3) dense aux électrons. Cette stratégie de marquage a également été appliquée à l’étude du mécanisme d’action d’un autre vecteur synthétique de type polymère, le copolymère à blocs non ionique P188 ou Lutrol. Contrairement à la plupart des vecteurs synthétiques, celui-ci présente une efficacité de transfection in vivo chez la souris par injection in situ pour le tissu musculaire ou en intra trachéale dans le poumon. En revanche, il est totalement inefficace in vitro. Nous avons montré que le Lutrol permet une augmentation de l’internalisation d’ADN par les cellules mais n’induit pas son échappement endosomal, ce qui expliquerait son absence d’efficacité in vitro. D’autres voies d’entrée sont alors à envisager in vivo pour comprendre son mécanisme d’action. / The vast majority of clinical trials of gene transfer in vivo use viral vectors. Although they are effective, they induce immunogenic, toxic or mutagenic risks. Due to their high modularity and low toxicity, synthetic vectors (non viral), represent a promising alternative despite their lack of effectiveness. The major objective of this work was to understand the mechanism of gene transfer using two prototypic synthetic vectors, in the context of a rational design of new vectors. We studied on cultured cells, the mechanism of action of two cationic lipids; BGTC (bis(guanidinium)-tren-cholesterol) and DOSP (DiOleylamine A-Succinyl-Paromomycine) formulated with plasmid DNA (lipoplexes) which are in vitro efficient vectors. We have been able to visualize by electron microscopy, their intracellular pathways, their structural alterations and their endosomal escape, the latter being a key step in the process of gene transfer. The unambiguous identification of lipoplexes throughout their intracellular trafficking has been made possible thanks to the labelling of DNA by core-shell silica nanoparticles with an electron dense maghemite core (Fe2O3). The labeling strategy has also been applied to study the mechanism of action of a nonionic block copolymer (P188 or Lutrol). Interestingly, these synthetic vectors have an in vivo transfection efficiency in mice lung and muscle tissue while they are totally inefficient in vitro. We have shown that Lutrol induces an increase of DNA internalization into cells and fails to trigger endosomal escape, which would explain the lack of in vitro efficacy. These findings suggest that the in vivo mechanism of action of Lutrol would involve other internalization pathways.

Page generated in 0.0357 seconds