• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 74
  • 14
  • Tagged with
  • 186
  • 186
  • 131
  • 101
  • 87
  • 35
  • 33
  • 33
  • 29
  • 29
  • 29
  • 24
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Développement d'un modèle level set performant pour la modélisation de la recristallisation en 3D / Development of an efficient level set framework for the full field modeling recrystallization in 3D

Scholtes, Benjamin 05 December 2016 (has links)
Les propriétés mécaniques et fonctionnelles des matériaux métalliques sont conditionnées par leurs microstructures, qui sont elles-mêmes héritées des traitements thermomécaniques subis. Etre capable de prévoir et simuler la microstructure et ses hétérogénéités lors des procédés de mise en forme complexes est récemment devenu crucial dans l'industrie métallurgique. C'est également un véritable challenge d'un point de vue numérique qui met en évidence l'importance des matériaux numériques dans les nouvelles méthodes de modélisation. Dans ce travail, nous nous intéressons à un modèle en champ complet récent basé sur la méthode level set (LS) dans un cadre éléments finis (EF) pour la modélisation des mécanismes de recristallisation.Les points forts de cette approche par rapport à l'état de l'art ont motivé le développement d'un logiciel appelé DIGIMU® par la société TRANSVALOR avec le soutien de grandes entreprises industrielles. Toutefois, le principal inconvénient de cette approche, commun aux autres méthodes en champ complet utilisant des maillages EF non structurés, reste son coût numérique important.Le principal objectif de ce travail a donc été d'améliorer considérablement le coût numérique de la formulation LS utilisée dans le contexte de maillages EF non structurés. De nouveaux développements génériques ont été réalisés pour améliorer l'efficacité globale du modèle. La formulation 2D LS existante, déjà utilisée pour modéliser la croissance de grains, la recristallisation statique et l'effet d'ancrage de Smith-Zener, a été étendue et améliorée afin de modéliser ces mécanismes en 3D pour des polycristaux à grand nombre de grains en des temps de calcul raisonnables. / Mechanical and functional properties of metallic materials are strongly related to their microstructures, which are themselves inherited from thermal and mechanical processing. Being able to accurately predict and simulate the microstructure and its heterogeneities after complex forming paths recently became crucial for the metallurgy industry. This is also a real challenge from a numerical point of view which highlights the importance of digital materials in new modeling techniques. In this work, we focus on a recent front-capturing full field model based on the level set (LS) method within a finite element (FE) framework to model recrystallization mechanisms.The strengths of this approach comparatively to the state of the art have motivated the development of a software package called DIGIMU® by the company TRANSVALOR with the support of major industrial companies. However, the main drawback of this approach, common with other front-capturing full field approaches working on unstructured FE meshes, is its important computational cost, especially in 3D.Main purpose of this work was finally to drastically improve the numerical cost of the considered LS-FE formulation in context of unstructured FE meshes. New generic numerical developments have been proposed to improve the global efficiency of the model. The existing 2D LS formulation, already used to model grain growth, static recrystallization and the Smith-Zener pinning effect, has been extended and improved in order to model these mechanisms in 3D for large-scale polycrystals with reasonable computational costs.
62

Optimisation numérique stochastique évolutionniste : application aux problèmes inverses de tomographie sismique / Numerical optimization using stochastic evolutionary algorithms : application to seismic tomography inverse problems

Luu, Keurfon 28 September 2018 (has links)
La tomographie sismique des temps de trajet est un problème d'optimisation mal-posé du fait de la non-linéarité entre les temps et le modèle de vitesse. Par ailleurs, l'unicité de la solution n'est pas garantie car les données peuvent être expliquées par de nombreux modèles. Les méthodes de Monte-Carlo par Chaînes de Markov qui échantillonnent l'espace des paramètres sont généralement appréciées pour répondre à cette problématique. Cependant, ces approches ne peuvent pleinement tirer partie des ressources computationnelles fournies par les super-calculateurs modernes. Dans cette thèse, je me propose de résoudre le problème de tomographie sismique à l'aide d'algorithmes évolutionnistes. Ce sont des méthodes d'optimisation stochastiques inspirées de l'évolution naturelle des espèces. Elles opèrent sur une population de modèles représentés par un ensemble d'individus qui évoluent suivant des processus stochastiques caractéristiques de l'évolution naturelle. Dès lors, la population de modèles peut être intrinsèquement évaluée en parallèle ce qui rend ces algorithmes particulièrement adaptés aux architectures des super-calculateurs. Je m'intéresse plus précisément aux trois algorithmes évolutionnistes les plus populaires, à savoir l'évolution différentielle, l'optimisation par essaim particulaire, et la stratégie d'évolution par adaptation de la matrice de covariance. Leur faisabilité est étudiée sur deux jeux de données différents: un jeu réel acquis dans le contexte de la fracturation hydraulique et un jeu synthétique de réfraction généré à partir du modèle de vitesse Marmousi réputé pour sa géologie structurale complexe. / Seismic traveltime tomography is an ill-posed optimization problem due to the non-linear relationship between traveltime and velocity model. Besides, the solution is not unique as many models are able to explain the observed data. The non-linearity and non-uniqueness issues are typically addressed by using methods relying on Monte Carlo Markov Chain that thoroughly sample the model parameter space. However, these approaches cannot fully handle the computer resources provided by modern supercomputers. In this thesis, I propose to solve seismic traveltime tomography problems using evolutionary algorithms which are population-based stochastic optimization methods inspired by the natural evolution of species. They operate on concurrent individuals within a population that represent independent models, and evolve through stochastic processes characterizing the different mechanisms involved in natural evolution. Therefore, the models within a population can be intrinsically evaluated in parallel which makes evolutionary algorithms particularly adapted to the parallel architecture of supercomputers. More specifically, the works presented in this manuscript emphasize on the three most popular evolutionary algorithms, namely Differential Evolution, Particle Swarm Optimization and Covariance Matrix Adaptation - Evolution Strategy. The feasibility of evolutionary algorithms to solve seismic tomography problems is assessed using two different data sets: a real data set acquired in the context of hydraulic fracturing and a synthetic refraction data set generated using the Marmousi velocity model that presents a complex geology structure.
63

Accélérateurs logiciels et matériels pour l'algèbre linéaire creuse sur les corps finis / Hardware and Software Accelerators for Sparse Linear Algebra over Finite Fields

Jeljeli, Hamza 16 July 2015 (has links)
Les primitives de la cryptographie à clé publique reposent sur la difficulté supposée de résoudre certains problèmes mathématiques. Dans ce travail, on s'intéresse à la cryptanalyse du problème du logarithme discret dans les sous-groupes multiplicatifs des corps finis. Les algorithmes de calcul d'index, utilisés dans ce contexte, nécessitent de résoudre de grands systèmes linéaires creux définis sur des corps finis de grande caractéristique. Cette algèbre linéaire représente dans beaucoup de cas le goulot d'étranglement qui empêche de cibler des tailles de corps plus grandes. L'objectif de cette thèse est d'explorer les éléments qui permettent d'accélérer cette algèbre linéaire sur des architectures pensées pour le calcul parallèle. On est amené à exploiter le parallélisme qui intervient dans différents niveaux algorithmiques et arithmétiques et à adapter les algorithmes classiques aux caractéristiques des architectures utilisées et aux spécificités du problème. Dans la première partie du manuscrit, on présente un rappel sur le contexte du logarithme discret et des architectures logicielles et matérielles utilisées. La seconde partie du manuscrit est consacrée à l'accélération de l'algèbre linéaire. Ce travail a donné lieu à deux implémentations de résolution de systèmes linéaires basées sur l'algorithme de Wiedemann par blocs : une implémentation adaptée à un cluster de GPU NVIDIA et une implémentation adaptée à un cluster de CPU multi-cœurs. Ces implémentations ont contribué à la réalisation de records de calcul de logarithme discret dans les corps binaires GF(2^{619}) et GF(2^{809} et dans le corps premier GF(p_{180}) / The security of public-key cryptographic primitives relies on the computational difficulty of solving some mathematical problems. In this work, we are interested in the cryptanalysis of the discrete logarithm problem over the multiplicative subgroups of finite fields. The index calculus algorithms, which are used in this context, require solving large sparse systems of linear equations over finite fields. This linear algebra represents a serious limiting factor when targeting larger fields. The object of this thesis is to explore all the elements that accelerate this linear algebra over parallel architectures. We need to exploit the different levels of parallelism provided by these computations and to adapt the state-of-the-art algorithms to the characteristics of the considered architectures and to the specificities of the problem. In the first part of the manuscript, we present an overview of the discrete logarithm context and an overview of the considered software and hardware architectures. The second part deals with accelerating the linear algebra. We developed two implementations of linear system solvers based on the block Wiedemann algorithm: an NVIDIA-GPU-based implementation and an implementation adapted to a cluster of multi-core CPU. These implementations contributed to solving the discrete logarithm problem in binary fields GF(2^{619}) et GF(2^{809}) and in the prime field GF(p_{180})
64

Comportement hydrique et poro-mécanique des bétons à hautes performances Andra : influence de la microstructure / Hydric and poro-mechanical behaviour of high performance Andra concrete : effect of microstructure

Zhang, Yao 02 July 2014 (has links)
Cette thèse étudie la rétention d’eau à haute HR et le retrait sous température modérée des bétons CEMI et CEMV de l’Andra, en lien avec leur microstructure.Pour étudier l’origine des variations de Sw à haute HR, du béton est séché à HR= 92-100%. Pour les deux bétons, l’échantillonnage influe significativement sur Sw. Pour le CEMI, à HR=100%, la taille joue aussi, en lien avec un mécanisme de séchage par désorption de surface ; à HR=92&98%, ce béton n’est plus sensible aux effets de surface ; il est sensible aux conditions expérimentales. Pour le CEMV, l’effet de la taille existe quelle que soit l’HR, mais il est peu sensible aux conditions expérimentales.A partir de 60°C, le retrait de dessiccation présente quatre phases en fonction de la perte de masse relative. Pour le béton CEMI séché jusqu’en phase 3 ou 4, la possible rigidification de la matrice solide est investiguée par un essai couplé de poro-élasticité et transport de gaz. Pour un même échantillon en phase 3 puis en phase 4, on mesure une légère augmentation du Ks ; la perméabilité au gaz est significativement plus sensible au confinement. Par contre, la rigidification du matériau est limitée en comparaison de l’effet d’échantillonnage.Au MEB, les phases et la morphologie des bétons sont quantifiées. Le CEM I et le CEM V ont des phases solides identiques, mais le CEM V comprend des phases spécifiques (ajout de laitiers et cendres volantes). Les C-S-H du CEM V ont un rapport C/S globalement plus bas que le CEM I. Ce rapport reste similaire pour trois gâchées différentes. Par contre, l’occurrence de pores millimétriques varie significativement, du fait de modes de mise en oeuvre sensiblement différents / This thesis focuses on water retention at high relative humidity (RH) (92-100%) and dessiccation shrinkage under moderate temperature (60-80°C) for two high performance concretes CEMI and CEMV (from Andra), in relation with their microstructure.To investigate the origins of the variations in water saturation degree Sw at high RH, both concretes are dried at RH=92, 98 and 100%, from the fully saturated state. For both concretes, sampling affects significantly Sw. For CEMI at 100%RH, sample size also affects Sw, due to surface drying (desorption); at 92 and 98%RH, CEMI is no longer sensitive to surface drying effects; it is sensitive to experimental conditions (RH, T). CEMV is affected by sample size whatever the RH, but not by experimental conditions.From 60°C drying temperature, the relationship between shrinkage and relative mass loss presents four distinct phases. CEMI concrete is dried at 65°C until phase 3 or 4, and then submitted to a coupled poro-mechanical and gas permeability test. For the same sample tested in phase 3 and then 4, a difference in solid skeleton incompressibility modulus Ks is measured, which is significantly lower than the differences in Ks due to sampling.With the Scanning Electron Microscope, the solid phases and morphology of both concretes are quantified. CEM I and CEM V comprise identical phases, even portlandite, yet CEM V concrete has some specific phases, owing to the addition of slag and fly ash. The C-S-H in CEM V have a lower C/S ratio than in CEM I. The (C/S) ratio remains similar when comparing between three different batches. Besides, millimetric pores vary significantly, owing to differences in manufacturing
65

Hardware and software co-design toward flexible terabits per second traffic processing / Co-conception matérielle et logicielle pour du traitement de trafic flexible au-delà du terabit par seconde

Cornevaux-Juignet, Franck 04 July 2018 (has links)
La fiabilité et la sécurité des réseaux de communication nécessitent des composants efficaces pour analyser finement le trafic de données. La diversification des services ainsi que l'augmentation des débits obligent les systèmes d'analyse à être plus performants pour gérer des débits de plusieurs centaines, voire milliers de Gigabits par seconde. Les solutions logicielles communément utilisées offrent une flexibilité et une accessibilité bienvenues pour les opérateurs du réseau mais ne suffisent plus pour répondre à ces fortes contraintes dans de nombreux cas critiques.Cette thèse étudie des solutions architecturales reposant sur des puces programmables de type Field-Programmable Gate Array (FPGA) qui allient puissance de calcul et flexibilité de traitement. Des cartes équipées de telles puces sont intégrées dans un flot de traitement commun logiciel/matériel afin de compenser les lacunes de chaque élément. Les composants du réseau développés avec cette approche innovante garantissent un traitement exhaustif des paquets circulant sur les liens physiques tout en conservant la flexibilité des solutions logicielles conventionnelles, ce qui est unique dans l'état de l'art.Cette approche est validée par la conception et l'implémentation d'une architecture de traitement de paquets flexible sur FPGA. Celle-ci peut traiter n'importe quel type de paquet au coût d'un faible surplus de consommation de ressources. Elle est de plus complètement paramétrable à partir du logiciel. La solution proposée permet ainsi un usage transparent de la puissance d'un accélérateur matériel par un ingénieur réseau sans nécessiter de compétence préalable en conception de circuits numériques. / The reliability and the security of communication networks require efficient components to finely analyze the traffic of data. Service diversification and through put increase force network operators to constantly improve analysis systems in order to handle through puts of hundreds,even thousands of Gigabits per second. Commonly used solutions are software oriented solutions that offer a flexibility and an accessibility welcome for network operators, but they can no more answer these strong constraints in many critical cases.This thesis studies architectural solutions based on programmable chips like Field-Programmable Gate Arrays (FPGAs) combining computation power and processing flexibility. Boards equipped with such chips are integrated into a common software/hardware processing flow in order to balance short comings of each element. Network components developed with this innovative approach ensure an exhaustive processing of packets transmitted on physical links while keeping the flexibility of usual software solutions, which was never encountered in the previous state of theart.This approach is validated by the design and the implementation of a flexible packet processing architecture on FPGA. It is able to process any packet type at the cost of slight resources over consumption. It is moreover fully customizable from the software part. With the proposed solution, network engineers can transparently use the processing power of an hardware accelerator without the need of prior knowledge in digital circuit design.
66

Résilience dans les Systèmes de Workflow Distribués pour les Applications d’Optimisation Numérique : Conception et Expériences / Collaborative platform for multidiscipline optimization

Trifan, Laurentiu 21 October 2013 (has links)
Cette thèse vise à la conception d'un environnement pour le calcul haute performance dans un cadre d'optimisation numérique. Les outils de conception et d’optimisation sont répartis dans plusieurs équipes distantes, académiques et industrielles, qui collaborent au sein des mêmes projets. Les outils doivent être fédérés au sein d’un environnement commun afin d'en faciliter l'accès aux chercheurs et ingénieurs. L'environnement que nous proposons, pour répondre aux conditions précédentes, se compose d’un système de workflow et d’un système de calcul distribué. Le premier a pour objectif de faciliter la tâche de conception de l'application tandis que le second se charge de l’exécution sur des ressources de calcul distribuées. Bien sûr, des services de communication entre les deux systèmes doivent être développés. Les calculs doivent être réalisés de manière efficace, en prenant en compte le parallélisme interne de certains codes, l’exécution synchrone ou asynchrone des tâches, le transfert des données et les ressources matérielles et logicielles disponibles (répartition de charge par exemple). De plus, l’environnement doit assurer un bon niveau de tolérance aux pannes et aux défaillances logicielles, afin de minimiser leur influence sur le résultat final ou sur le temps de calcul. Une condition importante en particulier est de pouvoir implanter des dispositifs de reprise sur erreur, de telle sorte que le temps supplémentaire de traitement des erreurs reste très inférieur au temps de re-exécution total. Dans le cadre de ce travail, notre choix s'est porté sur le moteur de workflow Yawl, qui présente de bonnes caractéristiques en termes i) d'indépendance vis à vis du matériel et du logiciel (système client-serveur pouvant fonctionner sur du matériel hétérogène) et ii) de mécanisme de reprise sur erreur. Pour la partie calcul distribué, nos expériences ont été réalisées sur la plateforme Grid5000, en utilisant jusqu'à 64 machines différentes réparties sur cinq sites géographiques. Ce document détaille les choix de conception de cet environnement ainsi que les ajouts et modifications que nous avons été amenés à apporter à Yawl pour lui permettre de fonctionner sur une plateforme distribuée. / This thesis aims conceiving an environment for high performance computing in a numerical optimization context. The tools for conception and optimization are distributed across several teams, both academics and industrial, which collaborate inside a unique project. The tools should be federated within a common environment to facilitate access to researchers and engineers. The environment that we offer, in order to meet the above conditions, consists of a workflow system and a distributed computing system. The first system aims to facilitate the application design task while the latter is responsible for executing on distributed computing resources. Of course, communication services between the two systems must be developed. The computation must be performed effectively, taking into account the internal parallelism of some software code, synchronous or asynchronous task execution, the transfer of data and hardware and software resources available (e.g. load balancing). In addition, the environment should provide a good level of fault tolerance and software failures, to minimize their influence on the final result or the computation time. An important condition in particular is to implement recovery devices on error occurence, so that the extra time for error handling remains well below the total time of re-execution. As part of this work, our choice fell on the Yawl workflow engine, which has good characteristics in terms of i) hardware and software independence (client-server system that can run on heterogeneous hardware) and ii) error recovery mechanism. For distributed computing part, our experiments were performed on the Grid5000 platform, using up to 64 different machines on five geographical sites. This document details the design of this environment and the extensions and changes we have had to perform on Yawl to enable it to run on a distributed platform.
67

Conception d'un solveur linéaire creux parallèle hybride direct-itératif

Gaidamour, Jérémie 08 December 2009 (has links) (PDF)
Cette thèse présente une méthode de résolution parallèle de systèmes linéaires creux qui combine efficacement les techniques de résolutions directes et itératives en utilisant une approche de type complément de Schur. Nous construisons une décomposition de domaine. L'intérieur des sous-domaines est éliminé de manière directe pour se ramener à un problème sur l'interface. Ce problème est résolu grâce à une méthode itérative préconditionnée par une factorisation incomplète. Un réordonnancement de l'interface permet la construction d'un préconditionneur global du complément de Schur. Des algorithmes minimisant le pic mémoire de la construction du préconditionneur sont proposés. Nous exploitons un schéma d'équilibrage de charge utilisant une répartition de multiples sous-domaines sur les processeurs. Les méthodes sont implémentées dans le solveur HIPS et des résultats expérimentaux parallèles sont présentés sur de grands cas tests industriels.
68

Optimisation de Forme Multi-Objectif sur Machines Parallèles avec<br />Méta-Modèles et Coupleurs. Application aux Chambres de Combustion Aéronautiques.

Duchaine, Florent 15 November 2007 (has links) (PDF)
Les normes drastiques sur les émissions d'espèces polluantes et la volonté de réduire les délais de mise sur le marché incitent les motoristes à repenser les concepts de la nouvelle génération de chambres de combustion ainsi que leurs méthodes de conception. Les codes de simulation numérique des écoulements turbulents réactifs, basés sur une approche de moyenne de Reynolds (RANS), sont utilisés depuis quelques années par les ingénieurs dans les phases de conception des foyers aéronautiques. Leur emploi a permis de réduire les temps et les coûts de conception en diminuant notamment le nombre d'essais expérimentaux. La manière d'utiliser ces outils demeure un point clé pour élaborer des environnements performants d'aide à la décision.<br /><br />Le but de ces travaux de thèse est de fournir une méthodologie basée sur des considérations issues de l'optimisation multi-objectif pour développer un outil de conception automatisé qui intègre des codes de simulation numérique pour évaluer les configurations. En premier lieu, les études concernent l'automatisation des procédures de simulation en insistant sur les aspects de génération automatique de maillage. Ensuite, le problème des temps de restitution liés à l'utilisation conjointe de techniques d'optimisation et de codes de calcul coûteux en ressources informatiques est adressé en proposant un algorithme basé sur des méta-modèles. L'outil final est construit à partir d'un coupleur de codes parallèles, lui conférant ainsi des caractéristiques intéressantes de performance et de flexibilité. Finalement, après divers tests de validation et d'évaluation, une application sur une chambre de combustion industrielle montre les capacités de la méthode à identifier des configurations prometteuses.
69

Simulation multi-échelles des solides par une approche couplée dynamique moléculaire/éléments finis. De la modélisation à la simulation haute performance.

Anciaux, Guillaume 06 July 2007 (has links) (PDF)
Cette thèse porte sur l'étude de la simulation des solides par des méthodes de couplage multi-échelles (méthode atomique/continue ACM). Dans ce travail de thèse, nous abordons des modéles mathématiques jusqu'à la réalisation informatique dans un contexte de calculs hautes performances parallèles. Après avoir appelé le fonctionnement des méthodes numériques utilisées dans le cadre de la simulation des solides, tels que la dynamique moléculaire et la mécanique des milieux continus, nous présentons les différentes méthodes de couplage existantes utilisées pour les coupler. Nous considérons la méthode Bridging Method développée par T. Belytschko et S. Xiao qui utilise une zone de recouvrement spatiale entre les deux modèles pour réaliser le couplage des degrès de libertés. Après avoir présenté une modification améliorant la stabilité de cette solution, nous ferons une analyse spectrale d'un cas unidimensionel couplé par cette méthode. Nous présenterons ensuite les techniques informatiques qui ont été mise en place afin de réaliser l'implémentation d'un prototype. La plateforme informatique est basé sur une philosophie de composants des entités logicielles qui autorise, in fine, de coupler les codes génériques dans un environnement logiciel. Notamment on s'intéressera à l'implémentation des routines qui permettent de paralléliser le couplage. Nous présenterons enfin les résultats numériques obtenus sur des cas tests en dimension 2 et 3 pour des cas de propagations d'ondes et de propagation de fissures.
70

Comportement à haute température des bétons à haute performance évolution des principales propriétés mécaniques

Gaweska, Izabela 11 1900 (has links) (PDF)
Le travail présenté vise une meilleure compréhension des phénomènes mis en jeu lors de l'exposition à haute température des bétons à haute performance. Nous nous sommes plus particulièrement intéressés au comportement mécanique. La première partie de ce document présente une synthèse des travaux réalisés sur l'évolution des propriétés physiques et mécaniques des bétons soumis à haute température. Les résultats présents dans la littérature sont variés, parfois contradictoires et confus notamment ceux concernant l'évolution des propriétés mécaniques au cours de l'échauffement. Les évolutions de la résistance en compression, résistance en traction et module d'élasticité sont présentés en fonction des différents paramètres influençant ces comportements. L'influence des conditions de réalisation des essais est notamment discutée. En outre, le comportement au feu est abordé sous l'angle du phénomène de l'écaillage. Nous présentons ainsi le rôle des fibres polypropylène, un moyen efficace de réduire les risques d'apparition du comportement explosif. La deuxième partie, consacrée à l'étude expérimentale. Dans cette partie nous exposons les matériaux testés, leurs compositions et les constituants utilisés, ainsi que la fabrication de ces matériaux et leur conservation. Ensuite nous présentons le banc d'essais développé, permettant de tester le comportement mécanique à chaud des bétons. Ce nouveau dispositif expérimental spécifique et relativement complexe, a été spécialement mis au point afin de réaliser l'étude de la déformation thermique libre, de la déformation thermique sous charge mécanique, et du comportement en compression et en traction à chaud. Les résultats expérimentaux obtenus, sont ensuite présentés et discutés. La majeure partie de cette étude a été consacrée à l'établissement des relations entre le comportement mécanique et la température des différents types de béton. La résistance en compression et le module d'élasticité varient non seulement avec la température d'exposition du matériau, mais aussi avec le scénario d'échauffement (vitesse de montée en température, essais à chaud/après refroidissement, etc.). Dans les observations que nous avons réalisé, l'influence du rapport E/C des bétons testés a été étudiée ainsi que l'influence de l'ajout des fibres polypropylène sur les propriétés mécanique des BHP testés à chaud. Les observations de l'évolution des propriétés mécaniques réalisées nous ont permis de constater que les résultats du comportement à haute température sont fortement influencés par la présence de l'eau dans le matériau, surtout dans la gamme de températures jusqu'à 300°C. En complément de l'étude du comportement en compression, nous avons étudié la possibilité de réalisation des essais de traction directe sur le matériau béton "à chaud". Diverses solutions ont été envisagées et testées, afin de retenir la technique plus adaptée à nos besoins. Les premiers résultats sont très prometteurs. Il faut souligner que le nombre d'études expérimentales du comportement en traction directe "à chaud" est extrêmement faible. Une grande partie de la recherche a été consacrée à l'étude de la déformation thermique transitoire (DTT). Ce comportement, encore mal connu et souvent controversé, appelé "fluage thermique transitoire" a été étudié sur trois bétons à haute performance (BHP) et un béton ordinaire (BO). Parmi les paramètres influençant la DTT nous pouvons citer: le taux de chargement, l'histoire du chargement thermo mécanique, la vitesse de montée an température ou la teneur en eau du béton. De plus, nous avons étudié de l'existence du phénomène de la DTT sous charge mécanique en traction.

Page generated in 0.0775 seconds