• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 17
  • 7
  • Tagged with
  • 47
  • 47
  • 36
  • 31
  • 31
  • 27
  • 27
  • 27
  • 27
  • 27
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et simulation des vibrations moyennes fréquences par la Théorie Variationnelle des Rayons Complexes.

Arnaud, Lionel 17 January 2000 (has links) (PDF)
Une nouvelle approche intitulée «Théorie Variationnelle des Rayons complexes est appliquée au calcul de vibrations forcées de plaques faiblement amorties dans le domaine des moyennes fréquences. Pour chaque fréquence de la bande considérée, la résolution d'un système linéaire de petite dimension donne les grandeurs effectives (énergie cinétique, intensité vibratoire) ; cette approche ne fait pas intervenir une discrétisation fine «éléments finis» de la structure. Le premier élément caractérisant cette approche est l'exploitation d'une nouvelle formulation variationnelle du problème à résoudre qui a été élaborée afin d'autoriser des approximations non compatibles, c'est à dire ne vérifiant pas a priori les conditions de transmission aux interfaces entre les sous-structures, tant en déplacement qu'en contrainte. Ces conditions sont contenues dans la formulation variationnelle. Le deuxième élément définissant cette approche est l'introduction d'approximations à fort contenu mécanique : la solution est supposée bien décrite localement au voisinage d'un point, comme la superposition de modes de vibration locaux en nombre infini. Ces modes de base, ou «rayons complexes», vérifient les lois de la dynamique.
2

Damage modeling of carbon epoxy laminated composites submitted to impact loading

Ilyas, Muhammad 20 July 2010 (has links) (PDF)
In the aerospace industry, composite structures design rules and admissible criteria are not well known for strength sustainability after impact induced damage. Predictive numerical tools are thought to be used to reduce design and certification time and costs, and to determine links between the inner behaviour of the material and the outer designable behaviour of structures. In this frame, it is aimed in this study to compare real tests damage measurements and two kinds of numerical damage predictions: one with geometrical openings for delamination discontinuity modelling, and one without any mesh opening that represents damage in a continuous way. Our attention is focused on two types of pre-impregnated unidirectional materials: T700/M21S and T800/M21S both strain rate sensitive because of a high percentage of thermoplastics in the M21 resin. Quasi-static and dynamic characterization tests have been carried out on balanced angle ply [±θ] laminates using Split Hopkinson's Pressure Bars. A saturation of through ply cracking has been outlined and strain rate effect on T800/M21S coupons' strength has been established up to medium strain rates. User defined cohesive finite elements are implemented in the non-linear explicit finite element analysis (FEA) code LS-DYNA® to model the dynamic delamination opening. At the same time a user defined deterministic continuous damage unidirectional composite material model is developed on the basis of the Matzenmiller-Lubliner-Taylor model widely used for woven composites. Initiation and growth of damage are predicted up to saturation and fracture for various pure and coupled damage mechanisms including delamination and matrix cracking, with criteria based on the experimental characterization. Impact induced damage from experimental measurements and numerical predictions are compared for T800/M21S aeronautical samples impacted at different energy levels. The effect on internal damage and residual indentations of 2 different masses and velocities has been evaluated. It is shown that the cohesive discontinuous delamination and the continuous damage coupling numerical models give both a good prediction of the global flexural behaviour of the structure. Spatial extension in shape and dimensions of damage through the plates' thickness is well predicted by the continuous model while the cohesive model is more diffusive leading to "isotropic" delamination predictions. Also, the continuous model gives better correlations between predicted and measured residual indentations after impact.
3

Contribution à l'étude des structures sandwichs dissymétriques

Castanié, Bruno 02 February 2000 (has links) (PDF)
Les structures sandwichs dissymétriques sont un cas particulier de la famille des structures sandwichs. Elles présentent une peau dite travaillante qui est chargée en membrane. Celle-ci est stabilisée par une âme en nid d'abeille Nomex et une contre-peau dite peau stabilisatrice. Cette configuration génère un comportement non linéaire géométrique. Plusieurs thèories analytiques des poutres et plaques sandwichs dissymétriques ont été élaborées basées sur le minimum de l'énergie potentielle ou le principe des puissances virtuelles associées à une méthode de discrétisation de Ritz. Ces théories intégrent de plus la modélisation a priori ou a posteriori de la compression de l'âme. Parallélement un montage d'essai sous sollicitations combinées compression/cisaillement a été développé et des essais multiaxiaux ont été réalisés sur éprouvettes neuves et impactées. Une comparaison théorie/expérience est aussi réalisée.
4

Etude de la vulnérabilité et de la robustesse des ouvrages

Kagho Gouadjio, Nadia Christiana 11 January 2013 (has links) (PDF)
Le terme de robustesse structurale donne lieu à diverses définitions et domaines d’application. Dans le domaine de l’ingénierie structurale, le cadre réglementaire des Eurocodes définit la robustesse structurale comme 'l’aptitude d'une structure à résister à des événements tels que les incendies, les explosions, les chocs ou les conséquences d'une erreur humaine, sans présenter de dégâts disproportionnés par rapport à la cause d'origine'. Cette définition fait clairement ressortir les notions de dommage initial (défaillance locale) et de dommage disproportionné (défaillance globale). Cette thèse propose une approche de la quantification de la robustesse structurale en contexte probabiliste pour mesurer l’impact d’une défaillance localisée sur la défaillance globale de la structure. L'objectif majeur de la thèse est de quantifier l’écart entre une défaillance locale et une défaillance globale, en introduisant différents indices de robustesse selon que la structure soit intègre ou initialement endommagée. Pour cela, dans le but de caractériser et quantifier les liens existant entre la performance des différents éléments d’une structure et la performance globale de la structure, il est nécessaire d'introduire une étude en système qui intègre de manière concomitante des notions de défaillance locale (modes de défaillance) et des notions de défaillance globale. Une recherche 'par l’intérieur' des chemins de défaillance dominants est présentée. Le terme 'par l’intérieur' est utilisé car c’est le cheminement interne de la défaillance dans la structure qui est recherché. Des méthodes de parcours d’arbre d’évènements sont introduites telles que la méthode des ' branches et bornes', du β-unzipping, ou encore du β-unzipping avec bornage. Ces méthodes permettent d’identifier les chemins de défaillance dominants avec des temps de calcul raisonnables. En particulier, il est possible de déterminer le chemin de défaillance associé à la plus grande probabilité de défaillance, appelé encore chemin de référence. Une approche 'par l’extérieur' est également proposée, qui consiste à identifier la défaillance globale sans parcourir un arbre d’évènement (et donc sans s’intéresser à l’ordre avec lequel la défaillance survient). Le terme 'par l’extérieur' correspond donc à regarder la défaillance de manière globale sans chercher à déterminer la chronologie de la défaillance. Dans les deux cas, l'enjeu est au final de développer une démarche globale permettant d’apprécier et de quantifier la robustesse des structures neuves ou existantes au travers de méthodes et d'indices pouvant s'appliquer à une large variété de problèmes.
5

Statistical analysis of traffic loads and traffic load effects on bridges

Zhou, Xiao Yi 15 May 2013 (has links) (PDF)
Une grande majorité (85%) des ponts français a une portée inférieure à 50 m. Pour ce type d’ouvrage d’art, la charge de trafic peut être déterminante pour la conception et le recalcul. Or, en Europe, le fret routier a augmenté de 36.2% entre 1995 et 2010, et la croissance annuelle du volume transporté par la route a été évaluée à 1.7% entre 2005 et 2030. Il est donc essentiel de s’assurer que les infrastructures européennes sont en mesure de répondre à cette demande croissante en capacité structurelle des ouvrages. Pour les ouvrages neufs, les modèles de trafic dans les normes ou les législations pour la conception des ponts incluent une marge de sécurité suffisante pour que la croissance du trafic soit prise en compte sans dommage par ces ouvrages. Mais pour les ouvrages existants, la résistance structurelle aux trafics actuels et futur est à vérifier et une priorisation des mesures doit être faite pour assurer leur intégrité structurelle et leur sécurité. De plus, afin de préserver leur infrastructure tout en ne menaçant pas leur compétitivité nationale, certains pays réfléchissent à l’introduction de poids lourds plus longs, plus lourds, ce qui permet de réduire le nombre de véhicules pour un volume ou un tonnage donné, ainsi que d’autres coûts (d’essence, de travail, ..), ce qui justifie encore plus les calculs effectués. Pour répondre à ce genre de problématique, différentes méthodes d’extrapolation ont déjà été utilisées pour modéliser les effets extrêmes du trafic, afin de déterminer les effets caractéristiques pour de grandes périodes de retour. Parmi celles-ci nous pouvons citer l’adaptation d’une gaussienne ou d’une loi de Gumbel sur la queue de distribution empirique, la formule de Rice appliquée à l’histogramme des dépassements de niveaux, la méthode des maxima par blocs ou celle des dépassements de seuils élevés. Les fondements et les utilisations faites de ces méthodes pour modéliser les effets extrêmes du trafic sur les ouvrages sont donnés dans un premier chapitre. De plus, une comparaison quantitative entre ces méthodes est réalisée. Deux études sont présentées, l’une basée sur un échantillon numérique et l’autre sur un échantillon réaliste d’effets du trafic. L’erreur induite par ces méthodes est évaluée à l’aide d’indicatifs statistiques simples, comme l’écart-type et les moindres carrés, évalués sur les valeurs caractéristiques et les probabilités de rupture. Nos conclusions sont, qu’en général, les méthodes sont moins précises lorsqu’il s’agit de déterminer des probabilités de rupture que lorsqu’elles cherchent des valeurs caractéristiques. Mais la raison peut en être les faibles probabilités recherchées (10-6 par an). De plus, bien qu’aucune méthode n’ait réalisée des extrapolations de manière correcte, les meilleures sont celles qui s’intéressent aux queues de probabilités, et en particulier des dépassements au-dessus d’un seuil élevé. Ainsi une étude de cette dernière méthode est réalisée : en effet, cette méthode, nommé "dépassements d’un seuil élevé", considère que les valeurs au-dessus d’un seuil correctement choisi, assez élevé, suit une distribution de Pareto généralisée (GPD). Cette méthode est utilisée de manière intensive dans les domaines de l’hydrologie et la finance, mais non encore appliquée dans le domaine des effets du trafic sur les ouvrages. Beaucoup de facteurs influencent le résultat lorsqu’on applique cette méthode, comme la quantité et la qualité des données à notre disposition, les critères utilisés pour déterminer les pics indépendants, l’estimation des paramètres et le choix du seuil. C’est pour cette raison qu’une étude et une comparaison des différentes méthodes d’estimation des paramètres de la distribution GPD sont effectuées : les conditions, hypothèses, avantages et inconvénients des différentes méthodes sont listés. Différentes méthodes sont ainsi étudiées, telles la méthode des moments (MM), la méthode des moments à poids (PWM), le maximum de vraisemblance (ML), le maximum de vraisemblance pénalisé (PML), le minimum de la densité de la divergence (MDPD), la méthode des fractiles empiriques (EPM), la statistique du maximum d’adaptation et la vraisemblance des moments (LM). Pour comparer ces méthodes, des échantillons numériques, des effets de trafic simulés par Monte Carlo et des effets mesurés sur un ouvrage réel sont utilisés. Comme prévu, les méthodes ont des performances différentes selon l’échantillon considéré. Néanmoins, pour des échantillons purement numériques, MM et PWM sont recommandées pour des distributions à paramètre de forme négatif et des échantillons de petite taille (moins de 200 valeurs). ML est conseillé pour des distributions à paramètre de forme positif. Pour des effets du trafic simulés, ML et PML donne des valeurs de retour plus correctes lorsque le nombre de valeurs au-dessus du seuil est supérieur à 100 ; dans le cas contraire, MM et PWM sont conseillés. De plus, comme c’est prouvé dans l’étude de valeurs réelles mesurées, les valeurs a priori aberrantes ("outliers") ont une influence notable sur le résultat et toutes les méthodes sont moins performantes. Comme cela a été montré dans la littérature, ces "outliers" proviennent souvent du mélange de deux distributions, qui peuvent être deux sous-populations. Dans le cas de l’effet du trafic sur les ouvrages, cela peut être la raison d’une estimation des paramètres non correcte. Les articles existant sur le sujet soulignent le fait que les effets du trafic sont dus à des chargements indépendants, qui correspondant au nombre de véhicules impliqués. Ils ne suivent pas la même distribution, ce qui contredit l’hypothèse classique en théorie des valeurs extrêmes que les événements doivent être indépendants et identiquement distribués. Des méthodes permettant de prendre en compte ce point et utilisant des distributions mélangées (exponentielles ou valeurs extrêmes généralisées) ont été proposées dans la littérature pour modéliser les effets du trafic. Nous proposons une méthode similaire, que nous appelons dépassement de seuils mélangés, afin de tenir des différentes distributions sous-jacentes dans l’échantillon tout en appliquant à chacune d’entre elles la méthode des dépassements de seuil. Pour des ponts ayant des portées supérieures à 50 m, le scénario déterminant est celui de la congestion, qui n’est pas ce qui est étudié ici. De plus, le trafic n’est pas la composante déterminante pour la conception des ponts de longue portée. Mais des problèmes de fatigue peuvent apparaître dans certains ponts, tels les ponts métalliques à dalle orthotrope, où l’étude du trafic peut devenir nécessaire. Ainsi nous avons fait une étude de l’influence de la position des véhicules sur le phénomène de fatigue. Pour cela, quatre fichiers de trafic réels, mesurés en 2010 et 2011 par quatre stations de pesage différentes, ont été utilisés. Ils ont mis à jour des comportements latéraux différents d’une station à l’autre. Si nous les appliquons au viaduc de Millau, qui est un pont métallique à haubans et à dalle orthotrope, nous voyons que l’histogramme des effets et l’effet de fatigue cumulé est beaucoup affecté par le comportement latéral des véhicules. Ainsi, des études approfondies utilisant les éléments finis pour modéliser les ouvrages et des enregistrements de trafic réel, peuvent être utilisées pour pré-déterminer quels éléments, donc quelles soudures, doivent être examinés dans les ponts afin d’estimer leur santé structurelle.
6

Sur la théorie des méconnaissances en conception robuste

Enjalbert, Paul 17 March 2009 (has links) (PDF)
Lors de la modélisation du comportement mécanique de structures comme des avions, ou des lanceurs spatiaux, il subsiste des incertitudes parfois fortes, notamment en ce qui concerne l'évaluation des efforts extérieurs ou la rigidité des liaisons. Jusqu'à présent, des coefficients de sécurité, souvent forfaitaires, sont employés, de manière à assurer le bonne tenue des structures, en se basant sur les résultats de modèles simplifiés de la réalité. Cette thèse s'inscrit dans la problématique de validation des modèles numériques utilisés, et tente d'apporter des outils pratiques pour le dimensionnement de toute structure réelle, en présence d'incertitudes, tout en limitant les sur-dimensionnements liés à l'éventuel emploi de coefficients de sécurité. Dans cette optique, les travaux présentés ici s'appuient sur la théorie des méconnaissances, qui vise à remplacer les politiques de marges par une approche un peu plus scientifique. Développée au LMTCachan depuis 2002, son objet est de fournir, moyennant une modélisation originale des incertitudes en présence, les bornes de l'intervalle qui, pour une famille de structures donnée, a une certaine probabilité de contenir la quantité d'intérêt recherchée. Nous proposons des extensions permettant de modéliser les incertitudes portant sur les efforts appliqués aux structures étudiées, ou sur des rigidités anisotropes. Un autre aspect du travail présenté concerne la propagation des méconnaissances introduites à des quantités d'intérêt statiques, de type contraintes ou déplacements locaux. Une fois ceci défini, il est alors possible de définir une approche permettant d'estimer la probabilité de défaillance d'une structure à partir d'un modèle avec méconnaissances, et d'obtenir des indicateurs de la marge disponible par l'amélioration de telle ou telle méconnaissance. Cette approche permet d'inscrire la théorie des méconnaissances dans une optique de conception robuste.
7

Modélisation par éléments discrets rigides et/ou déformables des milieux granulaires et des troisièmes corps solides : Influence du comportement local sur le comportement global

Cao, Hong Phong 21 June 2011 (has links) (PDF)
Les Méthodes par Eléments Discrets apparaissent comme les méthodes les plus appropriées pour modéliser le caractère divisé. De nombreux travaux ont permis de mieux comprendre leurs comportements, mais dans certain cas se pose la question de l'impact du choix de la description volumique ou des lois d'interaction sur le comportement global du milieu. Dans ce contexte, en se basant sur l'approche "Non Smooth Contact Dynamic" permettant naturellement de mixer les différentes formulations, nous nous proposons de comprendre et d'analyser l'influence de cette description. Pour cela, nous utilisons deux applications différentes liées aux comportement quasi-statique (QS) des milieux granulaires et comportement dynamique des interfaces tribologiques. Au niveau de l'étude QS est faite en utilisant des essais de compression biaxiale et de cisaillement. Contrairement aux approches classiques, des particules déformables sont utilisées ici. Les résultats obtenus sont comparés en utilisant des outils de mesure tels que la relation contrainte-déformation, la compacité... Les résultats montrent qu'il n'est pas possible à partir d'une description rigide de converger vers des modèles déformables et souligne l'importance d'effectuer une analyse complète en tenant compte de la déformation des particules. Au niveau de la modélisation d'une interface tribologique s'intéresse à l'influence des conditions limites, des descriptions des premiers corps et du troisième corps sur la rhéologie de l'interface. Dans chaque simulation, frottement macroscopique, profils de vitesse et de contrainte sont observés. Les différents modèles utilisés ont peu d'influence sur la valeur du frottement mais plus d'influence sur les profils de vitesse au travers de l'épaisseur de troisième corps. Ceci souligne l'importante du choix du modèle lors de l'étude de la rhéologie de l'interface et montre qu'il est difficile d'obtenir des résultats génériques et ceci aussi bien en modèles bi que tridimensionnel.
8

Étude de la durabilité des ouvrages dans un contexte de développement durable : application aux ponts mixtes

Ta, Ngoc-Binh 18 September 2013 (has links) (PDF)
La pratique courante de la conception des ouvrages d'art est fortement orientée par la phase de construction. Traditionnellement, la conception des ouvrages consiste à retenir un dimensionnement qui permet d'atteindre un coût initial de construction le plus faible possible tout en respectant des exigences prescrites pour une durée de fonctionnement donnée. Cette approche est aujourd'hui revisitée pour chercher à intégrer tout le cycle de vie de l'ouvrage, c'est-à-dire à considérer toutes les étapes de sa vie depuis la conception jusqu'à la fin de vie en service. En effet, les activités liées au cycle de vie de l'ouvrage durant les phases d'exploitation, de maintenance/réhabilitation, et de fin de vie génèrent des impacts tant sur le plan économique que sur les plans environnementaux et sociétaux, bien plus importants que la simple phase de conception/construction. Chaque option de dimensionnement peut être associée à un cycle de vie différent et donc à des impacts différents. Pour cette raison et dans une approche de développement durable, cette thèse propose d'analyser les ouvrages dans leur cycle de vie selon trois axes : économique, environnemental et sociétal. Pour cela, une famille d'ouvrage particulière a été retenue : les ponts mixtes acier-béton. Une analyse performantielle est également effectuée pour permettre de prendre en compte différents scénarios de maintenance. Finalement, une procédure d'optimisation et une analyse multicritère sont proposées pour évaluer l'ensemble des variantes de conception et permettre d'avoir une vision globale qui aide les maîtres d'ouvrage et les gestionnaires lors de la prise de décision
9

Stratégie multiparamétrique pour la simulation d'assemblages de structures stratifiées

Roulet, Vincent 01 December 2011 (has links) (PDF)
Les travaux de thèse s'inscrivent dans le cadre du projet de recherche européen MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing) et portent sur la simulation numérique de problèmes d'assemblages de composants en matériaux composites stratifiés. Ces assemblages sont sources de deux types de non-linéarités. D'une part, l'interface entre les pièce conduit au traitement de non-linéarités fortes (contact, frottement). D'autre part, dans les composants de l'assemblage, le comportement du matériau stratifié est complexe, du fait des nombreux phénomènes de dégradations interagissant entre eux. Ces deux aspects ont une influence forte sur la réponse globale de l'assemblage, ce qui implique la résolution de systèmes de très grandes tailles, nécessitant généralement l'utilisation de moyens de calcul parallèles.Le couplage entre ces deux problématiques nécessite donc l'utilisation d'algorithmes de calcul parallèle dédiés et robustes, à même de traiter de nombreuses non-linéarités très fortes. Pour cela, la méthode LATIN (pour LArge Time INcrement) présente de nombreux avantages, déjà mis en évidence dans le cas de calcul d'assemblages de pièces élastiques lors de travaux précédents. Le but de ces travaux est donc d'élargir le cadre de la méthode au cas des pièces au comportement endommageable et anélastique.Un dernier aspect, qui sera abordé au sein de ces travaux, traite des fortes variabilités des coefficients intervenant dans les lois non-linéaires. Par conséquent, il est nécessaire de pouvoir traiter un très grand nombre de problèmes affectés de valeurs de coefficients différents. Pour cela, la stratégie multiparamétrique, intimement liée à la méthode LATIN, doit être étendue au cas de comportements matériau non-linéaires. Elle sera alors appliquée au travers de plusieurs paramètres variables : coefficients de frottement, précharges des éléments de fixation, seuil d'endommagement des matériaux...
10

Une méthode multi-échelle de substitution faiblement intrusive en dynamique explicite.

Bettinotti, Omar 17 September 2014 (has links) (PDF)
Les matériaux composites stratifiés sont de plus en plus utilisés dans l'aéronautique, mais ils peuvent être sujets à large délaminage si soumis à impact. La nécessité d'effectuer des simulations numériques pour prédire l'endommagement devient essentielle pour l'ingénieur. Dans ce contexte, l'utilisation d'une modélisation fine semble préférable. En revanche, le coût de calcul associé serait prohibitif pour larges structures. Le but de ce travail consiste à réduire ce coût de calcul, en couplant le modèle fin, restreint à la zone active de délaminage, avec un modèle grossier appliqué au reste de la structure. En raison du comportement transitoire des problèmes d'impact, l'adaptabilité dynamique des modèles pour suivre les phénomènes évolutifs représente un point crucial de la stratégie de couplage. Des méthodes avancées sont utilisées pour coupler différents modèles. Par exemple, la méthode de Décomposition de Domaines, appliquée à l'adaptabilité dynamique, doit être combinée avec une stratégie de remaillage, considérée comme intrusive pour la mise en œuvre d'un logiciel pour Analyse à Eléments Finis. Dans ce travail, les bases d'une approche faiblement intrusive, la méthode de Substitution, sont présentés dans le domaine de la dynamique explicite. Il s'agît d'une formulation globale-locale, conçue pour appliquer un modèle grossier sur tout le domaine pour obtenir une réponse globale: ce pré-calcul est ensuite corrigé itérativement par l'application du modèle raffiné appliqué seulement où nécessaire. La vérification de la méthode de Substitution en comparaison avec la méthode de Décomposition de Domaines est présentée.

Page generated in 0.1195 seconds