• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 214
  • 55
  • 8
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 279
  • 103
  • 87
  • 86
  • 85
  • 78
  • 47
  • 47
  • 46
  • 45
  • 44
  • 44
  • 41
  • 38
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Modèles à grand nombre de variables internes et méthodes numériques associées

Sai, Kacem 08 November 1993 (has links) (PDF)
On étudie une approche de type multimécanimes intermédiaire entre deux classes de modèles: les modèles micromécaniques et les modèles macroscopiques. Le but visé par l'application de ces modèles est d'essayer de reproduire simultanément les phénomènes les plus classiques au sens du comportement des matériaux, mais aussi de faire en sorte que les éléments du comportement généralement moins bien décrits soient également pris en compte. Le couplage entre les variables cinématiques des différents mécanismes permet de décrire: (1) l'effet normal à la vitesse de chargement et l'effet inverse à cette vitesse, (2) l'interaction entre plasticité et fluage, (3) du rochet à haute contrainte moyenne et de l'accommodation ou de l'adaptation quand cette contrainte est moins élevée. Par ailleurs, on s'est intéressé à une méthode d'intégration numérique pour minimiser les temps de calcul dans l'analyse de structures viscoplastique sous chargements cycliques par la méthode des EF. Cette méthode dite de sauts de cycles, est basée sur des pas de calcul qui se chiffrent en nombre de cycles. Cet algorithme a été appliqué à des exemples industriels complexes. La méthode de sauts de cycles permet une diminution du temps de calcul d'un facteur 2 à 10. Enfin on s'est intéressé à l'étude de problèmes d'optimisation. Des exemples ont été traités : l'optimisation de forme et l'optimisation de matériau. La méthodologie qu'on a adoptée consiste à utiliser deux logiciels différents dans leur version standard. Le premier logiciel est le code de calcul par éléments finis 2ebulon, et la deuxième est le code d'identification de paramètres Sidolo. Ce dernier est destiné initialement à identifier des paramètres de modèles physique sur des expériences réelles. Les expériences, dans la procédure d'identification, sont remplacées, dans le cas de l'optimisation, par des objectifs à atteindre selon des critères donnés.
62

Modélisation numérique du chauffage par induction : approche éléments finis et calcul parallèle

Labbé, Valérie 22 April 2002 (has links) (PDF)
La première étape de ce travail a consisté à établir, développer et valider un modèle performant pour modéliser les procédés de chauffage par induction, que ce soit en préchauffe ou pour des traitements thermiques. Ce procédé est complexe de par sa nature multi-physique et nécessite le couplage entre des modèles :<br/>- électromagnétique, - thermique, - éventuellement thermo-mécanique.<br/>Le choix du modèle électromagnétique est primordial. De nombreuses approximations basées sur des hypothèses plus ou moins fortes existent.<br/>Nous avons seulement utilisé l'approximation des régimes quasi-permanents. Nous avons vu que cette première approximation, qui revient à négliger le phénomène de propagation des ondes, est valable dans la gamme de fréquences utilisée lors des procédés de chauffage par induction, les plus hautes fréquences étant largement inférieures au mégahertz. La propagation des ondes est alors considérée comme instantanée, ce qui au vu de la taille caractéristique des installations (quelques mètres) par rapport à la célérité de la lumière (3.105 m/s) est tout à fait raisonnable.<br/>En revanche, nous avons choisi d'écarter l'approximation harmonique des champs électromagnétiques. Cette approximation découple les évolutions spatiales et temporelles du champ et revient à calculer une amplitude complexe pour le champ électromagnétique à partir d'une équation stationnaire. L'avantage d'une telle approximation est le gain souvent important en temps de calcul. Seulement, on perd une précision importante sur l'évolution temporelle et sur la déformation des champs électromagnétiques lorsqu'il s'agit d'un matériau ferromagnétique. En effet, les harmoniques secondaires ne sont pas prises en compte. Afin de pouvoir représenter les phénomènes physiques le plus réellement possible, le modèle électromagnétique utilisé est dépendant du temps. Néanmoins, afin de n'être pas trop pénalisant en temps de calcul, des compromis entre la précision des calculs et le temps de calcul nécessaire ont été étudiés. Ils se situent au niveau :<br/>- du nombre de calculs électromagnétiques nécessaires pour bien décrire l'évolution temporelle d'une période électromagnétique, du nombre de périodes électromagnétiques nécessaires pour arriver à une solution stable,<br/>du nombre de calculs électromagnétiques complets nécessaires au cours de l'évolution du champ de température.<br/>Ces points importants, ainsi que des échelles de temps caractéristiques électromagnétiques et thermiques présentant un rapport allant de 10-2 à 10-6 ont nécessité la mise en place d'un couplage faible, basé sur la stabilisation du terme de puissance Joule moyennée sur une période électromagnétique ainsi que sur la stabilisation des paramètres électromagnétiques au cours de la montée en température.<br/>La méthode numérique employée, de type éléments finis, est fiable et robuste. Néanmoins, elle nécessite une bonne compréhension des phénomènes physiques électromagnétiques inhérents au procédé. En effet, modéliser un espace ouvert par une méthode éléments finis nécessite la fermeture du domaine et l'imposition de conditions aux limites artificielles. L'utilisateur doit estimer la taille du domaine étudié qui doit être assez grand pour ne pas venir tronquer les lignes du champ électromagnétique et ainsi les modifier. Son avantage par rapport à une méthode mixte est que la matrice du système est creuse et symétrique. La résolution du problème est facilitée et se prête mieux à des développements en calcul parallèle.<br/>Enfin, une nouvelle stratégie a été développée pour simuler le déplacement de l'inducteur : ses propriétés se déplacent virtuellement dans l'air. Cette méthode a donné de très bons résultats et ne nécessite aucun remaillage.<br/>Les perspectives de recherche sont multiples.<br/>Au niveau des données, le modèle accepte actuellement une tension ou une densité de courant source uniforme dans l'inducteur. Suite à un calcul électromagnétique complet, la répartition de courants est connue dans l'inducteur et permet une évaluation de l'intensité réelle circulant dans les spires. Il serait intéressant de mettre au point un outil de transfert des données électrotechniques vers nos paramètres d'entrées.<br/>Un autre point, plus académique, serait d'effectuer des comparaisons pour des matériaux ferromagnétiques entre un modèle harmonique et le nôtre, dépendant en temps. En effet nous avons vu que ces deux modèles donnent des solutions identiques pour des matériaux amagnétiques. Tout l'intérêt de notre modèle dépendant en temps apparaît par son analyse beaucoup plus riche des matériaux non linéaires. Nous avons vu que le signal périodique peut être grandement déformé et ne ressemble alors plus du tout à une sinusoïde. Néanmoins, il n'est pas forcément évident que la puissance Joule, issue du calcul électromagnétique et obtenue par intégration sur une période électromagnétique, soit très différente de celle obtenue par une analyse harmonique. Cette différence serait très intéressante à quantifier.<br/>Enfin des comparaisons entre les méthodes numériques 'tout' éléments finis et mixtes permettraient de quantifier la précision des méthodes suivant les tailles des éléments finis, les tailles du domaine de fermeture, ainsi que les différences en temps de calculs.<br/>Un autre axe de ce travail a consisté à étudier et à implémenter une stratégie de parallélisation du modèle direct et de la procédure d'optimisation. Nous avons commencé par tester des solveurs itératifs préconditionnés sur nos différents modèles de type parabolique. Ceux ci donnant des résultats satisfaisants par rapport notamment à un solveur direct, nous avons pu nous orienter vers une méthode de parallélisation SPMD de type partitionnement de domaine. Cette méthode, simple et efficace, donne de très bons résultats au niveau du modèle direct, avec une bonne efficacité et une bonne scalabilité.<br/>La parallélisation de l'optimisation montre une efficacité convenable sur deux et quatre processeurs mais qui tend à chuter rapidement avec le nombre de processeurs: la scalabilité est relativement moyenne. Ce problème fait apparaître une thématique de recherche intéressante en calcul parallèle appliqué aux méthodes adjointes: améliorer la scalabilité de l'optimisation parallèle en développant une meilleure stratégie d'accès aux données, en rééquilibrant les données stockées et les données à recalculer.<br/>Enfin les perspectives à plus long terme consisteraient à développer un modèle analogue tridimensionnel.<br/>
63

Étude numérique du remplissage 3D en fonderie

Saez, Estelle 08 September 2003 (has links) (PDF)
Ce travail porte sur la simulation numérique par éléments finis, d'écoulements tridimensionnels incompressibles à surface libre instationnaires. L'application industrielle visée est l'étude de la phase de remplissage des procédés de fonderie. Il consiste principalement en l'adaptation du logiciel REM3D® qui est un logiciel initialement dédié à l'injection des polymères. Les méthodes présentes dans ce code permettent de résoudre les écoulements visqueux à surface libre, dans une approche multidomaine. La résolution directe d'un problème de Navier-Stokes est effectuée en introduisant, dans le solveur initial, les termes de gravité et d'inertie. Ces derniers sont exprimés à l'aide d'une approximation P1 par morceaux de la vitesse, et de la vitesse moyenne par élément, qui est P0 par morceaux : les termes d'advection sont exprimés par une méthode Galerkin discontinu standard. Le problème en vitesse/pression est stabilisé par condensation de bulle. Cette méthode a été testée sur plusieurs cas académiques, pour des écoulements stationnaires et instationnaires, avec suivi de la surface libre. Enfin, afin de pouvoir simuler les écoulements rencontrés en fonderie, des conditions de contact glissant ont été introduites. Un algorithme original de construction de normales multiples conservatives aux nœuds a été implémenté et validé, dans un contexte multidomaine. Le logiciel de simulation ainsi construit, a été validé sur des cas tests spécialement mis au point pour la fonderie, et en thermique multidomaine.
64

Modélisation des instabilités en mécanique des roches : application à l'exploitation de la concession de Drouville

Nothnagel, Robert 25 March 2003 (has links) (PDF)
Ce travail présente une nouvelle méthode de prédiction de l'effondrement d'un terrain minier suite à une exploitation intensive. L'approche développée a été appliquée pour le cas de la concession de Drouville, appartenant à la Compagnie des Salins du Midi et des Salines de l'Est.<br/>Le gisement y était exploité par cavités de dissolution interconnectées par facturation hydraulique. Des développements incontrôlés de la dissolution ont abouti à la jonction de deux cavités voisines et à la formation d'une grande cavité SG4/5 dont l'effondrement a été provoqué pour des raisons de sécurité.<br/>La rétro-analyse de cet effondrement a été le point de départ de la recherche qui est présentée, dont l'objectif final était la mise au point d'une méthode d'exploitation sûre permettant de récupérer la plus grande partie du gisement sans risquer d'évolution ultérieure.<br/>Afin d'atteindre det objectif, nous avons utilisé la méthodes des éléments finis pour résoudre le problème mécanique.<br/>Le modèle développé intègre des lois rhéologiques décrivant le comportement des matériaux rencontrés. Les paramètres de ces lois ont été obtenus par rétro-analyse directe (méthode d'essai et d'erreur / méthode de minimisation d'erreur).<br/>L'application du modèle pour des simulations bidimensionnelles et tridimensionnelles nous a permis d'identifier les zones de forte plastification et de rupture. De plus, il nous a été possible d'anticiper la réaction du massif rocheux durant le processus d'effondrement.<br/>En utilisant cette technique conjointement avec une analyse détaillée du comportement mécanique du massif, une nouvelle méthode d'exploitation intensive par élargissement progressif de la zone d'effondrement a été proposée.
65

Étude du comportement au feu des maçonneries de briques en terre-cuite : approche expérimentale et modélisation du risque d'écaillage

Nguyen, Thê-Duong 24 June 2009 (has links) (PDF)
La compréhension du comportement des structures en maçonneries exposées au feu et la prédiction de leur résistance au feu, sont des besoins majeurs, exprimes par les industriels de la terre cuite, à cause du manque d'études disponibles. L'objectif de ce travail est de construire des outils numériques qui sont capables de prédire le comportement et la tenue au feu des murs de briques alvéolaires en terre cuite, porteurs ou non porteurs, montes avec joints épais en mortier traditionnel ou avec joints minces en mortier colle. Pour cela, des investigations expérimentales à l'échelle de matériau et à l'échelle structurale sont menées permettant de comprendre les phénomènes thermo-hygro-mécaniques contrôlant la tenue au feu. Ces phénomènes majeurs sont par la suite pris en compte dans la construction de modèles de comportement, dont la mise en oeuvre numérique permet de disposer d'un outil de simulation de la tenue au feu des maçonneries. Pour le problème thermique, les trois modes de transferts : conduction, convection et rayonnement, avec l'ajustement de l'effet hydrique dans la capacité thermique, permettent de simuler la réponse thermo-hydrique dans la structure alvéolaire en terre cuite. Sur le plan mécanique, la tenue au feu des murs en maçonnerie est abordée du point de vue du risque d'écaillage. Cette rupture, localisée ou diffuse, des parois peut conduire à une perte d'étanchéité du mur ou à celle de son intégrité mécanique. Pour évaluer ce risque, une modélisation thermo-élastique tridimensionnelle est proposée avec la prise en compte de l'évolution des propriétés avec la température. Cette modélisation simplifiée est complétée à un critère d'écaillage de type détachement-voilement. En parallèle avec des calculs de validations, des études paramétriques sont menées afin d'identifier les influences des paramètres thermiques, mécaniques sur le comportement thermo-mécanique des murs
66

Étude du nombre de polynômes irréductibles dans les corps finis avec certaines contraintes imposées aux coefficients

Beauchamp Houde, Gabriel 08 1900 (has links)
L'objectif de ce mémoire est de dénombrer les polynômes irréductibles unitaires sur un corps fini en prescrivant des contraintes sur les coefficients. Dans les prochaines pages, il sera question de fixer simplement des coefficients, ou simplement de fixer leur signe, leur cubicité ou leur quarticité. / The objective of this thesis is to count monic irreducible polnomials over a finite field under some conditions on the coefficients of the polynomial. These conditions will be simply to fix some coefficients, or to fix their sign, cubicity or quarticity.
67

Approche inverse pour l’identification des propriétés viscoélastiques de structures sandwichs amorties / Inverse approach for the identification of the mechanical properties of viscoelastic damped sandwich structures

Ledi, Koffi Sénanou 12 October 2018 (has links)
Dans ce travail de thèse, une méthode d’identification inverse des propriétés mécaniques du matériau viscoélastique (module de cisaillement et facteur de perte) fonctionnalisé dans une structure sandwich à trois couches symétriques est proposée. L’objectif de ce travail est de pouvoir identifier les propriétés mécaniques in situ. A travers un modèle éléments finis basé sur le modèle Zig-Zag de Rao, notre modèle assure la détermination des paramètres modaux de la poutre sandwich. L'approche inverse consiste en une procédure itérative qui détermine les formes de mode étant donné les paramètres matériaux puis calcule les propriétés viscoélastiques à partir des modes en utilisant un quotient de Rayleigh jusqu'à ce que la convergence sur les propriétés du matériau soit satisfaite. Les paramètres d’entrée du modèle inverse sont les fréquences de résonance et facteurs de perte de la poutre sandwich obtenues expérimentalement. En conséquence, la dépendance en fréquence des propriétés du matériau viscoélastique de la poutre sandwich est déterminée par une démarche automatisée. La méthode a été comparée avec succès aux formules de Ross-Kerwin-Ungar ; à une approche d'optimisation standard et à la littérature. A partir des résultats, nous avons pu déduire les lois de comportement du cœur viscoélastique suivant des modèles rhéologique tels que le modèle de Maxwell généralisé, d’ADF, de GHM et du Zéner fractionnaire. Ce dispositif expérimental couplé à la méthode d’indentification a permis l’investigation des paramètres modaux de la poutre à différentes températures pour étudier l’effet de la température sur les lois rhéologiques. Pour étudier la robustesse de notre méthode, nous avons procédé des essais de reproductibilité, de reproductibilité sur une population d’échantillon. L’efficacité de notre méthode étant été prouvée, une étude de sensibilité a été menée sur les caractéristiques géométriques de notre structure et les paramètres d’entrée. Les résultats obtenus montrent le fort impact de certains paramètres sur l’identification / In this work, a inverse identification method of the mechanical properties of the viscoelastic material (shear modulus and loss factor) functionalized in a sandwich structure with three symmetrical layers is proposed. The objective of this work is to be able to identify the mechanical properties in situ. Through a finite element model based on Rao's Zig-Zag model, our model ensures the modal parameter determination of the sandwich beam. The inverse approach consists of an iterative procedure that determines the mode shapes given the material parameters and then calculates the viscoelastic properties from the modes using a Rayleigh quotient until convergence on the properties of the material is satisfied. The input parameters of the inverse model are the resonance frequencies and loss factors of the sandwich beam obtained experimentally. As a result, the frequency dependence of the viscoelastic properties of the sandwich beam is determined by an automated way. The method has been successfully compared to Ross-Kerwin-Ungar formulas; a standard optimization approach and the literature. From the results, we have been able to deduce the constitutive laws of the viscoelastic heart according to rheological models such as the generalized Maxwell model, ADF, GHM and fractional Zener. This experimental device coupled to the method of identification allowed the investigation of modal parameters of the beam at different temperatures to study the effect of the temperature on the rheological laws. To study the robustness of our method, we carried out tests repeatability, reproducibility on a sample population. Since the effectiveness of our method has been proven, a sensitivity study has been carried out on the geometrical characteristics of our structure and the input parameters. The results obtained show the strong impact of certain parameters on identification
68

Methods for finite-time average consensus protocols design, network robustness assessment and network topology reconstruction / Méthodes distribuées pour la conception de protocoles de consensus moyenné en temps fini, l'évaluation de la robustesse du réseau et la reconstruction de la topologie

Tran, Thi-Minh-Dung 26 March 2015 (has links)
Le consensus des systèmes multi-agents a eu une attention considérable au cours de la dernière décennie. Le consensus est un processus coopératif dans lequel les agents interagissent afin de parvenir à un accord. La plupart des études se sont engagés à l'analyse de l'état d'équilibre du comportement de ce processus. Toutefois, au cours de la transitoire de ce processus une énorme quantité de données est produite. Dans cette thèse, notre objectif est d'exploiter les données produites au cours de la transitoire d'algorithmes de consensus moyenne asymptotique afin de concevoir des protocoles de consensus moyenne en temps fini, évaluer la robustesse du graphique, et éventuellement récupérer la topologie du graphe de manière distribuée. Le consensus de moyenne en temps fini garantit un temps d'exécution minimal qui peut assurer l'efficacité et la précision des algorithmes distribués complexes dans lesquels il est impliqué. Nous nous concentrons d'abord sur l'étape de configuration consacrée à la conception de protocoles de consensus qui garantissent la convergence de la moyenne exacte dans un nombre donné d'étapes. En considérant des réseaux d'agents modélisés avec des graphes non orientés connectés, nous formulons le problème de la factorisation de la matrice de moyenne et étudions des solutions distribuées à ce problème. Puisque, les appareils communicants doivent apprendre leur environnement avant d'établir des liens de communication, nous suggérons l'utilisation de séquences d'apprentissage afin de résoudre le problème de la factorisation. Ensuite, un algorithme semblable à l'algorithme de rétro-propagation du gradient est proposé pour résoudre un problème d'optimisation non convexe sous contrainte. Nous montrons que tout minimum local de la fonction de coût donne une factorisation exacte de la matrice de moyenne. En contraignant les matrices de facteur à être comme les matrices de consensus basées sur la matrice laplacienne, il est maintenant bien connu que la factorisation de la matrice de moyenne est entièrement caractérisé par les valeurs propres non nulles du laplacien. Par conséquent, la résolution de la factorisation de la matrice de la moyenne de manière distribuée avec une telle contrainte sur la matrice laplacienne, permet d'estimer le spectre de la matrice laplacienne. Depuis le spectre peut être utilisé pour calculer des indices de la robustesse (Nombre d'arbres couvrant et la résistance effective du graphe), la deuxième partie de cette thèse est consacrée à l'évaluation de la robustesse du réseau à travers l'estimation distribuée du spectre du Laplacien. Le problème est posé comme un problème de consensus sous contrainte formulé de deux façons différentes. La première formulation (approche directe) cède à un problème d'optimisation non-convexe résolu de manière distribuée au moyen de la méthode des multiplicateurs de Lagrange. La seconde formulation (approche indirecte) est obtenue après une reparamétrisation adéquate. Le problème est alors convexe et résolu en utilisant l'algorithme du sous-gradient distribué et la méthode de direction alternée de multiplicateurs. En outre, trois cas sont considérés: la valeur moyenne finale est parfaitement connue, bruyant, ou complètement inconnue. Nous fournissons également une façon pour calculer les multiplicités des valeurs propres estimées au moyen d'une programmation linéaire en nombres entiers. L'efficacité des solutions proposées est évaluée au moyen de simulations. Cependant, dans plusieurs cas, la convergence des algorithmes proposés est lente et doit être améliorée dans les travaux futurs. En outre, l'approche indirecte n'est pas évolutive pour des graphes de taille importante car elle implique le calcul des racines d'un polynôme de degré égal à la taille du réseau. Cependant, au lieu d'estimer tout le spectre, il peut être possible de récupérer seulement un petit nombre des valeurs propres, puis déduire des limites significatives sur les indices de la robustesse. / Consensus of Multi-agent systems has received tremendous attention during the last decade. Consensus is a cooperative process in which agents interact in order to reach an agreement. Most of studies are committed to analysis of the steady-state behavior of this process. However, during the transient of this process a huge amount of data is produced. In this thesis, our aim is to exploit data produced during the transient of asymptotic average consensus algorithms in order to design finite-time average consensus protocols, assess the robustness of the graph, and eventually recover the topology of the graph in a distributed way. Finite-time Average Consensus guarantees a minimal execution time that can ensure the efficiency and the accuracy of sophisticated distributed algorithms in which it is involved. We first focus on the configuration step devoted to the design of consensus protocols that guarantee convergence to the exact average in a given number of steps. By considering networks of agents modelled with connected undirected graphs, we formulate the problem as the factorization of the averaging matrix and investigate distributed solutions to this problem. Since, communicating devices have to learn their environment before establishing communication links, we suggest the usage of learning sequences in order to solve the factorization problem. Then a gradient backpropagation-like algorithm is proposed to solve a non-convex constrained optimization problem. We show that any local minimum of the cost function provides an accurate factorization of the averaging matrix. By constraining the factor matrices to be as Laplacian-based consensus matrices, it is now well known that the factorization of the averaging matrix is fully characterized by the nonzero Laplacian eigenvalues. Therefore, solving the factorization of the averaging matrix in a distributed way with such Laplacian matrix constraint allows estimating the spectrum of the Laplacian matrix. Since that spectrum can be used to compute some robustness indices (Number of spanning trees and Effective graph Resistance also known as Kirchoff index), the second part of this dissertation is dedicated to Network Robustness Assessment through distributed estimation of the Laplacian spectrum. The problem is posed as a constrained consensus problem formulated in two ways. The first formulation (direct approach) yields a non-convex optimization problem solved in a distributed way by means of the method of Lagrange multipliers. The second formulation (indirect approach) is obtained after an adequate re-parameterization. The problem is then convex and solved by using the distributed subgradient algorithm and the alternating direction method of multipliers. Furthermore, three cases are considered: the final average value is perfectly known, noisy, or completely unknown. We also provide a way for computing the multiplicities of the estimated eigenvalues by means of an Integer programming. In this spectral approach, given the Laplacian spectrum, the network topology can be reconstructed through estimation of Laplacian eigenvector. The efficiency of the proposed solutions is evaluated by means of simulations. However, in several cases, convergence of the proposed algorithms is slow and needs to be improved in future works. In addition, the indirect approach is not scalable to very large graphs since it involves the computation of roots of a polynomial with degree equal to the size of the network. However, instead of estimating all the spectrum, it can be possible to recover only a few number of eigenvalues and then deduce some significant bounds on robustness indices.
69

Quelques interactions de la topologie classique et quantique en dimension trois

Eisermann, Michael 14 December 2007 (has links) (PDF)
En 1984 Jones découvrit son invariant polynomial, qui ne ressemblait à aucun concept connu auparavant. En quelques années cette découverte a provoqué l'invention de nombreux autres invariants polynomiaux et des invariants dits quantiques ou de type fini, issus des représentations du groupe des tresses et souvent inspirés par des analogies avec la physique théorique. Malgré leurs mérites pour la théorie des nœuds et des 3-variétés, ces invariants restent peu compris du coté de la topologie algébrique, et parfois de la topologie tout court. Ce mémoire présente et discute quelques éléments de réponse.
70

Etude qualitative et quantitative de problèmes de coques élastiques non linéaires

Ould Ely Telmoudy, Elbar 01 July 1994 (has links) (PDF)
Dans la première partie, on fait une approche du verrouillage en élasticité non linéaire. Nous étudions déplacements d'une coque cylindrique peu profonde de longueur infinie. Sous des hypothèses raisonnables on peut supposer que le problème est modélisé par une arche circulaire soumise à une pression F. On montre comment calculer analytiquement, toutes ses solutions, moyennant une paramétrisation des solutions. On donne deux critères pour mettre en évidence le phénomène de verrouillage en élasticité non linéaire ; le premier est basé sur l'utilisation d'une abscisse curviligne sur les branches de solutions, et le second sur la résolution d'un problème de minimisation en utilisant l'inverse de Moore-Penrose. Après avoir retenu le critère de Moore-Penrose, pour caractériser le verrouillage en non linéaire, nous avons approché le problème par une méthode d'éléments finis, combinée à la méthode de Moore-Penrose. Ceci nous a permis d'établir différents diagrammes de convergence montrant le phénomène de verrouillage et l'efficacité des méthodes à le traiter. Dans la deuxième partie, on étudie le flambage d'une coque cylindrique verticale, soumise à un champ de forces volumiques de densité f et en sa partie supérieure, soumise à une densité de forces surfaciques λ. Nous utilisons un modèle de coques minces élastiques, en théorie non linéaire, en se référant aux travaux de Koiter (1966). On s'intéresse uniquement aux solutions axisymétriques de ce modèle. On montre l'existence de solution pour toute valeur des charges et on donne une condition suffisante d'unicité. On fait une étude détaillée de la bifurcation de ce problème. Cette étude qualitative est complétée par une étude quantitative

Page generated in 0.0399 seconds