• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 691
  • 169
  • 54
  • 1
  • Tagged with
  • 912
  • 912
  • 411
  • 293
  • 234
  • 166
  • 128
  • 119
  • 96
  • 92
  • 84
  • 82
  • 82
  • 76
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Etude expérimentale et numérique de la résistance à l'effondrement progressif de sous-assemblages poteaux-poutres en béton armé / Experimental and numerical investigation of the progressive collapse resistance of reinforced concrete beam-column sub-assemblages

Zhao, Guoqiang 03 July 2019 (has links)
Au cours de leur durée de vie, les bâtiments importants sont susceptibles d’être soumis à des charges accidentelles, telles que des explosions ou des impacts. Evaluer leur stabilité vis-à-vis de charges traditionnelles statiques et sismiques ne suffit pas. Leurs performances structurelles liées à des scénarios d’effondrement progressif doivent également être examinées.L’étude de l’effondrement progressif est un problème dynamique. Malheureusement, les expériences sur le comportement des structures de génie civil dans des conditions dynamiques sont rares car difficiles à réaliser. Dans cette étude, des sous-assemblages poteaux-poutres en béton armé ont été testés sous chargement dynamique. Le chargement a consisté à placer une masse importante jouant le rôle de « charge morte » sur la colonne centrale d’un sous-assemblage simulant la liaison de 3 poteaux avec 2 poutres. Une pièce fusible jouant le rôle de support sous la colonne centrale est brutalement déverrouillée pour simuler la perte de portance soudaine de cette colonne. Le comportement dynamique et les dommages locaux causés à la structure ont été mesurés et étudiés. Le bâti de chargement et les dispositifs de support ont été conçus spécialement pour cet essai. La charge morte supérieure peut être modifiée et appliquées à différents spécimens. Les supports des colonnes latérales ont une rigidité horizontale contrôlée et sont conçus pour limiter la rotation de ces mêmes colonnes. Ainsi, les conditions aux limites des essais réalisés sont supposées être représentatives de situations réalistes. Au cours des essais, un laser a été installé sous la colonne centrale pour mesurer la vitesse de chute. Une caméra numérique rapide a été utilisée pour visualiser l'ensemble du processus de ruine du sous-assemblage. Les images obtenues de la caméra ont été traitées par une technique de DIC (Digital Image Correlation) afin d’obtenir le champs de déplacement et les déformations correspondantes. Grâce à ces mesures dynamiques, des données importantes ont été produites et enregistrées, notamment la période de vibration, la fréquence, la vitesse et le déplacement des différents échantillons testés. Sur la base de ces données expérimentales, l’effet de la section et de la portée des poutres sur la réponse dynamique et sur le mode d’endommagement des sous-assemblages a été discuté. Cette étude montre que les résultats expérimentaux obtenus, en termes de mécanismes structurels, de schéma de fissuration, de mode d'endommagement, peuvent être utilisés pour analyser le comportement de sous-assemblages de structures réelles.De plus, une modélisation numérique des essais a été réalisée pour simuler le processus de ruine de la structure. Une technique appelée «connecteur» a été proposée dans le modèle aux éléments finis du sous-assemblage poteaux-poutres. Cette technique consiste à ajouter une série de ressorts pour étudier le rôle de l’interaction entre les armatures en acier et le béton. Un modèle d'endommagement anisotrope, appelé modèle DFH-KST, a été utilisé pour caractériser l'évolution de la fissuration et l’endommagement du béton.La polyvalence de la méthodologie adoptée permet d’évaluer l’influence du comportement non-linéaire du matériau et celle de la géométrie de la structure testée. Les études numériques de calibration et de validation montrent que le modèle proposé peut reproduire le comportement et la résistance de la structure avec succès. / Important buildings may be subjected to accidental loads, such as explosions or impacts, during their service life. It is, therefore, necessary not only to evaluate their safety under traditional loads and seismic action. The structural performances related to progressive collapse scenarios need to be investigated.The study of progressive collapse involves a dynamic problem, but unfortunately dynamic experiments on the behavior of the civil engineering structures under dynamic conditions are rare. In this research, beam-column sub-assemblage specimens were tested under dynamic load. The loading program consists in placing a large mass, as a dead load, on the top of the middle column of a beam-column sub-assemblage. The support under the middle column is suddenly removed for simulating the sudden loss of a column and the damage that will result in the structure. The loading system and supporting devices were designed specially for this test. The upper dead load can be changed by increasing or decreasing the applied masse to different specimens. The supports for the side column have a controlled rigidity in the horizontal direction and are designed to restrain rotation of the side-column. Thus, the boundary conditions are supposed to be similar to real situations. During the test, a laser was installed under the middle pillar to collect the falling velocity and a high-speed camera was used to visualize the whole process of the component failure process. The images obtained from the camera were processed by Digital Image Correlation (DIC) technology to get the corresponding displacements and strain fields. By these means, all the information of the structure under dynamic loading was captured and recorded, such as the period of vibration, frequency, velocity and displacement. Based on these experimental data, the effect of section and span of the specimen on dynamic response and damage mode was discussed. Time history of resistance force curves was produced. Compared with previous published quasi-static experiments in terms of structural mechanisms, crack patterns, damage mode, it shows the experimental results from beam-column assemblage with the designed support device can be used to analyze the behavior of the local structure in the entire frame.In addition, numerical simulations were developed for simulating the failing process of the structure. A technique named “connector” was proposed into beam-column finite element model by adding a series of springs to investigate the interaction between steel rebars and concrete. A concrete damage model, named DFH-KST model, was used to characterize the development of concrete crack and damage. The versatility of the adopted methodology allows assessing the influence of the material nonlinear behavior and the geometry of the tested structure. Calibration and validation studies show that the proposed model can successfully represent the resistance of structure and behavior. Furthermore, the transverse component effect on the resistance to progressive collapse was discussed.
72

Modèles numériques personnalisés de la fibrillation auriculaire / Numerical patient-specific model of atrial-fibrillation

Gerard, Antoine 10 July 2019 (has links)
Les arythmies auriculaires constituent une pathologie majeure en cardiologie, et leur étude constitue un vaste sujet de recherche. Pour les étudier, de nombreux modèles mathématiques de la propagation du potentiel d'action dans les oreillettes ont été développés. La plupart de ces modèles génériques permettent de reproduire des séquences d'activations typiques des oreillettes. De tels modèles peuvent avoir un intérêt expérimental, voir clinique, par exemple dans l'aide à la localisation des foyers arythmiques ou encore dans l'analyse des échecs du traitement de ces arythmies. Néanmoins, pour atteindre ce but, il faut être capable de recaler au mieux le modèle, dans ses dimensions géométriques ou fonctionnelles, sur des données individuelles. L'assimilation de données, discipline mathématique dans laquelle nous cherchons à combiner de manière optimale théorie et observations, est alors un bon candidat à la personnalisation des modèles de la propagation du potentiel d'action. Dans cette thèse, nous proposons d'étudier différentes méthodes d'assimilation de données -- séquentielles et variationnelles -- dans le but de combiner les modèles de propagation avec des données électroanatomiques. Plus précisément, nous nous intéressons à deux applications possible de l'assimilation de données que sont l'estimation d'état et l'estimation de paramètres. Dans un premier temps, nous étudions un observateur d'état permettant de corriger la position du front de propagation simulé en se basant sur la position du front observé. Cet observateur est alors utilisé afin de compléter une carte d'activation obtenue lors d'une procédure clinique. Ensuite, ce même observateur est combiné à un filtre de Kalman d'ordre réduit afin d'estimer les paramètres de conductivités du modèle mathématique de propagation du potentiel d'action. Une étude de la stratégie d'estimation liée état-paramètre est ensuite réalisée pour voir comment la méthode se comporte face aux erreurs de modélisation. La méthode est ensuite testée sur un jeu de données acquis cliniquement. Puis, nous regardons du côté des méthodes d'assimilation de données variationnelles qui permettent l'estimation de paramètres spatialement distribués. Plusieurs problèmes de minimisation, permettant d'estimer un paramètre de conductivité distribué dans l'espace, sont alors introduits et analysés. Nous montrons alors que la discrétisation de ces problèmes de minimisation, dans le but d'obtenir des méthodes numériques de résolution, peut s'avérer complexe. Une méthode numérique est ensuite mise en place pour un des problèmes de minimisation étudié, et trois cas tests unidimensionnels sont analysés.Enfin, nous démontrons l'existence d'un minimum pour une des fonctions objectif étudiées en nous basant sur des résultats d'analyse fonctionnelle de la littérature. / Atrial arrhythmias are a major pathology in cardiology, and their study is alarge research topic. To study them, many mathematical models of the actionpotential propagation in atria have been developed. Most of those generic models can be used to reproduce typical activation sequences of the atria. Such models may have an experimental or even clinical interest, for example in helping the location of arrhythmic foci or in the analysis of treatment failures for these arrhythmias. Nevertheless, to achieve this goal, it isnecessary to be able to adjust the model at best, based on experimental orclinical data. Data assimilation, a mathematical discipline in which we seek to optimally combine theory and observations, is then a good candidate for the customization of action potential propagation models.In this thesis, we propose to study different data assimilation methods-- sequential and variational -- in order to adjust action potential propagation model on electroanatomical data. More precisely, we are interested in two possible applications of data assimilation: state estimation and parameter estimation.First, we study a state observer which is able to correct the simulatedpropagation front localization based on the observed front localization. Thisobserver is then used to complete an activation map obtained during a clinical procedure.Then, this observer is combined with a reduced order Kalman filterin order to estimate the conductivity parameters of the action potentialpropagation model. A study of the joint state-parameter estimationstrategy is then realized to see how the method behaves faced with modelingerrors. The method is then tested on a clinically acquired dataset.Then, we look at variational data assimilation methods that allow the estimation of spatially distributed parameters. Several minimization problems, allowing to estimate a conductivity parameter distributed in space, are then introduced and analyzed. We then show that the discretization of these minimization problems, in order to obtain numerical methods of resolution, can be complex. A numerical method is then implemented for one of the studied minimization problems, and three 1D test cases are analyzed.Finally, we demonstrate the existence of a minimum for one of the studiedobjective function based on functional analysis results from theliterature.
73

Modélisation de l'auto-inflammation et de la combustion pour les moteurs Diesel

Pires Da Cruz, Antonio 09 December 1997 (has links) (PDF)
Le travail porte sur la modélisation de l'auto-inflammation et de la combustion dans les moteurs Diesel. L'accent est mis sur la prise en compte des effets induits par la turbulence. Seule l'injection de carburant gazeux est considérée. Le mélange turbulent est identifié comme un des paramètres important contrôlant l'auto-inflammation dans les moteurs Diesel alors que les effets turbulents sont en général négligés par les modèles utilisés actuellement dans les codes de calcul moteur. Un nouveau modèle est proposé, dont le développement s'est appuyé sur des résultats de simulations numériques directes (DNS). Il prend en compte le mélange turbulent au travers de la dissipation scalaire et de pdf présumées de la fraction de mélange et d'une variable de progrès de la réaction chimique. Le modèle est validé à plusieurs niveaux. Tout d'abord, il est comparé aux DNS pour des cas de mélange simple. Puis, sa version moyennée est implantée dans le code de calcul KIVA2-MB où son comportement est testé en mono-dimensionnel et comparé à d'autres formulations. Enfin, le modèle est validé par comparaison avec une expérience dédiée d'injection de méthane dans une cellule pressurisée remplie d'air chauffé et permettant l'utilisation de diagnostics optiques.
74

Optimisation des procédés d'emboutissage par caractérisation géométrique et essais numériques

Ledoux, Yann 12 December 2005 (has links) (PDF)
L'emboutissage est un procédé de mise en forme des matériaux métalliques en feuille. En général, plusieurs étapes d'emboutissage sont nécessaires et les phénomènes mis en jeux lors de la déformation plastique du matériau sont complexes. Ainsi, la conception d'un nouvel outillage est une opération longue et délicate. La technique d'«essai - erreur» est habituellement employée par les industriels. Cette méthode est sans garantie de succès, coûteuse et mobilise une machine de production ( presse ). Cette thèse propose une méthode d'optimisation qui est basée sur des simulations numériques. Le po%int% de départ est la définition d'un outillage initial dont la simulation est réalisée. Selon la géométrie numérique obtenue, nous paramétrons les défauts à corriger. Les paramètres du procédé qui modifient sensiblement la géométrie de la \pièce sont choisis ainsi que leur plage de variation respective. Un plan d'%exp%ériences est construit pour tester différentes configurations des paramètres du procédé. L'ensemble des %exp%ériences est simulé, puis, les paramètres géométriques sont mesurés sur chacune d'elles. Ces résultats permettent de calculer des relations polynomiales liant les paramètres du procédé aux paramètres géométriques de la \pièce. A%vec% ces relations, nous cherchons, par la technique d'optimisation de Newton, la configuration optimale du procédé donnant la géométrie désirée. La simulation correspondante est effectuée et valide l'optimum trouvé. Trois cas d'application sont présentés. Deux concernent des \pièces embouties en une étape, et enfin, nous présentons l'étude d'une \pièce réalisée en plusieurs étapes.
75

Reconstruction des vitesses propres des galaxies: méthodes et applications aux observations.

Lavaux, Guilhem 02 July 2008 (has links) (PDF)
Bien que nous ayons accès à des catalogues de galaxies très détaillés, notre compréhension de la distribution spatiale de la matière noire reste encore limitée. D'importantes informations à son sujet sont cachées dans les vitesses propres des galaxies, qui reflètent la dynamique de la matière noire à différentes échelles. Malheureusement, ces vitesses sont très difficiles à observer. Nous présentons ici une approche différente pour "mesurer" ces vitesses par l'intermédiaire de méthodes de reconstruction des champs de vitesse. Nous utilisons en particulier la reconstruction dîte de Monge-Ampère-Kantorovitch (MAK). Nous testons cette méthode sur des simulations à N-corps ainsi que sur des catalogues virtuels de galaxies. Nous vérifions sa fiabilité par la comparaison des vitesses reconstruites aux vitesses simulées et aussi à travers la mesure de la densité moyenne de matière de ces univers.<br /><br />Après avoir testé cette méthode, nous l'utilisons sur un vrai catalogue de galaxie: le 2MASS Redshift survey. Après l'avoir corrigé des effets observationnels connus, nous étudions l'origine de la vitesse du Groupe Local par rapport au fond diffus cosmologique. Nous montrons que plus de la moitié de notre vitesse est due à des structures situées à plus de 40 Mpc/h. Une fois étudié le mouvement d'ensemble des structures locales, nous comparons directement les vitesses reconstruites et les distances observées dans notre voisinage de 30 Mpc/h. Nous proposons une estimation indépendante du paramètre de densité. Cette estimation peut être utilisée afin de réduire les dégénérescences dans l'espace des paramètres du modèle d'univers à base de matière noire froide.
76

Des agents-modèles pour la modélisation et la simulation de systèmes complexes : application à l'écosystémique des pêches

Bonneaud, Stéphane 14 October 2008 (has links) (PDF)
La problématique est l'étude de la modélisation pour la simulation de systèmes complexes. Les processus de modélisation et de simulation étant complexes, il faut rationaliser la modélisation et gagner en maîtrise sur elle. Nous proposons de concevoir le modèle complexe comme une société de modèles en interaction. Nous appliquons l'approche orientée pattern pour rationaliser la modélisation en la centrant sur les données. Nous utilisons l'approche agent pour distribuer l'observation et le contrôle dans le modèle global. La société de modèles permet alors l'émergence des patterns par l'activité des agents. Les artefacts, appliqués à la modélisation, sont le support des données, des patterns et des interactions entre agents. Le couplage des agents se fait ainsi via les \artefacts, à la différence d'une approche par événements.<br />Nous identifions trois types d'agents : <br />1° les agentmodeles, qui exécutent le modèle d'un phénomène ; <br />2° les agents-observateurs, qui construisent des observables ; <br />3° les agents-contrôleurs, qui contrôlent localement le modèle global.<br />Les agents peuvent également s'adapter à leur environnement avec des opérations pour modifier leurs perceptions et actions. Le modèle complexe peut alors être construit incrémentalement, les comportements des agents peuvent être modifiés facilement, et un agent peut être ajouté ou enlevé du modèle global sans impact sur la structure des autres agents.<br />Enfin, nous identifions quatre types de comportements pour un agent-modèle : 1° basé sur des équations différentielles (intensionnel) ; 2° centré individu (émergent) ; 3° pré-calculé (extensionnel) ; 4° joué par un expert (participatif). Pour aller plus loin dans la rationalisation de la modélisation, nous exhibons les biais computationnels induits par la traduction de modèles conceptuels en modèles computationnels dans le cas de modèles de peuplements d'agents. Nous montrons que nos modèles sont très sensibles aux différents biais étudiés. Il est nécessaire que les thématiciens connaissent les sources de biais et que l'outil de simulation soit spécialisé afin de permettre : 1° d'expliciter le modèle, 2° de garantir les propriétés identifiées et 3° de permettre des analyses systématiques. C'est ce que nous faisons dans notre simulateur. Enfin, ce travail entre dans le cadre du projet ANR Chaloupe. L'enjeu est d'envisager la co-viabilité de peuplements écologiques et de leur exploitation par des groupes sociaux (e.g. pêcheries). Nous présentons les résultats de simulation obtenus validant la société de modèles qui permet une modélisation souple et rigoureuse.
77

CONTRIBUTION À LA MODÉLISATION ET À LA SIMULATION NUMÉRIQUE DU DÉCOUPAGE DES MÉTAUX

Lemiale, Vincent 28 June 2004 (has links) (PDF)
Le découpage mécanique des métaux est un procédé très utilisé dans l'industrie. Il permet notamment de réaliser des composants de formes plus ou moins complexes dédiés à l'industrie électronique. Cependant, il nécessite le réglage et le contrôle de nombreux paramètres. Or, le contexte industriel actuel rend les méthodes fondées sur le savoir-faire des opérateurs inadaptées. L'objet principal de cette thèse est donc de proposer un outil d'aide à la mise au point d'un découpage par le biais de la simulation numérique. La modélisation repose sur une analyse mécanique complète du comportement matériel de la tôle. La sensibilité du matériau à la vitesse de déformation et à la température est prise en compte par l'intermédiaire d'un modèle thermo-élasto-viscoplastique dans un cadre adiabatique. Les mécanismes d'endommagement et de rupture sont également pris en compte dans la modélisation. Un logiciel de simulation spécifiquement dédié au découpage a été développé. Il est basé sur la méthode des éléments finis et repose sur une modélisation bi-dimensionnelle du procédé. En parallèle aux développements numériques, un dispositif expérimental a été conçu et réalisé au cours de ces travaux, afin de valider les modèles mécaniques retenus. Les applications présentées dans ce mémoire illustrent l'apport de la simulation numérique pour les entreprises spécialisées.
78

Optimisation de la tête d'extrusion pour la fabrication de pièces thermoplastiques

Lebaal, Nadhir 15 June 2007 (has links) (PDF)
Au cours de cette étude, différents aspects d'optimisation ont été abordés. L'objectif de nos travaux de recherches est d'homogénéiser la répartition des vitesses à la sortie des filières, par la maîtrise et l'optimisation des paramètres géométrique et opératoires. Dans cette étude l'optimisation a été effectuée en utilisant un logiciel commercial Rem3D®, basé sur la méthode des éléments finis.<br />Une procédure d'optimisation, basée sur la méthode de surface de réponse, a été proposée. Celle-ci nous a permis de résoudre un problème d'optimisation implicite dont l'évaluation des fonctions est très coûteuse en temps de calcul. Pour cela, toutes les fonctions sont écrites sous une forme explicite en utilisant soit l'approximation diffuse ou l'interpolation Krigeage. Compte tenu de la présence des contraintes non linéaires, un algorithme itératif de type SQP, a été utilisé. Pour localiser l'optimum global avec précision et à moindre coût, une procédure d'échantillonnage auto adaptatif de l'espace de recherche a été appliquée et plusieurs stratégies permettant de réactualiser les approximations et le point initial ont été adoptées.<br />Dans la première étape l'objectif était d'identifier le comportement rhéologique d'une matière plastique en production. La comparaison avec des mesures en rhéométrie capillaire nous a permis de vérifier la pertinence des paramètres rhéologique obtenus par optimisation.<br />Les résultats de trois autres applications mettent en évidence l'intérêt de l'optimisation des paramètres géométriques et opératoires du procédé d'extrusion.<br />Une filière optimisée numériquement pour une gamme différente de polymère a été réalisée et une comparaison expérimentale a permis de valider toute la procédure de simulation et d'optimisation mise en place. Les résultats expérimentaux et de simulations montrent une bonne homogénéisation de la répartition des vitesses à la sortie de la filière optimale pour une gamme très large de débits et pour différents polymères.
79

Propagation et réflexion de la marée interne: une étude numérique et expérimentale.

Mohammad Mahdizadeh, Mahdi 14 November 2008 (has links) (PDF)
Cemanuscrit présente les résultats d'une étude numérique et expérimentale sur la marée interne et l'interaction de la marée interne avec un talus continental dans un fluide stratifié dans le cas d'une pente super-critique. L'étude numérique est basée sur le code MITgcm, qui résoud les équations de Navier-Stokes non-linéaires et non-hydrostatiques en employant une technique de volumes-finis. Les expériences sont réalisées sur la grande cuve tournante du Coriolis, LEGI en utilisant des techniques PIV et CIV. Nous avons étudié la propagation et la réflexion de la marée interne en présence de rotation et sans rotation. Nos résultats marquants sont la génération de faisceaux d'ondes internes à la fréquence harmonique de la fréquence de forçage, par interaction des faisceaux incident et réfléchi sur le fond de la cuve, l'occurrence d'une instabilité paramétrique sous-harmonique dans le faisceau incident et la définition et l'étude de la largeur du faisceau en fonction des paramètres de forçage et de la rotation.
80

ETUDE DU COMPORTEMENT THERMIQUE D'UN MATERIAU MULTICOUCHES LACUNAIRES ET CONTRIBUTION A LA MODELISATION ET LA SIMULATION NUMERIQUE DES DEPOTS A STRUCTURE COLONNAIRE.

Vo Thi, Thu Huong 21 May 2007 (has links) (PDF)
Ce travail est motivé par un problème technologique (et économique) pour l'amélioration des écrans à tube cathodique et plus précisément du masque qui est une grille dont les trous permettent de diriger le faisceau électronique vers photophores situés sur la dalle de verre :<br />l'écran. L'apport d'énergie des électrons qui se déposent sur le masque entraîne son échauffement et du coup sa déformation nuisant à la qualité de l'image. La solution que nous avons<br />étudiée consiste à déposer des couches minces de matériaux choisis, entre autres, pour leurs propriétés thermiques. Cette thèse comporte deux parties :<br /><br />- La première consiste à modéliser l'échauffement du masque soumis au balayage électronique et vérifier si les solutions proposées permettent de réduire les gradients thermiques. En s'appuyant sur un calcul d'homogénéisation, nous avons proposé une formulation du comportement thermique de matériau sans couches minces prenant en compte la présence des trous sur le masque. Ensuite, nous avons étudié le problème d'évolution bidimensionnel obtenu en intégrant sur l'épaisseur du masque. A l'issu du travail précédent, une étude de l'influence de la présence des couches de différents matériaux sur la propagation latérale de la chaleur a été menée.<br /><br />- L'objectif de la seconde partie est la mise au point des modèles mathématiques du processus de dépôt des couches minces de matériaux sur le masque. Notre approche comprend deux types de modélisation : les modèles discrets et les modèles continus. Les modèles discrets sont basés sur des méthodes de type Monte Carlo. Les modèles continus sont décrits par des équations aux dérivées partielles stochastiques dont les solutions fournissent la hauteur du<br />dépôt en fonction du temps et de la position. Parmi les modèles continus existants, nous avons choisi d'axer notre étude sur les modèles incluant un effet d'ombrage car ils sont à même de<br />reproduire les structures colonnaires observées expérimentalement. L'étude de l'influence des différents termes intervenant dans les 2 modèles (MC et EDP) nous a permis de proposer un nouveau modèle continu dont les solutions sont proches de celles obtenues par les méthodes de Monte Carlo. Cette étude a été menée aussi bien en 1+1D qu'en 2+1D.

Page generated in 0.1242 seconds