• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 21
  • 7
  • Tagged with
  • 88
  • 33
  • 26
  • 23
  • 18
  • 17
  • 16
  • 16
  • 15
  • 14
  • 13
  • 12
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Etude théorique et numérique de l'expansion d'un plasma crée par laser : accélération d'ions à haute énergie.

Grismayer, Thomas 01 December 2006 (has links) (PDF)
Cette thèse constitue une étude théorique et numérique sur l'accélération d'ions à haute énergie dans l'expansion d'un plasma créé par laser. Les faisceaux d'ions émis en face arrière d'une cible irradiée présentent des caractéristiques (laminarité, faible divergence, largeur des spectres) qui les distinguent de ceux provenant de la face avant. Ces caractéristiques ouvrent la voie à de nombreuses applications telles que la protonthérapie ou la radiographie de protons. L'accélération des ions s'effectue via un champ électrostatique auto-consistant résultant de la séparation de charges entre les ions et les électrons chauds. La première partie du mémoire présente le modèle théorique fluide ainsi que le code de simulation hybride décrivant l'expansion du plasma. La modélisation numérique d'une récente expérience de sondage du champ d'expansion par faisceaux de protons permet de valider le modèle exposé. L'influence d'un gradient initial de densité sur l'efficacité de l'accélération est abordée dans le seconde partie. Nous établissons un modèle qui retrace la dynamique du plasma et plus particulièrement le déferlement du flot ionique. Les réseaux de courbes qui prévoient une nette dégradation de l'énergie maximale des protons pour de grandes longueurs de gradient sont en accord avec les résultats expérimentaux. L'hypothèse d'un équilibre de Boltzmann électronique, supposé dans le modèle guide, est remise en cause dans la troisième partie où les électrons suivent une description cinétique. La nouvelle version du code permet d'évaluer l'écart à la loi de Boltzmann, qui ne modifie pas cependant de manière significative l'énergie maximale acquise par les ions.
42

Lois de comportement à gradients de variables internes : construction, formulation variationnelle et mise en œuvre numérique

Lorentz, Eric 27 April 1999 (has links) (PDF)
Des observations expérimentales montrent que les modélisations locales ne suffisent pas pour décrire le comportement de matériaux sollicités par de forts gradients des champs mécaniques, qui résultent, par exemple, de la localisation des déformations. On propose ici une démarche constructive qui étend les lois locales de type standard généralisé pour rendre compte des effets de gradients. Elle se fonde, d'une part, sur une méthode d'homogénéisation pour construire une loi à gradients de variables internes à l'échelle du point matériel, et d'autre part, sur une formulation de cette loi à l'échelle de la structure, où les variables sont dorénavant les champs de variables internes. Cette formulation variationnelle du comportement offre un cadre adéquat pour examiner des questions telles que l'existence de solutions au problème d'évolution, le choix des espaces fonctionnels pour les variables internes ou encore le lien entre modèles locaux et modèles à gradients. Par ailleurs, après discrétisation temporelle, la loi de comportement s'exprime comme la minimisation d'une énergie, problème d'optimisation qui est résolu ici au moyen d'un algorithme de lagrangien augmenté. Ce choix permet de confiner les fortes non linéarités – dont le caractère non différentiable de l'énergie – au niveau des points d'intégration, ce qui autorise une introduction aisée de ces développements dans un code de calcul préexistant, le Code_Aster® en l'occurrence. Trois applications permettent alors de mettre en lumière les potentialités de la démarche. Tout d'abord, un modèle élastique fragile illustre son caractère constructif et opérationnel, depuis la construction du modèle jusqu'aux simulations numériques. Ensuite, l'insertion dans ce cadre variationnel des modèles de plasticité à gradients, abondamment employés dans la littérature, démontre le degré de généralité de la formulation. Enfin, son application à la loi de Rousselier pour modéliser un mécanisme de rupture ductile des aciers permet d'examiner l'interaction entre grandes déformations plastiques, d'une part, et comportement non local, d'autre part.
43

Semi-solid constitutive modeling for the numerical simulation of thixoforming processes.

Koeune, Roxane 14 June 2011 (has links)
Semi-solid thixoforming processes rely on a material microstructure made of globular solid grains more or less connected to each other, thus developing a solid skeleton deforming into a liquid phase. During processing, the material structure changes with the processing history due to the agglomeration of the particles and the breaking of the grains bonds. This particular evolutive microstructure makes semi-solid materials behave as solids at rest and as liquids during shearing, which causes a decrease of the viscosity and of the resistance to deformation while shearing. Thixoforming of aluminum and magnesium alloys is state of the art and a growing number of serial production lines are in operation all over the world. But there are only few applications of semi-solid processing of higher melting point alloys such as steel. This can partly be attributed to the high forming temperature combined with the intense high temperature corrosion that requires new technical solutions. However the semi-solid forming of steels reveals high potential to reduce material as well as energy consumption compared to conventional process technologies, such as casting and forging. Simulation techniques exhibit a great potential to acquire a good understanding of the semi-solid material process. Therefore, this work deals with the development of an appropriate constitutive model for semi-solid thixoforming of steel. The constitutive law should be able to simulate the complex rheology of semi-solid materials, under both steady-state and transient conditions. For example, the peak of viscosity at start of a fast loading should be reproduced. The use of a finite yield stress is appropriate because a vertical billet does not collapse under its own weight unless the liquid fraction is too high. Furthermore, this choice along with a non-rigid solid formalism allows predicting the residual stresses after cooling down to room temperature. Several one-phase material modeling have been proposed and are compared. Thermo-mechanical modeling using a thermo-elasto-viscoplastic constitutive law has been developed. The basic idea is to extend the classical isotropic hardening and viscosity laws to the non solid state by considering two non-dimensional internal parameters. The first internal parameter is the liquid fraction and depends on the temperature only. The second one is a structural parameter that characterizes the degree of structural build up in the microstructure. Those internal parameters can depend on each other. The internal parameters act on the the viscosity law and on the yield surface evolution law. Different formulations of viscosity and hardening laws have been proposed and are compared to each other. In all cases, the semi-solid state is treated as a particular case, and the constitutive modeling remains valid over the whole range of temperature, starting from room temperature to above the liquidus. These models are tested and illustrated by mean of several representative numerical applications.
44

Conception et modélisation d'un montage de fabrication pour le balançage optimisé d'une famille de pièces

Butt, Sajid Ullah 05 July 2012 (has links) (PDF)
Les erreurs dimensionnelles des pièces d'une famille de pièces provoquent un mauvais placement initial de la pièce sur le montage affectant la qualité du produit final. Même si la pièce est positionnée correctement, la pièce s'écarte de cette position initiale à cause des forces externe d'usinage et de bridage et de la rigidité du montage. Dans cette thèse, un modèle analytique complet, composé d'un modèle cinématique et un modèle mécanique, ayant une configuration de type 3-2-1 des appuis est proposé. Le modèle cinématique remet la pièce, initialement mal placée dans la référence machine, sur la bonne position par les avancements axiales des six appuis en tenant compte de tout les éléments du montage considérés rigides. Cette pièce repositionnée se déplace à nouveau à partir de la position corrigée sous les forces de bridage et d'usinage. Le modèle mécanique calcule ce déplacement de la pièce en considérant les appuis et des brides élastiques. Le plateau cuboïde rigide, utilisé pour repositionner la pièce précisément, est également considéré élastique au niveau des contacts avec les appuis. Le comportement non-linéaire de la déformation des contacts est linéarisé en convergeant la déformation des appuis jusqu'à ce que la précision requise est atteinte. En utilisant l'hypothèse des petits déplacements et en considérant le frottement nul au niveau des contacts, On calcule le déplacement de la pièce, la déformation de chaque appui suivant l'énergie minimale, la matrice de rigidité et le comportement mécanique du système du montage grâce à la formalisation Lagrangienne. Le déplacement de la pièce est à nouveau compensé par l'avancement axial des six appuis calculés par le modèle cinématique.
45

Optimisation de forme des structures électromagnétiques

Vasconcelos, Joao 04 July 1994 (has links) (PDF)
Ce travail présente des méthodes d'optimisation de forme associées à un programme de calcul de champ dans des structures électrostatiques bidimensionnelles ou axisymétriques. Dans un premier chapitre, la méthode numérique utilisée pour le calcul du champ ; à savoir la méthode des équations intégrales de frontières ; est exposée en détail. Quelques améliorations, en particulier une technique efficace d'intégration adaptative, sont présentées. Le second chapitre est consacré au calcul numérique de la sensibilité des solutions aux paramètres géométriques ayant servi à décrire la structure. Les deux chapitres suivants sont consacrés aux méthodes d'optimisation, déterministes (s'appuyant sur le calcul des gradients) ou aléatoires (recuit simulé, génétique) Les variantes choisies sont testées sur des fonctions analytiques. Le dernier chapitre montre l'application des méthodes d'optimisation sur des structures électrostatiques réelles (forme d'électrodes, profils diélectriques), et démontre leur efficacité en particulier par des comparaisons avec des résultats trouvés dans la littérature.
46

Développement et analyse de méthodes adaptatives pour les équations de transport

Campos Pinto, Martin 18 November 2005 (has links) (PDF)
Les résultats présentés dans cette thèse portent sur l'approximation adaptative de deux problèmes de transport non-linéaire : le système de Vlasov-Poisson et les lois de conservation scalaires. Pour le premier, et dans une approche semi-lagrangienne, on a proposé un schéma adaptatif original à base d'éléments finis hiérarchiques où l'évolution des maillages est réalisée par une étape de prédiction très simple suivie d'une étape de correction plus classique. En introduisant la notion de courbure totale pour étendre la semi-norme W2,1(R2) aux fonctions affines par morceaux, on a alors établi une estimation d'erreur a priori prouvant la convergence de ce schéma en distance L∞, et donné des éléments de preuve concernant sa complexité optimale. Les lois de conservations scalaire ne pouvant être approchées en distance L∞, on a considéré leur analyse en distance uniforme de Hausdorff, moins répandue bien que plus géométrique. Après avoir montré que les solutions de ces équations étaient stables vis-à-vis de cette distance, on a établi un résultat d'approximation adaptative d'ordre élevé.
47

Étude des écoulements d'air et de particules au voisinage de pièces en mouvement :<br />application à la conception des captages sur machines tournantes réalisant des opérations d'usinage

Belut, Emmanuel 30 October 2006 (has links) (PDF)
L'objectif de recherche développé dans cette thèse est d'initier une méthode de conception des dispositifs de captage des polluants d'usinage basée sur la prédiction par simulation numérique des écoulements d'air et de particules induits par les machines tournantes.<br />La recherche des modèles numériques les mieux adaptés aux écoulements rencontrés s'est conduite en deux étapes. Sur la base de recherches bibliographiques et d'expérimentations numériques, la première étape démontre l'intérêt et la faisabilité de la simulation des grandes échelles sous-résolue en paroi (ou VLES pour Very Large Eddy Simulation), couplée au suivi lagrangien de particules, pour modéliser les écoulements diphasiques d'usinage, et rendre compte finement de l'interaction particules-turbulence.<br />Dans la seconde étape, une importante campagne expérimentale, menée sur un banc d'essai original représentatif d'une opération d'usinage, sert de base pour valider définitivement les modèles retenus. Dans le dispositif réalisé, un jet de particules stable et de débit contrôlé est créé en poussant dans une buse des microbilles de verres sphériques contre un cylindre en rotation. L'écoulement de la phase particulaire dans le banc d'essai est caractérisé par analyseur de particules phase Doppler (PDPA), et le champ de vitesse de la phase gazeuse par vélocimétrie par image de particules (PIV), cette dernière technique nécessitant le développement d'un code spécifique pour discriminer les phases en présence.<br />La comparaison des mesures et des résultats de simulation ouvre des perspectives nouvelles concernant l'applicabilité industrielle de la simulation des grandes échelles aux écoulements multiphasiques.
48

Intégration des données de sismique 4D dans les modèles de réservoir : recalage d'images fondé sur l'élasticité non linéraire

Derfoul, Ratiba 04 October 2013 (has links) (PDF)
Dans une première partie, nous proposons une méthodologie innovante pour la comparaison d'images en ingénierie de réservoir. L'objectif est de pouvoir comparer des cubes sismiques obtenus par simulation avec ceux observés sur un champ pétrolier, dans le but de construire un modèle représentatif de la réalité. Nous développons une formulation fondée sur du filtrage, de la classification statistique et de la segmentation d'images. Ses performances sont mises en avant sur des cas réalistes. Dans une seconde partie, nous nous intéressons aux méthodes de recalage d'images utilisées en imagerie médicale pour mettre en correspondance des images. Nous introduisons deux nouveaux modèles de recalage fondés sur l'élasticité non linéaire, où les formes sont appréhendées comme des matériaux de type Saint Venant-Kirchhoff et Ciarlet-Geymonat. Nous justifions théoriquement l'existence de solutions ainsi que la résolution numérique. Le potentiel de ces méthodes est illustré sur des images médicales.
49

Optimisations en Electrotechnique par Algorithmes Génétiques

Saludjian, Lucas 27 June 1997 (has links) (PDF)
Dans ce rapport nous décrivons les nouvelles possibilités offertes par les algorithmes d'optimisation génétiques dans le domaine de l'électrotechnique. Après avoir analysé les différentes méthodes d'optimisation existantes, nous mettons en évidence leur points forts et leurs points faibles en les comparant sur différents cas tests. Les conclusions et les constations issues de ces confrontations nous ont guidé pour développer un algorithme d'optimisation perfonnant c'est-à-dire à la fois capable de localiser l'optimum global et peu coûteux en nombre d'évaluations de la fonction à optimiser. L'introduction d'infonnations supplémentaires concernant la "nature" des paramètres du problème traité s'est avérée fondamentale pour les algorithmes génétiques et ce point a été abordé car nous n'avons pas voulu limiter nos optimisations à un domaine bien particulier de l'électrotechnique. Les algorithmes d'optimisation mis au point ont été validés sur trois applications distinctes: - Optimisation de la forme d'un refroidisseur pour composant de puissance. - Optimisation de maillages tridimensionnels pour des logiciels éléments fInis . - Optimisation de la forme d'un dispositif électromagnétique composé de bobines supraconductrices.
50

Apport de l'océanographie opérationnelle à l'amélioration de la prévision de dérive océanique dans le cadre d'opérations de recherche et de sauvetage en mer et de lutte contre les pollutions marines

Law-Chune, Stephane 15 February 2012 (has links) (PDF)
La plupart des opérations de secours en mer s'appuient aujourd'hui sur des prévisions numériques opérationnelles afin de coordonner les moyens d'action et de cibler les zones d'intervention prioritaires. Pour des cas de pollution marine ou pour la recherche d'objets dérivants, des modèles de trajectoire spécifiques existent et permettent d'élaborer des scenarii plus ou moins réalistes à partir de courants modélisés. La fiabilité de ces systèmes est en grande partie conditionnée par la qualité de ces courants prévus et utilisés. Ce travail de thèse s'intéresse à la modélisation des processus océaniques qui modifient les propriétés adjectives du courant, en particulier à proximité de la surface, où les vitesses sont les plus fortes, et où des structures de fine échelle liées aux interactions avec l'atmosphère et à des processus turbulents en complexifient l'estimation. La méthodologie adoptée est la classique confrontation modèle-observation pour deux cas d'étude distincts, l'un en Méditerranée occidentale (hiver 2007) et l'autre en Atlantique Est-Équatorial près de l'embouchure du Congo (printemps 2008). À partir d'outils numériques dérivés de l'opérationnel, il est tenté de reproduire des trajectoires réelles de flotteurs de surface en réalisant diverses études de sensibilité. Les prévisions de courant sont générées à partir de configurations régionales à haute résolution basées sur le code d'océan NEMO. Le logiciel Ariane (B. Blanke, 1997) utilise les propriétés de surface du courant, alors que le modèle d'hydrocarbure Mothy (Météo France) utilise une extraction en profondeur afin de compléter sa modélisation interne de l'océan en réponse aux changements rapides du forçage atmosphérique. Cette étude cible des échelles de prévisions de quelques heures à trois jours au maximum (échéance typique demandée en cas de crise). Les tests ciblent la résolution horizontale, l'impact des paramétrisations sur les forçages et la représentation des processus physiques, en particulier ceux rencontrés par les bouées, comme par exemple le panache du fleuve Congo en Angola.

Page generated in 0.0923 seconds