• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6910
  • 2203
  • 1504
  • 11
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 10836
  • 10836
  • 3622
  • 2988
  • 2916
  • 1945
  • 1927
  • 1786
  • 1463
  • 1359
  • 1147
  • 1091
  • 1089
  • 1079
  • 1078
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

Etude des mécanismes de gonflement et de dissolution des fibres de cellulose native

Cuissinat, Céline 24 November 2006 (has links) (PDF)
La cellulose, polymère naturel appartenant à la famille des polysaccharides, est non fusible. Pour la mettre en forme, il est donc nécessaire soit de la dériver, soit de la solubiliser. L'objectif de notre travail est de préciser les mécanismes qui conduisent à la dissolution de la cellulose native. Cinq mécanismes sont observés lors de cette étude, basée sur des fibres de cellulose native d'origine diverse (coton, bois, ramie, jute, lin, chanvre, sisal et abaca). Chaque échantillon est observé dans une large gamme de systèmes aqueux (NMMO - eau à différentes teneurs en eau ou hydroxyde de sodium - eau - additif) et des liquides ioniques. Des données recueillies sur des échantillons dépourvus de leurs parois externes suite à un traitement enzymatique, ainsi que des dérivés cellulosiques, viennent compléter cette étude. Nous avons identifié cinq mécanismes de gonflement et de dissolution de fibres de cellulose native : Mode 1: dissolution rapide par désintégration de la fibre en fragments Mode 2: gonflement par ballonnement, dissolution de toute la fibre Mode 3: gonflement par ballonnement, dissolution partielle de la fibre Mode 4: gonflement homogène, non dissolution de la fibre Mode 5: pas de gonflement ni de dissolution (cas d'un système non solvant) Malgré les différences morphologiques entre toutes les fibres de cellulose testées et les dérivés cellulosiques, les mécanismes de gonflement et de dissolution restent similaires. Trois zones le long des fibres de cellulose sont définis lors d'un mécanisme impliquant un gonflement par ballonnement: les ballons, la membrane des ballons, les sections non gonflées (zones situées entre les ballons). Chacune de ces zones présentent un mécanisme de dissolution particulier. Le mode 2 est donc détaillé en 4 étapes. Les ballons sont des entités constituées d'une membrane (paroi primaire, plus une partie de la paroi secondaire), caractérisée par une structure hélicoïdale. La membrane est la partie de la fibre la plus difficile à dissoudre. Il est important de noter que la cellulose à l'intérieur des ballons est dissoute. Les mécanismes de gonflement et de dissolution ne sont pas liés à la nature chimique des agents solvants. La qualité du solvant influe évidemment sur le mode de dissolution induit, mais le facteur clé des mécanismes est la structure morphologique de la fibre.
522

Caracterisation de la rupture interfaciale de points soudes d'aciers a tres haute resistance

Lacroix, Rémi 22 March 2011 (has links) (PDF)
La détermination de la tenue mécanique de points soudés est un enjeu industriel important, eten particulier dans le cas d'aciers à Très Haute Résistance. Actuellement, l'essai de tractionen croix est l'essai mécanique le plus répandu caractérisant la tenue des points soudés.Toutefois, l'étude de l'influence des différentes zones constituant le point soudé sur la tenueest difficile en se basant sur cet essai.Un essai d'enfoncement de coin a été développé afin de caractériser les ruptures interfacialesdes points soudés. Une section transverse d'un point soudé est observée tandis qu'un coin estinséré entre les deux tôles soudés. Une caméra CCD enregistre l'observation de lapropagation de la fissure.Le pliage limité des tôles durant la fissuration rend efficace la classification des différentspoints soudés par l'énergie totale dissipée par unité de surface rompue. De plus, la mesure insitu de l'angle d'ouverture de fissure caractérise la fissuration stable de la zone fondue. Dessimulations par éléments finis de l'essai sont conduites afin d'estimer un lien entre cesmesures et la rupture du matériau, modélisée par des zones cohésives.La rupture interfaciale de points soudés d'aciers DP et TRIP a été étudiée. Les mesuresexpérimentales permettent d'estimer les paramètres de modèles cohésifs représentatifs de larupture de la zone fondue, constituant des données fiables susceptibles d'être utilisées danstoute simulation numérique du comportement du point soudé.
523

Mod elisation Hybride RANS/LES d' ecoulements massivement d ecoll es en r egime turbulent. Etude des corr elations pression/vitesse et confrontation a l'exp erimentation.

Tran, Thanh Tung 19 January 2012 (has links) (PDF)
Cette thèse, qui s'inscrit dans le contexte du projet ANR DIB, vise à la simulation par méthode hybride (DDES) de l'écoulement turbulent autour d'une plaque épaisse (Re = 80000), à une confrontation détaillée du mouvement instationnaire prédit avec une base de données expérimentale, et à l'étude des mécanismes à l'origine des fluctuations de pression à la paroi. L'écoulement présente successivement un fort décollement associé à l^acher tourbillonnaire en forte interaction avec la paroi, un recollement moyen puis un lent rétablissement vers une couche limite développée. L'attention est portée sur la région en aval du recollement. Les caractéristiques moyennes et instationnaires de l'écoulement sont étudiées au moyen d'outils statistiques classiques, ainsi que d'analyses de type moyenne conditionnelle, POD, LSE et Extended POD, dans leur version multi-temps. Un bon accord calcul/expérience est obtenu, et l'évolution des structures de grande échelle en aval du recollement est bien reproduite par la simulation. L'analyse est ensuite prolongée, notamment en ce qui concerne la tridimensionnalité de l'écoulement, ainsi que l'étude des différentes contributions à la pression pariétale fluctuante (termes source linéaire et non linéaire). Les analyses de type LSE basées sur la pression mettent en évidence des structures de type rouleaux portant une faible énergie, alors qu'on obtient des structures de type \hairpin" quand celles-ci sont basées sur la vitesse. Un résultat important de l'étude des termes contribuant à la pression est la dominance du terme non-linéaire, qui explique la faible énergie portée par les structures estimées à partir de la pression par des outils linéaires.
524

Étude micro-mécanique de l'effet de la présence d'amas d'inclusions sur la transition fragile-ductile d'aciers nucléaires.

Bilger, Nicolas 22 October 2003 (has links) (PDF)
Résumé non disponible
525

Modélisation mathématique des écoulements réactifs turbulents en utilisant une méthodologie hybride LES/PDF

Vedovoto, João, Marcelo 18 November 2011 (has links) (PDF)
Ce travail de thèse est consacré au développement d'une approche numérique permettant de conduire des simulations "low Mach number" d'écoulements réactifs. L'algorithme d'intégration retenu pour procéder à la résolution des équations de transport repose sur une méthode implicite de prédiction-correction (méthode de projection). Une contrainte physique est retenue pour garantir que le champ de vitesse est résolue correctement. Le code de calcul est soumis à plusieurs séries de vérifications préliminaires basées sur l'emploi de la méthode solution manufacturées pour des conditions incompressibles d'abord puis à masse volumique variable qui permettent de statuer quant à la bonne implémentation des schémas numériques retenus. Les performances de l'outil numérique en terme de stabilité et de robustesse sont elles-aussi analysées dans des situations simples: couche de mélange à densité variable en développement spatial et temporel. Le modèle numérique final repose sur l'emploi d'une méthode hybride LES / PDF. Pour ce qui concerne la représentation de la turbulence, deux fermetures sont implémentées pour représenter l'effet des fluctuations de vitesse non résolues. Il s'agit du modèle de Smagorinsky dans sa version dynamique ou non. La spécification de conditions aux limites turbulentes réalistes est elle-aussi analysée en détail et trois approches différentes sont considérées. Pour ce qui concerne la combustion, l'influence des fluctuations de composition aux échelles non résolues est pris en compte par le biais d'une résolution de la PDF scalaire de sous maille. Le modèle de PDF correspondant repose sur l'emploi d'une méthode de Monte Carlo. Des équations différentielles stochastiques, équivalentes aux équations de Fokker-Planck, sont résolues pour la variable de progrès de la réaction chimique. L'objectif final est aussi de pouvoir procéder, à moyen terme, à des simulations LES en géométries complexes et l'emploi du calcul distribué est essentiel. De ce point de vue, la méthode de décomposition de domaine retenue dans ce travail montre des niveau de performances relativement satisfaisants. Les capacités du modèle numérique résultant de ces développements sont illustrées sur deux configurations expérimentales. La première géométrie correspond à un écoulement très fortement turbulent de réactifs pré-mélangés dans un canal bidimensionnel. La seconde correspond à un jet rapide et non confiné de réactifs pré-mélangés.
526

COMMANDE ROBUSTE DES SYSTÈMES PLATS<br />APPLICATION À LA COMMANDE D' UNE MACHINE SYNCHRONE.

Cazaurang, Franck 08 December 1997 (has links) (PDF)
Ce travail propose une méthodologie de synthèse de loi de commande robuste pour les systèmes dynamiques plats. La génération de trajectoires de référence est simple à mettre en oeuvre pour un système plat car il est équivalent à un système linéaire par difféomorphisme et bouclage. Cependant cette démarche n'est valable que pour un modèle, et en l'absence de perturbations. Pour une famille de modèles, et en présence de perturbations exogènes, le suivi de trajectoire défini à partir du modèle nominal est garanti par un régulateur linéaire synthétisé par optimisation de critères. L'utilisation d'un schéma à deux degrés de liberté générique permet de poser clairement le problème de synthèse en séparant les objectifs de poursuite nominale et les objectifs de régulation et de poursuite robustes. Cette démarche est ensuite appliquée à la synthèse d'une loi de commande robuste d'une machine synchrone.
527

Combinaison d'estimations: application à la détection d'obstacles à bord des véhicules routiers intelligents

Blanc, Christophe 12 July 2005 (has links) (PDF)
Ces activités de recherche s'intégrent à l'un des deux groupes de recherche du laboratoire LASMEA : GRAVIR (GRoupe Automatique VIsion et Robotique), dont l'objectif principal est de développer des concepts théoriques et méthodologiques pour la perception de l'enironnement de machines, et de valider ceux-ci expérimentalement sur des démonstrateurs par des systèmes dédiés. Cet objectif a été pariculièrement suivi dans les véhicules routiers intelligents puisque, depuis plus de quinze ans, les résultats de recherches sur les capteurs, la reconnaissance des formes et la fusion de données obtenues par une dizaine de chercheurs sont appliqués en ce domaine. Ces recherches concernent la fusion de données pour la perception à bord des véhicules routiers intelligents. Elles s'inscrivent parmi deux projets : ARCOS (Action de Recherche pour une COnduite Sécurisée) s'inscrit dans le cadre des actions fédératives du PREDIT (Programme national de recherche et d'innovation dans les transports terrestres, à l'initiative des ministères chargés de la recherche, des transports, de l'environnement et de l'industrie, de l'Ademe et de l'Anvar) et PAROTO (Projet Anticollision Radar et Optronique pour l'auTOmobile) initié par le ministère de la recherche en partenariat avec SAGEM, Division Défense et Sécurité, et l'INRETS (Institut National de REcherche sur les Transports et leur Sécurité). Dans ce cadre, je m'intéresse à un système de perception conduisant, et ceci dans une grande variété de situations, à la définition d'une carte de l'environnement à l'avant du véhicule intelligent : chaque obstacle y est décrit par sa position absolue, son état cinématique et un certain nombre de caractéristiques qui peuvent être déterminantes pour définir l'aide à apporter au conducteur. Cette perception s'appuie sur le développement d'un système de fusion de données appliqué à la détection et au suivi des obstacles. Plusieurs capteurs, dont les complémentarités et redondances ont été soulignées, ont ainsi été installés à l'avant de notre véhicule démonstrateur : VELAC (VEhicule du Lasmea pour l'Aide à la Conduite) ; un capteur RADAR (développé au sein de notre laboratoire) dont l'objectif prioritaire est de fournir une information de vitesse relative des obstacles, un capteur LIDAR (Riegl) permettant une représentation en 3D de la scène routière, un capteur thermique (SAGEM) dont l'objectif était de détecter et de suivre les différents obstacles quelques soient les conditions atmosphériques. Les données de ces différents capteurs sont traitées indépendamment afin de détecter, et de suivre les obstacles à l'avant du véhicule. La problématique de fusion est ainsi vue comme une combinaison de pistages (estimations à l'aide du filtre de Kalman ou à particules). Il devient donc possible, après cette fusion, de représenter une carte précise de l'environnement à l'avant du véhicule intelligent : chaque obstacle y est décrit par sa position absolue, et son état cinématique qui sont déterminants pour définir l'aide à apporter au conducteur. Des résultats ont été validés à bord de notre véhicule démonstrateur VELAC
528

Modélisation et conception optimale d'un moteur linéaire à induction pour système de traction ferroviaire

Gong, Jinlin 21 October 2011 (has links) (PDF)
Cette thèse porte sur l'étude des performances du moteur linéaire de référence par la méthode d'analyse éléments finis, et la conception optimale sur un modèle lourd en temps de calcul. La méthode éléments finis est utilisée pour étudier les performances du moteur linéaire de référence, car le modèle analytique d'un moteur linéaire est difficile à construire dû aux effets d'extrémités. Le modèle éléments finis (MEF) 2D permet de prendre en compte l'effet d'extrémité de longueur finie. L'effet d'extrémité de largeur finie est intégré au modèle 2D en faisant varier la conductivité du secondaire et en ajoutant une inductance de tête de bobines. Ensuite, le couplage entre le MEF 3D magnétique et thermique permet de prendre en compte tous les effets d'extrémité et de l'influence de la température. Un banc d'essais est construit pour valider les modélisations éléments finis. La comparaison entre les différents modèles montre l'importance du modèle couplé. L'optimisation directe sur un MEF est très couteuse en temps de calcul. Les stratégies d'intégrer un modèle de substitution au lieu d'un MEF sont étudiées. L'optimisation directe sur un modèle de substitution et l'algorithme Efficient Global Optimisation (EGO) sont comparés. Un algorithme Space Mapping (SM) 3 niveaux est proposé. Les résultats des cas tests montrent que le SM 3 niveaux est plus efficace par rapport à l'algorithme SM 2 niveaux. Une nouvelle stratégie d'optimisation avec un faible budget d'évaluation du MEF est proposée et testée dans le contexte d'une modélisation difficile. La stratégie proposée permet d'évaluer les MEF en parallèle, ainsi permet un gain considérable de réduction du temps d'optimisation.
529

Étude du polissage mécano-chimique du cuivre et modélisation du processus d'enlèvement de matière

Bernard, Pierre 19 December 2006 (has links) (PDF)
Le polissage mécano chimique est très largement utilisé dans l'industrie des semiconducteurs pour aplanir des surfaces de divers matériaux. Sa grande capacité d'aplanissement et le grand nombre de paramètres sur lequel on peut jouer font de lui à la fois un procédé très utile et efficace, mais également un procédé difficile à maîtriser. De par justement le très grand nombre de paramètres, la modélisation de ce procédé a été difficile et s'est longtemps appuyée sur une loi proposée en 1927 par Preston et décrivant le polissage de lentilles de verres. Elle relie linéairement la pression et la vitesse à la vitesse d'enlèvement de matière. L'introduction de ce procédé dans l'univers des semiconducteurs a pris place dans les années 1980. Depuis, les matériaux polis ont énormément évolué, répondant aux besoins de l'industrie quant à la diminution de tailles et l'amélioration des propriétés (électriques surtout). Cette loi est empirique, et n'explique pas les phénomènes physicochimiques sous-jacents. Le principe du CMP (Chemical Mechanical Polishing, polissage mécano chimique) est de venir transformer par une action chimique la surface qu'on veut polir, et ensuite enlever cette surface transformée par abrasion mécanique. Notre étude porte sur la compréhension du phénomène d'enlèvement de matière et sur sa modélisation, dans le polissage mécano chimique de surface de cuivre. Pour cela, nous avons mis en place un dispositif expérimental plus simple et moins coûteux que les machines de polissage utilisées en ligne de production. Nos échantillons sont des carrés de 5cm2 découpés dans les tranches de 20 cm de diamètre. Ils sont placés sur le tissu de polissage (pad) qui est en rotation sur lui-même, et sur lequel sont amenés les liquides de polissages (slurries) contenant de l'oxydant, du BTA, du surfactant, de l'eau et des particules abrasives. On applique une pression sur le porte-échantillon. La couche superficielle de cuivre est transformée sous l'action des oxydants présents dans les slurries. Le cuivre se transforme en oxyde de cuivre (Cu2O), qui a des propriétés mécaniques et physiques différentes. C'est justement ces différences qui vont rendre plus facile l'enlèvement de la couche d'oxyde par rapport à la couche de cuivre. Les particules abrasives en solution sont à l'origine de l'enlèvement de matière à proprement dit. Elles viennent enlever un petit volume de la surface, dépendant de leur dimension, leur enfoncement et leur vitesse. Par ailleurs, on peut relier leur enfoncement à la pression qu'elles subissent. Finalement, notre modélisation aboutit à une expression dans laquelle la vitesse d'attaque (vitesse d'enlèvement de matière) est proportionnelle au produit Pq.V , avec P la pression, V la vitesse de polissage et q un exposant égal à 1, 19, et dépendant de la portance du tissu de polissage et de la profondeur d'indentation des particules dans la couche d'oxyde de cuivre. La couche d'oxyde n'est pas toute enlevée à chaque interaction de la surface avec une particule abrasive, cela va dépendre de l'épaisseur de cette couche. Cette épaisseur dépend de la durée entre deux interactions successives, durée qui permet l'action de la chimie, et donc la formation de la couche d'oxyde. Par ailleurs, de faibles concentrations en oxydant donnent des faibles épaisseurs et des fortes concentrations des épaisseurs plus importantes. La vitesse d'attaque du cuivre atteint un palier pour des concentrations en oxydant supérieures à 20 g/L : les particules abrasives ne peuvent pas enlever plus qu'un volume maximal dépendant de leur indentation maximale. Les morceaux d'oxyde de cuivre arrachés de la surface se retrouvent sous forme de débris englobés dans des micelles de surfactant, et sont évacués. Le CMP est utilisé pour aplanir les surfaces. Pour des motifs profonds, le pad ne touche pas le fond des motifs et l'enlèvement ne se fait que dans les parties hautes. Ensuite, à partir d'une marche DX, qui dépend de la géométrie, de la pression et des propriétés élastiques du pad, il y a contact partout sur le wafer et l'enlèvement de matière va dépendre de la hauteur de la marche. On aboutit à une expression en exponentielle décroissante, qui se retrouve très bien dans l'expérience. On a cherché également à expliquer comment se déroule le surpolissage, mais nos équations, bien que donnant les bonnes allures, nous donnent des valeurs bien trop importantes par rapport aux essais. La difficulté de la modélisation vient principalement de la présence d'un nouveau matériau, le tantale, dont on connait mal le processus d'enlèvement. Finalement, notre modélisation explique bien les processus d'enlèvement de matière et d'aplanissement.
530

Le ferromagnétisme en couches minces pour les hyperfréquences

Viala, Bernard 18 December 2008 (has links) (PDF)
Ce travail résume une partie de mes activités consacrées au magnétisme en couche mince et aux microsystèmes. Il concerne ici plus spécifiquement le développement de matériaux ferromagnétiques hautement perméables dont l'un des enjeux actuels est de dépasser l'incompatibilité historique avec les hyperfréquences. La bande spectrale d'intérêt s'est considérablement étirée vers le haut jusqu'à annoncer des besoins pour une perméabilité élevée à plus de 10 GHz aujourd'hui. Je décris des résultats dans un ordre quasi chronologique avec une progression dans le niveau de difficulté qui colle à l'évolution des applications (depuis les têtes magnétiques jusqu'aux antennes microondes). Je mets en avant une démarche systématique de boucles courtes entre la physique de la matière et celle des dispositifs. Le fil directeur est la montée spectaculaire en fréquence qui tire l'effort de développement des matériaux selon une feuille de route combinant aimantation élevée (2 T) et grande résistivité (103 μW.cm), avec le préalable incontournable au caractère doux sur lequel je reviendrai. Je montre aussi que les résultats à l'état de l'art arrivent en butée si l'on ne sort pas de la démarche historique de films d'alliage unique (ternaire, quaternaire et plus). Cette rupture sera établie avec le passage aux films issus d'hétérostructures comme avec le couplage d'échange interfacial entre un simple composé ferromagnétique binaire (dont l'aimantation est plus facilement proche de la valeur ultime) et une couche antiferromagnétique. Je reviendrai sur des résultats particulièrement originaux ici et sur leur interprétation. Pour terminer, je projetterai des perspectives allant vers une hétérogénéité croissante des matériaux selon ce principe. Dès lors, un objectif très ambitieux se dessine visant à réunir ferromagnétisme et ferroélectricité grâce aux couches minces et remettant au goût du jour les principes de la magnétoélectricité. C'est une évolution clé vers la miniaturisation extrême des éléments rayonnants (antennes) et résonnants (filtre) et la très grande agilité des systèmes. Je conclurai en ce sens avec une sélection de faits marquants récents qui illustrent également la jonction avec des disciplines émergentes comme celles des composés multiferroïques et des metamatériaux, avec des solutions très avantageuses ici.

Page generated in 0.1067 seconds