• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1250
  • 436
  • 125
  • 10
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1823
  • 854
  • 456
  • 310
  • 282
  • 216
  • 203
  • 193
  • 182
  • 166
  • 164
  • 144
  • 142
  • 141
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

Mise au point de méthodes de caractérisation de binaires en milieu supercritique et modélisation des propriétés physiques et thermodynamiques mesurées

Calvignac, Brice 26 November 2009 (has links) (PDF)
Depuis une vingtaine d'années, l'utilisation de la technologie des fluides supercritiques suscite un grand intérêt comme alternative aux techniques conventionnelles pour de nombreuses applications telles que l'extraction, le fractionnement, la génération de particules, la chromatographie et la réaction chimique. Cependant, le développement de ce type de procédés nécessite au préalable de caractériser les propriétés du milieu considéré tel que le comportement thermodynamique des phases du point de vue de leurs compositions à l'équilibre et de leur caractéristiques thermophysiques telles que la viscosité, la densité, la diffusivité et l'expansion volumique. De plus, la connaissance de ces propriétés est essentielle à la compréhension des mécanismes des processus mis en jeu mais malencontreusement insuffisante dans la littérature. C'est dans ce contexte que ces travaux de thèse ont été réalisé et ont permis de développer des techniques de caractérisation de propriétés thermophysiques adaptées à la haute pression telles que la viscosimétrie à chute de bille, la mesure de densité utilisant la technologie du tube vibrant et la mesure de solubilité par analyse gravimétrique. Les investigations ont été uniquement menées sur la phase liquide de systèmes binaires très variés du point de vue de la nature physico-chimique des constituants : CO2-DMSO, CO2-PEG400 et CO2-beurre de cacao. Ce travail de thèse a également été consacré à la modélisation de ces propriétés au moyen d'équations d'état et de modèles empiriques ajustés sur les résultats expérimentaux. Développement d'un dispositif de mesure d'équilibre de phase Liquide-Vapeur Cette technique analytique a été développée pour mener des investigations sous haute pression (jusqu'à 35 MPa) de systèmes binaires composés d'une phase liquide (ou fondu) et d'une phase vapeur. Le dispositif a été validé en comparant les résultats obtenus sur le système DMSO-CO2, avec ceux de la littérature. Cet appareillage permet simultanément de déterminer la densité (au moyen d'un densimètre utilisant la technologie du tube vibrant) et la composition d'une phase, en l'occurrence ici la phase liquide, déterminée par analyse gravimétrique. Cette méthode est basée sur le prélèvement dans une cellule de mesure placée sur une balance de précision. L'échantillon de la phase liquide du système étudié, est prélevé dans des conditions de pression et de températures fixées et maintenues constantes lors de l'opération. La séparation des composés est obtenue après dépressurisation de la cellule et la quantité de CO2 initialement dissoute est ainsi déterminée par différence par rapport à la masse de l'échantillon prélevé. Développement d'un viscosimètre à chute de bille Ce dispositif a été spécifiquement conçu pour effectuer de mesures de viscosité sous pression. L'enceinte contenant le viscosimètre est une grande enceinte cylindrique. Les conditions maximales de pression et de température sont respectivement de 44 MPa et 200 °C. La technique est basée sur l'observation de la chute d'une bille d'aluminium (2 mm de diamètre) dans un tube en verre (2.1 mm de diamètre et 20 cm de longueur) au moyen d'une caméra rapide (30 à 500 images/s) au travers des hublots en saphir de l'enceinte. La vitesse terminale de chute permettant de déduire la viscosité du fluide considéré, est déterminée par analyse d'image des films capturés au moyen d'un outil spécialement conçu sous Matlab®. En première approximation, l'écoulement du fluide dans le tube peut-être considéré de type Poiseuille et laminaire. Un bilan de quantité de mouvement sur le fluide permet d'en déduire une définition simplifiée de la viscosité. Cette estimation de la viscosité permet d'initialiser des calculs CFD réalisés par la méthode des éléments finis sous Comsol® Multiphysics. En outre ces calculs ont permis d'estimer le terme correctif tenant compte de la forme spécifique du champ de vitesse à proximité de la bille.
572

INFORMATION GÉOGRAPHIQUE ET IMAGES A TRÈS HAUTE RÉSOLUTION UTILITÉ ET APPLICATIONS EN MILIEU URBAIN

Puissant, Anne 15 December 2003 (has links) (PDF)
Depuis le milieu des années 1990, l'INFO-STRATEGIE, c'est-à-dire la stratégie de mise en place de l'Information Géographique, est au cœur des préoccupations des gestionnaires du territoire et des urbanistes. Elle nécessite des données multi-sources, multi-échelles et mises à jour régulièrement à une périodicité adaptée à l'évolution du milieu urbain. Les images d'Observation de la Terre représentent un potentiel important d'acquisition d'IG. Actuellement, le marché connaît une évolution majeure avec la mise en orbite de produits-systèmes Très Haute Résolution (THR) de résolution inférieure à 5 m. Cette évolution technologique débouche sur une abondance de données numériques, sources potentielles d'IG en milieu urbain, modifie les attentes des utilisateurs et transforme leurs applications. Une réflexion en termes de demande (formalisation des besoins) et non plus d'offre est indispensable pour répondre à la multiplication de l'utilisation d'IG à diverses échelles. Par ailleurs, répondre aux besoins des « utilisateurs finaux » (politiques, gestionnaires, techniciens) revient à préciser les ajustements nécessaires à la définition des capacités des nouveaux produits-systèmes. A partir d'une enquête auprès des utilisateurs d'IG, un cahier des charges précisant les besoins en information à grande échelle est établi. Des « niches potentielles d'utilisation » des images métriques sont identifiées. Des tests sont appliqués pour analyser les gains dans l'utilisation de ces nouveaux capteurs. L'un des enjeux de l'augmentation de la résolution spatiale est une nouvelle vision du territoire plus proche de la réalité. Les objets urbains s'individualisent (domaine de l'identification) et sont caractérisés par leurs éléments constitutifs (domaine de l'analyse). Cet apport de détails perturbe les procédures classiques d'extraction automatiques et complexifie l'attribution des objets aux nomenclatures existantes. Le test de plusieurs algorithmes classiques conduit à la formalisation de règles d'identification des objets urbains sur des images THR. Ces règles sont intégrées dans une procédure de classification « orientée-objets ».
573

Modélisation mathématique de phénomènes électromagnétiques dans des matériaux à fort contraste

Péron, Victor 24 September 2009 (has links) (PDF)
Ce travail est consacré à l'étude d'un problème de transmission d'ondes électromagnétiques dans des matériaux fortement conducteurs entourés d'un matériau diélectrique isolant. On analyse finement le phénomène de l'effet de peau à l'aide de l'analyse asymptotique et de la simulation numérique. On calcule un développement asymptotique multi-échelle à haute conductivité des solutions des équations de Maxwell tridimensionnelles en régime harmonique. Pour valider ce développement, on établit des estimations uniformes par sous-domaines des solutions de ces équations pour une conductivité assez élevée. Ces estimations ont motivé une étude préliminaire d'un problème de transmission scalaire pour lequel des estimations a priori sont démontrées grâce à la convergence normale d'un développement asymptotique. L'accord des formules théoriques avec les calculs numériques est remarquable et met en évidence l'influence de la géométrie de l'interface dans le phénomène de l'effet de peau.<br /><br />D'autre part, on étudie le comportement du champ électromagnétique dans une cellule biologique modélisée par un milieu entouré d'une couche mince et plongée dans un milieu ambiant. On calcule des conditions de transmission approchées sur le bord du domaine intérieur équivalentes à la couche mince.
574

Interconnecteurs métalliques de piles à combustible de type SOFC - Résistance à la corrosion et conductivité électrique à haute température

Fontana, Sébastien 15 October 2009 (has links) (PDF)
Les interconnecteurs représentent une pièce maîtresse des piles à combustibles à oxyde solide (SOFC) car ils sont chargés de collecter et de délivrer les électrons produits lors de la réaction électrochimique du cœur de pile. Les matériaux d'interconnecteurs doivent donc être stables sous air et sous H2/H2O. Ce travail vise à étudier l'influence d'un mince revêtement d'oxydes d'éléments réactifs (La2O3, Y2O3) réalisé par MOCVD sur le comportement à haute température (800°C) de matériaux d'interconnecteurs métalliques, tels que les alliages Crofer22APU, Haynes230 et Fe30Cr. La réalisation de tests de longue durée (7 700 et 15 400 heures) s'est avérée être riche en enseignements. Le suivi cinétique, la caractérisation des couches d'oxyde et la détermination du paramètre ASR ont permis d'établir que la présence d'oxydes de type pérovskite (LaCrO3, YCrO3), formés lors de l'oxydation, permettaient d'améliorer sensiblement la conductivité électrique des matériaux d'interconnecteurs. Sous atmosphère anodique (H2/10%H2O), même si les éléments réactifs conservent leur effet bénéfique, les cinétiques de corrosion sont plus rapides. L'augmentation de la porosité de la couche, l'amélioration de l'adhérence et la diminution de la taille des grains d'oxyde portent à croire que la diffusion anionique devient prépondérante sous vapeur d'eau. Enfin, l'effet bénéfique d'une pré-oxydation courte à 1 000°C sur le comportement des alliages revêtus et non revêtus est établi. Des expériences de marquage isotopique sous 16O2/18O2 ont démontré que cette amélioration s'explique par un changement du mécanisme de diffusion, la pré-oxydation engendrant une diminution de la contribution cationique.
575

Détection et Caractérisation des Exoplanètes par Imagerie Directe avec IRDIS

Vigan, Arthur 08 December 2009 (has links) (PDF)
Depuis la découverte de la première exoplanète autour d'une étoile de la séquence principale en 1995, seule une poignée d'exoplanètes ont été détectées par imagerie directe du fait de la grande différence de contraste qui existe entre les étoiles et les planètes. L'instrument SPHERE pour le VLT fait partie d'une nouvelle génération d'instruments dédiés à la détection directe de planètes géantes gazeuses qui combine un système d'OA extrême et des coronographes de dernière génération pour allier haute résolution angulaire et haut contraste. IRDIS, le spectro-imageur différentiel de SPHERE, offre plusieurs modes d'observation dans le proche infrarouge, dont les deux principaux sont l'imagerie différentielle (DBI) et la spectroscopie longue fente (LSS). Durant ma thèse j'ai étudié au moyen de simulations numériques détaillées les performances des modes DBI et LSS pour la détection et la caractérisation des exoplanètes. En mode DBI j'ai utilisé les méthodes SDI et ADI pour éliminer les speckles qui limitent intrinsèquement les données, puis j'ai estimé les limites de détection et la précision photométrique de IRDIS en imagerie afin de déterminer une séquence de paires de filtres optimale pour la caractérisation des exoplanètes. En utilisant cette séquence, j'ai pu estimer les températures effectives des planètes qui seront effectivement caractérisables avec IRDIS. En mode LSS, j'ai développé une méthode d'analyse des données spécifique pour les spectres dominés par les speckles et j'ai étudié ses performances en détail pour la caractérisation des exoplanètes. Enfin, j'ai travaillé sur la stratégie d'observation à adopter pour la caractérisation des exoplanètes avec IRDIS au moyen de tests en aveugle en imagerie et en spectroscopie. Ces tests m'ont permis de confirmer les résultats obtenus dans le cadre du travail détaillé sur les modes DBI et LSS, et en particulier d'étudier la discrimination des contaminants stellaires dans les données de IRDIS.
576

Solution and melt behaviour of high-density polyethylene - Successive Solution Fractionation mechanism - Influence of the molecular structure on the flow

Stephenne, Vincent 26 August 2003 (has links)
SOLUTION AND MELT BEHAVIOUR OF HIGH-DENSITY POLYETHYLENE - Successive Solution Fractionation mechanism - Influence of the molecular structure on the flow In the field of polyethylene characterization, one of the most challenging research topic is certainly an accurate molecular structure determination of industrial products, in terms of molar mass distribution (MMD), corresponding average-molar masses and molecular architecture (branching nature, content and heterogeneity). Solution to this long-term problem necessarily calls for a multi-disciplinary approach. Therefore, respective advantages of molecular structure characterization in solution and in the melt are exploited. In solution, chromatographic and spectroscopic methods allow determination of MMD, average branching content and intermolecular heterogeneity within their detection limits. Rheological testing in the melt could be a very powerful molecular structure investigation tool, due to its extreme sensitivity to high molar mass (MM) tailing or long chain branching (LCB) traces. But when the rheological tests results are in hand, we often still wonder what kind of molecular structure gives rise to such results. Indeed, melt signal depends on MM, MMD and LCB presence. MMD determination and LCB quantification by melt approach is impossible as long as respective effects of these molecular parameters are not clearly quantified. The general purpose of the present work is to contribute to a better molecular structure characterization of high-density polyethylene by developing, in a first time, a preparative fractionation method able to provide narrow-disperse linear and long chain branched samples, essential to separate concomitant effects of MM, MMD and LCB on rheological behaviour. Once such model fractions isolated, influence of MM and LCB on both shear and elongational flow behaviours in the melt is studied. /Dans le domaine du polyéthylène, un des sujets de recherche les plus investigués à l'heure actuelle est la détermination précise de la structure moléculaire de résines industrielles, en termes de distribution des masses molaires (MMD), de masses molaires moyennes correspondantes et d'architecture moléculaire (nature, teneur et hétérogénéité). La résolution de cette problématique nécessite une approche multi-disciplinaire, afin d' exploiter simultanément les avantages d'une caractérisation en solution et à l'état fondu. En solution, certaines méthodes chromatographiques et spectroscopiques permettent de déterminer une MMD, une teneur moyenne en branchement et leur distribution, dans leurs limites de détection. La mesure du comportement rhéologique à l'état fondu pourrait s'avérer un formidable outil de caractérisation de la structure moléculaire en raison de son extrême sensibilité à certains détails moléculaires, tels que la présence de traces de LCB ou de très hautes masses molaires (MM). Malheureusement, le signal rhéologique dépend de manière conjointe de la MM, MMD et de la présence ou non de LCB, de telle sorte que la détermination d'une MMD ou d'une teneur en LCB par cette voie est impossible aussi longtemps que les effets respectifs de ces paramètres moléculaires sur le comportement rhéologique n'ont pas été clairement et distinctement établis. L'objectif global de cette thèse est de contribuer à une meilleure caractérisation de la structure moléculaire du polyéthylène haute densité en développant, dans un premier temps, une méthode préparative de fractionnement capable de produire des échantillons, linéaires ou branchés, à MMD la plus étroite possible, indispensables en vue de séparer les effets concomitants de la MM, MMD et LCB sur le comportement rhéologique à l'état fondu. Une fois de tels objets modèles isolés, l'influence de la MM et du LCB sur le comportement rhéologique, en cisaillement et en élongation, sera étudié.
577

MODELISATION DES COMPOSANTS ELECTROMAGNETIQUES HAUTE FREQUENCE PAR LA METHODEDESELEMENTSFUHS

Garcia, Fabiano Luiz Santos 16 September 1999 (has links) (PDF)
En vue de répondre à l'absence de données complètes et réalistes de la part des fournisseurs, la connaissance du comportement des ferrites MnZn qui équipent les noyaux des composants haute fréquence a progressé nettement grâce à l'apport d'une nouvelle méthode de caractérisation des matériaux magnétiques. Contrairement aux méthodes normalisées, cette méthode, basée sur la mesure de deux impédances électriques complémentaires, permet d'accéder, à toute fréquence, aux données perméabilité et permittivité complexes. En ce qui concerne les formulations par éléments finis, les formulations générales en 3D ont été réécrites avec des propriétés physiques complexes, à l'aide de deux types de potentiel: le potentiel électrique et magnétique. Les hypothèses bidimensionnelles cartésienne et axisymétrique sont aussi utilisées. Le couplage avec les équations du circuit électrique d'alimentation est réalisé par la méthode des potentiels électriques intégrés dans le temps. Cette méthode généralement utilisée en 3D est adaptée pour les problèmes 2D. Les problèmes des capacités parasites liés aux effets des interactions électriques en haute fréquence sont aussi présentés. Pour la modélisation à des fréquences élevées, l'influence du champ magnétique sur le fonctionnement du composant n'est plus négligeable. Un modèle magnétique devient nécessaire afm de tenir compte de l'inductance d'un composant. Plusieurs études récentes sur les effets des interactions magnétiques électriques en haute fréquence sont montrées. Chaque méthode a comme particularité la nécessité des approximations, dans la plupart des cas géométriques, par rapport au problème qui est essentiellement tridimensionnel. Une modélisation par la méthode des éléments fmis utilisant la formulation axisymétrique couplée avec les équations de circuit électrique est proposée et bien adaptée pour une caractérisation électromagnétique des composants bobinés.
578

LIMITATION DE COURANT À BASE D'OXYDES SUPRACONDUCTEURS ET RÉALISATION D'UN APP ARE IL 100 A - 1 KV

Belmont, Olivier 12 May 1999 (has links) (PDF)
Les courants de court-circuit n'ont cessé de croître sur les réseaux de distribution électrique pour répondre à l'augmentation de la consommation et pour pènnettre de fournir une meilleure qualité de service grâce à la plus grande interconnexion du réseau. Les limiteurs de courant supraconducteurs apportent une solution sans aucun équivalent classique pour réduire, avant l'ouverture des protections, ces courants de défauts. La découverte des supraconducteurs à haute température critique en 1986 a pennis de réduire leur coût d'utilisation dans des applications industrielles. Dans cette optique, nous avons étudié la transition des supraconducteurs à base de Bismuth ou d'yttrium pour l'appliquer à la réalisation du prototype de limiteur de courant résistif"Aster" : 100 A - 1 kV. Un limiteur de courant peut être dans trois états différents, en fonction du courant qui le traverse: état passant, état de limitation ou état de récupération. En régime nominal ou état passant, les pertes proviennent soit des pertes en courant alternatif tant que le courant est inférieur au courant critique, soit de la résistance due au début de la transition du supraconducteur. La résistance développée lors de la transition du supraconducteur pennet de limiter les courants de court-circuit. Cette transition se pass~ en deux étapes pour les matériaux frittés: elle est d'abord initiée au niveau des joints de grains, puis, lorsque le matériau a atteint sa température critique, il transite en masse. Une fois le courant limité, le limiteur est isolé du réseau pour pennettre au matériau de retrouver son état supraconducteur. Enfin nous avons réalisé et testé un appareil "limiteur de courant" autonome et répétitif. Les tests sous 500 V puis 1 kV nous ont pennis de valider le principe et le fonctionnement de l'ensemble.
579

Contribution des sédiments laminés lacustres à l'étude des changements environnementaux holocène Approche couplée sédimentologie/géochimie à haute résolution Application à deux lacs nord alpins

Giguet-Covex, Charline 28 June 2010 (has links) (PDF)
L'étude des sédiments laminés, permettant des reconstitutions paléoenvironnementales à haute résolution, constitue le fil directeur de notre thèse. Les lacs d'Anterne (2063 m asl) et du Bourget (231,5 m asl), tous deux situés dans les Alpes françaises du nord, ont été choisis afin de contribuer à la compréhension de l'évolution du climat dans cette région et d'étudier l'impact de activités humaines sur les environnements alpins et périalpins. Un des défis de cette thèse est donc de distinguer le rôle respectif de ces deux facteurs dans les changements observés à travers l'étude des sédiments. La séquence sédimentaire du lac d'Anterne couvre la majeure partie de l'Holocène. L'évolution des processus d'érosion dans le bassin versant a pu être reconstituée à partir d'analyses sédimentologiques et d'une approche " source-puits " appliquée aux analyses géochimiques organiques et minérales. Cette approche méthodologique, couplée aux indicateurs quantitatifs d'érosion, a permis de mettre en évidence l'évolution des couvertures pédologiques, lesquelles sont contrôlées par la lithologie, la topographie, la végétation, le climat et l'usage des sols. Les résultats obtenus ont apporté des éléments de réponse sur l'origine climatique et/ou anthropique des changements observés. Une évolution progressive au début de l'holocène (9950-5450 cal. BP) avec mise en place des sols (processus de décarbonatation et d'acidification) et de la végétation, puis stabilisation de celle-ci a ainsi été mise évidence. Des conditions anoxiques se sont développées au fond du lac au cours de cette phase de stabilisation. Elles sont interprétées comme la conséquence d'une végétation bien développée dans le bassin versant. Une évolution régressive des sols, accompagnée d'importants processus d'érosion débute vers 5450 cal. BP, en raison d'un renversement climatique vers des conditions plus froides. Cette histoire régressive se poursuit en réponse à une pression anthropique renforcée (déforestation, activité pastorale) à l'Age du Bronze (autour de 3400 cal. BP), durant la fin de l'Age de Ferdébut de la période Romaine (2400-1800 cal. BP) et au Bas Moyen Age (1000-1200 ap. J.-C.). Nos interprétations ont pu être confortées et enrichies grâce au croisement de nos données avec des reconstitutions climatiques obtenus sur le site d'étude (température à partir des chironomes) et dans la région, et avec des données de paléovégétation (pollen, bois fossiles) et d'archéologie acquises dans le massif entourant le Lac d'Anterne. L'enregistrement du lac du Bourget ne couvre que les 120 dernières années. L'intérêt de cette archive est l'étude de la variabilité hydroclimatique annuelle à décennale et la reconstitution de l'évolution des conditions trophiques et de l'oxygénation du fond du lac en relation avec les activités humaines (rejet d'eaux usées, activités agricoles) et le climat. Contrairement à Anterne, les sédiments laminés du Lac du Bourget sont varvés. Une datation juste, précise et à haute résolution a donc été obtenue. A partir des analyses sédimentologiques et géochimiques, notre étude a pu mettre en évidence les effets opposés des crues du Rhône (affluent temporaire du lac) sur la qualité des eaux du lac (apport de nutriments mais aussi d'oxygène). Un intérêt particulier a donc aussi été porté à la compréhension des facteurs contrôlant les crues du Rhône (climat/activités anthropiques).
580

Du support générique d'opérateurs de composition dans les modèles de composants logiciels, application au calcul à haute performance.

Bigot, Julien 06 December 2010 (has links) (PDF)
Les applications scientifiques posent un véritable défi de par leur complexité et la quantité de données qu'elles traitent. Leur exécution nécessite l'utilisation de ressources matérielles complexes et variées comme les super-calculateurs, les grappes et les grilles de calcul. Les modèles de composants logiciels et en particulier ceux qui proposent des schémas de composition adaptés au calcul à haute performance offrent une piste intéressante pour leur développement. Ces derniers permettent aux applications de s'abstraire des ressources d'exécution et de favoriser ainsi les performances à l'exécution sur une grande gammes d'architectures. Ces modèles restent toutefois limités à un ensemble restreint de schémas de composition. Il en résulte une multiplication des modèles dès que de nouvelles formes de composition apparaissent nécessaires, ce qui est dommageable à l'objectif de réutilisation. La complexité de modifier un modèle existant pour y intégrer de nouveaux opérateurs de composition défavorise aussi ces efforts. Cette thèse propose un modèle de composants logiciels appelé HLCM dans lequel de nouveaux opérateurs de composition peuvent être introduits sans modification du modèle. Ceci est rendu possible par l'introduction en son sein de quatre concepts : la hiérarchie, les connecteurs, la généricité et le choix de mise en œuvre. Afin de favoriser la réutilisation de l'existant, ce modèle est abstrait et il est rendu concret dans des spécialisations qui s'appuient sur les éléments primitifs de modèles existants. Au cours de ces travaux, nous avons étudié comment le concept de généricité pouvait s'appliquer aux modèles de composants et nous avons proposé une approche pour l'y intégrer. Nous avons étudié les interactions problématiques entre les concepts de connecteur et de hiérarchie et avons offert une solution s'appuyant sur une nouvelle approche pour la description des connexions entre composants. Finalement, nous avons proposé une approche pour la mise en œuvre de HLCM qui s'appuie sur des principes issus de l'ingénierie basée sur les modèles. Ces travaux ont été validés en développant un prototype de mise en œuvre de HLCM/CCM, une spécialisation de HLCM qui s'appuie sur le modèle de composant de Corba (CCM). Il a été utilisé pour décrire des interactions complexes entre composants (mémoire partagée et appels de méthode parallèles) et assurer une exécution efficace sur des ressources matérielles variées, notamment sur Grid'5000.

Page generated in 0.0389 seconds