• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 443
  • 187
  • 55
  • 1
  • 1
  • Tagged with
  • 652
  • 159
  • 147
  • 110
  • 97
  • 80
  • 77
  • 65
  • 63
  • 56
  • 50
  • 48
  • 47
  • 43
  • 43
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Modélisation et étude numérique d'écoulements diphasiques : Modélisation d'un écoulement homogène équilibré : Modélisation des collisions entre gouttelettes à l'aide d'un modèle simplifié de type BGK

Champmartin, Aude 28 February 2011 (has links) (PDF)
Cette thèse décrit la modélisation et la simulation de systèmes à deux phases composées de particules évoluant dans un gaz. Les deux phases interagissent entre elles et le type de modèle à considérer dépend directement du type de simulations envisagées. Dans une première partie, les deux phases sont considérées comme des fluides, elles sont décrites à l'aide d'un modèle de mélange avec une relation de dérive (permettant de suivre une vitesse relative entre les deux phases et de prendre en compte deux vitesses) et sont supposées à l'équilibre en température et pression. Cette partie du manuscrit est composée de la dérivation des équations, de l'écriture d'un schéma numérique associé à ce jeu d'équations, d'une étude d'ordre de ce schéma ainsi que de simulations. Une étude mathématique de ce modèle (hyperbolicité dans un cadre simplifié, stabilité du système linéaire autour d'un état constant) a été réalisée dans un cadre o'u le gaz est supposé barotrope. La seconde partie de ce manuscrit est consacrée à la modélisation de l'effet de collisions inélastiques sur les gouttelettes lorsque l'on se place à un temps de simulation beaucoup plus court, pour lequel les gouttelettes ne peuvent plus être vues comme un fluide. Pour modéliser ces collisions, on construit un modèle simplifié (moins coûteux en temps) de type BGK permettant de reproduire le comportement en temps de certains moments sur les gouttelettes. Ces moments sont choisis pour être représentatifs de l'effet des collisions sur ces gouttelettes, à savoir une thermalisation en vitesse et énergie. Ce modèle est discrétisé avec une méthode particulaire et des résultats numériques sont donnés en comparaison avec ceux obtenus avec un modèle résolvant directement l'équation de Boltzmann homogène.
352

Fusion sélective par laser - influence de l'atmosphère et réalisation d'alliage in situ

Zhang, Baicheng 04 April 2013 (has links) (PDF)
Au cours de la dernière décennie, le procédé de fabrication additive par fusion sélective d'un lit de poudre SLM a attiré une grande attention dans le domaine de l'industrie, car il permet de produire rapidement des pièces de formes complexes. Le but de ce travail est d'étendre les performances des procédés SLM en étudiant la possibilité d'élaborer des pièces en atmosphère raréfiée. Pour atteindre cet objectif, une approche théorique et expérimentale a été développée, avec la mise en place d'une machine de fusion sélective par laser capable de travailler dans le domaine de pression de 1 à 10-2 mbar.Le travail sous vide permet d'éviter la formation du "bouclier" de plasma généré à partir de l'atmosphère de gaz ionisé par l'énergie du laser. Ceci permet d'une part d'éviter la contamination chimique du matériau (oxydation, nitruration,...) au cours des processus de fusion et d'autre part de réduire le taux de porosité. L'effet des paramètres du laser et des variables d'environnement sur la qualité de pièces a été étudié en considérant le cas du fer pur, de l'acier Inox 316L et du titane.Par ailleurs nous avons étudié la possibilité d'obtenir des alliages in-situ au cours de la fabrication par la technique SLM à partir de mélanges de poudres.Des essais ont été conduits à partir de mélanges Mg/Al, Fe/Ni et Ti/Ni. Dans tous les cas nous avons pu obtenir des alliages in-situ pour les domaines de composition visés qui correspondent à des applications pratiques (structures légères, alliage magnétique à faible coercivité, alliage à mémoire de forme). Les propriétés des matériaux obtenus, d'après les premières caractérisations effectuées, se comparent de façon favorable par rapport aux techniques classiques d'élaboration et de mise en œuvre.
353

Mélanges de polymères à base de poly(Acide lactique) : relation structure/rhéologie/procédés de mise en forme

Al-Itry, Racha 27 November 2012 (has links) (PDF)
Ce travail de thèse porte sur l'étude des relations structure/procédés de mise en forme/propriétés finales de matériaux polymères à base de PLA/PBAT. Ces derniers sont destinés à l'emballage alimentaire en vue de remplacer le polyéthylène téréphtalate (PET). Cependant le PLA a certaines limites de processabilité par les technologies de la plasturgie. Le renforcement de ses propriétés à l'état fondu a été obtenu grâce à l'introduction d'un époxyde multifonctionnel capable de réagir avec les bouts de chaînes des polyesters. Aussi, des mélanges à base de PLA/PBAT ont été mis en œuvre en vue de conférer la ductilité au matériau final. La première étape consiste en la compréhension des mécanismes de dégradation thermique et hydrolytique des deux polymères PLA et PBAT au cours des processus de mise en œuvre. En effet, la réaction d'extension des chaînes couplée au branchement induits par l'époxyde multifonctionnel palie cette dégradation. Les mécanismes d'extension de chaînes et de branchements sous-jacents ont été mis en évidence par l'analyse des énergies d'activation, des spectres de relaxation à l'état fondu ainsi que celle des grandeurs physico-chimiques en solution. En outre, les représentations de Van-Gurp-Palmen confirment la co-existence de chaînes macromoléculaires linéaires et aléatoirement branchées. La seconde étape de ce travail a été dédiée à la compatibilisation des mélanges PLA/PBAT par ce même époxyde multifonctionnel. Des études expérimentales modèles basées sur la détermination de la tension interfaciale et la modélisation rhéologique ont montré le rôle majeur de compatibilisant induit par cet agent réactif. Ainsi, la diminution de la tension interfaciale confère à ces matériaux une meilleure cohésion interfaciale et une morphologie fine et homogène de la phase dispersée, accompagnée par l'amélioration des propriétés mécaniques. L'étude des propriétés rhéologiques en cisaillement et en élongation des matériaux modifiés a permis de montrer une meilleure tenue mécanique à l'état fondu. Ainsi, une meilleure aptitude à l'extrusion gonflage a été démontrée en élargissant leurs cartes de stabilité. Parallèlement à ces travaux, des études de bi-étirage des polymères seuls, de leurs homologues modifiés et de leurs mélanges montrent un durcissement structural, dû à la cristallisation induite sous déformation. Les morphologies cristallines ont été analysées finement par des méthodes calorimétriques et spectroscopiques. Enfin, ces études ont été transposées à l'élaboration et à la compréhension des comportements d'une formulation industrielle complexe à base de PLA, PBAT et de farine céréalière plastifiée.
354

Mécanismes et lois cinétiques des réactions à l'état solide. Synthèse de CoMoO4

Ingrain, Dominique 11 February 1983 (has links) (PDF)
Les mécanismes des réactions solide-solide sont présentés en tenant compte de la diffusion des défauts prédominants. Les lois cinétiques correspondantes sont données dans le cas de grains AO tapissés d'une poudre BO finement divisée. L'influence de la distribution granulométrie des grains AO<sub>x</sub> de la répartition des particules BO à la surface de AO et de la composition du mélange sur la cinétique de formation du composé ABO<sub>2</sub> est examinée. Cette étude théorique a permis de comprendre le mécanisme de la synthèse CoMoO<sub>4</sub> à partir de Co<sub>3</sub>O<sub>4</sub> et MoO<sub>3</sub> et d'interpréter les résultats expérimentaux obtenus (courbes cinétiques, influence du rayon des grains de MoO<sub>3</sub>, composition du mélange, conductivité et mesures de P.T.E. sur CoMoO<sub>4</sub>).
355

Etude en laboratoire d'un courant de gravité turbulent sur un talus continental

Décamp, Sabine 09 December 2005 (has links) (PDF)
La dynamique des courants de gravité turbulents sur une pente uniforme en rotation est analysée par des expériences. Ces écoulements denses jouent un rôle important en océanographie dans le renouvellement des eaux profondes qui font parties du cycle de convection thermohaline global. La grande cuve tournante Coriolis (LEGI) permet d'étudier à l'échelle du laboratoire un courant de gravité en similitude avec les échelles océaniques.<br /> La propagation de ces courants est fortement influencée par la rotation et le mélange turbulent avec le milieu ambiant, et sa dynamique est instable. Les interactions entre le courant et le milieu ambiant liées aux phénomènes d'entraînement et d'extraction de fluide, contrôlent la position de stabilisation du courant le long des côtes, sa densité et sa vitesse. Des lois d'échelle basées sur la conservation du flux de flottabilité sont proposées, décrivant l'évolution des principales caractéristiques de l'écoulement le long de la pente. <br />Elles montrent le caractère auto-similaire du courant de gravité. L'analyse des résultats expérimentaux permet de vérifier ces lois et d'étudier la structure turbulente de l'écoulement.<br />Des instabilités de plus grande échelle sont observées, générant des tourbillons cycloniques qui sont également visibles dans les écoulements océaniques. Leur étude permet de suggérer le mécanisme de leur formation. Les résultats expérimentaux sont comparés par similitude aux mesures in-situ du courant dense s'écoulant par le détroit du Danemark.
356

Nouvelles paramétrisations de réseaux Bayésiens et leur estimation implicite - Famille exponentielle naturelle et mélange infini de Gaussiennes

Jarraya Siala, Aida 26 October 2013 (has links) (PDF)
L'apprentissage d'un réseau Bayésien consiste à estimer le graphe (la structure) et les paramètres des distributions de probabilités conditionnelles associées à ce graphe. Les algorithmes d'apprentissage de réseaux Bayésiens utilisent en pratique une approche Bayésienne classique d'estimation a posteriori dont les paramètres sont souvent déterminés par un expert ou définis de manière uniforme Le coeur de cette thèse concerne l'application aux réseaux Bayésiens de plusieurs avancées dans le domaine des Statistiques comme l'estimation implicite, les familles exponentielles naturelles ou les mélanges infinis de lois Gaussiennes dans le but de (1) proposer de nouvelles formes paramétriques, (2) estimer des paramètres de tels modèles et (3) apprendre leur structure.
357

Étude des antineutrinos de réacteurs : mesure de l'angle de mélange leptonique θ₁₃ et recherche d'éventuels neutrinos stériles

Collin, Antoine 07 January 2014 (has links) (PDF)
L'expérience Double Chooz a pour but la mesure précise de l'angle de mélange θ₁₃. Son évaluation repose sur l'étude de la disparition des antineutrinos produits par les réacteurs de la centrale de Chooz, disparition due au phénomène d'oscillation des neutrinos. Deux détecteurs identiques composés de liquide scintillant permettent d'effectuer une mesure relative, diminuant ainsi les incertitudes systématiques. Le détecteur proche, qui fournit la normalisation du flux de neutrinos émis, est en cours d'installation, son achèvement est prévu pour le printemps 2014. Le détecteur lointain, sensible à l'effet de θ₁₃, est situé à un kilomètre environ et prend des données depuis 2011. Dans cette première phase de l'expérience, les données acquises par le détecteur lointain sont comparées à une prédiction du flux de neutrinos émis par les réacteurs pour estimer le paramètre θ₁₃. Au sein de cette thèse, l'expérience Double Chooz et son analyse sont présentées. Une attention particulière est portée à l'étude des bruits de fond et au rejet de signaux parasites constitués de flashs lumineux émis par les photo-multiplicateurs. Les flux de neutrons aux interfaces entre les différents volumes du détecteur affectent la définition du volume d'interaction et partant l'efficacité de détection. L'étude détaillée de ces effets de bord est présentée. Dans le cadre de l'expérience Double Chooz, des études ont été menées afin d'améliorer la prédiction des flux de neutrinos émis par les réacteurs. Ces travaux ont mis à jour un déficit des taux de neutrinos observés dans les expériences passées à courtes distances des réacteurs. Ce déficit pourrait s'expliquer par une oscillation vers une saveur stérile. Le projet Stereo a pour but d'observer la distorsion -- caractéristique de l'oscillation -- du spectre des neutrinos en énergie et en distance de propagation. Cette thèse s'attache à présenter le concept du détecteur, les simulations réalisées, ainsi que les études de sensibilité. Les différents bruits de fond et les blindages envisagés pour s'en prémunir sont enfin discutés.
358

Etude spectroscopique du doublet métastable 3D de l'ion Ca+ dans un piège de Paul en présence de collisions

Knoop, Martina 14 December 1994 (has links) (PDF)
Un dispositif permettant le confinement d'ions calcium pendant des heures a été réalisé. Dans une première étape les ions ont été détectés utilisant deux méthodes électroniques: l'éjection résonnante à l'aide d'un multiplicateur d'électrons, et la détection par un circuit résonnant. L'influence d'un gaz tampon sur les durées de confinement et l'évolution de la charge d'espace a été mise en évidence par cette dernière méthode. les ions ont ensuite été détectés par la fluorescence des raies de résonance du CaII soit en utilisant un gaz tampon, soit par double-résonance optique-optique. l'excitation directe des transitions interdites 4S-3D des ions a permis d'aborder des mesures de la durée de vie naturelle des niveaux métastables par une méthode originale. des résultats très précis pour ces durées de vie ont été obtenus. Nous avons déterminé les taux de réaction pour la désexcitation des états métastables vers le niveau fondamental (quenching) en mesurant la variation de la durée de vie effective des niveaux en présence de différents gaz tampon. une étude en équilibre (fluorescence sensibilisée) ainsi qu'une étude dynamique des populations des deux états du doublet ont fourni des taux de réaction pour le mélange des niveaux de structure fine.
359

Etude du processus d'instabilité modulationnelle dans les fibres optiques présentant un profil de dispersion périodique.

Droques, Maxime 18 October 2013 (has links) (PDF)
Ce travail de thèse concerne l'étude du processus d'instabilité modulationnelle (MI) dans des fibres optiques présentant un profil de dispersion périodique. La MI est un phénomène bien connu mais la majorité des études réalisées dans le contexte des fibres optiques concerne le cas de dispersion uniforme axialement. L'objectif de ces travaux est de démontrer expérimentalement l'établissement de la MI dans une fibre optique micro-structurée (PCF) dont la dispersion varie de façon sinusoïdale. La première partie présente les principales caractéristiques des fibres optiques et les principaux processus physiques mis en jeu, ainsi que les outils de simulations numériques employés. La seconde partie débute par une présentation du contexte de l'étude et est ensuite consacrée aux résultats. Tout d'abord, nous introduisons le concept du mécanisme de quasi-accord de phase (QPM) dans les systèmes périodiques longitudinaux. Ensuite, nous présentons la démonstration expérimentale du processus de MI dans ce type de fibre. Le spectre obtenu est composé de dix lobes de MI sur 10 THz. De plus, nous proposons une description détaillée de la dynamique de formation des différents lobes de MI. Nous démontrons théoriquement et expérimentalement la génération d'une nouvelle famille de lobes de MI due à une combinaison entre la dispersion oscillante et la dispersion d'ordre quatre. Enfin, cette seconde partie est clôturée par l'élaboration d'un outil analytique, basé sur le modèle à trois ondes tronqué. Il permet d'interpréter simplement la dynamique de formation des lobes de MI et de contrôler le spectre de MI d'une fibre à dispersion oscillante.
360

Sélection de variables pour la classification non supervisée en grande dimension

Meynet, Caroline 09 November 2012 (has links) (PDF)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse.

Page generated in 0.0888 seconds