• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 709
  • 337
  • 59
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 1091
  • 310
  • 295
  • 260
  • 238
  • 203
  • 114
  • 113
  • 111
  • 91
  • 80
  • 71
  • 69
  • 68
  • 66
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
631

Etude des mécanismes de libération d'actif nanodispersé - Application au traitement de puits

Rondon, Céline 14 December 2010 (has links) (PDF)
L'exploitation de pétrole s'accompagne de la modification des conditions thermodynamiques internes du puits et favorise, entre autres, la formation de dépôts minéraux pouvant obstruer les pores micrométriques de la formation rocheuse, rendant difficile l'extraction d'huile. L'efficacité du traitement anti-dépôts dépend de la concentration minimale d'inhibiteur et de la vitesse de relargage du produit. Dans ce contexte, nous avons étudié deux techniques d'encapsulation permettant d'obtenir un système préventif à libération prolongée contenant un polyélectrolyte anionique comme additif modèle. La première consiste en la formation de nanoparticules de polyélectrolytes complexés. La libération de l'actif encapsulé y a été stimulée par la modulation de la salinité du milieu. À pH basique, la libération de l'actif a lieu via le mécanisme de gonflement /dissociation des particules, à pH acide aucune libération ne parait avoir lieu car les objets précipitent. Le second système est une émulsion inverse (E/H) diluée contenant un actif modèle en phase dispersée. Ces systèmes sont stables et un faible pourcentage d'actif est libéré sous contrainte mécanique.
632

Étude du taux de production des J/psi et muons simples en collisions proton-proton à l'aide du spectromètre à muons de l'expérience ALICE au LHC

Lenhardt, Matthieu 08 December 2011 (has links) (PDF)
Le plasma de quarks et de gluons est un état de la matière apparaissant à haute température. En laboratoire, il est possible d'atteindre les conditions nécessaires à sa formation grâce aux collisions d'ions lourds aux énergies ultra-relativistes. L'expérience ALICE au LHC est dédiée à l'étude du plasma de quarks et de gluons grâce aux collisions Pb-Pb à 2,76 TeV. Les premiers résultats d'ALICE, presentés en annexe, ont été obtenus grâce aux rayons cosmiques. Une étude de l'évolution de l'efficacité de reconstruction du spectromètre à muons durant ses deux premières années de fonctionnement sera présentée par la suite. L'efficacité totale de reconstruction des chambres de trajectographie ainsi obtenue est de plus de 90% pour les données correspondant à des collisions proton-proton, et de 85% pour les données recueillies avec des collisions plomb-plomb. Une méthode de sélection des traces reposant sur la distribution du produit impulsion - distance d'approche minimale sera également présentée. Cette sélection permet de rejeter les traces de muons produits par des collisions entre les particules du faisceau et le gaz résiduel dans le tube faisceau, et les fausses traces dans les collisions Pb-Pb les plus centrales. Enfin, cette thèse présentera une première analyse sur le taux de production des muons simples et des J/psi en fonction de la multiplicité en particules chargées lors des collisions proton-proton.
633

Etude expérimentale et théorique de la production de fragments dans les collisions Xe+Sn de 25 à 150 A.MeV

Hudan, S. 21 December 2001 (has links) (PDF)
Afin de comprendre la production de fragments qui se déroule dans les collisions d'ions lourds aux énergies intermédiaires, nous avons fait une étude à la fois expérimentale et théorique du phénomène de multifragmentation. Les données recueillies avec le multidétecteur INDRA sur une large gamme en énergie incidente pour le système Xe+Sn ont permis de faire une étude des collisions centrales et de montrer que le maxim̀um de production de fragments se situe autour de 65 MeV/n d'énergie incidente. Un examen plus approfondi des collisions centrales entre 32 et 50 MeV/n d'énergie de bombardement, fondé sur les fonctions de corrélation fragment/particule, a aidé à déterminer les caractéristiques des fragments primaires produits au cours de la collision. Il a été montré que les énergies d'excitation de ces fragments saturent vers une valeur de 3 MeV/n à partir de 39 MeV/n d'énergie de faisceau, et que les particules évaporées représentent moins de 40% (23% à 50 MeV/n) de toutes les particules légères chargées, ce qui montre l'importance de la dynamique de la collision. Afin de mieux comprendre ces grandeurs, d'étudier le rôle de la dynamique et l'évolution en temps de la collision, des calculs avec le modèle de dynamique moléculaire antisymétrisée AMD ont été effectués. Les simulations donnent une bonne image des données expérimentales, notamment des collisions les plus centrales à 50 et 100 MeV/n d'énergie incidente pour le système Xe+Sn. Pour cela des développements du modèle ont été nécessaires afin de bien prendre en compte la diffusion des nucléons dans le milieu. Les calculs ont permis de situer le temps de formation des fragments entre 100 et 200 fm/c dans le cas des collisions centrales à 50 MeV/n d'énergie incidente, et de monter un effet de transparence, qui existe même dans les collisions les plus centrale. Les comparaisons avec les données expérimentales montrent que cet effet est légèrement surestimé dans les calculs.
634

Towards a measurement of the angle γ of the Unitarity Triangle with the LHCb detector at the LHC (CERN) : calibration of the calorimeters using an energy flow technique and first observation of the Bs0 -> D0K*0

Martens, Aurélien 09 September 2011 (has links) (PDF)
A ce jour la détermination de l'angle γ du Triangle d'Unitarité de la matrice de Cabibbo-Kabayashi-Maskawa est statistiquement limitée par la rareté des transitions b→ u. La précision obtenue en combinant les résultats des expériences BABAR et BELLE est proche de 10°. L'expérience LHCb auprès du LHC présente un fort potentiel d'amélioration pour ce paramètre de violation de CP, notamment via la désintégration Bd0 -> D0K*0, un des canaux clés de cette mesure. Les désintégrations D0 -> Kπ, D0 -> Kππ0 et D0 -> Kπππ sont étudiées dans cette thèse. L'utilisation de désintégrations faisant intervenir des π0 nécessite un bon étalonnage en énergie des calorimètres électromagnétiques. Une méthode d'étalonnage intercellules du ECAL basée sur le flux d'énergie, permet d'obtenir une inter-calibration de l'ordre de 1,5 %, l'échelle d'énergie absolue étant obtenue par des méthodes indépendantes non étudiées ici. La détermination du rapport d'embranchement de la désintégration Bs0 -> D0K*0, première étape du programme aboutissant à la mesure de la violation de CP dans le canal Bd0 -> D0K*0, est réalisée relativement au rapport d'embranchement de Bd0 -> D0ρ0. Le résultat final obtenu avec 36 pb−1 de données collectées par LHCb en 2010 reste dominé par l'erreur statistique :BR(Bs0 -> D0K*0)/BR(Bd0 -> D0ρ0) = 1, 48 ± 0, 34 (stat) ± 0, 15 (syst) ± 0, 12 (fd/fs).
635

Nanocomposites à base de particules magnétiques : synthèse et contribution de la dispersion des charges et de la conformation des chaines sur les propriétés de renforcement

Robbes, Anne-Sophie 14 October 2011 (has links) (PDF)
Les propriétés mécaniques de films polymériques peuvent être considérablement améliorées par l'inclusion de nanoparticules au sein de la matrice du fait de deux effets majeurs : (i) la structure locale de la dispersion des charges et (ii) la modification potentielle de la dynamique et de la conformation des chaînes à l'interface charge/polymère. Néanmoins, les mécanismes précis qui permettent de relier ces contributions à l'échelle nanométrique aux propriétés macroscopiques des matériaux, et en particulier aux propriétés mécaniques, sont actuellement mal décrits. Dans ce contexte, nous avons synthétisé des nanocomposites modèles à base de nanoparticules magnétiques de maghémite γ-Fe2O3 (nues ou greffées d'une couronne de polystyrène (PS) par polymérisation radicalaire contrôlée) dispersées dans une matrice de PS, que nous avons caractérisé en couplant la diffusion de rayonnement (Rayons X et neutrons) et la microscopie électronique à transmission. En jouant sur différents paramètres tels que la taille des particules, la concentration, ou le rapport de taille entre les chaînes greffées et celles de la matrice pour les charges greffées, nous avons obtenu des nanocomposites présentant un éventail de dispersions de charges variées, contrôlées, parfaitement reproductibles, allant de particules individuelles ou d'agrégats ramifiés jusqu'à la formation d'un réseau de charges connecté. En appliquant un champ magnétique externe durant la synthèse des nanocomposites, nous sommes parvenus à aligner les différentes structures le long de la direction du champ et ainsi former des matériaux présentant des propriétés remarquables de renforcement anisotropes. La conformation des chaînes au sein des nanocomposites, déterminée expérimentalement grâce aux propriétés spécifiques de contraste neutronique du système, n'est pas affectée par la présence des charges, quels que soient le degré de confinement des chaînes, l'orientation, la dispersion ou l'état de surface des charges. L'alignement des charges sous champ magnétique a permis de décrire précisément l'évolution du module de renforcement des matériaux avec la réorganisation structurale locale des charges et des chaînes sous étirement, et de finalement mettre en évidence le rôle majeur joué par la réorganisation des charges sous déformation dans les mécanismes de renforcement.
636

Modèles markoviens de transfert de charge dans les réseaux informatiques

Beguin, Maryse Y. 20 October 1997 (has links) (PDF)
Cette thèse porte sur la modélisation et l'evaluation d'algorithmes de transfert de charge dans des systèmes parallèles et/ou distribués. Après une synthèse des différentes approches possibles du transfert de charge et des problèmes rencontres pour leurs mises en oeuvre et leurs évaluations quantitatives, nous développons plusieurs modèles basés sur une évolution markovienne de la configuration des charges de l'ensemble des processeurs. Les indices de performance étudiés afin de comparer les valeurs obtenues avec transfert et sans transfert sont la saturation mémoire, le débit du système, la charge de travail et le temps de réponse moyen. Dans les deux premiers modèles seuls deux sites se transfèrent des tâches, mais les temps de communication et de transfert sont modélisés. Des valeurs critiques concernant la pertinence ou non du transfert sont obtenues. Lorsque les temps de communication et de transfert sont négligés devant les temps de calculs, deux modèles sont étudies. Le premier permet d'évaluer un algorithme d'équilibrage de charge pour un nombre quelconque de sites homogènes totalement connectés, de capacité mémoire finie. Cette étude permet de prévoir le comportement de systèmes massivement parallèles et des bornes supérieures de bénéfices que l'on peut attendre d'un réel transfert sont explicitées. Le deuxième prend en compte l'architecture du réseau et l'algorithme induit un transfert dés que la différence de charge entre deux sites voisins excède un. Dans le cas de réseaux infinis dont la topologie est régulière, ce modèle est ergodique et converge à vitesse exponentielle vers son régime stationnaire. Des résultats de simulations sont présentés pour différentes architectures et comparés aux solutions des équations de champ moyen, qui donnent de très bonnes approximations dans la plupart des cas pour les quantités d'intérêt pratique. Enfin, l'incidence sur la valeur des indices de performance est étudiée et interprétée.
637

Modes de défaillance induits par l'environnement radiatif naturel dans les mémoires DRAMs : étude, méthodologie de test et protection

Bougerol, A. 16 May 2011 (has links) (PDF)
L'augmentation des performances requises pour les systèmes aéronautiques et spatiaux nécessite l'utilisation de composants électroniques de complexité croissante, dont la fiabilité, incluant la tenue aux radiations cosmiques, doit être évaluée au sol. Les mémoires DRAMs sont largement utilisées, mais leurs modes de défaillance sont de plus en plus variés, aussi les essais traditionnels en accélérateur de particules ne sont plus suffisants pour les caractériser parfaitement. Le laser impulsionnel peut déclencher des effets similaires aux particules ionisantes, aussi cet outil a été utilisé en complément d'accélérateurs de particules pour étudier, d'une part, les événements parasites SEUs (Single Event Upset) dans les plans mémoire et, d'autre part, les SEFIs (Single Event Functional Interrupt) dans les circuits périphériques. Ces études ont notamment permis d'expliquer l'influence des motifs de test sur les sensibilités mesurées, de découvrir l'origine des SEFIs les plus importants ainsi que de valider des techniques pour quantifier leurs surfaces sensibles. Une méthodologie de test destinée aux industriels a été établie, basée sur l'utilisation du moyen laser en complément des essais en accélérateur de particules dans le but d'optimiser les coûts et l'efficacité des caractérisations. En outre, une nouvelle solution de tolérance aux fautes est proposée, utilisant la propriété des cellules DRAMs d'être immune aux radiations pour un de leurs états de charge.
638

Quelques propriétés des superprocessus

Delmas, Jean-François 28 March 1997 (has links) (PDF)
Les superprocessus sont des processus de markov a valeurs mesures. Ils sont caracterises par un processus markovien sous-jacent et un mecanisme de branchement spatial. lorsque le mecanisme de branchement est restreint a un domaine de l'espace, appele ensemble de catalyse, on parle alors de superprocessus avec catalyse. Dans le premier chapitre nous rappelons la construction du super-mouvement brownien avec catalyse, puis nous etablissons des proprietes de continuite trajectorielle. Nous demontrons egalement que hors de l'ensemble de catalyse, le super-mouvement brownien possede une densite aleatoire solution de l'equation de la chaleur. Dans le deuxieme chapitre nous etudions l'image du super-mouvement brownien a l'aide d'un processus a valeurs trajectoires, appele serpent brownien. Enfin dans le troisieme chapitre nous etablissons, a l'aide du serpent brownien et d'une methode de subordination, des resultats sur la dimension de hausdorff du support des superprocessus avec un mecanisme de branchement general, ainsi que des resultats d'absolue continuite.
639

Restauration de la symétrie de parité intrinsèque dans les noyaux atomiques à partir d'approches de type champ moyen plus corrélations

Tran, V.N.H. 07 April 2010 (has links) (PDF)
Nous nous sommes intéresses a la restauration de la symétrie de réflexion droite-gauche brisée dans certains calculs effectues en utilisant l'approche HTDA (Higher Tamm-Danco Approximation). Cette approche a été proposée par le groupe de Bordeaux pour traiter de façon microscopique les corrélations en conservant explicitement les nombres de nucléons. La projection sur la parité par la méthode PAV (projection après variation) utilisant une généralisation du théorème de Wick de type Lowdin s'est avérée être très bien adaptée dans le cadre d'un modèle simple pour ce type de calcul et a permis de tourner certaines difficultés propres aux calculs qui utilisent la théorie de la fonctionnelle de la densité déduite par exemple de l'interaction de Skyrme. Les résultats obtenus pour des noyaux lourds manifestant une déformation octupôlaire ou a tout le moins une grande déformation pour ce mode, sont en gros tout a fait cohérents avec les calculs antérieurs effectues dans une approche HFB ou HF+BCS. D'autre part nos résultats montrent qu'on peut abaisser par projection sur la parité positive la hauteur de la seconde barrière de fission par une quantité de l'ordre de 1 MeV.
640

Étude expérimentale de l'interaction entre un écoulement de gravité et son lit d'écoulement, application aux avalanches de neige en aérosol

Brossard, Denis 15 June 2010 (has links) (PDF)
Naaim et Gurer (1998) proposent une modélisation des avalanches de neige par le modèle dit « bi-couche ». L'avalanche y est décrite comme la superposition de deux couches : proche du sol une couche où l'écoulement est collisionnel, au dessus une couche au sein de laquelle l'écoulement est diphasique et turbulent. Ces deux couches ont chacune une dynamique propre distincte ; des échanges de masse et de quantité de mouvement ont lieu dans la zone d'interface séparant les deux couches. Le travail présenté ici propose une étude de cette interface vue comme lit d'écoulement de la couche supérieure. Pour cela, une modélisation expérimentale par bouffée de densité saline s'écoulant dans un canal noyé a été mise en place. Les mesures ont été réalisées par prise et analyse d'images. Cela a permis d'étudier l'influence du lit d'écoulement sur la dynamique de la bouffée et de localiser l'érosion qu'elle engendre appelée reprise. Ces résultats ont été confrontés à une large analyse bibliographique et à une analyse conceptuelle du phénomène de reprise. Une formulation analytique de la reprise prenant en compte une atténuation de la turbulence, par le fait de la présence de particules en suspension dans l'écoulement, a alors été proposée. Elle a été intégrée à une modélisation numérique reproduisant correctement les résultats observés expérimentalement.

Page generated in 0.0225 seconds