• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 999
  • 628
  • 598
  • 13
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2256
  • 1592
  • 1366
  • 1282
  • 1185
  • 1177
  • 827
  • 797
  • 792
  • 435
  • 298
  • 194
  • 178
  • 172
  • 140
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Produits dérivés des matières premières : modélisation et évaluation

Wang, Zaizhi 14 December 2011 (has links) (PDF)
Les prix des matières premières ont augmenté à un rythme sans précédent au cours des dernières années rendant les dérivés sur matières premières de plus en plus populaires dans de nombreux secteurs comme l'énergie, les métaux et les produits agricoles. Le développement rapide du marché des produits dérivés sur matières premières a aussi induit une recherche vers toujours plus de précision et cohérence dans la modélisation et l'évaluation de produits dérivés des matières premières. Les points les plus importants dans la modélisation des matières premières sont la bonne représentation du rendement d'opportunité appelé communément "convenience yield ", la prise en compte de la saisonnalité et la capture du phénomène de retour à la moyenne pour les prix des matières premières. Il est à noter que le rendement d'opportunité (convenience yield ) peut être induit du prix des la courbe des forwards et être simplement ajouté au terme d'évolution(terme de drift) dans les modèles canoniques, comme le modèle de Black Scholes, le modèle à volatilité locale et les modèles à volatilité stochastique. An delà de ces modèles, d'autres modèles ont été conçus pour modéliser spécifiquement l'évolution du convenience yield, la saisonnalité ou le phénomène de retour à la moyenne des prix. Il s'agit par exemple du modèle de Gibson Schwartz qui suppose que le terme de convenience yield est aléatoire. Cette approche prend donc en compte l'évolution non déterministe du convenience yield et l'interprète comme un paramètre critique du modèle. Ceci explique sa grande popularité et son adoption important par les praticiens du marché. Un autre modèle fréquemment utilisé est le modèle de Gabillon. Celui se concentre sur la saisonnalité des prix et l'effet de retour a la moyenne, en modélisant un prix à long terme stochastique corrélé aux prix du spot. Dans cette thèse, nous prouvons que ces deux approches ne sont en fait qu'une et qu'il y a une relation d'équivalence entre le modèle de Gibson Schwartz et le modèle de Gabillon. Reposant sur le principe de diffusion équivalente introduite par Gyöngy, nous montrons que le modèle de Gibson Schwartz et le modèle de Gabillon peuvent se réduire à un modèle à un facteur dont la distribution marginale peut être explicitement calculée sous certaines conditions. Ceci nous permet en particulier de trouver des formules analytiques pour l'ensemble des options vanilles. Certaines de ces formules sont nouvelles à notre connaissance et d'autres confirment des résultats antérieurs. Dans un second temps, nous nous intéressons à la bonne modélisation de la dynamique de la volatilité des marchés des matières premières. En effet, les marchés de matières premières sont caractérisés par des volatilités très fluctuantes et importante. Alors que les effets sur la saisonnalité, la modèlisation du convenience yield et l'effet de retour à la moyenne des prix ont été fortement soulignés dans la littérature, la bonne modélisation de la dynamique de la volatilité a souvent été oubliée. La famille de modèle à volatilité stochastique est introduite pour renforcer la dynamique de la volatilité, capturant le phénomène de smile de la surface de volatilité grâce à un processus stochastique pour la volatilité. C'est une caractéristique très importante pour les dérivés à maturité longue où l'effet volatilité stochastique conduit à des résultats très différents de ceux obtenus avec des modèles plus conventionnels. Les modèles à volatilité stochastique permettent aussi de prendre en compte le phénomène de corrélation négative entre le sous-jacent et la volatilité en introduisant de manière explicite ce paramètre de corrélation. Les modèles à volatilité stochastique les plus populaires comprennent le modèle d'Heston, le modèle de Piterbarg, le modèle de SABR, etc. Dans cette thèse, nous étendons les idées de Piterbarg à la famille des modèles à volatilité stochastique en rendant le concept plus général. Nous montrons en particulier comment introduire des paramètres dépendant du temps dans les modèles à volatilité stochastique et explicitons différentes formules de calcul explicite du prix d'options vanilles, permettant ainsi une calibration des paramètres du modèles extrêmement efficace.
192

Modèles effectifs de nouvelle physique au Large Hadron Collider

Llodra-Perez, Jérémie 01 July 2011 (has links) (PDF)
Grâce à l'exploitation du Large Hadron Collider, débutée en 2010, le monde de la physique des particules espère enfin avoir une compréhension plus précise du mécanisme de brisure de la symétrie électrofaible et résoudre certaines questions expérimentales et théoriques que soulèvent encore le modèle standard. S'inscrivant dans cette effervescence scientifique, nous allons présenter dans ce manuscrit une paramétrisation largement indépendante des modèles afin de caractériser les effets d'une éventuelle nouvelle physique sur les mécanismes de production et de désintégration du bosons de Higgs. Ce nouvel outil pourra aisément être utilisé dans les analyses des grandes expériences généralistes comme CMS et ATLAS afin de valider ou d'exclure de manière significative certaines théories au delà du modèle standard. Ensuite, dans une approche différente, fondée sur la construction de modèles, nous avons considéré un scenario où les champs du modèle standard peuvent se propager dans un espace plat possédant six dimensions. Les nouvelles directions spatiales supplémentaires sont compactifiées sur un Plan Projectif Réel. Cet orbifold original est l'unique géométrie à six dimensions qui présente des fermions chiraux et un candidat de matière noire dit naturel. Le photon scalaire, particule la plus légère du premier mode de Kaluza-Klein, est en effet stabilisé par une symétrie résiduelle de l'invariance de Lorentz à six dimensions. En utilisant les contraintes actuelles fournies par les observations cosmologiques, nous avons déterminé l'ordre de grandeur de la masse de cette particule aux alentours d'une centaine de GeV. De ce fait les nouveaux états présents dans cette théorie sont suffisamment légers pour produire des signatures claires et observables au Large Hadron Collider. Avec une étude plus poussée du spectre de masses et des couplages du modèle, incluant les corrections radiatives à une boucle, nous avons pu ainsi donner les premières prédictions et contraintes sur la phénoménologie attendue au Large Hadron Collider.
193

Stabilisation de la matière organique au cours du compostage de déchets urbains : influence de la nature des déchets et du procédé de compostage - recherche d'indicateurs pertinents

FRANCOU, Cédric 18 December 2003 (has links) (PDF)
Le compostage est un procédé de traitement et de valorisation des déchets organiques qui reproduit en accéléré le processus d'humification de la matière organique (Mo) dans les sols. Actuellement en France, seulement 7 % des déchets urbains sont compostés, alors que la part organique représente 50 % des 47 millions de tonnes produites annuellement. Les composts sont avant tout utilisés en agriculture pour augmenter ou entretenir les teneurs en MO des sols, et le niveau de stabilité de leur MO conditionne leur comportement après incorporation au sol. Notre projet se proposait d'étudier l'évolution des caractéristiques de la MO de composts au cours du compostage, en la reliant à leur origine (nature des déchets compostés et procédé de compostage), et d'en déduire leur aptitude à entretenir le stock de MO d'un sol (valeur amendante). Les conséquences de la biodégradabilité résiduelle des composts sur la disponibilité potentielle de l'azote ont été également étudiées. Une dizaine de composts issus de plates-formes de compostage industrielles, comprenant des composts de déchets verts. des co-composts de déchets verts et boues, des composts de biodéchets (fraction fermentescible des ordures ménagères collectée sélectivement), et des composts d'ordures ménagères résiduelles (après collecte sélective des emballages propres et secs), ont été échantillonnés après trois, quatre et six mois de compostage. Afin de s'affranchir de la variable procédé de compostage, des composts ont également été élaborés en réacteurs de laboratoire à partir d'un procédé unique de compostage d'une durée de 3 mois et des proportions variables de déchets verts, biodéchets, et papiers-cartons. Une gamme de cinq classes de stabilité de la MO des composts a été définie sur la base de la minéralisation résiduelle du carbone des composts étudiés au cours d'incubations dans un sol de référence. La caractérisation de la Mo des composts a été réalisée à partir de fractionnement chimique (extraction des acides humiques et fulviques) et biochimique (composition en lignine, cellulose, hémicellulose, substances solubles), et par analyse en spectrométrie infrarouge à transformée de Fourier (IRTF), et a permis d'interpréter les différences de vitesse de stabilisation. Le degré de maturité étant défini par le niveau de stabilisation de la MO des composts, le classement de stabilité défini précédemment a servi de référence pour la validation d'indicateurs de maturité. Au cours du compostage, les composts évoluent vers des produits aux caractéristiques de plus en plus proches, indépendantes de leur origine, mais les vitesses de stabilisation dépendent de l'origine des composts. On observe généralement une disparition rapide de la cellulose quand l'azote n'est pas facteur limitant. La dégradation plus lente de la lignine par rapport à la MO totale conduit à son enrichissement relatif au cours du compostage. Les mesures IRTF confirment l'augmentation du rapport d'aromaticité au cours du compostage. La prédominance dans les déchets initiaux, de déchets verts par nature riches en lignine, entraîne la stabilisation rapide de la MO des composts, que le procédé soit accéléré ou non. Les caractéristiques de la MO de ces composts évoluent peu entre trois et six mois de compostage. A l'opposé, la prédominance dans les déchets initiaux, de papiers par nature riches en cellulose, requiert une durée de compostage plus longue pour arriver à des composts stabilisés, sans doute en raison d'un déficit en azote. De ce fait, les composts d'ordures ménagères, plus riches en papiers -cartons, sont encore instables au bout de trois mois, et nécessitent au moins six mois de compostage, avec retournements réguliers, pour se stabiliser. L'influence des biodéchets sur la vitesse de stabilisation des composts n'a pas pu être mise en évidence, car ils ne représentent qu'une faible proportion de la masse sèche des mélanges initiaux. A partir du fractionnement biochimique, on définit l'indice de stabilité biologique (ISB) des composts, indicateur de la proportion de matière organique susceptible d'entretenir la MO des sols. Pour les composts de déchets verts, la faible augmentation de leur ISB couplée à la minéralisation de leur MO au cours du compostage, se traduit par une légère diminution de leur valeur amendante en fin de compostage. En revanche, l'importante stabilisation de la MO des composts d'ordures ménagères au cours du compostage entraîne une augmentation de leur valeur amendante entre trois et six mois qui reste toutefois plus faible que celle des composts de déchets verts. La biodisponibilité potentielle de l'azote des composts, évaluée à partir d'incubations de mélanges sol-compost apparaît faible. L'azote des composts stabilisés se minéralise lentement. L'incorporation au sol des composts instables provoque une forte immobilisation de l'azote du sol, suivi d'une phase de minéralisation à des vitesses supérieures à celles observées avec les composts stables. Parmi les indicateurs de maturité étudiés, le rapport d'humidification (RH=CAH/CAF) est le seul indicateur chimique fiable, un RH inférieur à 1 désignant un degré de maturité faible, et un RH supérieur à 1.3 désignant un degré de maturité élevé. Le test d'auto-échauffement est le test de terrain le plus pertinent. Ces deux indicateurs permettent d'évaluer de façon fiable le degré de stabilisation des composts, et d'en déduire des conseils sur leur période d'apport, en tenant compte des risques d'immobilisation de l'azote dans les sols liés à leur utilisation
194

Accélération de protons par laser à ultra-haute intensité : étude et application au chauffage isochore

Carrié, Michaël 04 February 2011 (has links) (PDF)
L'interaction d'impulsions lasers brèves et intenses avec un plasma est une source intéressante d'ions énergétiques. Les travaux effectués au cours de cette thèse s'articulent autour de deux grandes thématiques : la production de protons par laser, et leur utilisation pour le chauffage isochore, avec, pour principal outil d'étude, la simulation à l'aide de codes numériques (cinétique particulaire et hydrodynamique). Dans un premier temps, nous avons étudié le comportement de l'énergie cinétique maximale des protons qu'il est possible d'accélérer avec le mécanisme du Target Normal Sheath Acceleration (TNSA), en régime sub-ps, en fonction de différents paramètres, notamment de la durée d'impulsion laser. Nous avons montré que l'allongement de la durée d'impulsion, à énergie laser constante, est responsable du préchauffage et de la détente du plasma avant l'arrivé du pic d'intensité. Les gradients de densité ainsi produits (face avant et face arrière) peuvent favoriser, ou au contraire pénaliser, le gain en énergie cinétique des protons. Les résultats obtenus ont servi à l'interprétation d'une étude expérimentale réalisée au Laboratoire d'Optique Appliquée. Nos efforts se sont ensuite concentrés sur l'élaboration d'un modèle semi-analytique rendant compte de l'énergie cinétique maximale des protons accélérés par le biais du TNSA. Ce modèle permet de retrouver l'ordre de grandeur des intensités nécessaires, de l'ordre de 6x1021 W/cm², pour atteindre des énergies de proton supérieures à 150 MeV avec des impulsions laser de quelques joules et plusieurs dizaines de fs. Dans la dernière partie de cette thèse, nous nous sommes intéressés à l'utilisation de ces faisceaux de protons pour le chauffage isochore. Nous avons caractérisé, dans un premier temps, les fonctions de distribution produites par des cibles composées d'un substrat lourd (A >> 1) sur la face arrière duquel est déposé un plot d'hydrogène (schéma d'Esirkepov). Ensuite, à partir de simulations hydrodynamiques, nous avons étudié le temps caractéristique de détente de la cible chauffée en modifiant des paramètres tels que la distance à la source de protons, l'intensité et la tache focale du laser, et la densité surfacique du plot. Nous avons enfin étendu cette étude aux cibles cylindriques et nous avons montré qu'il est possible de réduire les effets liés à la divergence naturelle du faisceau de protons et ainsi d'obtenir des températures plus élevées.
195

Etudes phénoménologiques et astrophysiques de la matière noire légère

Albornoz Vasquez, Daniel Patricio 19 September 2011 (has links) (PDF)
La Matière Sombre représente une des quêtes les plus importantes pour la compréhension des constituants élémentaires de l'Univers: la nature de la Matière Sombre est toujours mystérieuse. La dernière décennie a connu des développements expérimentaux remarquables dans la recherche de la Matière Sombre. Le but de ce travail est l'étude de candidats de Matière Sombre de nature supersymétrique (le neutralino) et au-delà (les particules scalaires), et de leurs aspects phénoménologiques et d'astroparticules. Le neutralino, dans l'intervalle de masses 1-100 GeV, est testé par les expériences du Grand Collisionneur d'Hadrons, de détection directe et de détection indirecte; ce travail montre que la combinaison de ces techniques est un outil décisif pour une recherche minutieuse des prédictions théoriques. Les particules scalaires sont des candidats non-standards de masses jusqu'à 1 MeV qui pourraient être produits abondamment dans le Grand Collisionneur d'Hadrons, et au même temps expliquer d'autres phénomènes tels que la masse des neutrinos et/ou le signal à 511 keV provenant du centre galactique de la Voie Lactée.
196

Matière noire et rayons cosmiques galactiques

Taillet, Richard 08 December 2010 (has links) (PDF)
Parmi les problèmes auxquels sont confrontés la cosmologie et l'astrophysique modernes, celui de la matière noire occupe une place particulière, résistant depuis de nombreuses décennies à la sagacité des théoriciens et au savoir-faire des expérimentateurs. Le problème en lui-même s'énonce simplement : de nombreuses mesures astrophysiques indirectes indiquent que la masse contenue dans notre univers semble dominée par de la matière d'un type nouveau, que l'on a encore jamais détecté directement, on l'appelle la matière noire. L'hypothèse qu'elle puisse être constituée de nouvelles particules intéresse grandement les physiciens des particules, dont les théories prédisent l'existence de telles particules : la matière noire est un des thèmes majeurs de l'astrophysique des particules. Cette habilitation à diriger des recherches est centrée sur la recherche de matière noire sous la forme de particules nouvelles, et plus particulièrement à la détection indirecte, pour laquelle on cherche les particules issues des annihilations de la matière noire plutôt que la particule originale elle-même. Dans ce cadre, je présenterai les études du rayonnement cosmique que j'ai menées, en collaboration avec diverses équipes. En particulier, l'étude de l'antimatière qu'il contient, permet de tirer des conclusions sur la matière noire.
197

Spectrométrie de neutrons rapides par bolomètres à cible lithium pour la réduction du fond des expériences de détection directe de matière noire

Gironnet, Johann 30 September 2010 (has links) (PDF)
La spectrométrie des neutrons rapides est une technique essentielle dans plusieurs domaines notamment pour les expériences de détection d'évènements rares, telles que celles de détection directe de la matière noire, et pour les centres de recherches nucléaires. La détection des neutrons rapides se fait habituellement de manière indirecte. Les neutrons sont d'abord ralentis par des matériaux modérateurs pour être détectés ensuite dans une gamme d'énergie plus basse. Ces techniques de détection sont cependant complexes à mettre en place et sont limitées en résolution en énergie. Un nouveau type de spectrométrie de neutrons rapides a été développée à l'Institut d'Astrophysique Spatiale (IAS) dans le but d'avoir une meilleure connaissance des fonds de neutrons : il associe la technique bolométrique à des cristaux à base de lithium sensibles aux neutrons. Le lithium-6 est en effet un élément ayant une des plus grandes sections efficaces de capture neutronique avec la réaction 6Li(n,)3H. La réaction libère 4.78 MeV signant ainsi énergétiquement chaque capture de neutron et lors de l'interaction avec un neutron rapide, l'énergie totale mesurée par le bolomètre devrait être la somme de cette énergie de réaction et de l'énergie cinétique du neutron rapide incident. Afin de valider ce principe, un prototype de spectromètre à neutrons rapides, compact et semi portable, a été construit à l'IAS. Ce détecteur cryogénique, fonctionnant entre 300 et 400 mK, consiste en un cristal de 0.5 g de 6LiF enrichi à 95%, associé un thermomètre en Ge-NTD. Cette thèse a porté sur l'étude des caractéristiques de ce spectromètre, des premières mesures à l'IAS, aux mesures dans le centre de recherche de l'Institut Paul Scherrer (PSI), jusqu'au calibrage final sur l'installation Amande de l'Institut de Radioprotection et de Sûreté Nucléaire (IRSN).
198

Analyse des propriétés statistiques des amas de galaxies

Foëx, Gaël 14 April 2011 (has links) (PDF)
Les amas de galaxies constituent un des outils majeurs de la cosmologie moderne. Une mesure de l'abondance de ces objets permet de caractériser les propriétés cosmologiques de l'Univers et l'analyse de leurs différentes propriétés physiques telles que la masse, la température ou la luminosité X du gaz intra-amas permet quant à elle de contraindre les modèles de formation et d'évolution de ces objets. Dans les deux cas, la grandeur fondamentale est la masse de l'amas de galaxies. Etre capable de les estimer de la manière la plus efficace et la plus précise possible est donc une nécessité. Le travail présenté ici s'inscrit dans cette optique : l'étude d'un échantillon représentatif d'amas de galaxies avec des masses déduites de deux analyses totalement différentes afin d'en augmenter la fiabilité. Cette thèse met l'accent sur la méthode qui utilise les effets de lentilles gravitationnelles prédits par la théorie de la Relativité Générale. L'analyse d'images optiques grand champ des amas a constitué la plus grande partie de ce travail : sélection des galaxies lentillées, estimation de leur forme, mesure du signal de cisaillement gravitationnel et reconstruction de la masse. Chaque étape du processus s'accompagne d'erreurs et de limitations qui ont été mises en lumière, en particulier celles attribuées à la distance importante de l'échantillon d'amas. L'étude de celui-ci du point de vue statistique a permis de caractériser ce qu'on appelle les lois d'échelle. Ces relations entre les différentes grandeurs des amas permettent d'étudier les modèles de formation des structures et constituent l'outil nécessaire à une utilisation des amas comme contrainte cosmologique. Leur étalonnage nécessite donc une estimation robuste des masses. Celles déduites de l'analyse des effets de lentilles gravitationnelles ont ainsi été comparées avec les résultats de la seconde méthode basée sur l'émission X du gaz intra-amas. Pour 7 des 11 amas de l'échantillon, les masses estimées sont compatibles ce qui augmente leur crédibilité. Pour les autres cas, les différences observées mettent en lumière les limitations intrinsèques à chaque méthode, en particulier les effets de projection et l'état dynamique de l'amas. Les résultats obtenus sur la calibration des lois d'échelles sont quant à eux en bon accord avec une grande partie des autres travaux du même type, notamment sur des amas plus proches. En particulier, la présence de processus physiques non gravitationnels est mise en évidence, à la fois sur les propriétés du gaz et celles de la population des galaxies de l'amas.
199

Gravitino dans l'Univers primordial : un modèle d'extra-dimension et de matière noire

Gherson, David 30 October 2007 (has links) (PDF)
Le contexte de ce travail peut être rattaché à la M-théorie d'Horava-Witten dans laquelle l'Univers a pu connaître une étape à 5 dimensions mais aussi aux théories de Baryogénèse via Leptogénèse qui impliquent de hautes températures de réchauffage après l'Inflation. Le modèle cosmologique étudié se situe dans le contexte d'une supergravité à 5 dimensions avec l'extra-dimension compacte de type $S1/Z_2$, où les champs de matière et de jauge vivent sur une des deux membranes localisées aux point fixes de l'orbifold et où les champs de supergravité se propagent dans l'ensemble des dimensions spatiales. En faisant l'hypothèse que la matière noire est composée de Neutralino, qui est dans notre modèle la particule supersymétrique la plus légère, nous avons montré qu'il existe des courbes de contraintes entre la taille de l'extra-dimension et la température de réchauffage de l'Univers après l'Inflation. Les contraintes proviennent, d'une part, des mesures de la quantité de Matière Noire dans l'Univers, et d'autre part, du modèle de la Nucléosynthèse Primordiale des éléments légers
200

Dynamique des matières organiques labiles et récalcitrantes dans la tourbière de Frasne (Jura) : impact des conditions hydriques et d'un réchauffement simulé in situ

Delarue, Frédéric 26 November 2010 (has links) (PDF)
Dans un contexte de réchauffement climatique, la fonction " puits " de carbone (C) des tourbières est susceptible de changer en fonction " source " libérant ainsi de grandes quantités de C dans l'atmosphère sous l'effet d'une dégradation accrue de la matière organique (MO). Ainsi cette thèse se sont attachés à étudier la dynamique de dégradation de la MO labile (MOL) et récalcitrante (MOR) en fonction de 3 facteurs contrôlant (le niveau relatif de la nappe, un réchauffement simulé in situ et des variations saisonnières) dans la tourbière ombrotrophe du Forbonnet (25, Jura). Basés sur des analyses biogéochimiques et moléculaires de (i) la tourbe (50cm d'épaisseur), (ii) la fraction organique extractible à l'eau (WEOM) et (iii) les eaux piézométriques, les résultats acquis montrent une dégradation accrue de la MOL (e.g. polysaccharides et produits de son hydrolyse tels que le fructose,le glucose et le saccharose) et de la MOR sous l'effet d'une diminution du niveau de la nappe. Les conditions hydrologiques affectent également les processus de dégradation (sénescence et un éventuel priming effect) et d'humification de la MO pouvant conditionner le piégeage potentiel de laMOL. Après 13 mois d'incubation, l'effet du réchauffement simulé se traduirait par une hausse de l'évapotranspiration dans la condition la plus humide, là où l'étude de la WEOM indique une moindre dégradation de la MOL en surface contrairement aux niveaux profonds. Enfin, les travaux portant sur la dynamique saisonnière du C des eaux piézométriques soulignent le besoin d'intégrer la notion d'interactions entre facteurs contrôlant le cycle du C dans les tourbières pour comprendre leur réponse aux changements climatiques.

Page generated in 0.1762 seconds