• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1005
  • 632
  • 603
  • 13
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2271
  • 1597
  • 1370
  • 1287
  • 1188
  • 1180
  • 827
  • 797
  • 792
  • 436
  • 300
  • 199
  • 178
  • 172
  • 140
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Etude expérimentale de la formation de noyaux composés super-lourds dans la réaction : $^(58)$Fe + $^(244)$Pu -> $^(302)$120

Amar, Nathalie 25 November 2003 (has links) (PDF)
NIL
192

Etude de la production de particules chargées dans des réactions induites par des neutrons de 96 MeV

Blideanu, Valentin 01 December 2003 (has links) (PDF)
Les réactions induites par des nucléons dans le domaine 20-200 MeV font depuis long temps l'objet d'une étude intensive. Le processus d'émission des particules dans la phase dite de pré-équilibre a une contribution très importante dans cette région et plusieurs approches théoriques ont été proposées afin de l'expliquer. Leur pouvoir prédictif doit être vérifiée par des comparaisons avec des données expérimentales dans diverses configurations. Les résultats expérimentaux présentés dans ce travail permettent l'extension vers les plus hautes énergies des bases de données, actuellement limitées aux énergies autour de 60 MeV.<br> Réalisées au cyclotron du laboratoire TSL à Uppsala (Suède), les expériences ont comme objectif la mesure des sections efficaces doublement différentielles de production des particules chargées légères jusqu'au A=4 dans des réactions induites par des neutrons de 96 MeV sur trois systèmes, avec un seuil en énergie bas et dans un domaine angulaire important (20-160 degrés). La procédure de normalisation employée dans le calcul des sections efficaces utilise la réaction de diffusion élastique np. La détection des protons avec deux dispositifs expérimentaux indépendants (SCANDAL et MEDLEY) permet un bon control des erreurs systématiques affectant les résultats.<br> Une étude systématique sur les prédictions des différents modèles théoriques est présentée dans la dernière partie de ce travail. A l'exception du modèle de simulation microscopique DYWAN, choisi pour son originalité dans le traitement des réactions nucléon-noyau, sont concernées généralement les approches implémentées dans des codes de simulation actuellement utilisés par la communauté scientifique.
193

Modélisation physique du procédé de découpe de métaux par laser

Mas, Cédric 24 April 2003 (has links) (PDF)
Ce travail de thèse développe un modèle physique de découpe de métaux par laser. Le procédé complet est divisé en une série de processus élémentaires qui s'étend de la propagation de faisceaux laser gaussiens jusqu'à l'évacuation du métal fondu sous l'action de cisaillement du gaz de découpe. L'ensemble des processus élémentaires est alors unifié au sein d'un modèle stationnaire 2D, « auto-consistant », fournissant la géométrie du front avant de la saignée de découpe. Les comparaisons entre résultats de simulation et expériences de « découpe pure » fournissent de très bonnes corrélations. Par ailleurs, des expériences complémentaires semblent indiquer que l'absorptivité réelle est d'environ 20% supérieure à celle prédite par le modèle de Drude et les équations de Fresnel. La non-planéité et la non-stationnarité du front d'absorption peuvent justifier une telle augmentation. Finalement, nous ouvrons les perspectives en présentant un modèle 3D de la géométrie de la saignée de découpe. Nous abordons la découpe laser sous oxygène et finissons par une approche des stries de découpe.
194

Recherche de grandes déformations nucléaires dans des noyaux exotiques en spin et en isospin à l'aide des multidétecteurs gamma EUROBALL IV et EXOGAM

Prévost, Aurélien 27 March 2003 (has links) (PDF)
Ce travail de thèse est dédié à l'étude des noyaux lourds soumis à des conditions extrêmes de spin et d'isospin. Les expériences présentées ont été menées à l'IReS de Strasbourg et au GANIL de Caen avec les multidétecteurs gamma EUROBALL IV et EXOGAM auprès, respectivement, des accélérateurs VIVITRON et SPIRAL. Les noyaux étudiés ont été peuplés via des réactions de fusion-évaporation. Pour exploiter les données, nous avons développé de nouvelles méthodes d'analyse reposant sur la logique floue. <br> Deux expériences ont été réalisées auprès d'EUROBALL IV et portaient sur les noyaux superdéformés de masse A~190-200 à savoir les isotopes superdéformés de plomb 197,l98Pb et l'isotope superdéformé de bismuth 196Bi. Dans le premier cas, nous avons découvert six nouvelles bandes superdéformées ce qui nous a permis de mettre en évidence un couplage entre vibrations octupolaires et excitations intrinsèques. Dans le second, nous avons observé la transition superdéformée gamma de plus basse énergie si on exclut les isomères de fission. Ces résultats ont été interprétés à partir de calculs théoriques microscopiques auto-cohérents statiques et dynamiques effectués en collaboration avec des physiciens des groupes de Physique Théorique de l'IPN Lyon et du SPTh/Saclay. <br> La dernière partie de ce travail a concerné la recherche de grandes déformations dans les noyaux de terres-rares de la zone de masse A~120-130 très déficients en neutrons situés près de la ligne d'émission spontanée de proton. Cette étude a été mise en oeuvre avec le multidétecteur gamma EXOGAM en couplage avec le détecteur de particules chargées légères DIAMANT et le faisceau radioactif de 76Kr délivré par SPIRAL.
195

Etude des distributions en impulsion transverse des dimuons produits dans les collisions noyau-noyau auprès du SPS du CERN

Drapier, Olivier 03 June 1998 (has links) (PDF)
Pas de resume disponible
196

Optimisation du spectromètre à muons du détecteur ALICE pour l'étude du plasma de quarks et de gluons au LHC

Guernane, Rachid 05 January 2001 (has links) (PDF)
L'expérience ALICE auprès du LHC permettra la mise en évidence et l'étude de la transition de phase de la matière hadronique ordinaire vers un état de partons déconfinés appelé plasma de quarks et de gluons (Quark Gluon Plasma). La suppression des résonances de saveurs lourdes (J/psi , Upsilon) s'est avérée être la signature la plus prometteuse de la formation d'un QGP dans les collisions d'ions lourds ultrarelativistes. L'observation des états liés J/psi et Upsilon via leur canal de désintégration muonique sera effectuée à l'aide d'un spectromètre avant dont le trajectographe est un ensemble de dix chambres à cathodes segmentées (Cathode Pad Chambers) réparties en 5 stations. Dans ce travail de thèse, nous avons développé un modèle de CPC dont l'originalité repose sur une lecture parallèle de la charge. Les paramètres et la géométrie des chambres ont été optimisés pour la station 3. Une simulation complète a permis de calculer le taux d'impact multiples attendu et de proposer une méthode de déconvolution adaptée. L'effet du champ magnétique dipolaire sur la résolution spatiale intrinsèque des chambres a également été évalué. Les performances déduites de la simulation sont confirmées par les résultats expérimentaux issus de tests sous faisceau de prototypes au CERN. La mesure des paires de muons sera contaminée par le bruit de fond des interactions faisceau-gaz résiduel. Le niveau de ce bruit de fond est plusieurs ordres de grandeur supérieur au signal de physique en mode p-p, référence pour l'étude des collisions p-A et A-A. Afin de valider le signal de trigger dimuons dans les collisions pp, la Collaboration ALICE a récemment décidé d'équiper le spectromètre d'un compteur de déclenchement de niveau zéro (V0). Les étapes de la conception de l'hodoscope de scintillateurs V0 sont présentées dans cette thèse.
197

Produits dérivés des matières premières : modélisation et évaluation

Wang, Zaizhi 14 December 2011 (has links) (PDF)
Les prix des matières premières ont augmenté à un rythme sans précédent au cours des dernières années rendant les dérivés sur matières premières de plus en plus populaires dans de nombreux secteurs comme l'énergie, les métaux et les produits agricoles. Le développement rapide du marché des produits dérivés sur matières premières a aussi induit une recherche vers toujours plus de précision et cohérence dans la modélisation et l'évaluation de produits dérivés des matières premières. Les points les plus importants dans la modélisation des matières premières sont la bonne représentation du rendement d'opportunité appelé communément "convenience yield ", la prise en compte de la saisonnalité et la capture du phénomène de retour à la moyenne pour les prix des matières premières. Il est à noter que le rendement d'opportunité (convenience yield ) peut être induit du prix des la courbe des forwards et être simplement ajouté au terme d'évolution(terme de drift) dans les modèles canoniques, comme le modèle de Black Scholes, le modèle à volatilité locale et les modèles à volatilité stochastique. An delà de ces modèles, d'autres modèles ont été conçus pour modéliser spécifiquement l'évolution du convenience yield, la saisonnalité ou le phénomène de retour à la moyenne des prix. Il s'agit par exemple du modèle de Gibson Schwartz qui suppose que le terme de convenience yield est aléatoire. Cette approche prend donc en compte l'évolution non déterministe du convenience yield et l'interprète comme un paramètre critique du modèle. Ceci explique sa grande popularité et son adoption important par les praticiens du marché. Un autre modèle fréquemment utilisé est le modèle de Gabillon. Celui se concentre sur la saisonnalité des prix et l'effet de retour a la moyenne, en modélisant un prix à long terme stochastique corrélé aux prix du spot. Dans cette thèse, nous prouvons que ces deux approches ne sont en fait qu'une et qu'il y a une relation d'équivalence entre le modèle de Gibson Schwartz et le modèle de Gabillon. Reposant sur le principe de diffusion équivalente introduite par Gyöngy, nous montrons que le modèle de Gibson Schwartz et le modèle de Gabillon peuvent se réduire à un modèle à un facteur dont la distribution marginale peut être explicitement calculée sous certaines conditions. Ceci nous permet en particulier de trouver des formules analytiques pour l'ensemble des options vanilles. Certaines de ces formules sont nouvelles à notre connaissance et d'autres confirment des résultats antérieurs. Dans un second temps, nous nous intéressons à la bonne modélisation de la dynamique de la volatilité des marchés des matières premières. En effet, les marchés de matières premières sont caractérisés par des volatilités très fluctuantes et importante. Alors que les effets sur la saisonnalité, la modèlisation du convenience yield et l'effet de retour à la moyenne des prix ont été fortement soulignés dans la littérature, la bonne modélisation de la dynamique de la volatilité a souvent été oubliée. La famille de modèle à volatilité stochastique est introduite pour renforcer la dynamique de la volatilité, capturant le phénomène de smile de la surface de volatilité grâce à un processus stochastique pour la volatilité. C'est une caractéristique très importante pour les dérivés à maturité longue où l'effet volatilité stochastique conduit à des résultats très différents de ceux obtenus avec des modèles plus conventionnels. Les modèles à volatilité stochastique permettent aussi de prendre en compte le phénomène de corrélation négative entre le sous-jacent et la volatilité en introduisant de manière explicite ce paramètre de corrélation. Les modèles à volatilité stochastique les plus populaires comprennent le modèle d'Heston, le modèle de Piterbarg, le modèle de SABR, etc. Dans cette thèse, nous étendons les idées de Piterbarg à la famille des modèles à volatilité stochastique en rendant le concept plus général. Nous montrons en particulier comment introduire des paramètres dépendant du temps dans les modèles à volatilité stochastique et explicitons différentes formules de calcul explicite du prix d'options vanilles, permettant ainsi une calibration des paramètres du modèles extrêmement efficace.
198

Modèles effectifs de nouvelle physique au Large Hadron Collider

Llodra-Perez, Jérémie 01 July 2011 (has links) (PDF)
Grâce à l'exploitation du Large Hadron Collider, débutée en 2010, le monde de la physique des particules espère enfin avoir une compréhension plus précise du mécanisme de brisure de la symétrie électrofaible et résoudre certaines questions expérimentales et théoriques que soulèvent encore le modèle standard. S'inscrivant dans cette effervescence scientifique, nous allons présenter dans ce manuscrit une paramétrisation largement indépendante des modèles afin de caractériser les effets d'une éventuelle nouvelle physique sur les mécanismes de production et de désintégration du bosons de Higgs. Ce nouvel outil pourra aisément être utilisé dans les analyses des grandes expériences généralistes comme CMS et ATLAS afin de valider ou d'exclure de manière significative certaines théories au delà du modèle standard. Ensuite, dans une approche différente, fondée sur la construction de modèles, nous avons considéré un scenario où les champs du modèle standard peuvent se propager dans un espace plat possédant six dimensions. Les nouvelles directions spatiales supplémentaires sont compactifiées sur un Plan Projectif Réel. Cet orbifold original est l'unique géométrie à six dimensions qui présente des fermions chiraux et un candidat de matière noire dit naturel. Le photon scalaire, particule la plus légère du premier mode de Kaluza-Klein, est en effet stabilisé par une symétrie résiduelle de l'invariance de Lorentz à six dimensions. En utilisant les contraintes actuelles fournies par les observations cosmologiques, nous avons déterminé l'ordre de grandeur de la masse de cette particule aux alentours d'une centaine de GeV. De ce fait les nouveaux états présents dans cette théorie sont suffisamment légers pour produire des signatures claires et observables au Large Hadron Collider. Avec une étude plus poussée du spectre de masses et des couplages du modèle, incluant les corrections radiatives à une boucle, nous avons pu ainsi donner les premières prédictions et contraintes sur la phénoménologie attendue au Large Hadron Collider.
199

Stabilisation de la matière organique au cours du compostage de déchets urbains : influence de la nature des déchets et du procédé de compostage - recherche d'indicateurs pertinents

FRANCOU, Cédric 18 December 2003 (has links) (PDF)
Le compostage est un procédé de traitement et de valorisation des déchets organiques qui reproduit en accéléré le processus d'humification de la matière organique (Mo) dans les sols. Actuellement en France, seulement 7 % des déchets urbains sont compostés, alors que la part organique représente 50 % des 47 millions de tonnes produites annuellement. Les composts sont avant tout utilisés en agriculture pour augmenter ou entretenir les teneurs en MO des sols, et le niveau de stabilité de leur MO conditionne leur comportement après incorporation au sol. Notre projet se proposait d'étudier l'évolution des caractéristiques de la MO de composts au cours du compostage, en la reliant à leur origine (nature des déchets compostés et procédé de compostage), et d'en déduire leur aptitude à entretenir le stock de MO d'un sol (valeur amendante). Les conséquences de la biodégradabilité résiduelle des composts sur la disponibilité potentielle de l'azote ont été également étudiées. Une dizaine de composts issus de plates-formes de compostage industrielles, comprenant des composts de déchets verts. des co-composts de déchets verts et boues, des composts de biodéchets (fraction fermentescible des ordures ménagères collectée sélectivement), et des composts d'ordures ménagères résiduelles (après collecte sélective des emballages propres et secs), ont été échantillonnés après trois, quatre et six mois de compostage. Afin de s'affranchir de la variable procédé de compostage, des composts ont également été élaborés en réacteurs de laboratoire à partir d'un procédé unique de compostage d'une durée de 3 mois et des proportions variables de déchets verts, biodéchets, et papiers-cartons. Une gamme de cinq classes de stabilité de la MO des composts a été définie sur la base de la minéralisation résiduelle du carbone des composts étudiés au cours d'incubations dans un sol de référence. La caractérisation de la Mo des composts a été réalisée à partir de fractionnement chimique (extraction des acides humiques et fulviques) et biochimique (composition en lignine, cellulose, hémicellulose, substances solubles), et par analyse en spectrométrie infrarouge à transformée de Fourier (IRTF), et a permis d'interpréter les différences de vitesse de stabilisation. Le degré de maturité étant défini par le niveau de stabilisation de la MO des composts, le classement de stabilité défini précédemment a servi de référence pour la validation d'indicateurs de maturité. Au cours du compostage, les composts évoluent vers des produits aux caractéristiques de plus en plus proches, indépendantes de leur origine, mais les vitesses de stabilisation dépendent de l'origine des composts. On observe généralement une disparition rapide de la cellulose quand l'azote n'est pas facteur limitant. La dégradation plus lente de la lignine par rapport à la MO totale conduit à son enrichissement relatif au cours du compostage. Les mesures IRTF confirment l'augmentation du rapport d'aromaticité au cours du compostage. La prédominance dans les déchets initiaux, de déchets verts par nature riches en lignine, entraîne la stabilisation rapide de la MO des composts, que le procédé soit accéléré ou non. Les caractéristiques de la MO de ces composts évoluent peu entre trois et six mois de compostage. A l'opposé, la prédominance dans les déchets initiaux, de papiers par nature riches en cellulose, requiert une durée de compostage plus longue pour arriver à des composts stabilisés, sans doute en raison d'un déficit en azote. De ce fait, les composts d'ordures ménagères, plus riches en papiers -cartons, sont encore instables au bout de trois mois, et nécessitent au moins six mois de compostage, avec retournements réguliers, pour se stabiliser. L'influence des biodéchets sur la vitesse de stabilisation des composts n'a pas pu être mise en évidence, car ils ne représentent qu'une faible proportion de la masse sèche des mélanges initiaux. A partir du fractionnement biochimique, on définit l'indice de stabilité biologique (ISB) des composts, indicateur de la proportion de matière organique susceptible d'entretenir la MO des sols. Pour les composts de déchets verts, la faible augmentation de leur ISB couplée à la minéralisation de leur MO au cours du compostage, se traduit par une légère diminution de leur valeur amendante en fin de compostage. En revanche, l'importante stabilisation de la MO des composts d'ordures ménagères au cours du compostage entraîne une augmentation de leur valeur amendante entre trois et six mois qui reste toutefois plus faible que celle des composts de déchets verts. La biodisponibilité potentielle de l'azote des composts, évaluée à partir d'incubations de mélanges sol-compost apparaît faible. L'azote des composts stabilisés se minéralise lentement. L'incorporation au sol des composts instables provoque une forte immobilisation de l'azote du sol, suivi d'une phase de minéralisation à des vitesses supérieures à celles observées avec les composts stables. Parmi les indicateurs de maturité étudiés, le rapport d'humidification (RH=CAH/CAF) est le seul indicateur chimique fiable, un RH inférieur à 1 désignant un degré de maturité faible, et un RH supérieur à 1.3 désignant un degré de maturité élevé. Le test d'auto-échauffement est le test de terrain le plus pertinent. Ces deux indicateurs permettent d'évaluer de façon fiable le degré de stabilisation des composts, et d'en déduire des conseils sur leur période d'apport, en tenant compte des risques d'immobilisation de l'azote dans les sols liés à leur utilisation
200

Accélération de protons par laser à ultra-haute intensité : étude et application au chauffage isochore

Carrié, Michaël 04 February 2011 (has links) (PDF)
L'interaction d'impulsions lasers brèves et intenses avec un plasma est une source intéressante d'ions énergétiques. Les travaux effectués au cours de cette thèse s'articulent autour de deux grandes thématiques : la production de protons par laser, et leur utilisation pour le chauffage isochore, avec, pour principal outil d'étude, la simulation à l'aide de codes numériques (cinétique particulaire et hydrodynamique). Dans un premier temps, nous avons étudié le comportement de l'énergie cinétique maximale des protons qu'il est possible d'accélérer avec le mécanisme du Target Normal Sheath Acceleration (TNSA), en régime sub-ps, en fonction de différents paramètres, notamment de la durée d'impulsion laser. Nous avons montré que l'allongement de la durée d'impulsion, à énergie laser constante, est responsable du préchauffage et de la détente du plasma avant l'arrivé du pic d'intensité. Les gradients de densité ainsi produits (face avant et face arrière) peuvent favoriser, ou au contraire pénaliser, le gain en énergie cinétique des protons. Les résultats obtenus ont servi à l'interprétation d'une étude expérimentale réalisée au Laboratoire d'Optique Appliquée. Nos efforts se sont ensuite concentrés sur l'élaboration d'un modèle semi-analytique rendant compte de l'énergie cinétique maximale des protons accélérés par le biais du TNSA. Ce modèle permet de retrouver l'ordre de grandeur des intensités nécessaires, de l'ordre de 6x1021 W/cm², pour atteindre des énergies de proton supérieures à 150 MeV avec des impulsions laser de quelques joules et plusieurs dizaines de fs. Dans la dernière partie de cette thèse, nous nous sommes intéressés à l'utilisation de ces faisceaux de protons pour le chauffage isochore. Nous avons caractérisé, dans un premier temps, les fonctions de distribution produites par des cibles composées d'un substrat lourd (A >> 1) sur la face arrière duquel est déposé un plot d'hydrogène (schéma d'Esirkepov). Ensuite, à partir de simulations hydrodynamiques, nous avons étudié le temps caractéristique de détente de la cible chauffée en modifiant des paramètres tels que la distance à la source de protons, l'intensité et la tache focale du laser, et la densité surfacique du plot. Nous avons enfin étendu cette étude aux cibles cylindriques et nous avons montré qu'il est possible de réduire les effets liés à la divergence naturelle du faisceau de protons et ainsi d'obtenir des températures plus élevées.

Page generated in 0.1904 seconds