• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 233
  • 101
  • 28
  • 2
  • 1
  • Tagged with
  • 367
  • 110
  • 85
  • 63
  • 58
  • 51
  • 50
  • 50
  • 44
  • 43
  • 43
  • 40
  • 38
  • 35
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Propriétés et Modes de désexcitation des noyaux chauds observés dans la réaction 36Ar sur 58Ni avec le détecteur INDRA.

Nalpas, Laurent 14 November 1996 (has links) (PDF)
Les collisions d'ions lourds aux énergies de Fermi conduisent à la formation de noyaux chauds. <br />Selon l'énergie d'excitation mise en jeu, plusieurs modes de décroissance sont observés, en particulier une émission de fragments complexes (Z>2), dont l'origine est encore mal comprise. <br />Le GANIL permet d'explorer sur une large gamme en énergie, entre 32 et 95 MeV/u, la fonction d'excitation du système Ar+Ni depuis l'« évaporation » jusqu'à la «vaporisation » complète des noyaux chauds en particules légères (neutrons, isotopes de H, He). <br />L'analyse des mécanismes de réaction a montré, pour des petits paramètres d'impact, la domination des collisions binaires très inélastiques. <br />Ces dernières ont motivé une analyse en deux sources, des événements bien mesurés par le détecteur INDRA, à l'aide d'une méthode de reconstruction fondée sur l'«arbre minimum». <br />Des énergies d'excitation voisines de 20 MeV/A sont atteintes, à 95 MeV/u, dans les collisions centrales. <br />Pour les collisions violentes, le partage de l'énergie n'est plus équilibrée entre les deux partenaires, le quasiprojectile ayant une énergie d'excitation par nucléon plus élevée que la quasi-cible. <br />Entre 2 et 8 MeV/A d'énergie d'excitation totale du système, correspond une phase de production importante de fragments de masses intermédiaires qui sature autour de 10 MeV/A. <br />Le déclin du régime de «multifragmentation», au-delà de 15 MeV/A, coïncide avec la probabilité croissante d'observer la «vaporisation» des deux noyaux chauds, dont le seuil se situe aux environs de 8 MeV/A. <br />Par ailleurs, l'augmentation régulière de la température extraite des rapports isotopiques He-Li en fonction de l'énergie d'excitation du quasi-projectile suggère une évolution progressive des modes de décroissance des noyaux chauds, en accord avec les prédictions de modèles statistiques. <br />Aucun signe d'une transition de phase du premier ordre de type liquide-gaz n'est observé pour ces noyaux légers.
142

Dépendance et résultats limites, quelques applications en finance et assurance

Charpentier, Arthur 20 June 2006 (has links) (PDF)
Cette thèse porte sur l'étude des dépendance entre risques, à l'aide des copules. La prise en compte des dépendances qui peuvent exister entre risques est devenue cruciale pour les gestionnaires de risques, et les enjeux peuvent être colossaux (risque de contagion – et de faillites en chaîne - au sein d'un portefeuille d'obligations risquées, ou corrélations entre risques extrêmes en réassurance – ou plusieurs risques a priori indépendants sont affectés lorsqu'une catastrophe survient). Une meilleure connaissance des structures de dépendance est alors fondamentale afin de proposer une modélisation adéquate. Aussi, l'accent est mis, dans cette thèse, sur la déformation des copules en fonction du temps, ou dans les queues de distribution.<br /><br />La première partie est consacrée à la déformation temporelle des copules, dans un contexte de risque de crédit. En introduisant les copules conditionnelles, il est ainsi possible d'étudier la dépendance entre les durées de vie avant le défaut d'un émetteur, sachant qu'aucun défaut n'a été observé pendant une période de temps donnée. Des théorèmes de point fixe permettent d'obtenir des comportement limites, et d'obtenir des résultats sur les first-to-default, par exemple.<br /><br />Les chapitres suivant traitent de l'utilisation des copules conditionnelles dans la modélisation des risques extrêmes. La théorie des extrêmes dans un cadre multivarié a été faite traditionnellement en modélisant les maximas par composantes. Mais l'étude par dépassement de seuil joint offre une richesse beaucoup plus grande. En particulier, l'étude dans la queue supérieure et inférieure est présentée dans le cas des copules Archimédiennes, en insistant sur les caractérisations des cas d'indépendance asymptotique, d'ordinaire si difficile à appréhender.<br /><br />La dernière partie aborde l'estimation nonparamétrique des densités de copules, où des estimateurs à noyaux sont étudiés, permettant d'éviter des effets de bords traditionnellement inévitable lorsque l'on estime une densité à support compact. En particulier, les techniques sont utilisées pour estimer correctement la densité dans les queues de distributions, y compris avec des données censurées.<br /><br />Enfin, une bijgevoegde stelling conclue cette thèse sur l'étude de la dépendance temporelle pour les risques climatiques. Des modèles à mémoire longue sont ainsi utilisé pour modéliser le risque de tempête et estimer la période de retour de la canicule d'août 2003. Et enfin, des modèles haute-fréquences (proches de ceux utilisé en finance pour modéliser les prix de titres transaction par transaction) sont utilisés pour modéliser des données hydrologiques, et proposer de nouvelles estimations pour le risque de crue.
143

L'accrétion et l'émission à proximité des trous noirs supermassifs dans les quasars et les NAG: Modélisation du spectre UV-X

Goosmann, René 02 February 2006 (has links) (PDF)
La dernière génération de satellites X, comme XMM-Newton ou Chandra, a beaucoup enrichi notre savoir sur les propriétés du rayonnement X des Noyaux Actifs de Galaxies (NAG). La spectroscopie détaillée et les observations longues de plusieurs centaines de milliers de secondes ont ouvert de nouvelles perspectives sur les mécanismes de la production du rayonnement X, de sa modification par la matière située sur son chemin, et sur sa variabilité.<br /><br />Dans ma thèse, je présente des modèles de transfert de rayonnement thermique pour les NAG dans les domaines spectraux de l'extrême UV et des X. Les modèles prennent en considération plusieurs aspects des propriétés X observées: la composante du 'reprocessing', la variabilité et les flares X, ainsi que les effets du 'warm absorber'. Concernant le reprocessing, je modélise en détail des flares X en supposant des reconnexions magnétiques au-dessus du disque d'accrétion. Ces événements sont supposés être similaires aux flares solaires. Ils produisent des sources lumineuses et compactes émettant du rayonnement X dur et créant des taches chaudes sur le disque sous-jacent. J'évalue les propriétés physiques du milieu du disque à travers la tache et je calcule des spectres pour le rayonnement ré-émis en fonction de la position dans la tache et de la ligne de visée locale. Je fais varier la masse du trou noir, son taux d'accrétion, et son paramètre de rotation en évaluant des taches à plusieurs distances du trou noir et pour des phases orbitales différentes. Je calcule aussi des spectres vus par un observateur lointain en appliquant un traitement complet de relativité qui est basé sur une technique du tracés de rayons. Je fournis des simulations de l'évolution spectrale à laquelle on s'attend pour des flares particuliers, en tenant compte des délais causés par la distance entre la source compacte et différents endroits de la tache chaude. Les modèles du flare sont effectués en supposant un disque d'accrétion sous-jacent qui est à l'équilibre hydrostatique. La durée du flare est supposée être par un facteur significatif moins longue que l'échelle de temps dynamique du disque, afin que sa structure verticale reste constante pendant toute la période du flare.<br /><br />Des observations récentes de la galaxie Seyfert-1 MCG -6-30-15 avec XMM-Newton ont montré une courbe du lumière qui contient un flare lumineux et symétrique pendant environ 2000 secondes. Pour ce flare, Ponti et al. (2004) présentent une analyse temporelle à l'aide des fonctions d'auto-corrélation en dérivant des délais entre des bandes d'énergie différentes. Je suggère un modèle simple qui décrit ces délais en supposant que l'observateur détecte le rayonnement primaire et le reprocessing comme pulses consécutifs. Ce modèle reproduit les délais observés dans MCG -6-30-15 d'une manière qualitativement correcte, et il permet une estimation de la distance entre la source compacte du flare et la surface du disque.<br /><br />En utilisant les résultats de la modélisation d'un flare particulier, on effectue des simulations Monte-Carlo pour des distributions de flares répartis sur le disque. Le spectre de variabilité rms calculé est construit sur la base des ces simulations pour différentes distributions radiales de la luminosité du disque et pour différents paramètres de rotation du trou noir. En appliquant notre modèle au spectre rms observé, nous apportons à ces paramètres des contraintes pour le cas de MCG -6-30-15.<br /><br />Enfin, nous étudions la modification du rayonnement X dans des régions plus lointaines de l'objet central grâce à une modélisation du warm absorber. Une grille de modèles est calculée pour un warm absorber en équilibre de pression totale, comme l'a suggéré récemment l'observation de la galaxie Seyfert-1 NGC 3783. Nous montrons les tendances générales de la stratification du milieu et du spectre absorbé qui en résulte en faisant varier la pente du spectre incident, le paramètre d'ionisation, et la densité de colonne du warm absorber.<br />_______________<br />Référence: Ponti, G., Cappi, M., Dadina, M., & Malaguti, G. 2004, A&A, 417, 451
144

Modélisation de l'émission X et Gamma des objets compacts par les méthodes Monte-Carlo

Malzac, Julien 08 October 1999 (has links) (PDF)
L'étude des processus de production de rayonnement de haute énergie dans les plasmas relativistes constituant l'environnement des objets compacts nécéssite des outils numériques relativement lourds. Je présente des codes dédiés à la simulation de ces processus (diffusions Compton multiples, production et annihilation de paires Èlectron-positon, raie de fluorescence du fer...). D'une part, des codes basés sur des méthodes Monte-Carlo standards (linéaires) permettent de calculer le spectre Èmis par Comptonisation dans un plasma chaud ou réflexion sur de la matière froide. Ces calculs sont effectuÈs pour une géométrie et une distribution des électrons fixée. D'autre part, un code Monte-Carlo nonlinéaire a été développé. Ce code évite les hypothèses sur la distribution des électrons (ou paires) qui est calculée de manière autocohérente en utilisant à la fois le bilan énergétique et le bilan de création/annihilation des paires, et en tenant compte du couplage avec la matière froide présente dans l'environnement de la région active. Les paramètres libres sont alors la puissance fournie au plasma et la façon dont cette énergie est fournie (chauffage thermique, injection/accélération de particules à haute énergie...). Les spectres calculés, comparés aux observations, donnent des informations sur la distribution des particules et les processus de dissipation d'énergie. Ce code permet également d'étudier des situations hors équilibre, dépendant du temps et notamment de calculer les courbes de lumière associées à une perturbation. Des applications aux différents modèles proposès pour rendre compte des observations X et gamma sont présentées (modèles thermiques, non-thermiques, modèle d'illumination anisotrope et modèles de couronne thermique radiativement couplèe au disque d'accrétion). Je montre comment de tels outils numériques peuvent mettre des contraintes sur la géométrie et les conditions physiques qui règnent dans les sources compactes de rayonnement X et gamma.
145

Modélisation comportementale de systèmes non-linéaires multivariables par méthodes à noyaux et applications

Vazquez, Emmanuel 12 May 2005 (has links) (PDF)
Les méthodes de prédiction linéaire de processus aléatoires, ou krigeage, et les méthodes de régression régularisée par une norme d'espace hilbertien à noyau reproduisant (splines, approximation par fonctions de base radiales, régression à vecteurs de support, etc.) constituent deux approches fondamentales de modélisation comportementale de systèmes non-linéaires. Les liens mathématiques entre ces deux approches ont été mentionnés à plusieurs reprises dans le passé. Fort peu exploités, ces liens n'en restent pas moins fondamentaux puisqu'ils permettent par exemple de comprendre comment formuler le problème de régression régularisée pour l'approximation de fonctions à valeurs vectorielles (cas des systèmes multivariables dits MIMO). Dans les deux approches, le choix du noyau est essentiel car il conditionne la qualité des modèles. Les principaux résultats théoriques sont issus de travaux en statistiques. Bien que de type asymptotique, ils ont des conséquences pratiques importantes rappelées et illustrées dans cette étude. Les noyaux considérés habituellement forment une famille restreinte offrant relativement peu de souplesse. Ceci nous a suggéré de développer des méthodes assemblant un noyau à partir d'un grand nombre de noyaux élémentaires. Elles ont permis d'obtenir des résultats satisfaisants notamment sur un problème test classique issu du domaine de la prédiction de séries chronologiques. Enfin, ce travail s'attache à montrer comment utiliser les méthodes de régression à noyaux à travers la présentation de problèmes réels. Le choix de noyau est abordé en pratique. La prise en compte d'informations disponibles a priori par utilisation du krigeage intrinsèque (régression semi-régularisée) est illustrée. Finalement, des éléments de planification d'expériences sont discutés.
146

L'expérience CELESTE: Reconversion d'une centrale solaire pour l'astronomie gamma. Première observation de la Nébuleuse du Crabe et du Blazar Markarian~421 entre 30 et 300 GeV.

de Naurois, Mathieu 10 May 2000 (has links) (PDF)
Le dispositif CELESTE désigne la transformation de la centrale solaire de Thémis (Pyrénées orientales) en un vaste télescope pour l'astronomie des très hautes énergies; le nom avait été proposé par Eric Paré, inventeur du projet, et directeur de cette thèse jusqu'à son décès accidentel en Juillet 1998. La thèse décrit le long travail de mise en place et de démarrage du projet basé sur un vaste dispositif optique placé en haut de la tour solaire pour détecter la lumière réfléchie par les héliostats. On observe ainsi, par nuits sans lune, les gerbes atmosphériques produites par les rayons gamma en provenance du cosmos. La thèse se conclut par les premières observations jamais faites de rayons gamma aux énergies d'environ 50 GeV provenant d'une part d'une source Galactique, la nébuleuse du Crabe, et d'autre part d'une source extra-galactique, un trou noir supermassif, Markarian~421.
147

Simulation de gerbes atmosphériques aux énergies de l'Observatoire Pierre Auger et fonction de distribution latérale

Cohen, Fabrice 25 September 2003 (has links) (PDF)
L'Observatoire Pierre Auger est la plus importante expérience jamais conçue dans le domaine de la détection des rayons cosmiques d'ultra haute énergie. Sa superficie de 3000 km² par site doit apporter la statistique au delà de 10^19eV afin d'en comprendre leur origine. Son mode de détection hybride des gerbes atmosphériques doit permettre une grande précision sur la reconstruction de l'énergie primaire et sur la direction d'arrivée. <br> Après avoir exposé l'historique des rayons cosmiques, et la problématique liée aux énergies ultines, nous décrirons les détecteurs de l'Observatoire Pierre Auger, ainsi que les motivations et les contraintes à l'installation sur le site. <br> Dans une troisième partie, nous abordons la simulation des phénomènes de gerbe atmosphérique. Nous débuterons par la description de l'interaction primaire à très haute énergie, où les modèles d'interaction hadronique doivent ^etre extrapolés, puis nous poursuivrons par la cascade électromagnétique et la composante pénétrante que les détecteurs de fluorescence et de surface détectent. <br> L'étude par la simulation de la distribution latérale (décroissance du signal en fonction de la distance au coeur de la gerbe) nous a conduit à proposer une nouvelle fonction de distribution latérale qui permet de s'ajuster aux gerbes individuelles et à terme, avoir une meilleure estimation de l'énergie primaire gerbe à gerbe. Cette nouvelle fonction a été appliquée aux données du réseau prototype. <br> Nous terminerons par une présentation des données du réseau prototype installé dans la Pampa par la reconstruction de ses événements.
148

Spectroscopie des noyaux legers deficients en neutrons: etude des noyaux 21Mg, 25Si et 26P; approche systematique du phenomene de l'asymetrie miroir; conception d'un detecteur a gaz pour l'etude de la radioactivite 2 protons

Thomas, Jean-Charles 01 October 2002 (has links) (PDF)
L'étude des modes de décroissance des noyaux 21 Mg, 25 Si et 26 P permet de tester la validité des modèles théoriques lorsqu'ils sont appliqués à la description des propriétés de noyaux particulièrement instables. Des approches de type <> ainsi que l'hypothèse d'indépendance de charge des forces nucléaires sont confrontées aux résultats expérimentaux. Enfin, l'observation du phénomène rare de l'émission de deux protons constitue le premier pas vers la recherche et l'étude de la radioactivité 2 He.
149

Etude du bruit thermique et stabilisation en fréquence du laser du détecteur interferométrique d'ondes gravitationnelles VIRGO

Bondu, François 10 January 1996 (has links) (PDF)
La sensibilité d'un détecteur interférométrique d'ondes gravitationnelles comme Virgo est cruciale pour l'analyse des sources astrophysiques. Une telle antenne détecte l'onde gravitationnelle comme une variation de phase de faisceau lumineux. La précision de la mesure peut être limitée par le bruit de longueur des cavités. dû aux vibrations thermiques, et par le bruit de fréquence du laser incident. Ma contribution à l'évaluation du bruit des modes de vibration interne des substrats des miroirs a été d'écrire un programme, basé sur la propagation des ondes acoustiques dans les solides. Il permet les calculs des fréquences de résonance, des masses équivalentes des modes, de la déformation de la surface et son couplage avec un faisceau lumineux incident. Les résultats permettent le dimensionnement des substrats. La sensibilité est alors légèrement moins bonne que celle fournie par une estimation grossière, si les pertes des ondes acoustiques sont constantes en fonction de la fréquence et égales à celles mesurées à résonance. Elle peut être améliorée par diminution des pertes ou par le choix d'un matériau ayant de meilleures performances. Nous avons également mené des expériences pour aider au choix du matériau des fils de suspension. Je propose une expérience de mesure directe du bruit thermique qui permettrait de vérifier la sensibilité. <br> La configuration de l'interféromètre rend le bruit de fréquence du laser négligeable si le laser est asservi en fréquence. La stabilisation de fréquence se fera en deux étages, l'un qui asservit la fréquence sur la longueur d'une cavité courte, le deuxième qui asservit sur les grands bras de l'interféromètre. Le premier étage a été construit. J'ai vérifié que ses performances remplissent les spécifications. La stabilité de fréquence obtenue se révèle être exceptionnelle.
150

Etudes de la réaction de spallation p+Au à 2.5 GeV et de la production neutronique en cibles épaisses (Pb,W et Hg) par des protons de 0.4 à 2.5 GeV

LETOURNEAU, Alain 18 December 2000 (has links) (PDF)
Le travail de thèse s'articule autour de deux études : étude de la réaction de spallation p+Au à 2.5 GeV et étude de la production neutronique en cibles épaisses. Ces deux études s'inscrivent dans un programme de recherche initié dans le cadre du projet de Source Européenne de Spallation (ESS) et du projet français de traitement des déchets radioactifs (GEDEON). A l'aide d'un dispositif expérimental très complet alliant un détecteur de neutrons à des détecteurs de particules chargées, tous deux d'efficacité supérieure à 80\%, nous avons pu étudier l'évolution du processus élémentaire de spallation en fonction de l'énergie déposée par le proton incident dans le noyau (énergie d'excitation). Nous avons ainsi montré le réalisme d'une description du processus en deux étapes et validé l'utilisation du code de cascade intra-nucléaire de J. Cugnon (INCL2.0) couplé à un code de désexcitation statistique (GEMINI). Les sections efficaces de production des particules chargées légères ont été mesurées et la contribution de l'émission de prééquilibre évaluée. La formation des particules composites ``directes'' a été ajoutée au code INCL2.0 à l'aide d'un modèle de coalescence. La production neutronique (multiplicités moyennes et distributions) a été étudiée en fonction de l'énergie du faisceau, de la géométrie de la cible et de la nature de la cible. Nous avons montré que le gain en neutrons, lorsque l'épaisseur de cible augmente, est dominé par la probabilité de réaction (pour des épaisseurs de cibles inférieures à 2 ou 3 longueurs d'interaction) et d'une façon moindre par le développement des réactions secondaires. Ces deux paramètres ont été étudiés séparément. Les données expérimentales ont été comparées aux résultats du code de transport HERMES, validant celui-ci pour l'émission de neutrons.

Page generated in 0.0426 seconds