• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 127
  • 57
  • 18
  • Tagged with
  • 202
  • 131
  • 68
  • 62
  • 36
  • 31
  • 31
  • 30
  • 29
  • 26
  • 25
  • 25
  • 24
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Étude de la composition des rayons cosmiques d'ultra-hautes énergies détectés par l'Observatoire Pierre Auger et analyse des processus hadroniques associés

Garrido, Xavier 25 September 2008 (has links) (PDF)
Les rayons cosmiques d'ultra-hautes énergies (RCUHE), i.e. E > 1 EeV, soulèvent de nombreuses interrogations quant à leur origine et constituent un défi à la physique contemporaine. Ces rayons cosmiques qui pénètrent dans l'atmosphère dissipent leur exceptionnelle énergie dans la formation de gerbes de particules secondaires dont le développement est sensiblement différent suivant la nature de la particule primaire. L'étude de la composition des RCUHEs revêt donc un intérêt majeur tant dans la compréhension des processus hadroniques qui régissent l'évolution des gerbes que dans l'identification des sources de ce rayonnement. L'Observatoire Pierre Auger peut, eu égard à sa structure hybride et à la taille inégalée de son réseau de détecteurs au sol, apporter des réponses claires aux problématiques soulevées par les RCUHEs. Au cours de cette thèse, nous nous sommes intéressés plus particulièrement à la composante muonique des gerbes atmosphériques. Dans un premier temps, nous montrons comment les paramètres hadroniques conditionnent la production de muons. Par la suite, nous présentons une méthode originale permettant d'extraire cette composante muonique et d'en déduire les implications relatives à la composition des RCUHEs. Les résultats de cette approche semblent indiquer une transition d'une composition lourde vers une composition plus légère dès lors que l'énergie augmente. Finalement nous abordons la mesure de la section efficace cosmique-air en décrivant les bases de cette étude de même que son champ d'application : les premiers résultats déduits des données de l'Observatoire Pierre Auger sont alors présentés.
152

Étude de la pré-formation de particules α dans les noyaux de 40Ca et d'40Ar par cassure nucléaire

Lefebvre, Laurent 20 September 2013 (has links) (PDF)
Le noyau est un objet quantique complexe formé de protons et neutrons. Dans l'approche champ moyen, les nucléons sont considérés comme des particules indépendantes évoluant dans un potentiel moyen. Cependant dans certaines conditions, des nucléons peuvent se regrouper pour former des amas ou " clusters ".Pour comprendre ce phénomène de " clusters " dans les noyaux, nous avons étudié la structure dans l'état fondamental du 40Ca et de l'40Ar. En effet, des calculs théoriques tendent à montrer que les noyaux N = Z pourraient plus facilement adopter une structure en " clusters " que les noyaux N ≠ Z en raison d'un plus grand recouvrement des fonctions d'onde des neutrons et protons. Dans ce cas, l'émission de particules α par les noyaux N = Z sous l'effet du potentiel nucléaire attractif d'un noyau projectile, appelée " Towing-Mode " sera plus important que pour un noyau N ≠ Z. Dans ce but, nous avons réalisé une expérience au GANIL utilisant un faisceau d'40Ar à 35 MeV/A et une cible de 40Ca. Le spectromètre SPEG a permis d'identifier avec une très bonne résolution les ions lourds produits durant la réaction. Les détecteurs silicium MUST2 furent placés tout autour de la cible pour mesurer les particules α émises par la cible et le projectile et le prototype de calorimètre EXL fut utilisé pour la détection des photons de décroissance des noyaux résiduels d'36Ar et de 36S.Un modèle théorique basé sur la résolution de l'équation de Schrödinger dépendante du temps (TDSE) a été utilisé pour reproduire certains résultats expérimentaux comme les distributions angulaires. L'analyse des données a permis de reconstruire des spectres d'énergies d'excitation et des sections efficaces différentielles. De la comparaison entre ces distributions expérimentales et celles calculées par le modèle théorique, nous avons pu extraire des facteurs spectroscopiques Sα pour les deux noyaux d'intérêt. Les taux de " clusterisation " observés pour ces deux noyaux semblent indiquer que la structure en " clusters " n'est pas plus favorisée dans le 40Ca que dans l'40Ar.
153

Analyse de structures à dimension stochastique élevée : application aux toitures bois sous sollicitation sismique

Riahi, Hassen 08 April 2013 (has links) (PDF)
Le problème de la dimension stochastique élevée est récurrent dans les analyses probabilistes des structures. Il correspond à l'augmentation exponentielle du nombre d'évaluations du modèle mécanique lorsque le nombre de paramètres incertains est élevé. Afin de pallier cette difficulté, nous avons proposé dans cette thèse, une approche à deux étapes. La première consiste à déterminer la dimension stochastique efficace, en se basant sur une hiérarchisation des paramètres incertains en utilisant les méthodes de criblage. Une fois les paramètres prépondérants sur la variabilité de la réponse du modèle identifiés, ils sont modélisés par des variables aléatoires et le reste des paramètres est fixé à leurs valeurs moyennes respectives, dans le calcul stochastique proprement dit. Cette tâche fut la deuxième étape de l'approche proposée, dans laquelle la méthode de décomposition de la dimension est utilisée pour caractériser l'aléa de la réponse du modèle, par l'estimation des moments statistiques et la construction de la densité de probabilité. Cette approche permet d'économiser jusqu'à 90% du temps de calcul demandé par les méthodes de calcul stochastique classiques. Elle est ensuite utilisée dans l'évaluation de l'intégrité d'une toiture à ossature bois d'une habitation individuelle installée sur un site d'aléa sismique fort. Dans ce contexte, l'analyse du comportement de la structure est basée sur un modèle éléments finis, dans lequel les assemblages en bois sont modélisés par une loi anisotrope avec hystérésis et l'action sismique est représentée par huit accélérogrammes naturels fournis par le BRGM. Ces accélérogrammes permettent de représenter différents types de sols selon en se référant à la classification de l'Eurocode 8. La défaillance de la toiture est définie par l'atteinte de l'endommagement, enregistré dans les assemblages situés sur les éléments de contreventement et les éléments d'anti-flambement, d'un niveau critique fixé à l'aide des résultats des essais. Des analyses déterministes du modèle éléments finis ont montré que la toiture résiste à l'aléa sismique de la ville du Moule en Guadeloupe. Les analyses probabilistes ont montré que parmi les 134 variables aléatoires représentant l'aléa dans le comportement non linéaire des assemblages, 15 seulement contribuent effectivement à la variabilité de la réponse mécanique ce qui a permis de réduire la dimension stochastique dans le calcul des moments statistiques. En s'appuyant sur les estimations de la moyenne et de l'écart-type on a montré que la variabilité de l'endommagement dans les assemblages situés dans les éléments de contreventement est plus importante que celle de l'endommagement sur les assemblages situés sur les éléments d'anti-flambement. De plus, elle est plus significative pour les signaux les plus nocifs sur la structure.
154

Application de la spectrométrie de masse COINTOF à l'étude de la dissociation de petits agrégats d'eau protonés par collision sur un atome d'argon. Développement d'une cible de nano-gouttes de gaz rare

Buridon, Victor 13 December 2013 (has links) (PDF)
L'étude de l'irradiation dans le système moléculaire à l'échelle du nanomètre est un domaine d'investigation innovant des sciences des radiations. Le Dispositif d'Irradiation d'Agrégats Moléculaires (DIAM) est conçu en vue les conséquences de l'irradiation dans des petits systèmes moléculaires modèles comme les agrégats d'eau protonés. L'irradiation provoque la fragmentation en plusieurs fragments neutres ou chargés. La technique de spectrométrie de masse COINTOF (Correlated Ion and Neutral Time of Flight) permet la détection corrélées des fragments neutres et chargés issus de la dissociation d'un système moléculaire préalablement sélectionné en masse et en vitesse. Les données collectées sont traitées et structurées pour permettre l'analyse statistique des corrélations sur un grand nombre d'événements de fragmentation. Parallèlement à l'identification des canaux de fragmentation, la technique COINTOF permet la mesure de leur rapport de branchement et de leur section efficace. La méthode est présentée pour la dissociation induite par collision sur un atome d'argon, d'agrégats d'eau protonés H+(H2O)n:[2;7], accélérés à 8keV. L'efficacité de détection, information déterminante pour la production de données quantitatives, est mesurée à partir des données et étudiée en fonction de la distribution l'amplitude des signaux de détection. Enfin, un nouveau système de cible constituée de nanogouttes de gaz rares a été développé
155

Contributions numériques en compatibilité électromagnétique impulsionnelle. Paradigme pour la caractérisation temporelle d'équipements

El Baba, Ibrahim 28 March 2012 (has links) (PDF)
Le travail présenté dans cette thèse concerne la mise en oeuvre numérique de techniques temporelles pour des applications en compatibilité électromagnétique (CEM) impulsionnelle, essentiellement pour des études en chambre réverbérante à brassage de modes (CRBM). Prenant le contre-pied des approches fréquentielles, adaptées par nature aux études de cavités résonantes, l'idée directrice de ce mémoire a été d'étudier des moyens temporels originaux d'investigation de CRBM en vue de proposer de nouveaux paradigmes pour la caractérisation d'équipements. Originellement développé en acoustique, le processus de retournement temporel (RT) récemment appliqué aux ondes électromagnétiques permet une focalisation spatiale et temporelle de ces dernières d'autant meilleur que le milieu de propagation est réverbérant. Les chambres réverbérantes (CR) sont ainsi des endroits idéaux pour l'application du processus de RT. Après une nécessaire étude des nombreux paramètres qui gouvernent ce dernier couplée à la définition de méthodologies numériques spécifiques, les applications du RT en CRBM sont exposées. En particulier, l'intérêt d'une focalisation sélective pour des tests en susceptibilité rayonnée est démontré. L'importance des coefficients d'absorption et de diffraction des équipements en CRBM justifie leur caractérisation précise et efficace. À cette fin, la mise en oeuvre d'un calcul temporel de section efficace totale de diffraction (TSCS en anglais) est détaillée. L'application de cette nouvelle technique à différentes formes de brasseurs de modes permet au final de confronter ces résultats avec ceux obtenus à l'aide de tests normatifs CEM.
156

Etudes expérimentales et simulations Monte Carlo en spectrométrie γ : correction des effets de cascade et de matrice pour des mesures environnementales

Dziri, Samir 29 May 2013 (has links) (PDF)
Les mesures fines des faibles radioactivités par la spectrométrie gamma nécessitent l'optimisation de la géométrie de détection et la connaissance du schéma de niveaux des raies gamma. Ainsi, on peut augmenter le taux de comptage et par conséquent, réduire l'incertitude statistique des pics spectraux exploités pour le calcul de l'activité des radio-isotopes en rapprochant le plus possible l'échantillon du détecteur. Cependant, l'augmentation du volume de l'échantillon demande une correction de l'auto-absorption des émissions par l'échantillon même, et le rapprochement du détecteur est à l'origine du phénomène de pic-somme. L'utilisation de MCNPX a permis de mettre en évidence les effets séparés de la densité de l'échantillon et le nombre atomique effectif dans l'atténuation des photons d'énergie inférieure à 100 keV. Les facteurs de correction du pic-somme sont obtenus par MCNPX, GESPCOR et ETNA. Ainsi, une base des données pour 244 radionucléides a été établie pour des géométries SG50 et SG500 au contact d'un détecteur. Dans une application à la radioprotection, des échantillons de matériaux de construction ont été analysés par la spectrométrie gamma. L'Uranium-238, le Thorium-232 et le Potassium-40 ont été identifiés et corrigés des effets sus-cités. La dosimétrie de leurs rayonnements gamma a permis d'évaluer les indices de risque, la dose absorbée et la dose efficace annuelle reçues provenant de ces matériaux. Les simulations par MCNPX corroborent le modèle de calcul de la dose absorbée. Il a permis aussi d'étudier la distribution de la dose dans les habitations de différentes dimensions. Les résultats obtenus sont en accord avec les limites règlementaires.
157

Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC

Ferro, Cristina 14 May 2012 (has links) (PDF)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l'expérience CMS auprès du LHC. L'état final considéré est le canal semi-leptonique "tau+jets". Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d'un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l'algorithme "probabilité par jet". Cet algorithme pour lequel j'ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d'impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l'important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d'environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l'aide d'un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l'objet d'une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard.
158

Détermination de sections efficaces pour la production de champs neutroniques monoénergétiques de basse énergie / Determination of cross sections for the production of low-energy monoenergetic neutron fields

Lamirand, Vincent 18 November 2011 (has links)
La réponse d’un détecteur de neutrons varie avec l’énergie du neutron incident. La détermination expérimentale de cette variation se réalise au moyen de champs neutroniques monoénergétiques. Ceux-ci sont produits par l’interaction entre un faisceau d’ions accélérés et une cible fine constituée d’un dépôt réactif sur un support métallique. En utilisant différentes réactions telles que 7Li(p,n), 3H(p,n), 2H(d,n) et 3H(d,n), il est possible de produire des neutrons entre 120 keV et 20 MeV dans la direction du faisceau incident (0°).Pour atteindre des énergies inférieures, il est possible d’augmenter l’angle du point de mesure par rapport à la direction du faisceau d’ions. Cependant, cette méthode présente des problèmes d’homogénéité en énergie et en fluence des neutrons à la surface du détecteur, ainsi qu’une augmentation de la proportion de neutrons diffusés. Une alternative est l’utilisation d’autres réactions nucléaires, notamment la réaction 45Sc(p,n) qui permet de descendre jusqu’à des énergies de 8 keV à 0°.Une étude complète de cette réaction et de sa section efficace a été menée au sein d’une coopération scientifique entre le laboratoire de métrologie et de dosimétrie des neutrons (LMDN) de l’IRSN, deux instituts de métrologie européens, le NPL (National Physical Laboratory, RU) et le PTB (Physikalisch-Technische Bundesanstalt, All), et l’IRMM (Institute for Reference Materials and Measurements, CEE). Parallèlement, d’autres réactions envisageables ont été étudiées : 65Cu(p,n), 51V(p,n), 57Fe(p,n), 49Ti(p,n), 53Cr(p,n) et 37Cl(p,n). Elles ont été comparées en termes d’émission neutronique et d’énergie minimale des neutrons produits. / The response of a neutron detector, defined as the reading of the device per unit of incident fluence or dose, varies with neutron energy. The experimental determination of this variation, i.e. of the response function of this instrument, has to be performed by facilities producing monoenergetic neutron fields. These neutrons are commonly produced by interaction between accelerated ions (proton or deuteron) onto a thin target composed of a reactive layer deposited on a metallic backing. Using the 7Li(p,n), 3H(p,n), 2H(d,n) and 3H(d,n) reactions, monoenergetic neutrons are obtained between 120 keV and 20 MeV in the ion beam direction (0°).To reach lower neutron energies, the angle of the measuring point with respect to the ion beam direction can be increased. However, this method presents several problems of neutron energy and fluence homogeneities over the detector surface, as well as an important increase of the scattered neutron contribution. Another solution is to investigate other nuclear reactions, as 45Sc(p,n) allowing to extend the neutron energy range down to 8 keV at 0°.A complete study of this reaction and its cross section has been undertaken within the framework of a scientific cooperation between the laboratory of neutron metrology and dosimetry (IRSN, France), two European national metrological institutes, the National Physical Laboratory (UK) and the Physikalisch-Technische Bundesanstalt (Germany), and IRMM, the Institute for Reference Materials and Measurements (EC).In parallel, other possible reactions have been investigated: 65Cu(p,n), 51V(p,n), 57Fe(p,n), 49Ti(p,n), 53Cr(p,n) and 37Cl(p,n). They were compared in terms of neutron fluence and minimum energy of the produced neutrons.
159

Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC / Measurement of the tt production cross section in the tau+jets channel in pp collisions at √S=7TeV [sqrt(S)=7TeV]

Ferro, Cristina 14 May 2012 (has links)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l’expérience CMS auprès du LHC. L’état final considéré est le canal semi-leptonique ”tau+jets”. Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d’un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l’algorithme ”probabilité par jet”. Cet algorithme pour lequel j’ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d’impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l’important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d’environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l’aide d’un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l’objet d’une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard. / In this thesis we present the first measurement in the CMS experiment of the top-antitop production cross section in the tau+jets final state. To perform this measurement we designed a specific trigger requiring the presence of four jets, one of them being identified as an hadronic tau. The performance of this trigger has been studied in this thesis. A dataset of 3.9 fb-1 was collected with this trigger and analyzed. At offline level we needed to apply a sophisticated tau identification technique to identify the tau jets, based on the reconstruction of the intermediate resonances of the hadronic tau decay modes. Another crucial point was the b-jet identification, both to identify the b-jets in the final state and to modelize the background using a data driven technique. The studies done on the b-tag algorithms along the PhD period are also presented with particular attention to the ”Jet Probability” algorithm. It is the algorithm for which I performed the calibration since 2009 as well as the one used to tag the b-jets from the top decays. A neural network has been developed to separate the top-antitop events from the W+jets and multijet backgrounds. A binned likelihood fit to the neural network output distribution is done in order to extract the signal contribution from the background. A detailed estimation of the systematic uncertainties on the cross section measurement is also presented. The result for the cross section measurement, σ(tt) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, is in perfect agreement with the standard model expectation.
160

Etudes expérimentales et simulations Monte Carlo en spectrométrie γ : correction des effets de cascade et de matrice pour des mesures environnementales / Experimental and Monte Carlo study of gamma-ray spectrometry : correction of cascade and matrix effects in environmental measurements

Dziri, Samir 29 May 2013 (has links)
Les mesures fines des faibles radioactivités par la spectrométrie gamma nécessitent l’optimisation de la géométrie de détection et la connaissance du schéma de niveaux des raies gamma. Ainsi, on peut augmenter le taux de comptage et par conséquent, réduire l’incertitude statistique des pics spectraux exploités pour le calcul de l’activité des radio-isotopes en rapprochant le plus possible l’échantillon du détecteur. Cependant, l’augmentation du volume de l’échantillon demande une correction de l’auto-absorption des émissions par l’échantillon même, et le rapprochement du détecteur est à l’origine du phénomène de pic-somme. L’utilisation de MCNPX a permis de mettre en évidence les effets séparés de la densité de l’échantillon et le nombre atomique effectif dans l’atténuation des photons d’énergie inférieure à 100 keV. Les facteurs de correction du pic-somme sont obtenus par MCNPX, GESPCOR et ETNA. Ainsi, une base des données pour 244 radionucléides a été établie pour des géométries SG50 et SG500 au contact d’un détecteur. Dans une application à la radioprotection, des échantillons de matériaux de construction ont été analysés par la spectrométrie gamma. L’Uranium-238, le Thorium-232 et le Potassium-40 ont été identifiés et corrigés des effets sus-cités. La dosimétrie de leurs rayonnements gamma a permis d’évaluer les indices de risque, la dose absorbée et la dose efficace annuelle reçues provenant de ces matériaux. Les simulations par MCNPX corroborent le modèle de calcul de la dose absorbée. Il a permis aussi d'étudier la distribution de la dose dans les habitations de différentes dimensions. Les résultats obtenus sont en accord avec les limites règlementaires. / Precisely measuring weakly radioactive samples by gamma-ray spectrometry requires optimizing the detection geometry and knowledge of the gamma-ray decay scheme. One can thus increase the counting rate and reduce the statistical uncertainty of the spectral peaks used to determine radioisotope activities. However, an increased sample volume requires a correction for the self-absorption of y-rays in the sample itself, and approaching a sample to the detector gives rise to coincidence summing. MCNPX simulations permitted finding the separate influence of sample density and effective atomic number of the sample in the attenuation of photons with energies less than 100 keV. Peak-summing corrections were obtained with MCNPX, GESPCOR and ETNA. Thus a data base for 244 radionuclides could be established for SG50 and SG500 geometries in contact with a planar detector. In an application of the results to the health physics domain, construction materials were analyzed. Naturally-occurring Uranium-238, Thorium-232 and Potassium-40 activities were identified and corrected for the above-mentioned effects in order to evaluate the risk indexes, the absorbed dose and the annual effective dose received from different dimensions built of these materials. MCNPX simulations corroborated the model used to calculate the absorbed dose and gave its distribution in an enclosed space. The results obtained are within the recommended norms.

Page generated in 0.0402 seconds