Spelling suggestions: "subject:"efficace"" "subject:"éfficace""
31 |
Mesure de la luminosité absolue et de la section efficace totale proton-proton dans l'expérience ATLAS au LHCHeller, M. 05 March 2010 (has links) (PDF)
Le Large Hadron Collider (LHC) au CERN à Genève délivrera bientôt des collisions avec une énergie jamais atteinte jusqu'alors dans un accélérateur de particules. Une énergie dans le centre de masse entre 10 et 14 TeV permettra de dépasser les frontières de la physique actuelle. Le détecteur ATLAS fera la chasse au boson de Higgs et recherchera une nouvelle physique au delà du modèle standard. Tout processus physique est décrit par sa section section efficace. Les détecteurs positionnés aux différents points de collision du LHC déterminerons les taux de comptage associés aux divers processus. Cependant, pour en déduire la section efficace associée, il faut connaître la luminosité. Pour l'expérience ATLAS, une mesure relative de la luminosité peut être fournie par quelques uns de ses sous-détecteurs. Cependant, pour calibrer ces détecteurs, une mesure absolue doit être effectuée. Le détecteur ALFA a été conçu pour mesurer le spectre de diffusion élastique qui permettra de déterminer la luminosité absolue et par la même occasion, la section efficace totale proton-proton fournissant ainsi un outils de calibration très précis, de l'ordre du %. Ces détecteurs, installés à 240 m de part et d'autre du point d'interaction sont appelés pots romains. Il s'agit d'un système mécanique permettant d'approcher un trajectographe à fibres scintillantes à une distance de l'ordre du millimètre du cœur du faisceau. La simulation de la mesure nécessite l'utilisation d'un logiciel de transport de particules chargées. Ce logiciel doit être soigneusement choisi car il sert à la détermination des protons perdus dans la séquence de l'accélérateur, entre le point d'interaction jusqu'aux détecteurs. L'impact des incertitudes systématiques qui affectent la mesure de la luminosité et de la section efficace totale est également déterminé en utilisant la simulation. Les détecteur ALFA opère dans un environnement complexe et en conséquence sa conception requiert une grande attention. Une large campagne de tests sur l'électronique front-end a été effectuée. L'analyses des données résultant de ces tests a permis de démontrer que toutes les exigences étaient remplies. A chaque avancement majeur dans la conception du détecteur, celui-ci doit être soumis à des tests en faisceau. Durant ces périodes, tous les aspects du détecteur sont étudiés. L'algorithme de reconstruction des traces, les méthodes pour extraire des données l'efficacité de détection ou encore le niveau de diaphonie sont autant de paramètres qu'il a fallu déterminer. Les conclusions de ces tests ont permis de valider les différents choix techniques effectués permettant ainsi le lancement de la fabrication en série des huit détecteurs utiles à la mesure. L'installation prévue courant 2011 permettra de mesurer la luminosité et la section efficace totale proton-proton courant 2012.
|
32 |
Études de l'absorption à deux photons dans des matériaux organiques à l'aide de la technique dite de la lentille thermiqueTaouri, Abdelillah 21 December 2009 (has links) (PDF)
Ce travail concerne la mise en oeuvre de la technique de la « lentille thermique » pour l'étude des phénomènes d'absorptions multiphotoniques dans les matériaux organiques. La technique de la lentille thermique utilisée ici, est dans son principe une technique pompe-sonde où le faisceau pompe provient d'un laser pulsé (25ps, 532nm ou 1064nm) tandis que le faisceau sonde est issu d'un laser continu (He-Ne : 632nm). Cette technique s'apparente aussi à la technique de z-scan dans la mesure où l'échantillon est déplacé de part et d'autre du point focal d'une lentille convergente disposée sur le trajet du faisceau pompe. Selon le rapport des diamètres des faisceaux pompe et sonde, on distingue deux variantes principales de la technique de la lentille thermique en régime pulsé : la variante dite en « modes accordés » (les diamètres des deux faisceaux sont identiques) et la variante en « modes désaccordés » (les diamètres des deux faisceaux sont différents). Pour des raisons de simplicité de mise en oeuvre et de sensibilité, nous avons choisi la variante en modes désaccordés. Cette variante de la technique de la lentille thermique, ayant été peu utilisée jusque là, a été utilisée pour mesurer le coefficient et la section efficace de l'absorption à deux photons dans différents matériaux organiques. Ces résultats sont comparés à d'autres mesures provenant de technique de mesure plus connue comme « transmission non linéaire » ou la technique de z-scan.
|
33 |
Ionisation et dissociation des ions moléculaires par impact d'électronsCherkani-Hassani, Hind 10 December 2004 (has links)
La demande énergétique mondiale toujours en croissance, combinée aux préoccupations environnementales, constitue le moteur qui anime la recherche de nouvelles énergies. La fusion thermonucléaire est une des technologies qui offrent la possibilité d'une production d'énergie abondante, sûre et non polluante ; cependant son apprivoisement n'est pas encore au point !
La présence d'impuretés dans les plasmas est un des obstacles majeurs à vaincre pour atteindre les conditions nécessaires pour que la fusion thermonucléaire devienne suffisamment efficace. Leur densité dans le plasma dépend des matériaux de revêtement des parois et du contrôle des conditions aux limites, conditions qui définissent leur processus de génération et leur diffusion dans la région centrale. Les pertes énergétiques ont été considérablement réduites par l'utilisation de revêtements à basse charge nucléaire (Z), principalement ceux à base de carbone (comme le graphite). Ainsi, les chercheurs se sont intéressés aux effets des impuretés hydrocarbonées se dégageant des parois des réacteurs, à savoir leur structure et les voies de leur fragmentation, en particulier, les caractéristiques de leurs processus collisionnels avec les autres constituants du plasma.
L'ion moléculaire est un composant essentiel de nombreux plasmas astrophysiques où l'ionisation et la dissociation se font principalement avec des électrons ; sa concentration est élevée dans l'ionosphère, région de l'atmosphère située à une altitude comprise entre 90 et 250 Km. Le rôle important joué par cet ion dans la modélisation ionosphérique nous a mené à réaliser une série de mesures des sections efficaces de ses différents processus collisionnels par impact d'électrons. La majorité des travaux expérimentaux antérieurs ne concernait que la molécule neutre .
Ce travail de thèse a porté sur l'étude expérimentale de l'ionisation simple, de l'excitation dissociative et de l'ionisation dissociative par impact d'électrons des ions hydrocarbonés polyatomiques et et de l'ion diatomique . Nous avons utilisé la technique des faisceaux croisés et animés pour mesurer les sections efficaces absolues de ces processus. Nous avons d'abord mesuré les distributions d'énergie cinétique des produits de ces processus dans le référentiel du laboratoire, en fonction du champ magnétique d'analyse, pour différentes valeurs d'énergie d'électrons. Ensuite, nous avons mesuré les sections efficaces apparentes pour les mêmes processus en fonction de l'énergie des électrons. Concernant les processus dissociatifs, la mesure des distributions d'énergie cinétique des fragments dans le référentiel du laboratoire a montré que ces fragments sont, généralement, distribués dans des gammes angulaires et énergétiques larges et que leurs divergences angulaires, dans la plupart des cas, excèdent l'ouverture de la fente d'analyse et en conséquence, leur transmission n'est que partielle. Nous avons alors calculé leurs coefficients de transmission en fonction de l'énergie des électrons, et nous avons corrigé les sections efficaces apparentes, pour chacun des processus dissociatifs. Nous avons ainsi pu obtenir les sections efficaces absolues de plusieurs voies dissociatives. Nous avons identifié leur seuil d'apparition en tenant compte des structures de l'ion moléculaire primaire et des ions produits. Nous avons déterminé aussi les distributions d'énergie cinétique des fragments produits dans le référentiel du centre de masse à partir des distributions énergétiques observées dans le référentiel du laboratoire, nous avons ainsi pu estimer l'énergie maximale libérée lors de chacun des processus dissociatifs.
Les résultats ont montré que la section efficace de l'ionisation simple est faible en comparaison avec les sections efficaces d'excitation et d'ionisation dissociative. Celle-ci dépend du nombre, généralement réduit, des états liés stables de l'ion doublement chargé. Ils ont montré aussi que les courbes des sections efficaces des processus d'excitation dissociative et d'ionisation ont une allure très différente. Dans le premier cas, elle augmente abruptement au voisinage du seuil alors que dans le second cas, elle augmente progressivement avec l'énergie des électrons. Pour les processus de dissociation, nous avons besoin d'une analyse angulaire et d'une détection en coïncidence des fragments produits, permettant ainsi de déterminer la nature exacte du mécanisme et d'identifier avec plus de précision l'état ou les états moléculaires impliqués dans chacune des réactions.
Les résultats obtenus sont concluants et ont permis d'améliorer l'étude théorique semi-classique menée par Probst et Märk (2004) concernant l'ionisation de . Ils ont montré aussi que les prédictions empiriques de Janev et Reiter (2002) relatives aux familles d'hydrocarbures ne sont pas encore au point. Elles sont en désaccord avec nos résultats, montrant ainsi qu'il y a grand besoin d'autres études expérimentales des processus collisionnels des hydrocarbures et d'autres ions moléculaires avant de pouvoir formuler une quelconque loi d'échelle ou une théorie capable de prédire le comportement de tels ions moléculaires.
|
34 |
Production de radioisotopes : de la mesure de la section efficace à la productionGarrido, Eric 10 November 2011 (has links) (PDF)
De nouveaux radio-isotopes pour la médecine nucléaire peuvent être produits par des accélérateurs de particules. C'est l'un des buts d'Arronax, un cyclotron de hautes énergies - 70 MeV - et hautes intensités - 2*350 µA - installé à Nantes. Une liste d'émetteurs b- - 47Sc, 67Cu - b+ - 44Sc, 64Cu, 82Sr/82Rb, 68Ge/68Ga - et a - 211At - à étudier en priorité a été établie. Parmi ceux là, le 47Sc et le 67Cu présentent un intérêt en thérapie ciblée. L'optimisation de leurs productions nécessite la bonne connaissance de leurs sections efficaces, mais aussi de celles de tous les contaminants créés. Nous avons lancé sur Arronax un programme de mesures de sections efficaces utilisant la technique des Stacked-foils. Elle consiste en l'irradiation simultanée d'un groupe de feuilles - cibles, moniteurs et dégradeurs - et la mesure par spectro-gamma de la production d'isotopes. Les moniteurs permettent un contrôle des pertes de faisceau tandis que les dégradeurs en diminuent l'énergie. Nous avons étudié les réactions natTi(p,X)47Sc et 68Zn(p,2p)67Cu. Les cibles étant respectivement des feuilles de natTi - achetées chez Goodfellow - ou des électrodépositions sur Ag de 68Zn enrichi. Nous les réalisons nous même ainsi que la séparation chimique des isotopes de Cuivre et de Gallium indispensable avant de procéder au comptage gamma. Les sections efficaces de plus de 40 réactions ont ainsi été obtenues sur l'intervalle de 18 MeV à 70 MeV. Une comparaison avec le code Talys est systématiquement faite, et plusieurs paramètres des modèles théoriques étudiés. Nous montrons qu'il est impossible de reproduire avec exactitude toutes les sections efficaces à partir d'un seul jeu de ces paramètres.
|
35 |
Problèmes Statistiques pour les EDS et les EDS RétrogradesZhou, Li 28 March 2013 (has links) (PDF)
Nous considérons deux problèmes. Le premier est la construction des tests d'ajustement (goodness-of-fit) pour les modèles de processus de diffusion ergodique. Nous considérons d'abord le cas où le processus sous l'hypothèse nulle appartient à une famille paramétrique. Nous étudions les tests de type Cramer-von Mises et Kolmogorov- Smirnov. Le paramètre inconnu est estimé par l'estimateur de maximum de vraisemblance ou l'estimateur de distance minimale. Nous construisons alors les tests basés sur l'estimateur du temps local de la densité invariante, et sur la fonction de répartition empirique. Nous montrons alors que les statistiques de ces deux types de test convergent tous vers des limites qui ne dépendent pas du paramètre inconnu. Par conséquent, ces tests sont appelés asymptotically parameter free. Ensuite, nous considérons l'hypothèse simple. Nous étudions donc le test du khi-deux. Nous montrons que la limite de la statistique ne dépend pas de la dérive, ainsi on dit que le test est asymptotically distribution free. Par ailleurs, nous étudions également la puissance du test du khi-deux. En outre, ces tests sont consistants. Nous traitons ensuite le deuxième problème : l'approximation des équations différentielles stochastiques rétrogrades. Supposons que l'on observe un processus de diffusion satisfaisant à une équation différentielle stochastique, où la dérive dépend du paramètre inconnu. Nous estimons premièrement le paramètre inconnu et après nous construisons un couple de processus tel que la valeur finale de l'un est une fonction de la valeur finale du processus de diffusion donné. Par la suite, nous montrons que, lorsque le coefficient de diffusion est petit, le couple de processus se rapproche de la solution d'une équations différentielles stochastiques rétrograde. A la fin, nous prouvons que cette approximation est asymptotiquement efficace.
|
36 |
Performance des jets et mesure de la section efficace de production de paires t tbar dans le canal tout hadronique auprès du détecteur ATLAS.Ghodbane, N. 22 November 2012 (has links) (PDF)
Dans ce mémoire, nous présentons nos travaux de recherche que nous avons menés au sein de la collaboration ATLAS au LHC dans la période 2005-2012. Ces travaux inclus la préparation de deux des sous-détecteurs composant le système de détecteurs internes, l'étude et l'optimisation des algorithmes de reconstruction des jets afin d'en améliorer les performances et enfin l'utilisation des données collectées à partir des collisions proton-proton pour une énergie de collision de 7 TeV dans le centre de masse pour en extraire la mesure de la section efficace de production du quark top dans le mode de désintégration tout-hadronique.
|
37 |
Caractérisation optique et géométrique des agrégats submicroniques multi-échelles de particules sphériques très diffusantesLagarrigue, Marthe 18 April 2011 (has links) (PDF)
Les agrégats multi-échelles (sulfure de zinc: ZnS, ...) ont des propriétés physiques et physicochimiques présentant un grand intérêt industriel (industrie pharmaceutique, matériau, environnement...). L'objectif général de cette thèse est de caractériser ces agrégats multi-échelles par une méthode optique d'une part, et par une étude géométrique d'autre part. Le but est de trouver des relations simples entre propriétés optiques et géométriques. Les résultats présentés sont valables pour tout matériau à haut indice de réfraction.Ce travail comporte une première étape de modélisation en étudiant tout d'abord des modèles simples d'agrégats multi-échelles (agencement ordonné de particules élémentaires sphériques). Différents agrégats sont alors géométriquement modélisés suivant des paramètres de construction prédéfinis (volume global des agrégats, rayon des particules primaires...). Une analyse préliminaire optique puis une analyse géométrique sont alors effectuées afin de déterminer les paramètres respectifs à étudier: la section efficace moyenne de diffusion (...), calculée au moyen d'une extension de la théorie de Mie (GMM pour Generalized Multiparticle Mie) d'Y-L Xu, et des caractéristiques géométriques spécifiques (volume de matière, compacité...).Une seconde étape consiste à étudier les variations de la valeur de ... en fonction de celles des paramètres géométriques des agrégats. Des relations caractérisant ces variations sont établies. Enfin, une expression approchées pour la valeur de ... est recherchée sous la forme d'une loi de puissance, reposant sur des méthodes optiques approchées existantes et sur la sélection de caractéristiques géométriques pertinentes. Le modèle mis en place est robuste et présente un compromis entre précision et complexité. Le travail réalisé ouvre diverses perspectives comme la confrontation du modèle mathématique théorique obtenu, avec l'expérience.
|
38 |
Computation naturelle, beaucoup de bruit pour rienBaudot, Pierre 29 September 2006 (has links) (PDF)
Le codage de l'information environnementale par le cerveau est sujet à d'intenses débats tant au niveau de son implémentation biologique (propriété fonctionnelles) qu'au niveau de sa variabilité et de sa précision. Cette étude se base sur des enregistrements intracellulaires in-vivo des réponses des neurones du cortex visuel primaire à des stimuli de complexité variable incluant des images naturelles animées par des mouvements oculaires. Nous montrons que les propriétés fonctionnelles sont générées par la récurrence corticale, notamment par la balance excitation/inhibition exprimée au travers d'une grande diversité de combinatoire de sélectivité fonctionnelle des entrées synaptiques. En condition naturelle avec mouvement des yeux, nous montrons que le code est reproductible, binaire/temporel et que l'analyse corticale se traduit par une réduction des redondances présentes dans les entrées. Les interactions ou contrôles de gain corticaux, dont le profile temporel biphasique sculpte temporellement les réponses corticales, augmentent la précision temporelle et la reproductibilité du code. Nous proposons (en discussion) une ébauche de modèle statistique général d'adaptation et d'auto-organisation consistant en la maximisation de l'information mutuelle entre le système et son environnement. Ce modèle, basé sur une décomposition microscopique de l'entropie en ordre de redondance, est suffisant pour rendre compte des propriétés singulières de l'organisation du vivant (incluant la cognition) tel que sa reproductibilité, sa diversité, et son optimalité (en terme de codage).
|
39 |
Inférence statistique des modèles conditionnellement hétéroscédastiques avec innovations stables, contraste non gaussien et volatilité mal spécifiéeLepage, Guillaume 13 December 2012 (has links) (PDF)
Dans cette thèse, nous nous intéressons à l'estimation de modèles conditionnellement hétéroscédastiques (CH) sous différentes hypothèses. Dans une première partie, en modifiant l'hypothèse d'identification usuelle du modèle, nous définissions un estimateur de quasi-maximum de vraisemblance (QMV) non gaussien et nous montrons que, sous certaines conditions, cet estimateur est plus efficace que l'estimateur du quasi maximum de vraisemblance gaussien. Nous étudions dans une deuxième partie l'inférence d'un modèle CH dans le cas où le processus des innovations est distribué selon une loi alpha stable. Nous établissons la consistance et la normalité asymptotique de l'estimateur du maximum de vraisemblance. La loi alpha stable n'apparaissant que comme loi limite, nous étudions ensuite le comportement de ce même estimateur dans le cas où la loi du processus des innovations n'est plus une loi alpha stable mais est dans le domaine d'attraction d'une telle loi. Dans la dernière partie, nous étudions l'estimation d'un modèle GARCH lorsque le processus générateur de données est un modèle CH dont les coefficients sont sujets à des changements de régimes markoviens. Nous montrons que cet estimateur, dans un cadre mal spécifié, converge vers une pseudo vraie valeur et nous établissons sa loi asymptotique. Nous étudions cet estimateur lorsque le processus observé est stationnaire mais nous détaillons également ses propriétés asymptotiques lorsque ce processus est non stationnaire et explosif. Par des simulations, nous étudions les capacités prédictives du modèle GARCH mal spécifié. Nous déterminons ainsi la robustesse de ce modèle et de l'estimateur du QMV à une erreur de spécification de la volatilité.
|
40 |
Physique du quark top dans l'expérience CMS au démarrage du LHCLe Grand, Thomas 28 September 2010 (has links) (PDF)
La première partie de cette thèse porte sur l'amélioration de l'algorithme de l'étape d'initiation de reconstruction des traces de hadrons et de muons au sein du trajectographe au silicium de l'expérience CMS. Les différentes étapes de mise au point et de tests, qui ont permis d'aboutir à la qualification de ce nouvel algorithme en tant que méthode standard d'initiation de la reconstruction des traces, sont présentées dans ce document.La deuxième partie concerne la mise en place d'une méthode alternative de mesure de la section efficace de production des paires top-antitop dans l'expérience CMS lors du démarrage du LHC. Cette analyse est effectuée à partir du canal de désintégration semi-muonique avec au moins un muon supplémentaire provenant d'un des quarks bottom et a été réalisée en simulation complète démontrant ainsi la possibilité d'une "redécouverte" possible du quark top avec 5 pb-1. Les 2.4 pb-1 de données réelles obtenues à la fin du mois d'Août m'ont permis d'observer les premières paires top-antitop et d'effectuer une première mesure de section efficace : 171±77(stat.) ±27(syst.) pb
|
Page generated in 0.0417 seconds