• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 63
  • 43
  • 21
  • 12
  • 7
  • 6
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 291
  • 74
  • 71
  • 60
  • 55
  • 45
  • 45
  • 45
  • 44
  • 35
  • 35
  • 33
  • 32
  • 31
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Investigations into the growth and etching of antimonides by chemical beam epitaxy and related techniques

Howard, Fraser Peter January 1999 (has links)
No description available.
132

Deposition and characterisation of copper for high density interconnects

McCusker, Niall January 1999 (has links)
No description available.
133

Computational and instrumental developments in quantitative Auger electron analysis

Jackson, Andrew Robert January 1999 (has links)
No description available.
134

Investigating the performance of continuous helical displacement piles

Jeffrey, John January 2012 (has links)
The Continuous Helical Displacement (CHD) pile is an auger displacement pile developed by Roger Bullivant Ltd in the UK. The CHD pile is installed in-situ through the use of a drilling auger, in a similar fashion to European screw piles and as such, it has performance characteristics of both displacement and non-displacement piles Based on field experience, it is known that the load capacity performance of the CHD pile significantly exceeds the current design predictions, particularly when installed in sand. Model CHD piles were created in pluviated test beds at a range of different densities and compared to model displacement and non-displacement piles. The load tests show that the CHD piles have a similar ultimate capacity to displacement piles. Instrumentation of the model piles allowed load distribution throughout the pile length to be determined. The tests allowed design parameters to be established, with it being shown that the CHD has lower bearing capacity factors and higher earth pressure coefficients than current suggestions .The disturbance to the in-situ soil conditions caused by the installation of the CHD piles was measured using a model CPT probe. The CHD pile was found to cause significant changes in soil relative density laterally around the pile shaft while displacement piles show changes predominantly below the pile base. The CHD pile is found to cause a densification of the in situ soil for all relative densities with the greatest increase occurring in loose sand. The ultimate capacity of the CHD pile is determined from load tests carried out on field CHD piles with the aid of capacity prediction methods for piles which have not been loaded to their ultimate capacity. The results from model testing have been applied to field pile tests to allow the development of design parameters including appropriate pile diameter, bearing capacity factor Nq and the earth pressure coefficient k which are suitable for CHD piles.
135

A Comparative Study to Calculate Hydraulic Conductivity in Ultisols on an East Tennessee Hillslope

Lawson, Sydney A 01 May 2015 (has links)
This study compares four different methods to measure hydraulic conductivity (K) at two sites on the East Tennessee State University Valleybrook Campus. It compares the K values to each other, to the different K values between the two sites, and to United States Department of Agriculture (USDA) K values. Two field methods, Well Bail Test and Auger Hole Test, and two lab methods, Constant Head Permeameter Test and Grain Size Distribution Test (GSD), were performed on the clay rich Ultisol soils on an East Tennessee hillslope in the Valley and Ridge Physiographic Province. One site was located close to a monitoring well and the other on the floodplain of an existing stream. The Hazen, Alyamani & Sen, and Slichter methods were used to compute K from the GSD Test. The Alyamani & Sen, Slichter, and permeameter methods produced similar K values ranging from 9.52 x 10-6 to 1.25 x 10-3 cm/sec. These are similar to the USDA K values ranging from 9.17 x 10-4 to 2.82 x 10-4 cm/sec. The Hazen method overestimated K and ranged from 8.10 x 10-3 to 1.09 x 10-1 cm/sec. The Well Bail Test yielded a lower K value (ranging from 8.16 x 10-9 to 1.19 x 10-8 cm/sec) than the USDA values as expected for water flow in deeper soil horizons at a depth of 8.50 meters. Comparing these values helped to better understand the difference between various methods to compute the hydraulic conductivity.
136

Full-Scale Testing of Blast-Induced Liquefaction Downdrag on Auger-Cast Piles in Sand

Hollenbaugh, Joseph Erick 01 December 2014 (has links)
Deep foundations like auger-cast piles and drilled shafts frequently extend through liquefiable sand layers and bear on non-liquefiable layers at depth. When liquefaction occurs, the skin friction on the shaft decreases to zero, and then increases again as the pore water pressure dissipates and the layer begins to settle, or compact. As the effective stress increases and the liquefiable layer settles, along with the overlaying layers, negative skin from the soil acts on the shaft. To investigate the loss of skin friction and the development of negative skin friction, soil-induced load was measured in three instrumented, full-scale auger-cast piles after blast-induced liquefaction at a site near Christchurch, New Zealand. The test piles were installed to depths of 8.5 m, 12 m, and 14 m to investigate the influence of pile depth on response to liquefaction. The 8.5 m pile terminated within the liquefied layer while the 12 m and 14 m piles penetrated the liquefied sand and were supported on denser sands. Following the first blast, where no load was applied to the piles, liquefaction developed throughout a 9-m thick layer. As the liquefied sand reconsolidated, the sand settled about 30 mm (0.3% volumetric strain) while pile settlements were limited to a range of 14 to 21 mm (0.54 to 0.84 in). Because the ground settled relative to the piles, negative skin friction developed with a magnitude equal to about 50% of the positive skin friction measured in a static pile load test. Following the second blast, where significant load was applied to the piles, liquefaction developed throughout a 6-m thick layer. During reconsolidation, the liquefied sand settled a maximum of 80 mm (1.1% volumetric strain) while pile settlements ranged from 71 to 104 mm (2.8 to 4.1 in). The reduced side friction in the liquefied sand led to full mobilization of side friction and end-bearing resistance for all test piles below the liquefied layer and significant pile settlement. Because the piles generally settled relative to the surrounding ground, positive skin friction developed as the liquefied sand reconsolidated. Once again, skin friction during reconsolidation of the liquefied sand was equal to about 50% of the positive skin friction obtained from a static load test before liquefaction.
137

Etude des neutrinos de ultra haute énergie à l'observatoire Pierre Auger

Payet, Kévin 07 October 2009 (has links) (PDF)
L'observatoire Pierre Auger est une expérience de détection du rayonnement cosmique aux plus hautes énergies jamais mesurées. Ce dernier possède deux sous-ensembles de détection différents et complémentaires qui lui confèrent des capacités sans précédents pour l'étude du rayonnement cosmique. Le détecteur est également sensible aux neutrinos de ultra haute énergie, et ce bien qu'il n'ait pas été conçu dans ce but. Au cours de cette thèse, un programme de simulation a été développé afin d'étudier la propagation et l'interaction des neutrinos taus dans la croûte terrestre, travail nécessaire à l'étude du premier des deux canaux de détection possible, mettant en jeu des neutrinos de type tau traversant la terre sur une faible épaisseur, et venant interagir dans la roche à proximité du détecteur. En plus de fournir la probabilité de conversion neutrino-tau, nécessaire pour le calcul de l'acceptance du détecteur, celui-ci a également permis d'étudier en détail des processus liés à la propagation des particules dans la roche, permettant de mieux comprendre leur impact sur les résultats de l'analyse. La seconde partie du travail concerne les neutrinos interagissant directement dans l'atmosphère, à la manière des rayons cosmiques classiques. Pour ce deuxième canal de détection, un critère de sélection a été développé à partir de la comparaison de simulation de gerbes atmosphériques, induites par des neutrinos de ultra haute énergie, avec les données brutes du détecteur. L'étude des neutrinos à l'observatoire Pierre Auger a permis d'obtenir deux limites sur le flux diffus de neutrinos de ultra haute énergie, parmi les plus contraignantes à des énergies de l'ordre de l'EeV.
138

Radiodétection et caractérisation de l'émission radio des gerbes cosmiques d'énergie supérieure à 10^16 eV avec l'expérience CODALEMA

Saugrin, T. 28 November 2008 (has links) (PDF)
L'étude des rayons cosmiques de ultra haute énergie, particules dont la nature et l'origine reste encore aujourd'hui inconnue, s'effectue par la mesure de cascade de particule appelée gerbes cosmiques créées lors de leur interaction avec l'atmosphère terrestre. Deux techniques permettent de détecter et de caractériser ces gerbes : la détection au sol par réseaux de détecteurs de particules et la détection de la lumière de fluorescence émise par la gerbe. Idée datant des années 1960, la radiodétection de gerbes cosmiques par la mesure du champ électrique induit par les particules chargées de la cascade fut à l'époque abandonnée à cause de difficultés techniques. Créée en 2002, l'expérience CODALEMA a dans sa première configuration permis de prouver la faisabilité et l'intérêt de la radiodétection pour l'étude des rayons cosmiques. L'expérience a depuis subi une évolution majeure en remplaçant les antennes logpériodiques par des dipôles actifs dédiés à la radiodétection et en installant un trigger réalisé par un réseau de 17 scintillateurs capables de fournir une estimation de l'énergie des particules primaires. L'objectif de CODALEMA est de caractériser le signal électrique induit par une gerbe cosmique en fonction des paramètres physiques de la gerbe. Cette thèse présente, entre autre, les distributions angulaires des directions d'arrivées des gerbes mesurées par CODALEMA. Elles permettent pour la première fois de prouver l'origine géomagnétique du champ électrique induit par une gerbe. Les distributions latérales de champ électrique induit, ainsi que la corrélation entre l'énergie du primaire et l'amplitude du signal électrique sont également présentées.
139

Étude des collisions atmosphériques de rayons cosmiques d'énergie supérieure a $10^18$eV grâce aux événements hybrides de l'Observatoire Pierre AUGER

RANCHON, Stephane 15 April 2005 (has links) (PDF)
Depuis plus de 30 ans, des réseaux de détecteurs au sol ont observé une dizaine de rayons cosmiques d'origine probablement extragalactique, dont les énergies excèdent $10^20$ eV. L'Observatoire Pierre AUGER, actuellement en construction en Argentine, a été spécialement conçu pour éclaircir le mystère de leur origine. La première partie de cette thèse a été consacrée à l'exposé de la problématique physique et aux techniques de détection utilisées. La partie suivante traite du développement d'un nouvel outil de mesure du niveau d'eau dans les détecteurs de surface et de la mise en oeuvre d'une expérience de calibration des détecteurs à des électrons de quelques MeV. Puis finalement, 3 chapitres sont consacrés à l'exposé de nouvelles méthodes d'analyses visant à determiner la composition du rayonnement cosmique primaire et à étudier les phénomènes physiques qui ont lieu dans le développement des gerbes dans l'atmosphère.
140

Contribution à l'identification de la nature des rayons cosmiques d'énergie extrême à l'Observatoire Pierre Auger

Pham, Ngoc Diep 17 December 2010 (has links) (PDF)
Bien que la découverte des rayons cosmiques date d'un siècle, ce n'est que récemment qu'on est parvenu à identifier leurs sources galactiques comme étant des restes de jeunes Supernovae (SNR). La difficulté était la déviation de leurs trajectoires dans le champ magnétique du disque de la Voie Lactée, empêchant d'associer leurs sources à des objets célestes connus. C'est l'astronomie en rayons gamma qui a permis de sauter cet obstacle en associant les sources de rayons gamma d'énergies supérieures au TeV à des enveloppes de jeunes SNRs. Ces découvertes récentes n'ont toutefois pas été capables d'expliquer l'origine de la composante extra galactique des rayons cosmiques, dite d'ultra haute énergie (UHECR), ni d'identifier leurs sources et le mécanisme d'accélération. Ce n'est que tout récemment, avec la construction de l'Observatoire Pierre Auger (PAO), que la physique des UHECR est apparue sous un jour nouveau. Le PAO, avec lequel notre laboratoire est associé, et dans le cadre duquel cette thèse a été réalisée, est un immense réseau de 1600 compteurs Cherenkov (SD, pour détecteur de surface) couvrant une superficie de 3000 km2 dans la pampa argentine. Il abrite également des détecteurs de fluorescence (FD) qui permettent une détection hybride des grandes gerbes pendant les nuits claires et sans lune. Le PAO a déjà accumulé, pour la première fois au monde, une centaine d'UHECRs d'énergies supérieures à 50 EeV dont l'étude des propriétés est ainsi devenue possible. De fait, deux résultats majeurs ont déjà été obtenus, qui marquent un jalon important dans l'étude de la physique des UHECRs: l'observation d'une coupure dans la distribution en énergie, aux alentours de 100 EeV, associée pour l'essentiel au seuil de photoproduction de pions dans les interactions des UHECRs avec les photons du fond cosmique fossile; et la mise en évidence d'une corrélation entre les directions vers lesquelles pointent les UHECRs et les concentrations de matière extragalactique de l'univers proche, en particulier la région de Cen A. A plus basse énergie, jusqu'à une cinquantaine d'EeV, le PAO a mis en évidence une augmentation des masses primaires vers le fer quand l'énergie augmente. Cette observation se base sur des mesures de l'altitude à laquelle la gerbe atteint son développement maximal, censée être plus élevée pour les noyaux de fer que pour les protons. Toutefois, les estimations de la masse primaire basées sur la densité de muons au sol se heurtent à des incohérences entre observations et prédictions des modèles conventionnels de développement des gerbes qui empêchent de conclure. On n'est pas encore parvenu à assembler les pièces de ce puzzle de façon claire et définitive. Une possibilité serait que les UHECR qui pointent vers des galaxies proches, comme CenA, soient des protons et que les autres soient des noyaux de fer. Mais cela reste encore à prouver. Le travail présenté dans la thèse est une contribution modeste à ce programme de recherche. Il met l'accent sur des méthodes d'identification des masses primaires basées sur la mesure de la densité des muons au sol, en particulier sur la méthode des sauts (jump method) qui a été conçue et développée au LAL d'Orsay où une partie importante de la thèse a trouvé son inspiration. La méthode des sauts identifie la présence de sauts soudains dans les traces des FADC, formant un saut total J, avec celle de muons. La lumière Cherenkov produite par les particules de la gerbe qui traversent les détecteurs du SD est captée par des tubes photomultiplicateurs dont les signaux sont enregistrés en fonction du temps dans des convertisseurs analogue/digital rapides (FADC, 40 MHz). La relation entre le saut total, J, et les propriétés des traces des FADCs montre, en particulier, que pour avoir une chance d'apprendre quelque chose de sensé sur le nombre N de muons qui contribuent à la trace du FADC, il est nécessaire de restreindre l'observation à des détecteurs qui ne soient pas trop proches de l'axe de la gerbe. Une étude séparée des traces induites par des muons et par des électrons ou photons montre que J est approximativement proportionnel à N et à Q (la charge totale), ce qui n'est pas surprenant. En combinant des traces de muons et d'électrons/photons on trouve que J peut être décrit par une expression de la forme J={(43.9±0.5)10−3Q+(200±2)N }10-3. Nous étudions ensuite la séparation entre primaires légers (protons) et lourds (fer) à laquelle on peut s'attendre de la mesure des valeurs de J dans les compteurs touchés par la gerbe. Nous remarquons que même si nous connaissions N exactement (ce qui bien sûr n'est pas le cas) la séparation entre fer et proton ne dépasserait pas les 30%, ce qui donne une mesure de la corrélation entre la nature des primaires et la densité des muons au sol. Ceci implique que l'identification des primaires à un niveau de confiance correspondant à trois déviations standard requiert un minimum de cinquante détecteurs dans lesquels on puisse mesurer la valeur prise par J. Une autre remarque est que si l'on connaissait l'énergie des primaires, ce qui n'est pas le cas, non seulement J mais aussi Q et NJ (le nombre de saut dans chaque trace) seraient de bons discriminants entre fer et protons. Ceci dit, l'énergie des primaires étant inconnue, l'inversion de la relation J=AQ+BN en N=J+Q - dans le but de déduire N de Q et J - n'est pas aussi simple qu'il y paraît. Le problème est que la corrélation qui lie Q à J est si forte qu'il n'y a essentiellement rien à gagner de l'utilisation de la forme binomiale ci- dessus. Un corollaire important de cette forte corrélation est la difficulté qu'il y a à faire la différence entre deux gerbes induites par des protons d'énergies différentes et deux gerbes d'énergies égales, l'une induite par un proton et l'autre par un noyau de fer. Afin de surmonter cette difficulté, il est nécessaire d'utiliser des discriminants indépendants de l'énergie. Deux outils sont utilisés dans ce but : l'utilisation du rapport J/Q comme discriminant et la restriction de l'analyse aux compteurs situés dans une fourchette de distances à l'axe de la gerbe dépendant de S(1000) (la densité au sol de la gerbe à 1 km de son axe, utilisée comme mesure de l'énergie de la gerbe). Des gerbes simulées sont utilisées pour démontrer qu'en principe chacun de ces deux outils est efficace. Une analyse indépendante de l'énergie est ensuite appliquée à l'étude des gerbes détectées par le PAO, confirmant leur désaccord avec les prédictions des modèles de développement des gerbes et établissant un nouveau et important résultat: ce désaccord ne peut pas être résolu par un simple ajustement de la relation entre S(1000) et l'énergie. Enfin, la méthode des sauts est appliquée aux UHECRs pointant à 18o près vers Cen A. Contrairement à une autre analyse utilisant des données hybrides pour étudier le taux d'élongation, cette analyse préfère une origine protonique pour les gerbes associées à Cen A par rapport à celles pointant ailleurs dans le ciel. Tout ceci illustre la difficulté qu'il y a à identifier la nature des primaires à partir des données du SD. Le désaccord entre données et prédictions constitue un problème majeur qu'il faut à tout prix résoudre. On ne saurait se satisfaire d'une explication rejetant sur les modèles hadroniques la responsabilité du désaccord si les mécanismes physiques incriminés ne sont pas clairement identifiés. Les programmes de simulation utilisés de façon courante sont d'une complexité telle qu'il est difficile de les utiliser dans ce but. Le souci de reproduire au plus près la réalité physique les a rendus opaques. La seconde partie de la thèse se propose de faire un pas dans la direction de l'élaboration d'un code de simulation simplifié mais transparent dans l'espoir qu'il permette d'éclairer le problème. La simulation de la composante électromagnétique des grandes gerbes est relativement simple: il suffit, à une excellente approximation, de ne retenir que le rayonnement de freinage et la création de paires comme seuls mécanismes élémentaires et d'ignorer toute particule autre que photon, électron ou positon. Il est aussi facile de décrire les pertes d'énergie par ionisation, ce qui permet un traîtement particulièrement simple du développement de la gerbe qui est présenté et commenté en détail. On obtient ainsi des paramétrisations du profil longitudinal de la gerbe utilisant la forme de Gaisser-Hillas et les valeurs moyennes des paramètres sont évaluées en fonction de l'énergie en même temps que leurs fluctuations. Trois types de primaires sont pris en considération: électrons, photons et pions neutres. Le modèle, par itérations successives, permet d'atteindre simplement aux énergies les plus élevées. Son application à l'effet Landau-Pomeranchuk-Migdal et à l'effet Perkins permettent d'illustrer son efficacité et de montrer que ces deux effets sont, en pratique, d'incidence négligeable sur la physique des UHECRs. Le développement de la composante hadronique de la gerbe est beaucoup plus difficile à traîter. Il implique la production de muons, essentiellement des pions, dont la composante neutre est purement électromagnétique et par conséquent facile à décrire. Au contraire, le destin des pions chargés dépend de deux processus en compétition: interactions hadroniques avec les noyaux de l'atmosphère et désintégrations faibles en une paire muon-neutrino. Les échelles qui gouvernent ces deux processus sont différentes: la section efficace d'interaction ne dépend que peu de l'énergie mais le taux d'interaction dépend de la pression atmosphérique, c'est-à- dire de l'altitude; au contraire, le taux de désintégration est indépendant de l'altitude mais inversement proportionnel à l'énergie à cause de la dilatation de Lorentz. La méthode itérative utilisée avec tant d'efficacité pour la composante électromagnétique, pour laquelle la longueur de radiation est la seule échelle pertinente, n'est plus praticable. Le problème essentiel de l'extrapolation des données d'accélérateurs aux grandes gerbes d'UHECRs n'est pas tant l'énergie que la rapidité. De fait, 20 EeV dans le laboratoire correspondent à 200 TeV dans le centre de masse, seulement deux ordres de grandeur au dessus des énergies du Tevatron et un seul au dessus des énergies du LHC. La lente évolution de la physique hadronique en raison directe du logarithme de l'énergie rend peu probable qu'une extrapolation des données des collisionneurs vers les énergies des UHECRs soit grossièrement erronée. Par contre, en termes de rapidité, les gerbes UHECR sont dominées par la production vers l'avant, une région inaccessible aux collisionneurs. En particulier, il n'existe aucune mesure précise des inélasticités et de la forme du front avant du plateau de rapidité, toutes deux essentielles au développement des gerbes UHECR. Le modèle développé dans la thèse fait de l'inélasticité un paramètre ajustable et la forme du plateau de rapidité est accessible de façon transparente. Une attention particulière est consacrée aux caractéristiques de la gerbe qui permettent l'identification de la nature des primaires, noyaux de fer ou protons. Ceci concerne essentiellement la première interaction: une fois que le noyau primaire a interagi, le développement de la gerbe ne met plus en jeu que des interactions nucléon-air ou méson-air. Là encore, il n'existe pas de données de collisionneurs permettant de décrire les interactions de noyaux et de pions avec l'atmosphère dans le domaine d'énergie qui nous intéresse. Le modèle utilisé ici permet un accès facile et transparent aux paramètres pertinents. La présentation qui est donnée du modèle limite ses ambitions à en décrire les traits essentiels, laissant pour une phase ultérieure l'étude de la densité des muons au sol. L'accent est mis sur le développement de ce nouvel outil et sur son adéquation aux problèmes qu'il entend aborder mais son utilisation dépasse le cadre de la thèse et fera l'objet d'études ultérieures.

Page generated in 0.0396 seconds