• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • Tagged with
  • 7
  • 7
  • 7
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Aspects of analysis of small sample right censored data using generalized Wilcoxon rank tests /

Öhman, Marie-Louise, January 1900 (has links)
Diss. Umeå : University.
2

High-sensitivity radioactive xenon monitoring and high-accuracy neutron-proton scattering measurements /

Johansson, Cecilia, January 2004 (has links)
Diss. (sammanfattning) Uppsala : Univ., 2004. / Härtill 4 uppsatser.
3

Ab initio simulations of transition metal alloys: towards the multiscale modeling /

Pourovskii, Leonid, January 2003 (has links)
Diss. (sammanfattning) Uppsala : Univ., 2003. / Härtill 12 uppsatser.
4

Validation of the Westinghouse BWR nodal core simulator POLCA8 against Serpent2 reference results / Validering av Westinghouse BWR nodal core simulator POLCA8 mot Serpent2 referensresultat

Gaillard, Mathilde January 2021 (has links)
When a new nodal core simulator is developed, like all other simulators, it must go through an extensive verification and validation effort where, in the first stage, it will be tested against appropriate reference tools in various theoretical benchmark problems. The series of tests consist of comparing several geometries, from the simplest to the most complex, by simulating them with the nodal core simulator developed and with some higher order solver representing the reference solution, in this case on the Serpent2 Monte Carlo transport code. The aim of this master’s thesis is to carry out one part of these tests. It consisted in simulating a three-dimensional (3D) 2x2 mini boiling water reactor (BWR) core with the latest version of the Westinghouse BWR nodal core simulator POLCA8, and in comparing the outcome of these simulations against Serpent2 reference results. Prior to this work, POLCA8 was successfully tested on a 3D single-channel benchmark problem using the same Serpent2/POLCA8 methodology. However, this benchmark problem considered in this work is challenging in several aspects. Indeed, the nodal core simulator should accurately predict the eigenvalues and power distribu- tions against reference results, and this by taking into account axial leakage, resulting from the passage from two-dimensional (2D) infinite lattice physics calculations to 3D simulations, or strong axial flux gradients due to the insertion or withdrawal of the control rods after a certain depletion. This last effect is known as the Control Blade History (CBH) effect and will be the main focus of this study. In addition to the development of a new version of the nodal core simulator, a new version of the Westinghouse deterministic transport code PHOENIX5 is also under development. The accuracy of PHOENIX5 was indirectly tested through this benchmark by providing the cross sections for the POLCA8 simulations. In addition, Serpent2 based nodal cross sections were generated to POLCA8 to provide means of comparing these two sets of nodal cross section data. The results obtained lead to the conclusion that the CBH model gives very good results, especially with regard to all power distributions, and especially those after the removal of the control bars when needed most.keywords: Nodal Core Analysis, Monte Carlo Methods, CBH Effects / När en ny nodal-kärnsimulator utvecklas, som alla andra simulatorer, måste den genomgå en omfattande verifierings och valideringsinsats där den i det första steget kommer att testas mot lämpliga referensverktyg i olika teoretiska riktmärkesproblem. Testserien består av att jämföra flera geometrier, från den enklaste till den mest komplexa, genom att simulera dem med den utvecklade nodkärnsimulatorn och med någon högre ord- ningslösning som representerar referenslösningen, i detta fall på Serpent2 Monte Carlo-transportkoden. Syftet med detta examensarbete är att genomföra en del av dessa tester. Den bestod av att simulera en tredimensionell (3D) 2x2 mini-kokande vattenreaktor (BWR) -kärna med den senaste versionen av Westinghouse BWR- nodalkärnasimulator POLCA8, och att jämföra resultatet av dessa simuleringar mot Serpent2-referensresultat. Före detta arbete testades POLCA8 framgångsrikt på ett 3D-enkanaligt riktmärkesproblem med samma Serpent2 / POLCA8-metodik. Detta riktmärkesproblem som beaktas i detta arbete är dock utmanande i flera aspekter. I själva verket bör nodkärnsimulatorn noggrant förutsäga egenvärdena och kraftfördelningarna mot referensre- sultat, och detta genom att ta hänsyn till axiellt läckage, resulterande från övergången från tvådimensionella (2D) oändliga gitterfysikberäkningar till 3D-simuleringar eller starkt axiellt flöde gradienter på grund av att styrstavarna sätts in eller dras ut efter en viss utarmning. Denna sista effekt är känd som CBH-effekten (Control Blade History) och kommer att vara huvudfokus för denna studie. Förutom utvecklingen av en ny version av nodal core-simulatorn är också en ny version av Westinghouse deterministiska transportkod PHOENIX5 under utveckling. PHOENIX5: s noggrannhet testades indirekt genom detta riktmärke genom att tillhandahålla tvärsnitt för POLCA8-simuleringar. Dessutom genererades Serpent2-baserade nodtvärsnitt till POLCA8 för att tillhandahålla medel för att jämföra dessa två uppsättningar av nodtvärsnittsdata. De erhållna resultaten leder till slutsatsen att CBH-modellen ger mycket bra resultat, särskilt med avseende på alla effektfördelningar, och särskilt de som har tagits bort när man behöver mest.
5

Assessment of Modern Statistical Modelling Methods for the Association of High-Energy Neutrinos to Astrophysical Sources / Bedömning av moderna statistiska modelleringsmetoder för associering av högenergetiska neutroner till astrofysiska källor

Minoz, Valentin January 2021 (has links)
The search for the sources of astrophysical neutrinos is a central open question in particle astrophysics. Thanks to substantial experimental efforts, we now have large-scale neutrino detectors in the oceans and polar ice. The neutrino sky seems mostly isotropic, but hints of possible source-neutrino associations have started to emerge, leading to much excitement within the astrophysics community. As more data are collected and future experiments planned, the question of how to statistically quantify point source detection in a robust way becomes increasingly pertinent. The standard approach to null-hypothesis testing leads to reporting the results in terms of a p-value, with detection typically corresponding to surpassing the coveted 5-sigma threshold. While widely used, p-values and significance thresholds are notorious in the statistical community as challenging to interpret and potentially misleading. We explore an alternative Bayesian approach to reporting point source detection and the connections and differences with the frequentist view. In this thesis, two methods for associating neutrino events to candidate sources are implemented on data from a simplified simulation of high-energy neutrino generation and detection. One is a maximum likelihood-based method that has been used in some high-profile articles, and the alternative uses Bayesian Hierarchical modelling with Hamiltonian Monte Carlo to sample the joint posterior of key parameters. Both methods are applied to a set of test cases to gauge their differences and similarities when applied on identical data. The comparisons suggest the applicability of this Bayesian approach as alternative or complement to the frequentist, and illustrate how the two approaches differ. A discussion is also conducted on the applicability and validity of the study itself as well as some potential benefits of incorporating a Bayesian framework, with suggestions for additional aspects to analyze. / Sökandet efter källorna till astrofysiska neutriner är en central öppen fråga i astropartikel- fysik. Tack vare omfattande experimentella ansträngningar har vi nu storskaliga neutrino-detektorer i haven och polarisen. Neutrinohimlen verkar mestadels isotropisk, men antydningar till möjliga källneutrinoföreningar har börjat antydas, vilket har lett till mycket spänning inom astrofysikgemenskapen. När mer data samlas in och framtida experiment planeras, blir frågan om hur man statistiskt kvantifierar punktkälledetektering på ett robust sätt alltmer relevant. Standardmetoden för nollhypotes-testning leder ofta till rapportering av resultat i termer av p-värden, då en specifik tröskel i signifikans eftertraktas. Samtidigt som att vara starkt utbredda, är p-värden och signifikansgränser mycket omdiskuterade i det statistiska samfundet angående deras tolkning. Vi utforskar en alternativ Bayesisk inställning till utvärderingen av punktkälldetektering och jämför denna med den frekvensentistiska utgångspunkten. I denna uppsats tillämpas två metoder för att associera neutrinohändelser till kandidatkällor på basis av simulerad data. Den första använder en maximum likelihood-metod anpassad från vissa uppmärksammade rapporter, medan den andra använder Hamiltonsk Monte Carlo till att approximera den gemensamma aposteriorifördelningen hos modellens parametrar. Båda metoderna tillämpas på en uppsättning testfall för att uppskatta deras skillnader och likheter tillämpade på identisk data. Jämförelserna antyder tillämpligheten av den Bayesianska som alternativ eller komplement till den klassiska, och illustrerar hur de två metoderna skiljer sig åt. En diskussion förs också om validiteten av studien i sig samt några potentiella fördelar med att använda ett Bayesiskt ramverk, med förslag på ytterligare aspekter att analysera.
6

Incorporating Metadata Into the Active Learning Cycle for 2D Object Detection / Inkorporera metadata i aktiv inlärning för 2D objektdetektering

Stadler, Karsten January 2021 (has links)
In the past years, Deep Convolutional Neural Networks have proven to be very useful for 2D Object Detection in many applications. These types of networks require large amounts of labeled data, which can be increasingly costly for companies deploying these detectors in practice if the data quality is lacking. Pool-based Active Learning is an iterative process of collecting subsets of data to be labeled by a human annotator and used for training to optimize performance per labeled image. The detectors used in Active Learning cycles are conventionally pre-trained with a small subset, approximately 2% of available data labeled uniformly at random. This is something I challenged in this thesis by using image metadata. With the motivation of many Machine Learning models being a "jack of all trades, master of none", thus it is hard to train models such that they generalize to all of the data domain, it can be interesting to develop a detector for a certain target metadata domain. A simple Monte Carlo method, Rejection Sampling, can be implemented to sample according to a metadata target domain. This would require a target and proposal metadata distribution. The proposal metadata distribution would be a parametric model in the form of a Gaussian Mixture Model learned from the training metadata. The parametric model for the target distribution could be learned in a similar manner, however from a target dataset. In this way, only the training images with metadata most similar to the target metadata distribution can be sampled. This sampling approach was employed and tested with a 2D Object Detector: Faster-RCNN with ResNet-50 backbone. The Rejection Sampling approach was tested against conventional random uniform sampling and a classical Active Learning baseline: Min Entropy Sampling. The performance was measured and compared on two different target metadata distributions that were inferred from a specific target dataset. With a labeling budget of 2% for each cycle, the max Mean Average Precision at 0.5 Intersection Over Union for the target set each cycle was calculated. My proposed approach has a 40 % relative performance advantage over random uniform sampling for the first cycle, and 10% after 9 cycles. Overall, my approach only required 37 % of the labeled data to beat the next best-tested sampler: the conventional uniform random sampling. / De senaste åren har Djupa Neurala Faltningsnätverk visat sig vara mycket användbara för 2D Objektdetektering i många applikationer. De här typen av nätverk behöver stora mängder av etiketterat data, något som kan innebära ökad kostnad för företag som distribuerar dem, om kvaliteten på etiketterna är bristfällig. Pool-baserad Aktiv Inlärning är en iterativ process som innebär insamling av delmängder data som ska etiketteras av en människa och användas för träning, för att optimera prestanda per etiketterat data. Detektorerna som används i Aktiv Inlärning är konventionellt sätt förtränade med en mindre delmängd data, ungefär 2% av all tillgänglig data, etiketterat enligt slumpen. Det här är något jag utmanade i det här arbetet genom att använda bild metadata. Med motiveringen att många Maskininlärningsmodeller presterar sämre på större datadomäner, eftersom det kan vara svårt att lära detektorer stora datadomäner, kan det vara intressant att utveckla en detektor för ett särskild metadata mål-domän. För att samla in data enligt en metadata måldomän, kan en enkel Monte Carlo metod, Rejection Sampling implementeras. Det skulle behövas en mål-metadata-distribution och en faktisk metadata distribution. den faktiska metadata distributionen skulle vara en parametrisk modell i formen av en Gaussisk blandningsmodell som är tränad på träningsdata. Den parametriska modellen för mål-metadata-distributionen skulle kunna vara tränad på liknande sätt, fast ifrån mål-datasetet. På detta sätt, skulle endast träningsbilder med metadata mest lik mål-datadistributionen kunna samlas in. Den här samplings-metoden utvecklades och testades med en 2D objektdetektor: Faster R-CNN med ResNet-50 bildegenskapextraktor. Rejection sampling metoden blev testad mot konventionell likformig slumpmässig sampling av data och en klassisk Aktiv Inlärnings metod: Minimum Entropi sampling. Prestandan mättes och jämfördes mellan två olika mål-metadatadistributioner som var framtagna från specifika mål-metadataset. Med en etiketteringsbudget på 2%för varje cykel, så beräknades medelvärdesprecisionen om 0.5 snitt över union för mål-datasetet. Min metod har 40%bättre prestanda än slumpmässig likformig insamling i första cykeln, och 10 % efter 9 cykler. Överlag behövde min metod endast 37 % av den etiketterade data för att slå den näst basta samplingsmetoden: slumpmässig likformig insamling.
7

Effects of power-law correlated disorder on a 3D XY model / Effekterna av potenslagskorrelerad oordning på 3D XY-modeller

Broms, Philip January 2022 (has links)
This thesis investigates the effects of power-law correlated disorder on a three-dimensional XY model and the Weinrib-Halperin disorder relevance criterion’s pre-dictive ability. Ising models are used as a map to realise disorder couplings. Simula-tions are conducted using hybrid Monte Carlo method constituting Metropolis’ andWolff’s algorithms. Two cases using two-dimensional and three-dimensional Isinggenerated disorder corresponding to (d + 1)- and d-dimensional models are tested.In addition, a superficial scaling analysis is performed to highlight the change ofuniversality class.It is shown that magnetisation, response functions and Binder ratio along withits temperature derivative display stark differences from the pure XY model case.The results agree with the Weinrib-Halperin criterion in terms of predicting achange of universality class but show a discrepancy in both qualitative and nu-merical results. The main new result is that power-law correlated disorder canintroduce two phase transitions at different critical couplings. This is in disagree-ment with prior established theory and predicts new physics to be investigated insuperconductors and superfluids with correlated disorder. / Det här examensarbetet undersöker hur potenslagskorrelerad oordning påverkar en tredimensionell XY-modell samt förutsägelseförmågan hos Weinrib-Halperins oordningskriterium. Oordningen realiseras genom varierande kopplingsstyrka som definieras med hjälp av Isingmodeller. Simuleringar utförs med hjälp av en Monte Carlo-hybridmetod bestående av Metropolis och Wolffs algoritmer. Undersökningen innefattar oordning genererad av tvådimensionella samt tredimensionella Isingmodeller med syftet att emulera oordning hos (d + 1)- och d-dimensionella modeller. Dessutom utförs en ytlig skalningsanalys för att tydliggöra förändringen hos universalitetsklassen. Resultaten uppvisar markanta skillnader från en ren XY-modell i magnetiseringen, responsfunktionerna och Binderparametern med temperaturderivata. Resultaten bekräftar Weinrib-Halperin-oordningskriteriets förmåga att förutsäga förändring hos universalitetsklassen men avviker från exakta kvalitativa och kvantitativa prognoser. Det huvudsakliga nya resultatet är att potenslagskorrelerad oordning kan introducera två fasövergångar vid två olika kritiska kopplingar. Detta motsäger den etablerade teorin och pekar på ny fysik att utreda hos supraledare och suprafluider med korrelerad oordning.

Page generated in 1.0858 seconds