• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2652
  • 857
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 3513
  • 1773
  • 1765
  • 1706
  • 407
  • 352
  • 328
  • 297
  • 265
  • 264
  • 259
  • 259
  • 255
  • 214
  • 202
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

Approaches to Optimizing High Content Confocal Microscopy

Lewin, Erland January 2009 (has links)
This thesis presents two methods for improving high contentconfocal microscopy. The author's part in the first, "Toward a confocal subcellular atlasof the human proteome" was automating image capture of foursimultaneously tagged structures in cells in 96 well plates. In total,thousands of images of hundreds of proteins in cells. The authorwas also part of deciding which imaging methods should be used tomaximize image information content and quality, given the limitedtime available per well in order to scan large numbers of wells. The second project, "Improved water permeability measurementsbased on fluorescence normalization" involves increasing the sensitivityof measurements of protein function by normalizing with anestimate of the amount of protein in the cell - the fluorescentsignal of a co-transfected protein. This could lead to achievingsufficient confidence in measurements with fewer experiments(thus increasing the information content in each experiment). Asurprisingly high level of noise in the relationship between thefluorescent signal and the protein function was measured. / Denna avhandling presenterar två projekt för att förbättrametoder för experiment med stora informationsmängderbaserade på konfokalmikroskopi. Författarens del i det första projektet, "Toward a ConfocalSubcellular Atlas of the Human Proteome" (Mot en konfokal,subcellulär atlas av det mänskliga proteomet) var att automatiserabildinsamlingen av fyra samtidigt inmärkta strukturer i celler iplattor med 96 brunnar. Sammanlagt togs tusentals bilder avhundratals proteiner i celler. Författaren var även del i att fastställavilka bildinsamlingsmetoder som skulle användas för att maximeramängd och kvalitet på bild-informationen givet den begränsade tidper brunn som var tillgänglig för att kunna avbilda många brunnar. Den andra studien, "Improved water permeability measurementsbased on fluorescence normalization" (Förbättrade vattenpermeabilitetsmätningargenom normalisering av fluorescens) syftade till att ökakänsligheten hos mätningar av proteiners funktion genom attnormalisera mätningarna med signalen från fluorescensen från ettkotransfekterat protein. Det skulle kunna leda till att nå tillräckligtillförlitlighet i mätresultaten med färre experiment (därmed ökainformationsinnehållet i varje experiment). En förvånansvärt högbrusnivå i förhållandet mellan fluorescenssignalen ochproteinfunktionen uppmättes
562

Computational Methods for Multi-dimensional Neutron Diffusion Problems

Han, Song January 2009 (has links)
No description available.
563

Accelerator-driven systems : source efficiency and reacitvity determination

Fokau, Andrei January 2010 (has links)
Accelerator-driven systems (ADS) are being investigated and designed for transmutation of the long-lived nuclear waste. Application of ADS allows to safely transmute large fractions of minor actinides (MA) per reactor core, while the fraction in critical reactors is limited to a few percent due to the safety constraints. Additional imposed costs of ADS introduction into the nuclear fuel cycle can be decreased by improving their effciency, particularly the external source effciency. Design of the European Facility for Industrial Transmutation (EFIT) with transuranium (TRU) oxide fuel has been recently developed in the frame of  the EUROTRANS project. In this thesis it is shown that the neutron and proton source effciency of EFIT can be significantly improved by application of advanced TRU nitride fuel. Thanks to the good neutron economy of the nitride fuel, the EFIT core size can be reduced, which permits reducing the size of the spallation target. This provides a twice higher proton source effciency and therefore lowers the demand for the proton accelerator current. Additionally, the nitride version of EFIT features two times lower coolant void worth improving the core safety. The pulsed neutron source (PNS) methods for ADS reactivity control have been studied experimentally at the YALINA facility in Minsk (Belarus) and shown good agreement with numerical simulation. The PNS methods will be most probably used for calibration of online reactivity monitoring system in future ADS. / QC 20110412
564

Assessment of the dynamicsof tumour oxygenation usingfmiso pet : quantitative analysis

Giacometti, Valentina January 2010 (has links)
The main aim of the study was the assessment of the changes in tumouroxygenation based on FMISO PET imaging as one of the radiobiologicalbases for adaptive radiation therapy. The particular goal of the projectwas to create the platform for quantitative analysis of the distribution ofoxygenation and the radiation sensitivity associated with it at different timepoints during the treatment. / QC 20100708
565

Power Reconstruction Uncertainties in European Pressurized Reactor Impact of Partial. Unavailability of Sensors / Osäkerheter om kraftåteruppbyggnad i europeisk tryckreaktor. Effekten av att sensorer inte är tillgängliga

Causse, Matthieu January 2022 (has links)
This study is part of a theme related to the physical tests performed on the core of nuclear reactors and particularly the EPR, a new French reactor under construction on the Flamanville site. The peaking factors of this reactor are continuously monitored by an instrumentation located both inside (collectrons) and outside (external fission chambers) the core. To ensure maximum accuracy, these instruments are periodically calibrated by a more precise measurement of the distribution of neutron activity in three dimensions carried out by the AMS (Aeroball Measurement System). Flux maps, providing this data, are collected during operation. Once the data have been recorded on certain assemblies, they are extended to all the assemblies and rods in the core in a mathematical process called $reconstruction$. The objective of this project is therefore to study the impact of partial unavailability of the AMS device, which can occur in the event of breakdowns, on the uncertainty linked to the reconstruction of the neutron power in the core. However, in the absence of measurements for the EPR reactor, pseudo-measurements will be generated. These correspond to core perturbations such as azimuthal power imbalance, radial power imbalance or more unpredictable perturbations.The results for these different disturbances are analyzed and compared to design criteria by selecting the most penalizing situations. In conclusion, these results bring answers to the question of maximum permissible unavailability of AMS in the context of the startup of the EPR reactor in Flamanville. / Den här studien är en del av ett tema som rör de fysiska tester som utförs på kärnan i kärnreaktorer, särskilt EPR, en ny fransk reaktor som håller på att byggas i Flamanville. Denna reaktors toppfaktorer övervakas kontinuerligt med hjälp av instrument som är placerade både inuti (collectrons) och utanför (externa klyvningskammare) kärnan. För att garantera maximal noggrannhet kalibreras dessa instrument regelbundet genom en mer exakt mätning av neutronaktivitetens fördelning i tre dimensioner med hjälp av AMS (Aeroball Measurement System). Fluxkartor, som ger dessa uppgifter, samlas in under driften. När uppgifterna har registrerats på vissa enheter utvidgas de till att omfatta alla enheter och stavar i kärnan genom en matematisk process som kallas $rekonstruktion$. Syftet med detta projekt är därför att undersöka hur en partiell otillgänglighet för AMS-anordningen, som kan uppstå vid driftsstörningar, påverkar osäkerheten i samband med rekonstruktionen av neutronkraften i kärnan. I avsaknad av mätningar för EPR-reaktorn kommer dock pseudomätningar att genereras. Dessa motsvarar störningar i kärnan, t.ex. azimutal effektobalans, radiell effektobalans eller mer oförutsägbara störningar.Resultaten för dessa olika störningar analyseras och jämförs med designkriterierna genom att välja de mest straffande situationerna. Sammanfattningsvis ger dessa resultat svar på frågan om maximal tillåten otillgänglighet för AMS i samband med uppstarten av EPR-reaktorn i Flamanville.
566

Sterile Neutrinos and Non-Standard Interactions in Neutrino Telescopes / Sterila neutriner och interaktioner utanför standardmodellen i neutrinoteleskop

Sjöborg, Martin January 2021 (has links)
The failure of the Standard Model of particle physics to predict neutrino masses invites us to amend it. We have no reason to believe that the interactions currently described by the gauge group are the whole picture, nor should we expect that the number of fermions hitherto observed is correct. In this thesis, we explore two amendments to the Standard Model, and examine whether either of these is consistent with measured data. Firstly, we consider the sterile neutrino, which has no interactions described by the Standard Model. We examine the effect of this new fermion on the neutrino oscillation probabilities and present what could be a detectable signal in the TeV energy range. Secondly, we consider interactions beyond the Standard Model, possibly stemming from a higher-order theory. We show how the parameters of these Non-Standard Interactions (NSI) can modify the oscillation probabilities and within which energy range we expect to discern this signal. We use data from and simulate event counts in two Cherenkov detectors: IceCube and DeepCore. Moreover, we generate data and simulate a proposed upgrade of the DeepCore detector: PINGU. Using IceCube track events, we obtain best-fit values ∆m^2_41 = 0.01eV^2 and θ_24 = 0.67 for our sterile neutrino hypothesis at a p-value of 20%, which is not statistically significant. Hence, we found no evidence of a sterile neutrino in IceCube data. Moreover, we were unable to distinguish a signal from θ_34 in our IceCube simulation. We obtain stringent bounds on the NSI parameters and compare those to previous results in literature. We show that PINGU is expected to narrow the bound further on ε_μτ , especially by considering a joint analysis with IceCube and DeepCore. Finally, we see that an anti-correlation between ε_eμ and ε_eτ at probability level was propagated down to event level, which we expect to be observable by PINGU. / Misslyckandet med partikelfysikens så kallade standardmodell att förutsäga neutrinomassor uppmanar oss att förbättra den. Vi har ingen anledning att tro att de interaktioner som för närvarande beskrivs av standardmodellens symmetrigrupp fullständigt beskriver universum, och inte heller vi bör förvänta oss att antalet fermioner som hittils observerats är korrekt.I detta examensarbete undersöker vi två förlängningar av standardmodellen och undersöker om dessa är förenliga med uppmätta data.Först introducerar vi den sterila neutrinon, som inte har några interaktioner som beskrivs av standardmodellen. Vi undersöker effekten av dennanya fermion på neutrinoscillationssannolikheterna, och presentera vad som skulle vara en detekterbar signal i TeV-området.Vidare introducerar vi en ny interaktion som vi kallar interaktioner utanför standardmodellen (NSI), som möjligen härrör från en högre ordningens teori.Vi visar hur NSI-parametrarna kan modifiera oscillationssannolikheterna, och inom vilka energiområden vi förväntar oss att urskilja denna signal.Vi simulerar två Cherenkov-detektorer: IceCube och DeepCore. Dessutom presenterar vi resultat som vikan förvänta oss att se från en föreslagen detektor: PINGU. Genom att analysera spår från muoner i IceCube erhåller vi bästa anpassningsvärden ∆m^2_41 = 0.01eV^2 och θ_24 = 0.67 för vår sterila neutrinohypotes, medett p-värde på 20%, vilket inte är statistiskt signifikant. Därmed hittade vi inga bevis på en steril neutrino i IceCube-datat.Dessutom kunde vi inte urskilja en signal från θ_34 i vår IceCube-simulering.Vi uppmäter snäva gränser för NSI-parametrarna och jämför dem med tidigare resultat i litteraturen. Vi visar att PINGU förväntas minska gränsen ytterligarehos ε_μτ, särskilt ifall man utformar en gemensam analys med IceCube och DeepCore. Slutligen ser vi att en anti-korrelation mellanε_eμ och ε_eτ på sannolikhetsnivå spreds ner till händelsenivå, något som vi förväntar oss kan observeras av PINGU.
567

Towards observing HH with ATLAS: ZH production and assessing theoretical uncertainties / Vägen till att observera HH med ATLAS: ZH produktion och bedömning av teoretiska osäkerheter

Gisslén, Jonatan January 2021 (has links)
Even though the Standard Model of particle physics represents one of the triumphs of modern physics and seems to predict the outcome of any collision experiment, it has several shortcomings and therefore needs to be extended. After the discovery of the Higgs boson, one of the main aims of experimental particle physics is to probe the Standard Model for measurements that deviate from predictions, as this would imply new physics.  The Large Hadron Collider (LHC) at CERN is undergoing a High Luminosity upgrade, expected to be completed in 2027. The upgrade will make it possible to study processes that currently are too rare to observe. One such process is di-Higgs boson (HH) production. It is a particularly interesting process since it is a function of the Higgs boson self coupling and thus serves as a way to measure this parameter. Even though HH production is not expected to be observed until High Luminosity LHC is operational, HH is already an active research area with several ongoing analyses. In order to estimate the significance of the result of an analysis it is crucial to have good knowledge and understanding of its uncertainties. In this thesis the theoretical uncertainties of the Stockholm ATLAS group's ZH-->bbyy analysis is investigated. ZH is an ideal stepping stone for the HH analysis as ZH has a larger cross section and similar experimental signature compared to HH. Furthermore, HH->bbyy is one of the most competitive HH final states and Z-->bb and H-->yy have already been separately measured. Therefore an observation of ZH-->bbyy at the expected rate can be used to validate the HH-->bbyy result. To estimate the theoretical uncertainties, a general method was developed and integrated into the pre-existing Stockholm ATLAS' ZH-->bbyy analysis framework. The recipe for the uncertainty calculations was taken from the PDF4LHC group and standard ATLAS prescriptions. The PDF uncertainty is estimated by summing in quadrature the contributions from each of the sources of uncertainty, provided with the PDF set by the authors. The alpha_S uncertainty is estimated by calculating the result of varying alpha_S within its uncertainty of 0.1180 +- 0.0015. To estimate the QCD-scale uncertainty a 7-point scale variation is performed and the uncertainty is computed by taking the mean of the largest and smallest yield difference, as compared to nominal QCD scale. The result of the investigation is a PDF uncertainty that ranges between about 5 and 40 percent, the alpha_S uncertainty ranges between about 0.2 and 1.6 percent and the QCD-scale uncertainty ranges between 1 and 7 percent. / Efter upptäckten av Higgsbosonen har ett av huvudmålen inom experimentell partikelfysik varit att försöka hitta områden där förutsägelser från Standardmodellen, den ledande teorin inom partikelfysik, avviker från experimentella data. Anledningen till att man är intresserad av detta är att sådana observationer skulle kunna ge ledtrådar till var man ska leta efter ny fysik. Trots att Standardmodellen är en av de mest framgångsrika teorier inom naturvetenskapen så har den sina tillkortakommanden och behöver därför utvidgas. I CERN genomgår just nu Large Hadron Collider (LHC) en uppgradering för att utöka luminositeten, det vill säga antalet kollisioner i acceleratorn. Uppgraderingen beräknas vara färdig 2027 och kommer göra det möjligt att studera processer som just nu är för ovanliga för att kunna observeras. En viktig sådan process är produktionen av två Higgsbosoner (HH), då denna process gör det möjligt att mäta hur starkt Higgsbosonen kopplar till sig själv. Trots att vi förmodligen inte kommer att kunna observera HH förrän uppgraderingen av LHC är färdig så har arbetet med HH-analysen redan påbörjats. I den här rapporten undersöker vi de teoretiska osäkerheterna i ATLAS Stockholmsgrupps ZH-->bbyy-analys. Anledningen till att det är just ZH som undersöks är att ZH är en mycket bra språngbräda för HH eftersom ZH produktion har ett större tvärsnitt och en liknande experimentell signatur. För att uppskatta de teoretiska osäkerheterna har vi utvecklar en metod, baserad på PDF4LHC-gruppens rekommendationer, som vi integrerat i ATLAS Stockholmsgrupps ZH-->bbyy-analysramverk. Resultet av vår undersökning är att PDF-osäkerheten ligger mellan ungefär 5 och 40 procent, osäkerheten i alpha_S ligger mellan ungefär 0.2 och 1.6 procent medan QCD osäkerheten ligger mellan ungefär 1 och 7 procent.
568

A Quantum Neural Network for Noisy Intermediate Scale Quantum Devices / Ett Kvantneuralt Nätverk för Brusiga Medelskaliga Kvant-apparater.

Dikme, Altay January 2021 (has links)
Neural networks have helped the field of machine learning grow tremendously in the past decade, and can be used to solve a variety of real world problems such as classification problems. On another front, the field of quantum computing has advanced, with quantum devices publicly available via the cloud. The availability of such systems has led to the creation of a new field of study, Quantum Machine Learning, which attempts to create quantum analogues of classical machine learning techniques. One such method is the Quantum Neural Network (QNN) inspired by classical neural networks. In this thesis we design a QNN compatible with Noisy Intermediate Scale Quantum (NISQ) devices, which are characterised by a limited number of qubits and small decoherence times. Furthermore we provide an implementation of the QNN classifier using the open source quantum computing software development kit, Qiskit provided by IBM. We perform a binary classification experiment on a subset of the MNIST data set, and our results showed a classification accuracy of 80.6% for a QNN with circuit depth 20. / Neurala nätverk har varit en stor del av utvecklingen av maskininlärning som ett forskningsområde i det senaste årtiondet, och dessa nätverk har flera appliceringsområden, som till exempel klassificieringsproblemet. Parallelt med denna utveckling, har forskning kring kvantdatorer vuxit fram, med flera kvantsystem allmänt tillgängliga via molnet. Denna tillgänglighet har lett till skapandet av ett nytt forskningsområde; kvantmaskininlärning, som försöker skapa motsvarigheter till klassiska maskininlärningsmetoder på kvantdatorer. En sån metod är kvantneurala nätverk som inspireras av klassiska neurala nätverk. I denna avhandling designar vi ett kvantneuralt närverk som är kompatibel med nuvarande kvantsystem, som kännetecknas av ett begränsat antal qubits och korta dekoherenstider. Dessutom tillhandahåller vi en implementering av en klassificerare med ett kvantneuralt nätverk, med hjälp av IBMs programvaruutvecklingsmiljö Qiskit. Vi utför ett binärt klassificeringsexperiment på en delmängd av MNIST-datamängden, och våra resultatvisar en klassificeringsnoggrannhet på 80,6% för ett kvantneuralt nätverk med kretsdjup 20.
569

Simulation Testbed for Liquid Chromatography / Simuleringstestbädd för Vätskekromatografi

Andersson, David January 2021 (has links)
The stlc package is proposed as a tool for simulation of liquid chromatography by implementing several lumped kinetic models which combine diffusive mass  transport and adsorption isotherm equations. The purpose of the package is to provide computationally efficient approximations to the general rate model of chromatography. Orthogonal collocation is used to discretize the spatial domain and the resulting system of ordinary differential equations is evaluated by one of several solvers made available in the package.  Comparisons between numerical and analytical Laplace domain solutions for values of mass transfer coefficient, k, ranging from 0 to 1000 and lumped dispersion constant values, DL,from 10-5 to 10-2 are presented. Analytical results were approximated to an L1 error in the range 10-5 to 10-3 with a maximum evaluation time of 0.27s for 100 grid points. The breakthrough curves of the analytical solution are accurately recreated indicating a correct implementation. Variations in accuracy can be partly attributed to  oscillations induced by steep gradients in the solution. The oscillations are reduced by the addition further points to the spatial grid. The package is implemented in Python using    minimal dependencies and can produce approximations with short evaluation times. The Python programming language is dynamically typed and uses automatic memory management, properties  which can improve productivity and be beneficial to research applications. The addition of this package to the extensive Python ecosystem of libraries can potentially aid future       developments in chromatography.
570

Scattering Amplitudes of F3-deformed Gauge Theories in the CHY-formalism

Gong, Enze January 2021 (has links)
No description available.

Page generated in 0.0541 seconds