• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 14
  • Tagged with
  • 30
  • 12
  • 12
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

The Role of Technology Shifts in Urban Decarbonization Modelling : Scenario creation and implementation

Fourniols, Batiste January 2024 (has links)
This work includes modelling of decarbonization scenarios at the scale of an urban area, providing policy insights and a methodology focusing on introducing district heating and maintaining the existing gas distribution network in a case study. With a focus on reducing gas consumption in the residential and tertiary sectors, the research integrates scenario developments giving a methodology to develop district heating, requiring a careful balance in selecting the optimal scale for city-wide analysis. The study assesses the fate of existing gas networks. The development of district heating can affect the use of gas, particularly in residential or tertiary buildings. This thesis assesses potential use cases of existing gas networks by identifying certain criteria. Among them are industrial, tertiary or residential consumption, the presence of a district heating network, or the number of homes using individual gas heating. These criteria make it possible to define areas where the question of removing the gas distribution network can be raised, and other areas where the gas distribution network must be retained even if gas consumption falls sharply between 2019 and 2050. By reviewing the relevant literature, detailing the research questions and presenting a comprehensive methodology of scenario modelling, the thesis provides policy insights and a methodology to develop district heating at the scale of an urban area while addressing the future of existing gas infrastructure. / Detta arbete ger en modellering av scenarier för minskade koldioxidutsläpp i stadsområden, samt ger policyinsikter och metodik med fokus på införandet av fjärrvärme och underhållet av det befintliga gasdistributionsnätet som en fallstudie. Med fokus på att minska gasförbrukningen i bostads- och tjänstesektorerna integrerar forskningen scenarioutveckling med en metod för att utveckla fjärrvärme, vilket kräver en noggrann avvägning för att välja den optimala skalan för stadsomfattande analys. I studien bedöms vad som ska hända med befintliga gasnät. Utvecklingen av fjärrvärme kan påverka användningenav gas, särskilt i bostads- eller tertiärbyggnader. Denna avhandling bedömer potentiella användningsfall befintliga gasnät genom att identifiera kriterier baserade på faktorer som industriell, tertiär tertiär eller bostadsförbrukning, förekomsten av ett fjärrvärmenät eller antalet av bostäder som använder individuell gasuppvärmning, till exempel. Dessa kriterier gör det möjligt att definiera områden där frågan om att ta bort gasdistributionsnätet kan väckas, och andra områden där gasdistributionsnätet måste behållas även om förbrukningen förbrukningen minskar kraftigt mellan 2019 och 2050. Genom att granska den relevanta litteraturen, specificera forskningsfrågorna och presentera en omfattande metod för scenariomodellering, ger avhandlingen ett värdefullt exempel på hur man kan ge politisk insikt och metodik för att utveckla fjärrvärme i ett stadsområde samtidigt som man tar itu med framtiden för befintlig gasinfrastruktur.
22

Phase-Contrast Imaging, Towards G2-less Grating Interferometry With Deep Silicon / Faskontrastavbildning, Mot G2-lös Gitterinterferometri med Djupt Kisel

Brunskog, Rickard January 2022 (has links)
Conventional phase-contrast imaging entails stepping an analyser grating across the detector to resolve the interference pattern caused by the x-rays after passing through a series of gratings in a so-called Talbot-Lau interferometer. However, the analyser grating in the interferometer poses a challenge, not only due to the machinery and alignment required but also due to each exposure delivering a dose to the subject. Another downside of the analyser grating is that whilst the phase-step length can be adjusted, the x-rays allowed through the grating depend on its slit-width ratio, which cannot be changed without changing the whole grating.This thesis evaluates if the analyser grating can be removed by instead using a deep silicon photon-counting detector which can determine the photon interaction position with an uncertainty of around one micrometre. It is concluded that such a high-resolution detector will not only be able to remove the need for an analyser grating and its associated challenges, but the results also imply a three-fold increase in the contrast-to-noise ratio when dose-matching the grating-based approach with the grating-less approach. Furthermore, the conventional absorption image, which is lost when using an analyser grating, will still be available using a high-resolution detector. Finally, the removal of the analyser grating shifts most of the system conditions to the source grating and the phase grating, making it possible to design a compact unit of the two gratings for integration into a CT scanner. / Konventionell faskontrast involverar att stega ett analysgitter över detektorn för att detektera interferensmönstret som skapas av röntgenstrålarna efter att de passerat genom en serie gitter i en så kallad Talbot-Lau interferometer. Analysgittret introducerar en utmaning, inte enbart på grund av maskineriet och kalibreringen som krävs, utan även då varje steg utsätter det röntgade föremålet för strålning. Ytterligare en begränsning är att även om längden på stegen kan justeras beror mängden röntgenstrålar som passerar genom analysgittret på gittrets slitsbredd, vilken inte går att ändra på utan att byta hela gittret.Den här uppsatsen utvärderar om analysgittret kan tas bort genom att istället använda en högupplöst fotonräknande djup kiseldetektor som har förmågan att uppskatta positionen av en fotoninteraktion inom en mikrometer. Slutsatsen är att en sådan detektor kommer att kunna ersätta analysgittret och resultaten tyder på en trefaldig ökning av contrast-to-noise ratio vid dosmatchning mellan metoden med analysgitter och metoden med en högupplöst detektor. Vidare behålls den konventionella absorptionsbilden då man använder en högupplöst detektor, någonting som annars går förlorat vid användandet av analysgittret. Slutligen skiftas de flesta villkoren på systemet till källgittret och fasgittret, vilket tyder på att en kompakt konstruktion av dessa två gitter skulle kunna integreras i en CT-skanner.
23

Framtagning av systemuppställning för dynamisk bildtagning med blixtröntgen : Ett arbete i samarbete med Scandiflash AB / Development of a system setup for dynamic imaging with flash x-ray

Lindqvist, Rasmus, Jerresand, David January 2022 (has links)
Inom materialforskning och en stor del av den mekaniska och mekatroniska industrin finns ett intresse av att utnyttja blixtröntgen för att studera dynamiska händelseförlopp i inneslutna system, ej synbara med konventionella kameror. I och med att många rörelser inom de benämna områdena även sker i hyperhastighet så tillåter blixtröntgen statisk bildtagning  av rörelser i flera km/s, med minimal rörelseoskärpa. Detta examensarbete har grundats i att utveckla och utvärdera koncept för en komplett systemuppställning inklusive höghastighetskamera för denna tillämpning.  Syftet med arbetet har således varit att både identifiera och definiera produktens ingående produktkrav, för att spegla den funktion och syftet som önskas uppfyllas, och utifrån detta generera koncept för uppställningen på systemnivå, samt för separata  komponenter. Slutligen har de utvalda koncepten utvärderats genom praktiska prestandatester för att kontrollera dess uppfyllelse av produktkraven. Datainsamlingen för arbetet skedde i form av flertalet praktiska experiment för insamling av kvantitativ data, samt återkommande uppföljningsmöten med involverade medarbetare för insamling av kvalitativ data.  Undersökningen resulterade i ett koncept för en slutprodukt, benämnt funktionsprototyp som motsvarade och uppfyllde de definierade produktkraven vad gäller funktionalitet och prestanda. En diskussion fördes även för den kommande vidareutvecklingen av slutprodukten, inklusive färdigställandet av samtliga koncept och den följande designfasen. / In materials research and a large part of the mechanical and mechatronic industry, there is an interest in using flash X-rays to study dynamic events in enclosed systems, not visible with conventional cameras. Since many movements within the named areas also take place at hyper-speed, flash X-rays allow to capture static images of movements in several km / s, with minimal distortion. This thesis has been based on developing and evaluating concepts for a complete system setup including a high speed camera for this application. The purpose of the work has thus been to both identify and define the product's included product requirements, to reflect the function and purpose that is desired to be fulfilled, and based on this generate concepts for the set-up at system level, as well as for separate components. Finally, the selected concepts have been evaluated through practical performance tests to check its compliance with the product requirements. The data collection for the work took place in the form of two practical experiments for the collection of quantitative data, as well as recurring follow-up meetings with involved employees for the collection of qualitative data. The study resulted in a concept for an end product, called an end concept that corresponded to, and met the defined product requirements in terms of functionality and performance. A discussion was also held for the further development of the end product, including the completion of all concepts and the subsequent design phase.
24

Fisheye live streaming : A study of the dewarping function and the performance of the streaming / Fisköga-objektiv direktsändning : Ett studie av fisköga-förvrängning korrigering samt prestanda av direktsändning

Zhengyu, Wang, Al-Shorji, Yousuf January 2018 (has links)
Provision of live streaming of video from fisheye camera is a popular business in the IT sector. Video dewarping is one of its special fields that expands rapidly. As the requirement of video quality becomes higher and higher, there is an increasing need for efficient solutions that can be utilized to process videos in attempts to gain desirable results. The problem is to determine the right combination of transmission bitrate and resolution for live streaming of the dewarped videos. The purpose of this thesis is to develop a prototype solution for dewarping video from fisheye camera and re-stream it to a client. This prototype is used for testing combinations of bitrate and resolution of the video in different scenarios. A system is devised to live stream a video from a fisheye camera, dewarp the video in a server and display the video in media players. The results reveal that the combination of bitrate 3.5 - 4.5 Mbps and resolution 720p is best suited for transmission to avoid noticeable lagging in playback. Comments of observers prove the promising use of the dewarped videos as Virtual Reality(VR) technology. / Direktsänd videoströmning från en kamera med fiskögaobjektiv är ett populärt och snabbväxande, speciellt inom vissa områden som videoförvrängning korrigering. Eftersom kravet på hög högkvalitativ video blir högre och högre, ökas också behovet av en effektiv videobearbetnings lösning för att få önskvärda resultat. Problemet är att bestämma rätt kombination av överföringsbithastighet och upplösning för direktströmning av bearbetade videon. Syftet med detta examensarbete är att utveckla en prototyplösning som korrigerar videoförvrängning från en kamera med fisköga-objektiv samt vidaresända den korrigerade videon till en klient. Denna prototyp används för att testa olika kombinationer av bithastighet och upplösning i olika scenarier. Ett prototypsystem utvecklades för att direktsända video från en kamera med fisköga-objektiv, korrigera videoförvrängningen i en server och spela upp de korrigerade video i en mediaspelare. Resultatet visar att kombinationen av bithastigheten mellan 3.5 - 4.5 Mbps och upplösningen 720p är den mest lämpliga för att undvika märkbara fördröjningar hos klienten. Den potentiella framtida användningen av den bearbetade videon inom Virtuell verklighet (VV) är lovande baserat på observatörernas kommentarer.
25

Privacy-preserving Building Occupancy Estimation via Low-Resolution Infrared Thermal Cameras

Zhu, Shuai January 2021 (has links)
Building occupancy estimation has become an important topic for sustainable buildings that has attracted more attention during the pandemics. Estimating building occupancy is a considerable problem in computer vision, while computer vision has achieved breakthroughs in recent years. But, machine learning algorithms for computer vision demand large datasets that may contain users’ private information to train reliable models. As privacy issues pose a severe challenge in the field of machine learning, this work aims to develop a privacypreserved machine learningbased method for people counting using a lowresolution thermal camera with 32 × 24 pixels. The method is applicable for counting people in different scenarios, concretely, counting people in spaces smaller than the field of view (FoV) of the camera, as well as large spaces over the FoV of the camera. In the first scenario, counting people in small spaces, we directly count people within the FoV of the camera by Multiple Object Detection (MOD) techniques. Our MOD method achieves up to 56.8% mean average precision (mAP). In the second scenario, we use Multiple Object Tracking (MOT) techniques to track people entering and exiting the space. We record the number of people who entered and exited, and then calculate the number of people based on the tracking results. The MOT method reaches 47.4% multiple object tracking accuracy (MOTA), 78.2% multiple object tracking precision (MOTP), and 59.6% identification F-Score (IDF1). Apart from the method, we create a novel thermal images dataset containing 1770 thermal images with proper annotation. / Uppskattning av hur många personer som vistas i en byggnad har blivit ett viktigt ämne för hållbara byggnader och har fått mer uppmärksamhet under pandemierna. Uppskattningen av byggnaders beläggning är ett stort problem inom datorseende, samtidigt som datorseende har fått ett genombrott under de senaste åren. Algoritmer för maskininlärning för datorseende kräver dock stora datamängder som kan innehålla användarnas privata information för att träna tillförlitliga modeller. Eftersom integritetsfrågor utgör en allvarlig utmaning inom maskininlärning syftar detta arbete till att utveckla en integritetsbevarande maskininlärningsbaserad metod för personräkning med hjälp av en värmekamera med låg upplösning med 32 x 24 pixlar. Metoden kan användas för att räkna människor i olika scenarier, dvs. att räkna människor i utrymmen som är mindre än kamerans FoV och i stora utrymmen som är större än kamerans FoV. I det första scenariot, att räkna människor i små utrymmen, räknar vi direkt människor inom kamerans FoV med MOD teknik. Vår MOD-metod uppnår upp till 56,8% av den totala procentuella fördelningen. I det andra scenariot använder vi MOT-teknik för att spåra personer som går in i och ut ur rummet. Vi registrerar antalet personer som går in och ut och beräknar sedan antalet personer utifrån spårningsresultaten. MOT-metoden ger 47,4% MOTA, 78,2% MOTP och 59,6% IDF1. Förutom metoden skapar vi ett nytt dataset för värmebilder som innehåller 1770 värmebilder med korrekt annotering.
26

Improvement of an existing Integrated Vehicle Dynamics Control System influencing an urban electric car

Sureka, Arihant January 2020 (has links)
The Integrated Vehicle Dynamics Control (IVDC) concept can influence the vehicle behaviour both longitudinally and laterally with just one upper level control concept and further lower level controllers. This demands for state estimation of the vehicle which also includes estimating parameters of interest for the vehicle dynamicist. The approach to this research is firstly in developing a robust unscented Kalman filter (UKF) estimator for the vehicle side slip tracking and also for cornering stiffness estimation which is then fed to the existing model predictive control allocation (MPCA) controller to enhance the lateral stability of the vehicle for the different manoeuvres studied. Based on these developments, two types of filters are created. One with adaption of distance between center of gravity (COG) and roll center height and another without adaption. The key factor in the estimator development is the time adaptive process covariance matrix for the cornering stiffnesses, with which only the initial values have to be parameterised. Combining this research encompasses effective and adaptive method for a better quality of estimation with a kinematic vehicle model which behaves like a real world vehicle, at least virtually.This study is carried out with the understanding of various optimal estimators, parametric sensitivity analysis and statistical inferences, facilitating a base for robust estimation. Keywords: kalametric, state estimation, design matrix, aliasing, kalman filter, projection algorithm, resolution / Konceptet Integrated Vehicle Dynamics Control (IVDC) kan påverka fordonets beteende både longitudinellt och lateralt med bara ett regler koncept iett övre lager och ytterligare regulatorer på lägre nivåer. Detta kräver tillståndsuppskattning av fordonet som också inkluderar uppskattning av parametrar av intresse för en fordonsdynamiker. Tillvägagångssättet för denna studie är för det första att utveckla en robust tillståndsestimering med hjälp av ett Unscented Kalman Filter (UKF) för att uppskatta ett fordons avdriftsvinkel och även för uppskattning av ett däcks sidkraftskoefficient, vilket sedan används i den befintliga modell-prediktiva regleralgoritmen (MPCA) för att förbättra lateralstabiliteten hos fordonet för de olika studerade manövrarna. Baserat på denna utveckling skapades två typer av filter, ett med anpassning av avståndet mellan tyngdpunkten (COG) och krängcentrumhöjden och ett annat utan anpassning. Nyckelfaktorn i estimeringsutvecklingen är den tidsberoende adaptiva inställningenav processkovariansmatrisen för sidkraftskoefficienterna, med vilken endast de initiala värdena behöver parametriseras. Efter filterutvecklingen identifieras parametrar baserade på en förväntad kundanvändning och en statistisk variansanalys (ANOVA) utförs för att bestämma de mest inflytelserika faktorerna i gruppen. En parameteroptimering utförs för att förbättra uppskattningskvaliteten. Kombinationen av detta arbete omfattar en effektiv och anpassningsbar metod för en bättre uppskattningskvalitet med en kinematisk fordonsmodell som har en fordonsrespons som ett verkligt fordon, åtminstone praktiskt taget. Denna studie har genomförts med förståelse för olika optimala estimatorer, parametrisk känslighetsanalys och statistiska slutsatser, vilket underlättaren bas för robust uppskattning. Nyckelord: kalametric, tillståndsestimering, designmatris, vikningsdistorsion, kalmanfilter,projection algorithm, upplösning
27

Höjddata i översvämningsmodellering : En fallstudie om hur höjdmodellens upplösning kan förbättra precisionen hos den 1D/2D-kopplade hydrauliska modellen LISFLOOD-FP / Elevation data in inundation modelling : A case study about how the resolution of the digital elevation model can increase the precision for the 1D-2D coupled hydraulic model LISFLOOD-FP

Ekholm, Disa January 2022 (has links)
Syftet med fallstudien var att undersöka möjligheterna och nyttan med att implementera en höjdmodell med högre upplösning i SMHI:s översvämningsmodellering som tillämpar den hydrauliska modellen LISFLOOD-FP. SMHI utfärdar översvämningsvarningar och det är därför av vikt att översvämningsmodelleringen håller hög kvalitet. Samtidigt kräver modelleringen tid och resurser från Nationellt Superdatorcentrum i Linköping, NSC. Därför vägdes de potentiella fördelarna med högre upplösning mot förlängd körtid. Fallstudien bestod av två delar där en höjdmodell på två meters upplösning i xy-planet implementerades och jämfördes med den i dagsläget uppställda modellen på fem meters upplösning. Detta gjordes genom att återskapa översvämningstillfällen med dess flöden från S-HYPE och mätningar. I studiens första del hämtades satellitdata från Copernicus från två tidigare översvämningstillfällen för validering av över-svämningsmodelleringen. De tidigare översvämningstillfällena var dels i Emån i Småland år 2012 och dels i Västerdalälven i Dalarna år 2018. Ett index för passning beräknades mellan översvämningskartorna producerade med två respektive fem meters upplösning gentemot satellitbilderna för att kvantifiera överlappande ytor. Därtill beräknades vattendragens lutning för att undersöka om det fanns indikationer på något samband med förändring i index med ökad upplösning på höjdmodellen. Studiens andra del bestod i att undersöka hur höjdmodellens upplösning påverkar vattnets spridning kring översvämningsvallar i modellen. I undersökningen återskapades ett översvämningstillfälle från 2020 i Helige å i Småland. Ett antal delavrinningsområden visade sig instabila för den högre upplösta höjdmodellen och kunde därför endast simuleras med lägre flöden. Erhållna resultat visade dock på att översvämningskarteringen förbättrades med upplösningen två meter vid jämförelse med data från Copernicus. Körtiden ökade dock med över 12 gånger vid simulering av högre upplösning. Vidare visades tröskeleffekter i studiens resultat, då översvämnings-vallen stoppade vattnet i den högre upplösta höjdmodellen men inte i den med lägre upplösning. På grund av stabilitetsproblemet och studiens begränsade omfattning, kunde slutsats inte dras om huruvida SMHI bör implementera en höjdmodell med två meters upplösning i systemet för översvämningsvarningar. Däremot kunde konstateras att stabiliteten i modellen måste öka för att det ska vara möjligt. Slutligen drogs slutsatsen att det förekommer tröskeleffekter mellan de två höjdmodellerna och att prestandan ökar generellt för den högre upplösningen när det kommer till precisionen i översvämningsmodelleringen. / The purpose of this case study was to examine the possibilities and advantages of implementing a DEM with higher resolution in inundation modelling at SMHI, the Swedish Meteorological and Hydrological Institute, which uses the hydraulic model LISFLOOD-FP. The institute issues flood warnings and therefore it is of high importance that the innundation modelling gives adequate results. On the other hand, running the models at a higher spatial resolution takes more time and resources. Therefore, potentially improved modelling results were discussed in a context of prolonged runtime. The case study consisted of two parts where a Digital Elevation Model, DEM of two meter resolution was implemented and compared to the five meter DEM that is currently in use. This was done by recreating previous flooding events by using discharge data from S-HYPE. In the first part, satellite data from Copernicus from two previous flooding events in Sweden were used for model validation in comparison with the results from inundation models of SMHI for the different DEM:s. An index was calculated to quantify the overlapping inundation areas. The events were at the river Emån in 2012 and at Västerdalälven in 2018. Moreover, the slope of the rivers within each study area was calculated to investigate correlation between improved flood modelling results for higher DEM resolution and slope of the rivers. The second part of the study investigated flood embankments for the two different DEM:s around Helige å river. A flooding event which took place in 2020 was recreated and the water flow around the built embankments was compared for the two resolutions.  Running the models, it turned out that simulations of several subcatchment areas were unstable with the two meter DEM, and could only be run with lower flow. The obtained results, however, revealed an improved inundation modelling for the DEM with a resolution of 2 m for all study areas in comparison to the data from Copernicus; however the runtime was increased by over 12 times. Moreover, the results also showed threshold effects, where the flooding was impeded by the flooding embankment with the two meter DEM but not at the lower resolution. Due to the stability issue and the limited scope of this study, it cannot be concluded whether SMHI should implement the two meter DEM in their flood warnings system. However, it was concluded that the stability has to be increased to make it feasible. It was also concluded that there are threshold effects between the two DEM:s and that the performance seems to increase overall for the higher resolution when it comes to precision of the modelling.
28

Evaluation of a Novel Reconstruction Framework for Gamma Knife Cone-Beam CT - The Impact of Scatter Correction and Noise Filtering on Image Quality and Co-registration Accuracy / Utvärdering av nytt rekonstruktionsramverk för Cone-Beam CT på Gammakniven - Effekten av spridningskorrigering och brusfiltrering på bildkvalitet och noggrannhet av co-registrering

Hägnestrand, Ida January 2023 (has links)
The Gamma Knife is a non-invasive stereotactic radiosurgery system used for treatments of deep targets in the brain. Accurate patient positioning is needed for precise radiation delivery to the target. The two latest versions of the Gamma Knife allow fractionated treatment by co-registering Cone-beam computed tomography (CBCT) images of the patient's position in the Gamma Knife with a diagnostic magnetic resonance (MR) image used for treatment planning. However, CBCT images often suffer from artifacts that degrade image quality, which may result in less accurate co-registration. This thesis project investigates the potential of a new reconstruction framework developed by Elekta, which incorporates scattering correction and noise filters, for the reconstruction of Gamma Knife CBCT images. The performance of the new reconstruction framework, along with its noise filter and scatter correction, is quantified using image quality metrics of phantoms, including contrast, uniformity, spatial resolution, and CT-number accuracy. Additionally, brain CBCT images of five patients are co-registered with their diagnostic MR images, and the mean target registration error is measured. The results indicate that the new reconstruction framework, without using scatter correction and noise filtering, performs equally well as the current framework in reconstructing Gamma Knife CBCT images, as it achieved similar image quality and co-registration accuracy. However, when the scatter correction was used, there were improvements in image uniformity and CT-number accuracy without compromising spatial resolution. Additionally, the introduction of a noise filter resulted in an improved contrast-to-noise ratio and low contrast visibility with minimal compromise of spatial resolution. Despite these image quality enhancements, there were no consistent improvements in co-registration accuracy, indicating that the co-registration is not sensitive to scatter or noise artefacts. / Gammakniven är en medicinteknisk apparat som används för icke-invasiv stereotaktisk strålkirurgi vid behandling av djupa mål i hjärnan. För att uppnå precision i strålbehandlingen krävs noggrann patientpositionering. De två senaste versionerna av Gammakniven tillåter fraktionerad behandling genom att co-registrera cone-beam computed tomography (CBCT)-bilder av patientens position i Gammakniven med en diagnostisk magnetresonans (MR)-bild som används för behandlingsplanering. Tyvärr lider CBCT-bilder ofta av artefakter som kan försämra bildkvaliteten och därmed minska precisionen i co-registreringen. Detta examensarbete undersöker ett nytt rekonstruktionsramverk som utvecklats av Elekta. Det nya rekonstruktionsramverket och dess tillhörande brusfilter och spridningskorrigering utvärderas för rekonstruktion av Gammaknivens CBCT bilder med hjälp av bildkvalitetsmått för fantomer, såsom kontrast, uniformitet, spatial upplösning och noggrannhet i CT-nummer. Dessutom co-registreras CBCT-bilder från fem patienter med deras diagnostiska MR-bilder, och det genomsnittliga registreringsfelet mäts. Resultaten visar att det nya rekonstruktionsramverket, utan användning av spridningskorrigering och brusfiltrering, presterar lika bra som det nuvarande ramverket för rekonstruktion av CBCT-bilder från Gammakniven. Båda ramverken ger liknande bildkvalitet och noggrannhet i co-registreringen av bilderna. Vid användning av spridningskorrigering observerades förbättringar i uniformiteten och noggrannheten i CT-nummer utan att den spatiala upplösningen försämrades. Införandet av brusfilter resulterade i ett förbättrat kontrast-brus-förhållande och synlighet av svaga kontrastskillnader med endast lite avkall på den spatiala upplösningen. Trots dessa förbättringar i bildkvaliteten observerades ingen konsekvent förbättring av noggrannheten i co-registreringen av bilderna, vilket tyder på att co-registreringen inte påverkas av spridnings- eller brusartefakter i stor utsträckning.
29

In Situ and Ex Situ Study of Nanoparticles Stability and Transformation in Simulated Aquatic Natural Media / Situ och Ex Situ studie av Nanopartiklars Stabilitet och Transformation i Simulerade Akvatiska Miljöer

Nguyen, Dinh, Samuelsson, Jonathan, Grönvall, Vilma January 2022 (has links)
Nanopartiklar är partiklar med storlekar i området 1 till 100 nm, och som uppvisar nanospecifika egenskaper. Egenskaperna kan variera helt mellan olika typer av nanopartiklar, även bland partiklarna och deras respektive material i bulk format på grund av deras unika storlekar, former och strukturer. I denna studie har vi analyserat storlekarna och den kolloidal stabiliteten på tre nanopartiklar, Co, Y2O3, CeO2 i färskvatten och färskvatten med naturligt organiskt material med hjälp av sonifikation, NTA, AAS och ICP analys. Nanopartiklarna lät vara utsatta i lösningarna i upp till six timmar, där analys med hand av NTA skedde efter den nollte, första och sjätte timmen. Partiklarna uppvisade olika egenskaper, och alla tre partiklar varierade i storlek under experimentet. Kobalt hade tendensen att minska i storlek i bägge lösningar, medan storlekarna på yttrium- och cerium oxid tenderade att variera. För att främja vår förståelse av nanopartiklar, behövs fler studier för att få en full förståelse för de unika egenskaperna hos dessa partiklar. / Nanoparticles are particles with sizes in the range of 1 to 100 nm, which also have nanospecific properties. Their properties vary wildly between different types of nanoparticles, even among nanoparticles and their respective particles in bulk format heeding to their highly individual shapes, sizes and structures. In this study we analyzed the sizes and colloidal stability of three different nanoparticles, Co, Y2O3 and CeO2 in freshwater and freshwater with natural organic matter solutions using sonication, NTA-, AAS-, and ICP analysis. The nanoparticles were exposed to the solutions for up to six hours, with analysis being performed at the zero, first and sixth hour. The particles indeed showed different properties, as all three particles varied in size throughout the experiment. Cobalt had the tendency to decrease in size as time progressed in both solutions, while the mean size of yttrium- and cerium oxide varied. To further our understanding of nanoparticles, more studies need to be performed to properly understand the individual properties of these nanoparticles.
30

Interaktionskvalitet - hur mäts det?

Friberg, Annika January 2009 (has links)
Den tekniska utvecklingen har lett till att massiva mängder av information sänds, i högahastigheter. Detta flöde måste vi lära oss att hantera. För att maximera nyttan av de nyateknikerna och undkomma de problem som detta enorma informationsflöde bär med sig, börinteraktionskvalitet studeras. Vi måste anpassa gränssnitt efter användaren eftersom denneinte har möjlighet att anpassa sig till, och sortera i för stora informationsmängder. Vi måsteutveckla system som gör människan mer effektiv vid användande av gränssnitt.För att anpassa gränssnitten efter användarens behov och begränsningar krävs kunskaperom den mänskliga kognitionen. När kognitiv belastning studeras är det viktigt att en såflexibel, lättillgänglig och icke-påträngande teknik som möjligt används för att få objektivamätresultat, samtidigt som pålitligheten är av största vikt. För att kunna designa gränssnittmed hög interaktionskvalitet krävs en teknik att utvärdera dessa. Målet med uppsatsen är attfastställa en mätmetod väl lämpad för mätning av interaktionskvalitet.För mätning av interaktionskvalitet rekommenderas en kombinering av subjektiva ochfysiologiska mätmetoder, detta innefattar en kombination av Functional near-infraredspecroscopy; en fysiologisk mätmetod som mäter hjärnaktiviteten med hjälp av ljuskällor ochdetektorer som fästs på frontalloben, Electrodermal activity; en fysiologisk mätmetod sommäter hjärnaktiviteten med hjälp av elektroder som fästs över skalpen och NASA task loadindex; en subjektiv, multidimensionell mätmetod som bygger på kortsortering och mäteruppfattad kognitiv belastning i en sammanhängande skala. Mätning med hjälp av dessametoder kan resultera i en ökad interaktionskvalitet i interaktiva, fysiska och digitalagränssnitt. En uppskattning av interaktionskvalitet kan bidra till att fel vid interaktionminimeras, vilket innebär en förbättring av användares upplevelse vid interaktion. / Technical developments have led to the broadcasting of massive amounts of information, athigh velocities. We must learn to handle this flow. To maximize the benefits of newtechnologies and avoid the problems that this immense information flow brings, interactionquality should be studied. We must adjust interfaces to the user because the user does nothave the ability to adapt and sort overly large amounts of information. We must developsystems that make the human more efficient when using interfaces.To adjust the interfaces to the user needs and limitations, knowledge about humancognitive processes is required. When cognitive workload is studied it is important that aflexible, easily accessed and non assertive technique is used to get unbiased results. At thesame time reliability is of great importance. To design interfaces with high interaction quality,a technique to evaluate these is required. The aim of this paper is to establish a method that iswell suited for measurement of interaction quality.When measuring interaction quality, a combination of subjective and physiologicalmethods is recommended. This comprises a combination of Functional near-infraredspectroscopy; a physiological measurement which measures brain activity using light sourcesand detectors placed on the frontal lobe, Electrodermal activity; a physiological measurementwhich measures brain activity using electrodes placed over the scalp and NASA task loadindex; a subjective, multidimensional measurement based on card sorting and measures theindividual perceived cognitive workload on a continuum scale. Measuring with these methodscan result in an increase in interaction quality in interactive, physical and digital interfaces.An estimation of interaction quality can contribute to eliminate interaction errors, thusimproving the user’s interaction experience.

Page generated in 0.0467 seconds