231 |
Robustness Analysis of Perfusion Parameter Calculations / Robusthetsanalys av perfusionsparameterberäkningarPalmér, Alicia January 2024 (has links)
Cancer is one of the most common causes of death worldwide. When given optimal treatment, however, the risk of severe illness may greatly be reduced. Determining optimal treatment in turn requires evaluation of disease progression and response to potential, previous treatment. Analysis of perfusion, a physiological property that describes how well different tissues are supplied with blood, has been shown useful for revealing important tumor characteristics. By performing a contrast agent-enhanced, non-invasive medical imaging procedure, quantitative parameters of perfusion can be obtained by fitting the image data to mathematical models. These parameters may then provide valuable insights into tumor properties, useful for purposes such as diagnostics and treatment response evaluation. Varieties of parameter calculation frameworks and perfusion models may however lead to a wide range of possible parameter values, which negatively impacts reproducibility and confidence in results. The aim of this thesis project was to explore how different implementation choices in a perfusion parameter calculations framework, as well as image data noise and filtering, affected the parameter estimations. Image data of nine brain-tumor patients and a physical phantom was used for calculating perfusion parameters after systematically applying changes to the default calculations framework. The results showed that the choice of optimization method for parameter estimations could provide a significant difference in parameter estimations. A semi-automated method for obtaining a venous input function was evaluated and shown to be robust with respect to simulated user inputs. Generation of a T1 map, used when performing the parameter calculations, was explored for the variable flip-angle method and from this investigation it was concluded that a few combinations of flip-angles generated unrealistic T1 maps. Finally, a Gaussian image filter applied in the x- and ydimensions of the image data was found to provide a noticeable reduction of applied noise. The outcome of the experiments exemplified how calculation framework setup affected parameter estimations, which was discussed to be of importance for other areas of research as well. Future work could encompass exploration of other, more complex perfusion models, and performing similar analysis for tumors in other body-parts. / Cancer är en av de vanligaste dödsorsakerna i världen. Risken för svår sjukdom kan dock minimeras om optimal behandling ges, vilket kräver utvärdering av sjukdomstillstånd och svar på eventuell tidigare behandling för att åstadkommas. Mätningar av perfusion, en fysiologisk egenskap som direkt relaterar till vävnadernas blodtillförsel, har visat sig vara användbar för att avslöja viktiga tumöregenskaper. Genom att utföra en icke-invasiv medicinsk bildtagningsprocedur med kontrastvätska kan kvantitativa perfusionsparametrar erhållas genom att anpassa bilddatat till matematiska modeller. Dessa parametrar kan sedan ge värdefulla insikter om tumörers egenskaper, användbara för ändamål som diagnostik och utvärdering av behandling. Variationer av ramverk för parameterberäkningar och perfusionsmodeller kan dock leda till många olika, möjliga parametervärden, vilket negativt påverkar reproducerbarhet och förtroende för korrekthet hos de beräknade parametrarna. Syftet med detta examensarbete var att utforska hur implementeringen av ett ramverk för perfusionsparameterberäkningar, samt bilddatabrus och filtrering, påverkade parameterberäkningarna. Bilddata från nio hjärntumörpatienter samt en fysisk fantom användes för att beräkna perfusionsparametrar efter att systematiskt ändrat delar av ett ursprungligt beräkningsramverk. Resultaten visade att valet av optimeringsmetod för modelanpassning kunde ge en signifikant skillnad i parameteruppskattningar. En semi-automatiserad metod designad för att erhålla en venös inflödesfunktion utvärderades och påvisades vara robust med avseende på simulerad användarinteraktion. Generering av en T1-karta, som kan användas för parameterberäkningarna, undersöktes för variable flip-angle metoden, och från denna undersökning drogs slutsatsen att ett antal kombinationer av vinklar genererade orealistiska T1-kartor. Slutligen visade sig ett Gaussiskt bildfilter applicerat i x- och y-dimensionerna av bilddata ge en märkbar reducering av applicerat brus. Arbetet gav exempel på hur val av beräkningsramverk kan påverka parameteruppskattningar, vilket vidare diskuterades kan ha betydelse inom andra forskningsområden. Framtida undersökningar kan innefatta att utforska andra, mer komplexa perfusionsmodeller, samt att utföra liknande analyser för tumörer i andra kroppsdelar.
|
232 |
Development of an MRI-compatible Multi-compartment Phantom for Dynamic Studies / Utveckling av MRI-kompatibel flerkammarfantom för dynamiska studierStröm Seez, Jonas, Holmer Fann, Frederick January 2020 (has links)
Medical imaging based on radioactive tracers exposes the patient to radiation. For this reason, a phantom is preferably used for non-clinical studies such as routine quality assurance and research. The aim of this project was to design, build and test a multi-compartment phantom to be used in dynamic SPECT/CT, PET/CT and PET/MRI studies. By treating each compartment as a biological system and plotting activity distribution, desired characteristics of the phantom can be obtained. A software program was created to simulate compartment activity distribution for different input parameters. Such parameters include number of compartments, administered activity, flow rates between compartments and compartment volume. Based on the simulation, the phantom was designed to meet the desired characteristics. Due to the outbreak of the SARS-CoV-2 virus, no phantom could be built nor tested. Consequently, leading the project to create a foundation that facilitates future building of the phantom. / Medicinsk avbildning med radioaktiva spårämnen utsätter patienter för en stråldos. Av detta skäl används företrädesvis en fantom för icke-kliniska studier såsom rutinmässig kvalitetssäkring och forskning. Syftet med detta projekt var att designa, bygga och testa ett flerkammarfantom som ska användas i dynamiska SPECT/CT, PET/CT och PET/MRI studier. Genom att behandla varje kammare som ett biologiskt system och plotta aktivitetsfördelning kan önskade egenskaper hos fantomen erhållas. Ett program skapades för att simulera aktivitetsdistributionen i flerkammarfantomer för olika in parametrar så som antal kammare, administrerad aktivitet, flöden mellan kammare och kammarvolym. Baserat på simuleringen utformades fantomen för att uppfylla de önskade egenskaperna. På grund av utbrottet av SARS-CoV-2 viruset kunde ingen fantom byggas eller testas. Följaktligen leddes projektet till att skapa en grund som underlättar framtida byggande av fantomen.
|
233 |
JÄMFÖRELSE AV TVÅDIMENSIONELL OCH TREDIMENSIONELL ANALYS FÖR BESTÄMNING AV VOLYM OCH EJEKTIONSFRAKTION / COMPARISON BETWEEN TWO-DIMENSIONAL AND THREE-DIMENSIONAL ANALYSIS FOR DETERMINATION OF VOLUME AND EJECTION FRACTIONKobeissi, Manar January 2023 (has links)
Ekokardiografi (EKO) är en vanlig metod som används för bedömning och uppföljning av eventuella hjärtsjukdomar. Idag är tvådimensionell (2D) EKO standardmetoden för bestämning av slutdiastolisk volym (EDV), slutsystolisk volym (ESV) och ejektionsfraktionen (EF). Tredimensionell (3D) EKO har börjat användas mer kliniskt för bestämning av EDV, ESV och EF. Idag används två olika 3D mjukvaruprogram, Tomtec som är helautomatiserad och Dynamic Heart Model (DHM) som även den är helautomatiserad. Dessa används för bestämning av EDV, ESV och EF. Syftet med undersökningen var att jämföra två olika 3D-mjukvaruprogram, Tomtec samt DHM, för bestämning av EF och vänsterkammarvolymer (EDV och ESV). Dessa jämförs även med 2D som idag är standardmetod för värdering av både volymer och EF. Det erhölls signifikanta skillnader mellan programmen Tomtec och DHM, där högre volymer uppmättes med DHM. I jämförelse med 2D påvisades även signifikant större volymer med 3D (Tomtec och DHM). Resultatet från korrelationsanalysen visade en mycket hög korrelation mellan Tomtec och DHM för EDV, ESV och EF. Även en hög korrelation mellan 3D och 2D för bestämning av EDV, ESV och EF förelåg. Detta bekräftades med Bland Altman analyserna som visade goda överenstämmelser mellan Tomtec och DHM, samt mellan 3D och 2D. Överenstämmelserna mellan metoderna var hög. Mjukvaruprogrammen Tomtec och DHM stämmer väl överens med varandra och med 2D EKO. Skillnaden beror sannolikt på att Tomtec, DHM och 2D bygger på olika metodiker, däremot är denna skillnad obetydlig vid klinisk användning. / Echocardiography (ECHO) is a common method used for assessment and follow-up of possible heart diseases. Today, two-dimensional (2D) ECHO is the standard method for determining end-diastolic volume (EDV), end-systolic volume (ESV) and ejection fraction (EF). Currently, three-dimensional (3D) ECHO is used more clinically for the determination of EDV, ESV and EF. Two different 3D software are used today, Tomtec which is a fully automated method and Dynamic Heart Model (DHM) which is also a fully automated method. These are used to determine EDV, ESV and EF. The aim of the study was to compare two different 3D softwares, Tomtec and DHM, for assessment of EF and left ventricular volumes (EDV and ESV). These are also compared to 2D, which currently is the standard method for assessing both volumes and EF. Significant differences were seen between the Tomtec and DHM software, where higher volumes were measured with DHM. In comparison with 2D, significantly larger volumes were obtained with 3D (Tomtec and DHM). The result from the correlation analysis showed very high correlation between Tomtec and DHM for EDV, ESV and EF. High correlation between 3D and 2D for determination of EDV, ESV and EF was present. This was confirmed with the Bland Altman analyses, which showed good agreement between Tomtec and DHM, as well as between 3D and 2D. Agreements between the methods were high. The Tomtec and DHM softwares showed good agreement as well as with 2D ECHO. The significant difference is probably because Tomtec, DHM and 2D are based on different methodologies, although in clinical practice this difference is of minor relevance.
|
234 |
Investigations and Development in the Area of Automated Security Evaluation of Android Devices with Focus on BluetoothHolmquist, Robin January 2023 (has links)
Bluetooth is a technology that has been implemented in over 5 billion devices and therefore has a considerable impact. It is the dominant technology for shortrange wireless communication. Modern society relies heavily on information technology (IT), and this has introduced a significant threat to society and companies in the form of hackers whether they be state-sponsored, political activists, or part of organized crime. This has introduced the need for companies and organizations that strive to make devices more secure, as well as standards that can be used for evaluating how secure a device is. Common Criteria (CC) is an internationally recognized set of guidelines and standards that can be used for security evaluation. There is a growing demand for enhanced efficiency in the field of security evaluation, especially considering the move to agile methodologies in information and communication technology (ICT) product development. Historically, security evaluation has been tailored to each individual product. The current trends in the certification and global ICT evaluation industry indicate a move in the direction of a greater reliance on predefined test cases. In this thesis, I describe how I designed, developed, and evaluated a toolkit that automates the evaluation of Android devices concerning a selection of security requirements that concern Bluetooth from the Mobile Device Fundamentals Protection Profile in CC. This involved a literature study, examination of the Bluetooth Core Specification, software development, and evaluation of the toolkit. My results from evaluating the toolkit found that it only reports non-compliance with a security requirement if the target of evaluation (TOE) is non-compliant. Additionally, every time the toolkit reported compliance with a security requirement, manual evaluation verified that the TOE truly complied with the security requirement. Finally, during the development phase, I discovered a vulnerability that had not been discovered during manual evaluation. It has been confirmed by the developer to be a vulnerability and a patch is currently being developed. My evaluation indicates that the toolkit I have developed is reliable and that it could therefore be used in the security industry. By finding a vulnerability by using automation, I have shown that automation could potentially be a useful approach for vulnerability research. Similarly to fuzzing, automation can be used to expose a system to behavior that it does not expect and therefore potentially reveal vulnerabilities. / Bluetooth är en teknologi som har implementerats i över 5 miljarder enheter och har därför stor inverkan. Det är den dominerande teknologin för trädlös kommunikation med kort räckvidd. Det moderna samhället är starkt beroende av informationsteknologi (IT), och detta har introducerat ett betydande hot mot samhället och företag i form av hackare oavsett om de är statligt sponsrade, politiska aktivister, eller en del av organiserad brottslighet. Detta har introducerat ett behov av företag och organisationer som strävar efter att göra enheter säkrare, såväl som standarder som kan användas för att utvärdera hur säker en enhet är. Common Criteria (CC) är en internationellt erkänd uppsättning riktlinjer och standarder som kan användas för säkerhetsutvärdering. Det finns en växande efterfrågan på ökad effektivitet inom området för säkerhetsutvärdering, särskilt med tanke på övergången till agila metoder för produktutveckling inom information- och kommunikations-teknologi. Historiskt sett har säkerhetsutvärdering skräddarsytts för varje enskild produkt. De nuvarande trenderna i certifieringsindustrin och globala ICT-utvärderingsindustrin indikerar en förflyttning i riktning mot ett mer frekvent användande av fördefinierade testfall. I denna uppsats beskriver jag hur jag designade, utvecklade och utvärderade ett verktyg som automatiserar utvärderingen av Android-enheter gällande ett urval av säkerhetskrav som rör Bluetooth från Mobile Device Fundamentals Protection Profile i CC. Detta innebar en litteraturstudie, granskning av Bluetooth Core Specification, mjukvaruutveckling och utvärdering av verktyget. Mina resultat från utvärderingen av verktyget visade att den bara rapporterar bristande efterlevnad med ett säkerhetskrav om målet för utvärdering (TOE) inte efterlever säkerhetskravet i fråga. Dessutom, varje gång verktyget rapporterade överensstämmelse med ett säkerhetskrav, verifierade manuell utvärdering att TOE:n verkligen efterlevde säkerhetskravet i fråga. Slutligen, under utvecklingsfasen upptäckte jag en sårbarhet som inte upptäckts under manuell utvärdering. Sårbarhet har bekräftats av utvecklaren och en patch håller på att utvecklas. Min utvärdering visar att det verktyg som jag har utvecklat är tillförlitlig och att den därför skulle kunna användas i säkerhetsbranschen. Genom att hitta en sårbarhet genom automatisering har jag visat att automatisering skulle kunna vara en användbar metod för sårbarhetsforskning. På samma sätt som fuzzing kan automatisering används för att utsätta ett system för beteenden som det inte förväntar sig och därför potentiellt avslöja sårbarheter.
|
235 |
The effect of noise filters on DVS event streams : Examining background activity filters on neuromorphic event streams / Brusreduceringens inverkan på synsensorer : En studie kring brusreduceringens inverkan på händelseströmmar ifrån neuromorfiska synsensorerTrogadas, Giorgos, Ekonoja, Larissa January 2021 (has links)
Image classification using data from neuromorphic vision sensors is a challenging task that affects the use of dynamic vision sensor cameras in real- world environments. One impeding factor is noise in the neuromorphic event stream, which is often generated by the dynamic vision sensors themselves. This means that effective noise filtration is key to successful use of event- based data streams in real-world applications. In this paper we harness two feature representations of neuromorphic vision data in order to apply conventional frame-based image tools on the neuromorphic event stream. We use a standard noise filter to evaluate the effectiveness of noise filtration using a popular dataset converted to neuromorphic vision data. The two feature representations are the best-of-class standard Histograms of Averaged Time Surfaces (HATS) and a simpler grid matrix representation. To evaluate the effectiveness of the noise filter, we compare classification accuracies using various noise filter windows at different noise levels by adding additional artificially generated Gaussian noise to the dataset. Our performance metrics are reported as classification accuracy. Our results show that the classification accuracy using frames generated with HATS is not significantly improved by a noise filter. However, the classification accuracy of the frames generated with the more traditional grid representation is improved. These results can be refined and tuned for other datasets and may eventually contribute to on- the- fly noise reduction in neuromorphic vision sensors. / Händelsekameror är en ny typ av kamera som registrerar små ljusförändringar i kamerans synfält. Sensorn som kameran bygger på är modellerad efter näthinnan som finns i våra ögon. Näthinnan är uppbyggd av tunna lager av celler som omvandlar ljus till nervsignaler. Eftersom synsensorer efterliknar nervsystemet har de getts namnet neuromorfiska synsensorer. För att registrera små ljusförändringar måste dessa sensorer vara väldigt känsliga vilket även genererar ett elektroniskt brus. Detta brus försämrar kvalitén på signalen vilket blir en förhindrande faktor när dessa synsensorer ska användas i praktiken och ställer stora krav på att hitta effektiva metoder för brusredusering. Denna avhandling undersöker två typer av digitala framställningar som omvandlar signalen ifrån händelsekameror till något som efterliknar vanliga bilder som kan användas med traditionella metoder för bildigenkänning. Vi undersöker brusreduseringens inverkan på den övergripande noggrannhet som uppnås av en artificiell intelligens vid bildigenkänning. För att utmana AIn har vi tillfört ytterligare normalfördelat brus i signalen. De digitala framställningar som används är dels histogram av genomsnittliga tidsytor (eng. histograms of averaged time surfaces) och en matrisrepresentation. Vi visar att HATS är robust och klarar av att generera digitala framställningar som tillåter AIn att bibehålla god noggrannhet även vid höga nivåer av brus, vilket medför att brusreduseringens inverkan var försumbar. Matrisrepresentationen gynnas av brusredusering vid högre nivåer av brus.
|
236 |
Follow the Money : Determinants of Cap Rates in the Stockholm Office Market / Följ Pengarna : Bestämningsfaktorer för Direktavkastningskrav på KontorsmarknadenSaxton, Henrik January 2022 (has links)
Purpose – In recent decades the inflation- and interest rates have followed a long-termdeclining trend. Followed by central banks starting to use unconventional monetary policiesto cope with financial crises have led to increased amounts of liquidity in the financialsystems and available and looking for investment alternatives on the capital markets. At thesame time real estate property prices have set new highs corresponding to a longer-termtrend of declining cap rates. The traditional cap rate formula components the risk-free rateand risk premium less rental growth do not entirely explain the trend of declining cap ratesthat have led to very low cap rates. The purpose with this thesis quantitative study is to testif the newer cap rate determinants money supply and foreign investments percentage of allmarket transactions can explain the decline and recently very low cap rates.Design/Methodology – The master thesis firstly conducts a literature review on previousstudies on cap rate determinants and subsequent conduct an own quantitative study byrunning dynamic ordinary least squares (DOLS) regression analysis on time series ofStockholm central business district commercial office cap rates and determinants chosen asindependent variables representing macro- and market fundamental factors driving caprates with the addition of money supply proxied by monetary aggregate M3 and foreigninvestments on the market proxied by the foreign share of investments on the Stockholmcommercial office market.Findings – The DOLS regression model (1)-(5) determinants are overall significant androbust. Of the newer cap rate determinants that are tested the monetary aggregate M3 andits included lags are of higher and stronger significance and impact on the cap rate than theforeign investment share. However, the foreign investment share time-series data used inthe study do not entirely correspond to the Stockholm central business district (CBD)commercial office market but rather against the larger Stockholm commercial office marketand hence the foreign investment share is assumed to be a relevant cap rate determinantwith support from studies referred to in the section theoretical framework.Research limitations/implications – To ensure high quality in statistical analysis andhypothesis testing large data samples corresponding to longer time-series data than waspossible to obtain for this thesis quantitative study is required. However, even though arelatively small sample has been used it performed well in tests conducted of the dataquality.Originality/value – The master thesis aims to measure and quantify the impact fromunconventional monetary policy and international real estate investments on commercialoffice cap rates. Executed on the Swedish capital Stockholms CBD office market. / Syfte – De senaste decennierna har inflationen- och räntorna följt en långsiktigtnedåtgående trend. Detta har följts upp av att centralbanker börjat använda okonventionellpenningpolitik för att hantera finanskriser, vilket lett till att en ökad penningmängd i definansiella systemen sökt investeringsmöjligheter på kapitalmarknaderna. Samtidigt harfastighetspriserna satt nya rekord ett flertal gånger vilket motsvarar en långsiktig trend avsjunkande kapitaliseringstakter. Den traditionella modellen för kapitaliseringstakt med riskfriränta och riskpremium med subtraktion av hyrestillväxt förklarar inte helt detta. Syftet meddetta examensarbetes kvantitativa studie är att pröva om de nyare potentielladeterminanterna penningmängd och andelen utländska investeringar kan förklaranedgången och de nyligen väldigt låga kapitaliseringstakterna.Design/Metodik – Examensarbetet börjar med en litteraturstudie inom konceptetkapitaliseringstakt och dess determinanter. Därefter görs en kvantitativ studie med DOLSregressionsanalys av kapitaliseringstakter för kontorsmarknaden i Stockholms centralaaffärsdistrikt och modeller av dess determinanter bestående av makro- ochmarknadsfundamentala faktorer som antas vara drivande för kapitaliseringstakten. Medtillägg av determinanterna penningmängd modellerad med måttet M3 och andelenutländska investeringar modellerad med andelen utländska investeringar påkontorsmarknaden i Stockholm.Undersökningsresultat – Kapitaliseringstakts determinanterna i modellerna (1)-(5) ärövergripande signifikanta och robusta. Av de två nyare determinanterna är penningmängdM3 och dess inkluderade laggade värden av högre och starkare signifikans och med störreinverkan på kapitaliseringstakten än andelen utländska investeringar. Dessvärre motsvararinte tidsserien av andelen utländska investeringar på kontorsmarknaden i Stockholm detmindre segmentet kontorsmarknaden för Stockholms centrala affärsdistrikt och därmedantas den motsvarande andelen utländska investeringar vara signifikant med stöd av tidigarestudier som lyfts fram i litteraturstudien.Begränsningar/implikationer – För att säkerställa hög kvalité på analys av statistik behövsstora stickprov vilket motsvarar data för långa tidsserier, vilket inte var möjligt att erhålla fördetta examensarbetes kvantitativa studie. Positivt är dock ändå att tidsserie data somanvänts, trots att de inte är så långa som önskat, presterat bra i de genomförda testerna avdatakvalitén.
|
237 |
Temperature dependency of rheological properites of different dispersions containing microfibrillated cellulose / Temperaturberoende av reologiska egenskaper för olika dispersioner innehållande mikrofibrillerad cellulosaSwanelius, Johanna January 2022 (has links)
Today, the focus lies on the state of the environment and how we can choose more sustainable alternatives to oil based materials. One material of interest is microfibrillated cellulose (MFC).The microfibril exhibits interesting properties, which one is its excellent barrier properties, that is expected to come in good use for the conversion to a more sustainable society. It is believed that the use of biobased barriers will increase with these new materials and MFC is showing promising results. But in order to develop the material to its full potential, it is important to investigate how MFC behaves in different situations, which can be examined with rheological measurements. The aim of the thesis is to examine how the rheological properties of suspensions containing MFC are affected by temperature and time storing and how the learning from this work can be used for influencing dispersion properties. Four samples were investigated, containing different amounts of MFC and modified waxy maize starch. The samples were analyzed with a dynamic rotational rheometer (Kinexus Pro +) with a splined cup and bob. The following steps were included in the method development used in this work: sample preparation, the repeatability, rest time and statistical analysis. An oscillatory shear and steady shear measurement was performed on the samples, and selected samples were studied with microscopy. The results show that the temperature has affected the samples. The shear viscosity of all samples decreased with increasing temperature and the samples followed the temperature dependence of Arrhenius' equation. For samples containing MFC, the structure was affected, and the initial viscosity was not recovered. The complex viscosity did also decrease at the beginning to then suggestively increase, creating a stronger network at higher temperatures. With the raised temperature the bonding between the fibrils became weaker, which in turn made the dispersion less viscous. Then, depending on the applied force, the shear viscosity and complex viscosity acted differently. To conclude, both the shear viscosity and the complex viscosity in these dispersions containing MFC are dependent on the temperature and time storing. By the learnings from this work, a method has been developed to understand how to use temperature and storing time to lower the shear viscosity and lower, or increase, the complex viscosity. / Idag ligger det ett stort fokus på miljöns tillstånd och hur vi kan välja mer hållbara alternativjämfört med oljebaserade material. Ett material av intresse är mikrofibrillerad cellulosa (MFC).Denna mikrofibrill besitter intressanta egenskaper, varav en är enastående barriäregenskaper,som förväntas komma till god användning i omställningen till ett mer hållbart samhälle. Det tros att biobaserade barriärer kommer att användas mer i dessa nya material och här visar MFC lovande resultat. Men för att kunna utveckla materialet till sin fulla potential är det viktigt att undersöka hur MFC beter sig i olika situationer, som kan undersökas genom reologiska mätningar. Syftet med arbetet är att undersöka hur de reologiska egenskaperna för suspensioner innehållande MFC påverkas av temperatur och lagringstid samt hur lärdomen från det här arbetet kan användas för att påverka dispersionsegenskaper. Fyra prover undersöktes,innehållande olika mängd MFC och modifierad majsstärkelse. Proverna analyserades med en dynamisk rotations reometer (Kinexus Pro +) med räfflad kopp och bob. Följande steg ingick i metodutvecklingen som användes i detta arbete: provberedning, repeterbarhet, vilotid och statistisk analys. En oscillerande skjuvning och jämn skjuvmätning utfördes på de olika proverna samt att utvalda prover studerades med mikroskopi. Resultatet visade att temperaturen hade påverkat proverna. Skjuvviskositeten för alla prover minskade med en ökande temperatur och proverna följde temperaturberoendet av Arrhenius ekvation. För prover innehållande MFC påverkades strukturen och startviskositeten återficks inte. Den komplexa viskositeten minskade också till en början för att sedan suggestivt öka, vilket skapade ett starkare nätverk vid högre temperaturer. Med en högre temperatur blev bindningarna mellan fibrillerna svagare, vilket bidrog att dispersionerna blev mindre viskösa. Beroende på den applicerade kraften, verkade skjuvviskositeten och den komplexa viskositeten olika. Slutsatsen var att både skjuvviskositeten och den komplexa viskositeten i dessa prover innehållande MFC beroende av temperaturen och lagringstid. Från lärdomen av arbetet har en metod tagits fram för att kunna använda temperatur och lagringstid för att sänka skjuvviskositeten och sänka, eller öka, den komplexa viskositeten.
|
238 |
Data-driven Dynamic Baseline Calibration Method for Gas Sensors / Datadriven Dynamisk Baslinjekalibreringsmetod för GassensorerYang, Cheng January 2021 (has links)
Automatic Baseline Correction is the state-of-the-art calibration method of non-dispersive infrared CO2 sensing, which is the standard CO2 gas monitoring method. In this thesis, we improve it by introducing the dynamic baseline based on environmental data. The 96 data sets from 48 atmospheric stations verify the characteristics of the annual growth trend and seasonality of the baseline model. In order to improve the accuracy of the calibration, the k-means clustering method is used to identify different types of baselines. Then the localized dynamic baseline model is predicted by using the location information of the stations only, which provides an executable calibration implementation for dynamic baseline calibration without relying on historical CO2 data. / Automatisk baslinjekorrigering är den senaste kalibreringsmetoden för icke-dispersiv infraröd CO2 avkänning, vilket är standard CO2 gasövervakningsmetod. I denna avhandling förbättrar vi den genom att introducera den dynamiska baslinjen baserat på miljödata. De 96 datamängderna från 48 atmosfärstationer bekräftar egenskaperna för den årliga tillväxttrenden och säsongsmässigheten hos basmodellen. För att förbättra kalibreringens noggrannhet används k-medelklusteringsmetoden för att identifiera olika typer av baslinjer. Därefter förutses den lokaliserade dynamiska baslinjemodellen med endast platsinformationen för stationerna, som ger en körbar kalibreringsimplementering för dynamisk baslinjekalibrering utan att förlita sig på historisk CO2 data.
|
239 |
PRODUCT MANAGEMENT SYSTEM : A BRIDGE BETWEEN THE CUSTOMER ANDCOMPANY’S BUSINESS MODEL AND STRATEGY FORNICHE COMPANIES IN OLIGOPOLY MARKETS / PRODUKTHANTERINGSSYSTEM : EN BRO MELLAN KUNDEN OCH FÖRETAGETSAFFÄRSMODELL OCH STRATEGI FÖR NISCHFÖRETAG I OLIGOPOLMARKNADERBerggren, Christina January 2021 (has links)
For smaller niche companies in an oligopoly market to survive and grow, they need to focus on either having unique products and/or unique, more efficient internal processes compared to their larger competitors. One possible success factor for these smaller companies is to exploit the business potential found in an increasingly digitalized world. To fully utilize this potential, it is necessary for companies to ensure that their business models and strategies include performing a digital transformation as one of their key focus areas. This study focuses on the benefits that a company can derive from creating a digitalized back-end product management system that is integrated with a front-end, online user interface. The two research questions answered in this study are related to the interrelationship between business model and strategy and the creation of a digitalized product management system. In order to answer these questions, two case studies of three smaller, niche companies operating on the Swedish oligopoly markets of telecommunication and power distribution were performed. Interviews were held with representatives from these companies and the results of the interviews were coded by utilizing a Research Framework created for this study. The Research Framework was created based on the performed literature review including the dynamic capabilities concept that encompasses a company’s ability to sense, seize and transform itself to create a successful business model. The results of the case studies showed the benefits of digitalization in designing and utilizing a product management system that is integrated with a front-end user interface. Such an integrated platform should support in achieving increased customer satisfaction, as customers increasingly expect their suppliers to have a platform that enables them to online make their product choices, administrate their own accounts and retrieve historical data. This is part of a societal trend that smaller niche companies can utilize in their business model and strategy to in an agile manner meet the competition from their larger competitors. Besides increasing customer satisfaction, a well designed, digitalized product management system integrated with an online user interface makes it possible to decrease the need for manual administrative processes. This results in an increase in efficiency and reduced costs within a company or gives the employees the opportunity to focus on more value added activities. In this manner, the product management system has shown to be an important bridge between customers, product offerings, internal business management processes and a company’s business model and strategy. / För att mindre nischföretag på en oligopolmarknad ska kunna överleva och växa måste de fokusera på att ha unika produkter och/eller unika, effektivare interna processer jämfört med sina större konkurrenter. En möjlig framgångsfaktor för dessa mindre företag är att dra fördel av den affärspotential som finns i en alltmer digitaliserad värld. För att fullt ut kunna utnyttja denna potential är det nödvändigt för företag att se till att deras affärsmodell och strategi inkluderar att genomföra en digital omvandling som ett av dess viktigaste fokusområden. Denna studie fokuserar på de fördelar som ett företag kan få av att skapa ett digitaliserat produkthanteringssystem som är integrerat med ett online kundanvändargränssnitt. De två forskningsfrågorna som besvaras i denna studie är relaterade till sambandet mellan affärsmodell och strategi och skapandet av ett digitaliserat produkthanteringssystem. För att svara på dessa frågor utfördes två fallstudier av tre mindre nischföretag som verkar på de svenska oligopolmarknaderna för telekommunikation och kraftdistribution. Intervjuer hölls med representanter från dessa företag och resultaten av intervjuerna kodades genom att använda ett ramverk som skapats för denna studie. Ramverket skapades baserat på den utförda litteraturstudien, inklusive konceptet om dynamisk kapabilitet som omfattar ett företags förmåga att känna, agera och förändra för att skapa en framgångsrik affärsmodell. Resultaten från fallstudierna visade värdet av en digitalisering i utformningen och användningen av ett produkthanteringssystem som är integrerat med ett online kundanvändargränssnitt. Dessa fördelar inkluderar ökad kundnöjdhet, eftersom kunder i allt högre grad förväntar sig att deras leverantörer har produkthanteringssystem som gör det möjligt för dem att online göra sina produktval och administrera sina egna konton. Detta är en del av en samhällelig trend som mindre nischföretag kan använda i sin affärsmodell och strategi för att på ett agilt sätt möta konkurrensen från sina större konkurrenter. Förutom ökad kundnöjdhet gör ett väl utformat och digitaliserat produkthanteringssystem integrerat med ett online kundanvändargränssnitt det möjligt att minska behovet av manuella administrativa processer. Detta resulterar i en effektivitetsökning och minskade kostnader i ett företag och ger medarbetarna möjlighet att fokusera på arbetsuppgifter som ger mervärde. På detta sätt har produkthanteringssystemet visat sig vara en viktig bro mellan kunder, produktutbud, interna affärshanteringsprocesser och företagets affärsmodell och strategi.
|
240 |
Improved planning of wind farms using dynamic transformer rating / Förbättrad planering av vindkraftsparker med dynamisk lastbarhet hos transformatorerMolina Gómez, Andrea January 2020 (has links)
Due to the increase in electrical demand and renewable penetration, electrical utilities need to improve and optimize the grid infrastructure. Fundamental components in this grid infrastructure are transformers, which are designed conservatively on the base of a static rated power. However, load and weather change continuously and hence, transformers are not used in the most efficient way. For this reason a new technology has been developed: Dynamic transformer rating (DTR). By applying DTR, it is possible to load transformers above the nameplate rating without affecting their life time expectancy. This project goes one step further and uses DTR for the short term and long term wind farm planning. The optimal wind farm is designed by applying DTR to the power transformer of the farm. The optimization is carried out using a Mixed-Integer Linear Programming (MILP) model. In respect of the transformer thermal analysis, the linearized top oil model of IEEE Clause 7 is selected. The model is executed for 4 different types of power transformers: 63 MVA, 100 MVA, 200 MVA and 400 MVA. As result, it is obtained that the net present value for the investment and the capacity of the wind farm increase linearly with respect to the size of the transformer. Then, a sensitivity analysis is carried out by modifying the wind speed, the electricity price, the lifetime of the transformer and the selected weather data. From this sensitivity analysis, it is possible to conclude that wind resources and electricity price are key parameters for the feasibility of the wind farm. / På grund av ökningen av efterfrågan av elektricitet och förnybara energin, elförsörgingsföretag måste förbättras och elnätets infrastruktur måste optimeras. Grundläggande komponenter i elnätet är transformatorer, som är designade konservativt efter en statisk märkeffekt. Laster och vädret ändras dock kontinuerligt, detta betyder att transformatorer inte används på de mest effektiva sätten. Av denna anledning har en ny teknik utvecklats: Dynamisk lastbarhet hos transformatorer (DTR). Genom att applicera DTR, gör det möjligt att belasta en transformator högre än märkdata utan att påverka den förväntade livslängden. Detta projekt går ett steg längre och använder DTR för kort och lång sikts vindkraftparkplaneringar. Den optimala vindkraftparken är designad genom att använda DLT på krafttransformatorn för vindkraftsparken. Optimeringen utförst med hjälp av Mixed-Integer Linear programming (MILP) modell. Gällande transformatorns termiska analys, så valdes den linjäriserade toppoljemodellen av IEEE Clause 7. Modellen var utförd för fyra olika krafttransformatorer: 63 MVA, 100 MVA, 200 MVA och 400 MVA. Resultatet blev att nettonuvärdet för investeringen och kapaciteten av vindkraftsparken ökade linjärt med avseende på storleken på transformatorn. En känslighetsanalys var utförd genom att ändra vindhastigheten, elpriset, livstiden av transformatorn och de valda väderdata. Från känslighetsanalysen så var det möjligt att dra slutsatsen att vindresurser och elpriset är nyckelparametrar för vindkraftsparkens genomförbarhet.
|
Page generated in 0.0529 seconds