• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Validation of Abbott Diagnostics turbidimetric cystatin C assay and enzymatic creatinine assay using the Architect c8000 analyzer

Dehmer, Susanne January 2009 (has links)
<p><strong>Objective</strong><em>:</em> Estimation of glomerular filtration rate (GFR) is an important tool in the diagnosis and management of chronic kidney disease. Today creatinine is the most frequently used marker for kidney function though several studies indicate that cystatin C is a superior marker. The purpose of this study was to validate Abbott Diagnostics turbidimetric cystatin C assay and enzymatic creatinine assay.</p><p><strong>Methods</strong><em>:</em> The validation was performed by studies of CV for the two methods and correlations between the two and other available methods for assessing GFR. The stability of cystatin C at room temperature was also evaluated.</p><p><strong>Results</strong><em>: </em>Both methods showed good precision. The Abbott cystatin C assay generally gave lower values and thereby higher estimated GFRs than the correlated Gentian method. The Abbott enzymatic creatinine assay gave higher values than the correlated Jaffe method. Those results are generally unexpected, but in this study the cause is an automatically applied negative intercept used together with the Jaffe method. Cystatin C showed high stability when stored at room temperature.</p><p><strong>Conclusions</strong><em>:</em> Estimated GFRs tend to differ depending on the choice of method for analyzing cystatin C or creatinine and this study gives an overview of the range of variation. The study also enlightens the need for an international calibrator for the cystatin C methods presented by different manufacturers.</p>
2

Validation of Abbott Diagnostics turbidimetric cystatin C assay and enzymatic creatinine assay using the Architect c8000 analyzer

Dehmer, Susanne January 2009 (has links)
Objective: Estimation of glomerular filtration rate (GFR) is an important tool in the diagnosis and management of chronic kidney disease. Today creatinine is the most frequently used marker for kidney function though several studies indicate that cystatin C is a superior marker. The purpose of this study was to validate Abbott Diagnostics turbidimetric cystatin C assay and enzymatic creatinine assay. Methods: The validation was performed by studies of CV for the two methods and correlations between the two and other available methods for assessing GFR. The stability of cystatin C at room temperature was also evaluated. Results: Both methods showed good precision. The Abbott cystatin C assay generally gave lower values and thereby higher estimated GFRs than the correlated Gentian method. The Abbott enzymatic creatinine assay gave higher values than the correlated Jaffe method. Those results are generally unexpected, but in this study the cause is an automatically applied negative intercept used together with the Jaffe method. Cystatin C showed high stability when stored at room temperature. Conclusions: Estimated GFRs tend to differ depending on the choice of method for analyzing cystatin C or creatinine and this study gives an overview of the range of variation. The study also enlightens the need for an international calibrator for the cystatin C methods presented by different manufacturers.
3

The Strong Potential of ΛΛ Femtoscopy at HADES

Bohman, Malin January 2022 (has links)
The aims of this thesis project have been to determine the feasibility of hyperon reconstruction utilizing a newly developed and implemented vertex fitter based on the Lagrange multiplier method. This was achieved through simulation and subsequent analysis of the reaction specified below, detailing the production of Λ-hyperon and K+ -meson pairs from proton-proton collisions. 𝑝(4.5𝐺𝑒𝑉)𝑝 → ΛΛ𝐾+𝐾+ This reaction channel provides a more complicated topology than previous benchmark studies of the fitter performance and is of interest as it enables studies of the strong ΛΛ interaction via the femtoscopy method. For this reason, measurements of this reaction channel were among the physics goals of the HADES beam time taking place in February 2022. As such, this study has provided insight into the feasibility of performing a femtoscopy analysis on this data by reconstructing the Λ-pair using the fitter. The obtained results provide the Λ-pair reconstruction efficiency and purities based on the lower limit of expected events collected during this beamtime. As for the fitter performance, it was found from the reconstructed kinematics of the Λ-pair that the fitter can effectively remove background over most of the kinematic region. However, for low relative momentum, combinatorial background becomes especially prominent. As this region is of interest in a femtoscopy study, it has been identified as especially challenging for the developed analysis procedure.
4

On Incentives affecting Risk and Asset Management of Power Distribution

Wallnerström, Carl Johan January 2011 (has links)
The introduction of performance based tariff regulations along with higher media and political pressure have increased the need for well-performed risk and asset management applied to electric power distribution systems (DS), which is an infrastructure considered as a natural monopoly. Compared to other technical systems, DS have special characteristics which are important to consider. The Swedish regulation of DS tariffs between 1996 and 2012 is described together with complementary laws such as customer compensation for long outages. The regulator’s rule is to provide incentives for cost efficient operation with acceptable reliability and reasonable tariff levels. Another difficult task for the regulator is to settle the complexity, i.e. the balance between considering many details and the manageability. Two performed studies of the former regulatory model, included in this thesis, were part of the criticism that led to its fall. Furthermore, based on results from a project included here, initiated by the regulator to review a model to judge effectible costs, the regulator changed some initial plans concerning the upcoming regulation.   A classification of the risk management divided into separate categories is proposed partly based on a study investigating investment planning and risk management at a distribution system operator (DSO). A vulnerability analysis method using quantitative reliability analyses is introduced aimed to indicate how available resources could be better utilized and to evaluate whether additional security should be deployed for certain forecasted events. To evaluate the method, an application study has been performed based on hourly weather measurements and detailed failure reports over eight years for two DS. Months, weekdays and hours have been compared and the vulnerability of several weather phenomena has been evaluated. Of the weather phenomena studied, heavy snowfall and strong winds significantly affect the reliability, while frost, rain and snow depth have low or no impact. The main conclusion is that there is a need to implement new, more advanced, analysis methods. The thesis also provides a statistical validation method and introduces a new category of reliability indices, RT. / Distribution av elektricitet är att betrakta som ett naturligt monopol och är med stor sannolikhet det moderna samhällets viktigaste infrastruktur – och dess betydelse förutspås öka ytterligare i takt med implementering av teknik ämnad att minska mänsklighetens klimatpåverkan. I Sverige finns det fler än 150 elnätsbolag, vilka är av varierande storleksordning och med helt olika ägarstrukturer. Tidigare var handel med elektricitet integrerat i elnätsbolagens verksamhet, men 1996 avreglerades denna; infrastruktur för överföring separerades från produktion och handel. Införandet av kvalitetsreglering av elnätstariffer under början av 2000-talet och hårdare lagar om bland annat kundavbrottsersättning samt politiskt- och medialt tryck har givit incitament till kostnadseffektivitet med bibehållen god leveranskvalitet. En viktig aspekt är att eldistribution har, jämfört med andra infrastrukturer, flera speciella egenskaper som måste beaktas, vilket beskrives i avhandlingens första del tillsammans med introduktion av risk- och tillförlitlighetsteori samt ekonomisk teori.  Två studier som kan ha bidragit till den förra regleringens fall och en studie vars resultat ändrat reglermyndighetens initiala idé avseende modell för att beräkna påverkbara kostnader i kommande förhandsreglering från 2012 är inkluderade.   Av staten utsedd myndighet övervakar att kunder erbjudes elnätsanslutning och att tjänsten uppfyller kvalitetskrav samt att tariffnivåerna är skäliga och icke diskriminerande. Traditionellt har elnätsföretag mer eller mindre haft tillåtelse till intäkter motsvarande samtliga omkostnader och skälig vinst, så kallad självkostnadsprissättning. Under slutet av 1990-talet började ansvarig myndighet emellertid arbeta mot en reglering av intäktsram som även beaktar kostnadseffektivitet och kundkvalitet. Vid utformande av en sådan reglering måste svåra avvägningar göras. Exempelvis bör elnätsföretags objektiva förutsättningar, såsom terräng och kunder, tas i beaktning samtidigt som modellen bör vara lätthanterlig och konsekvent. Myndigheten ansåg ingen existerande reglermodell vara lämplig att anpassa till svenska förhållanden, så en ny modell utvecklades: Nätnyttomodellen (NNM). För 2003 års tariffer användes denna och beslut om krav på återbetalning till berörda elnätskunder togs, vilka överklagades. En utdragen juridisk process inleddes, där modellen kritiserades hårt av branschen på flera punkter. Två, i avhandlingen inkluderade studier, underbyggde kritisk argumentation mot NNM. Beslut i första instans (Länsrätt) hade inte tagits 2008 då parterna kom överens avseende år 2003-2007. Ett EU-direktiv tvingar Sverige att gå över till förhandsreglering, och i stället för att modifiera NNM och fortsätta strida juridiskt för den, togs beslut att ta fram en helt ny modell. Nätföretagens tillåtna intäktsram kommer förenklat grunda sig på elnätsföretagens kapitalkostnader och löpande kostnader. Därtill, utifrån hur effektivt och med vilken kvalitet nätföretagen bedrivit sin verksamhet, kan tillåten intäktsram justeras.   En systematisk beskrivning av ett elnätsföretags nuvarande riskhantering och investeringsstrategier för olika spänningsnivåer tillhandahålles med syfte att stödja elnätsföretag i utvecklandet av riskhantering och att ge akademiskt referensmaterial baserat på branscherfarenhet. En klassificering av riskhantering uppdelat i olika kategorier och en sårbarhetsanalysmetod samt en ny tillförlitlighetsindexkategori (RT) föreslås i avhandlingen, delvis baserat på genomförd studie. Sårbarhetsanalysens övergripande idé är att identifiera och utvärdera möjliga systemtillstånd med hjälp av kvantitativa tillförlitlighetsanalyser. Målet är att detta skall vara ett verktyg för att nyttja tillgängliga resurser effektivare, t.ex. förebyggande underhåll och semesterplanering samt för att bedöma om förebyggande åtgärder baserat på väderprognoser vore lämpligt. RT är en flexibel kategori av mått på sannolikhet för kundavbrott ≥T timmar, vilket exempelvis är användbart för analys av kundavbrottsersättningslagars påverkan; sådana har exempelvis införts i Sverige och UK under 2000-talet. En statistisk valideringsmetod av tillförlitlighetsindex har tagits fram för att uppskatta statistisk osäkerhet som funktion av antal mätdata ett tillförlitlighetsindexvärde är baseras på.   För att utvärdera introducerad sårbarhetsanalysmetod har en studie utförts baserat på timvisa väderdata och detaljerad avbrottsstatistik avseende åtta år för två olika eldistributionsnät i Sverige. Månader, veckodagar och timmar har jämförts vars resultat exempelvis kan användas för fördelning av resurser mer effektivt över tid. Sårbarhet med avseende på olika väderfenomen har utvärderats. Av de studerade väderfenomen är det blott ymnigt snöfall och hårda vindar, särskilt i kombination, som signifikant påverkar eldistributionssystems tillförlitlighet. Andra studier har visat på sårbarhet även för blixtnedslag (som ej fanns med som parameter i avhandlingen inkluderad studie). Temperatur (t.ex. inverkan av frost), regn och snödjup har således försumbar påverkan. Korrelationsstudier har utförts vilket bland annat visar på ett nästan linjärt samband i Sverige mellan temperatur och elförbrukning, vilket indirekt indikerar att även elförbrukning har försumbar påverkan på leveranskvalitet. Slutligen föreslås ett analysramverk som introducerad sårbarhetsanalys skulle vara en del av. Övergripande idé presenteras, vilket främst skall inspirera för fortsatt arbete; emellertid bör påpekas att introducerad sårbarhetsanalysmetod är en självständig och färdig metod oavsett om föreslagna idéer genomföres eller ej. / QC 20110815

Page generated in 0.1201 seconds