• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 11
  • Tagged with
  • 42
  • 16
  • 16
  • 9
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Neanderthal genome sequencing : A genetic research study / Neandertal genom sekvensering : En genetisk forskningsstudie

Uhr, Susanna January 2023 (has links)
The aim of this study is to provide information regarding the development of aDNA research. The essay also strives to distinguish eventual impact on previous and contemporary conceptions concerning Neanderthal and modern human genetic divergence and possible interbreeding between the two species. Relatively recent Neanderthal genetic research will provide a glimpse into future explorations. Hominin species, other than Neanderthals, will be excluded from this paper as well as morphological studies and modern human evolution theories. Nature, Cell, Science, American anthropologist are examples of important publications constituting the study’s source material generated through the mandatory literature search. Genetic data results reveal genetic divergence between Neanderthals and modern humans approximately around 270 000 to 440 000 years ago or 550 000 to 765 000 years ago. The estimations for genetic divergence continue to alter with the advent of additional data. Contemporaneous genomic data results show interbreeding between Neanderthals and modern humans which contradict some prior perceptions surrounding the subject. New engendered Neanderthal genomic data indicate further exploration concerning the Neanderthal inherited genes effect on modern day human biology and physiology. / Syftet med denna studie är att delge informativ upplysning kring utvecklingen av aDNA forskning. Uppsatsen strävar även efter att urskilja eventuell påverkan på föregående och nuvarande uppfattningar angående genetisk splittring mellan Neandertalare och moderna människor och möjlig korsning mellan de två arterna. Relativt ny genetisk Neandertal forskning kommer att ge en inblick i framtida utforskningar. Andra homininer, undantagsvis för Neandertalarna, kommer att exkluderad från denna uppsats liksom morfologiska studier och teorier kring den moderna människans evolution. Nature, Cell, Science, American anthropologist är exempel på viktiga publiceringar som utgör studiens källmaterial vilket genererats genom den obligatoriska litteratursökningen. Genetiska data resultat visar genetisk splittring mellan Neandertalare och moderna människor proximalt kring 270 000 till 440 000 år sedan eller 550 000 till 765 000 år sedan. Beräkningarna för genetisk splittring ändras kontinuerligt på grund av ankomsten av nytillkommande data. Nya genomiska data resultat visar korsning mellan Neandertalare och moderna människor vilket motsäger en del föregående föreställningar kring ämnet. Ny framställd Neandertal genomiska data indikerar vidare utforskning av de ärvda Neandertal genernas möjliga påverkan på den moderna människans biologi och fysiologi.
32

Arkitechno - Att översätta rytm till rum : Metodutveckling för hur inredningsarkitektur kan gestaltas genom musik / Architechno - Translating rhythm into room : Method development for how interior architecture can be designed through music

Lidgren, Hanna January 2023 (has links)
Detta examensprojekt i inredningsarkitektur och möbeldesign på Konstfack, utforskar och utvecklar metoder för hur inredningsarkitektur kan gestaltas utifrån musik. Genom ett praktikbaserat undersökande analyseras subjektiva upplevelser av musik, vilka beståndsdelar som finns och hur musiken är uppbyggd. Ett undersökande som skapar ramar för inredningsarkitekten att förhålla sig till i en gestaltningsprocess. Inte som en begränsning, utan som ett gränssnitt som välkomnar alternativa arbetssätt och undersöker nya gestaltningsmöjligheter. Utifrån ett utvalt musikstycke gestaltas en interiör översättning av musiken och upplevelser den genererar. Projektet itererar mellan musikteori, studier av subjektiva upplevelser och färg-, ljus- och materialutforskning. Resultatet blir ett förslag på metoder för att analysera och studera rumslighet i direkt relation till musik, men också ett konkret gestaltningsförslag utifrån denna metodutveckling. Ett exempel på en översättning av ett medium till ett annat, som i sig blir ett fristående verk. Rytm, mörker och ljus formar tillsammans en temporal upplevelse. Ett musikstycke blir till interiör i långt, smalt rum, där ljuset hamnar i fokus mellan två skikt av väggar, med inslag av överraskningar som visar sig i ljusfärg, ytfärg eller material. / This degree project in interior architecture and furniture design at Konstfack, explores and develops methods for how interior architecture can be designed based on music. Through practice-based studies, the project analyzes subjective experiences of music, which components that exist and how the music is structured. Studies that creates frames for the interior designer to relate to in a design process. Not as limitations, but as an interface that welcomes alternative ways of working and investigates new design possibilities. Based on a selected piece of music, a translation into interior is created of the music and experiences it generates. The project iterates between music theory, studies of subjective experiences and color, light and material exploration. The result is a proposal for methods created for analyzing and studying spatiality in relation to music, but also a design proposal based on this method development. An example of a translation of one medium into another, which in itself becomes an independent work. Rhythm, darkness and light form a temporal experience together. A piece of music becomes an interior in a long, narrow room, where the light comes into focus between two layers of walls, with elements of surprises represented in colored light, surface color or material.
33

Method Development & Analysis of Seals using FEM / Metodutveckling och analys av tätningar med FEM

Svanborg Östlin, Lovisa January 2023 (has links)
Hyperelasticity is a significant property of rubber, taken advantage of in engineering applications. A common application is the use of seals to prevent fluid transfer (liquid or gas) between solid regions. Volvo CE is often depending on external supplier when developing seals. However, it could be beneficial to be able to do design and analysis in-house. Thus, they want with this master thesis to increase their knowledge about rubber and FEM simulations of seals in ANSYS. The aim with this work is to develop a method and guidelines for analysis and simulation of seals of hyperelastic materials. Components analyzed in this thesis work are two static seals, an O-ring andan in-house modified X-ring design. Selected materials, HNBR and FKM, are commonly used elastomers at Volvo CE. Material tests performed at RISE are for three different load cases:uniaxial tension test, planar tension test and biaxial tension test. Quasi-static analyses are performed in ANSYS. Hyperelastic materials need different constitutive models, hyperelastic material models, to describe their material behavior and these are defined in terms of a strain energy density function.However, the challenge is to determine the material constants in the equation, to characterize the material properties, by processing test data. Research questions answered are ‘’What material tests are needed for hyperelastic materials?’’, ‘’How is the test data converted to work as input to ANSYS and obtain material constants?’’ and ‘’How is an appropriate material model selected for simulation in ANSYS?’’. The study shows the importance of that material test represents the condition the application will experience. It should capture material behavior at the specific frequency, strain amplitude and temperature range for the application. The expected strain range and deformation modes that will play a functional role in the application should be considered in the material testing. Material constants can be determined from test data separately or simultaneously. Test data from at least one deformation mode is required, but one can't accurately predict full deviatoric behavior of hyperelastic material models by using one mode. If data only is used for one deformation mode, simulations in other deformation modes can yield erroneous results. It is therefore recommended to use several deformation modes. For applications with more complex load cases more deformation modes are needed. Generally, recommended tests are uniaxial tension test, planar tension test and biaxial tension test due to homogenous deformation is achieved. It is important to verify the material model before analysis. Using test data from one deformation mode can still provide a good fit. In the cases investigated verifications of the material model Yeoh 3rd order show that the fit obtained by only using uniaxial tension test data and using test data from three tests doesn’t seem to differ. Both uniaxial tension test data and test data from three tests give agood fit when simulating the tests with this material model. The benefit of using test data from three tests is questionable due to costs. It seems that only uniaxial tension test data could have been used as it provided a good fit. Moreover, test data must be processed to work as input to ANSYS. ANSYS requires engineering stress-strain test data for hyperelastic materials besides from the volumetric test, where true stress strain is required. The biaxial tension state which is realized with so called Bulge test thus needs to be converted to engineering stress. Then, test data needs to be adjusted to account for effects such as hysteresis and Mullin’s effect, where choice of curve and a process zero-shift must be done. Hyperelastic material models have different validity for different strain ranges. The selected material model was Yeoh 3rd order, which showed be a good fit for both the materials, HNBR and FKM, in strain range 30 %. The curve fit is based on three tests. The selection was based on the material model with lowest relative error with stability. Material constants were obtained for that material model, and these were used in simulations. Material models tends to be unstable for strains outside the test data. Simulations of seals with fluid pressure were performed for different pressure and stretch of the seal. If the contact pressure is larger than fluid pressure in the seals no leakage will occur. / Hyperelasticitet är en betydande egenskap hos gummi, som används i tekniska tillämpningar. En vanlig tillämpning är tätningar för att förhindra vätskeöverföring (vätska eller gas) mellan fasta områden. Volvo CE är ofta beroende av externa leverantörer vid utveckling av tätningar. De vill därför med detta examensarbete öka sina kunskaper om gummi och FEM-simuleringar av tätningar i ANSYS. Målet med arbetet är att utveckla en metod och riktlinjer för analys och simulering av tätningar av hyperelastiska material. Komponenter som analyseras i detta examensarbete är två statiska tätningar, en O-ring och en intern modifierad X-ringdesign. Utvalda material, HNBR och FKM, är vanliga elastomerer hos Volvo CE. Materialtester som genomförts på RISE är för tre olika belastningsfall: enaxligt dragprov, plant dragprov och biaxialt dragprov. Quasi-statiska analyser genomfördes i ANSYS. Hyperelastiskt material behöver olika konstitutiva modeller, hyperelastsiska materialmodeller, för att beskriva dess materialbeteende och dessa definieras i termer av töjningsenergidensitetsfunktion. Utmaningen är att bestämma materialkonstanterna i ekvationen, för att karakterisera materialegenskaper, genom att processa testdatat. Forskningsfrågor som besvaras är ’’Vilka materialtester är nödvändiga för hyperelastiska material?’’, ’’Hur konverteras testdata för att fungera som indata till ANSYS och erhålla materialkonstanter?’’ och ’’Hur väljs lämplig materialmodell för simulering i ANSYS?’’. Studien visar vikten av att materialtester representerar förhållanden som är representativa för applikationen. Det bör fånga materialbeteendet vid den specifika frekvensen, töjningsamplitud och temperatur för applikationen. Det förväntade töjningsomårdet och deformationslägen som kommer spela en funktionell roll i applikationen bör beaktas i materialtestningen. Materialkonstanter kan beräknas från testdata separat eller simultant. Testdata från minst ett deformationsläge krävs, men man kan inte exakt förutsäga fullständigt devatoriskt beteende hos hyperelastiska materialmodeller genom att använda ett deformationsläge. Om testdata endast används för ett deformationsläge kan simuleringar i andra deformationslägen ge felaktiga resultat. Det är därför rekommenderat att använda flera deformationslägen. Generellt rekommenderade tester är enaxligt dragprov, plant dragprov och biaxialt dragprov då homogen deformation uppnås. Det är viktigt at verifiera materialmodellen innan analys. Att använda testdata från ett deformationsläge kan fortfarande ge en bra passning. I de undersökta fallen visar verifikation av materialmodellen Yeoh 3:e ordningen att passningen som erhållits av enbart enaxligt dragprovtestdata och testdata från tre tester inte skiljer sig åt. Både enaxligt dragprov testdata och testdata från tre tester ger en bra passning när simulerar testerna med den materialmodellen. Fördelarna med att använda testdata från tre tester är ifrågasatt pga. kostnaderna. Det verkar som enbart enaxligt dragprov testdata kunde ha använts då det gav en bra passning. Vidare behövs testdata hanteras för att fungera som indata till ANSYS. ANSYS behöver nominellspänning-töjning testdata för hyperelastiska material förutom för det volymetriska testet, där sannspänning-töjning behövs. Det biaxiala dragprovet som realiserades med s.k. Bulge test måste därför konverteras till nominell spänning. Sedan behöver testdata justeras för att ta hänsyn till effekter som hysteres och Mullins effekt, där val av kurva samt en process ‘’zero-shift’’ måste göras. Hyperelastiska materialmodeller har olika giltighet för olika töjningsområden. Val av materialmodell blev Yeoh 3:e ordningen som visade sig vara en bra passning för båda materialen, HNBR och FKM, i töjningsområden 30%. Kurvanpassningen är baserad på tre tester. Valet baserades på den materialmodell som hade minst relativt fel och som var stabil. Materialkonstanterer hölls för den materialmodellen och dessa användes i simuleringar. Materialmodeller tenderar att vara ostabila för töjningar utanför testdata. Simuleringar av tätningar med flödestryck genomfördes för olika tryck och stretch av tätningen. Om kontakttrycket är större än flödestrycket i tätningen sker inget läckage.
34

Investigating CIC-C1q ELISA for measuring in vitro activation of the complement system on intravenous immunoglobulin / Undersökning av CIC-C1q ELISA för mätning av in vitro-aktivering av komplementsystemet på intravenöst immunoglobulin

Giannoglou, Theodosis January 2023 (has links)
Octapharma tillverkar Octagam, en lösning innehållande humant immunglobulin för intravenös administrering, vars huvudkomponent är immunglobulin G (IgG). Aggregerade IgG förknippas med aktivering av komplementsystemet i frånvaro av antigen. Denna ospecifika aktivering av komplement har tidigare rapporterats orsaka biverkningar hos patienter. För att undvika detta använder Octapharmas laboratorium för kvalitetskontroll en metod som kallas test av antikomplementär aktivitet, för kontroll av batcher av Octagam innan de släpps ut på marknaden. Denna metod har flera problem, t.ex. låg tillgänglighet av viktiga reagens. Syftet med detta projekt var därför att undersöka om en alternativ metod, CIC-C1q ELISA, kunde mäta aktiveringen av komplementsystemet på immunglobuliner genom att testa olika batcher av IgG och värmebehandlade IgG-prover för att bedöma om det fanns en korrelation mellan resultaten från de två metoderna. Resultaten visade att det inte fanns någon korrelation mellan ACA-testet och CIC-C1q ELISA. Varken normala IgG-batcher eller värmebehandlade prover uppvisade någon tydlig korrelation. Den enda fördelen som C1q kan ha är att den gav ett högt resultat för en batch som tidigare har rapporterats orsaka biverkningar hos patienter, medan svaret i ACA-testet var relativt normalt. CIC-C1q ELISA metoden har dock visat sig ha sina egna problem eftersom standardprover ger inkonsekventa värden och mer tester behöver utföras för att hitta spädnings-linjäritet. / Octapharma manufactures Octagam, a liquid preparation of highly purified human immunoglobulin for intravenous administration, the main component of which is immunoglobulin G (IgG). Aggregated IgG is associated with activation of the complement system in the absence of antigen. This non-specific activation of complement has been reported to cause adverse reactions in patients. To avoid this, Octapharma's quality control laboratory uses a method called the determination of anti-complementary activity (ACA) in Immunoglobulin, for control of all batches of Octagam before release. This method has several problems, such as low availability of critical reagents. Therefore, the aim of this project was to investigate whether an alternative method, CIC-C1q ELISA, could measure the activation of the complement system on immunoglobulins by testing different batches of IgG and heat-treated IgG samples to assess whether there is a correlation between the results of the two methods. The results showed that there was no correlation between the ACA test and the CIC-C1q ELISA. Neither normal IgG batches nor heat-treated samples showed a clear correlation. The only advantage the C1q may have is that it gives a high response for a batch that has been reported to cause adverse reactions in patients, while the response in the ACA test was relatively normal. If this can be demonstrated by testing similar batches, it may be beneficial to continue testing the C1q ELISA. However, this method has also been shown to have its own problems, such as the standard sample giving inconsistent values, and more work is needed to find the linearity of the dilution.
35

Understanding particulate matter - Material analyses of real-life diesel particulate filters and correlation to vehicles’ operational data / Att förstå partiklar - Analyser av verkliga dieselpartikelfilter och korrelationer till fordonsdriftparametrar

Nordin, Linus January 2021 (has links)
Syftet med denna studie var att undersöka effekterna av driftsparametrar på ett antal mätbara askrelaterade parametrar i dieselpartikelfilter (DPF) i tunga fordon. Tidigare studier visar att askans packningsdensitet, askflöde och hur askan fördelas inuti ett DPF är beroende av parametrar som temperatur, avgasflöde och oljeförbrukning ett fordon har. Det finns anledning att tro att dessa parametrar också påverkas av hur ett fordon används, varför olika driftsparametrar analyserades för korrelation med de uppmätta askparametrarna. De driftsparametrar som undersöktes i denna studie var medelhastighet, antal stopp per 100 km, tomgångsprocent och bränsleförbrukning. Studien startade med metodutveckling av mätning av askvikter hos DPF och jämförde tre olika metoder, benämnda I, II och III. Metod II, som innebar att väga en bit av ett filter före och efter rengöring av filterstycket från aska med tryckluft valdes som den mest pålitliga och användbara metoden eftersom den var snabbare, behövde mindre av varje DPF för att ge kompletta resultat och kunde användas vid analys av DPF-prover som inte hade undersökts innan de användes i ett fordon. Askvikten, tillsammans med den volymetriska fyllningsgraden och genom att känna till inloppsvolymen för ett DPF användes för att beräkna askans packningsdensitet. Fyllningsgraden och askfördelningsprofilen mättes med bildanalys av mikroskopbilder av sågade tvärsnitt av filterstycket. Korrelationsstudien utfördes sedan med dessa metoder och korrelerades med operativa data extraherade från databaser på Scania CV. För att studera vilka parametrar som var korrelerade till varandra utfördes en principal component analysis (PCA) med de operativa och uppmätta variablerna som en matris av data. PCA-analysen visade att tre primalkomponenter (PC) utgjorde >90% av variationen i de erhållna data och att plug/wall-förhållandet, som är ett numeriskt värde för askfördelningen, var starkt positivt korrelerat med ett fordons medelhastighet och negativt korrelerat med antalet stopp, tomgångsprocent och bränsleförbrukning. Vidare visade askflödet en svagare positiv korrelation med tomgångsprocent, antal stopp och bränsleförbrukning medan oljeförbrukningen visade en ännu lägre korrelation med dessa parametrar. Detta indikerar att oljeförbrukningen ej skall ses som en konstant proportionell andel av bränsleförbrukningen för samtliga fordon vid beräkning av serviceintervall för DPFer. Askans packningsdensitet visade ingen till mycket låg korrelation med andra variabler i studien vilket kan bero på att proverna med hög andel väggaska har använts betydligt kortare sträcka än övriga prover, vilket kan ha gjort så att askan inte hunnits packas hårt i filterkanalerna. / The purpose of this study was to investigate the impact of operational parameters on a number of measurable ash related numbers within diesel particle filters (DPFs) of heavy duty vehicles. Previous studies show that ash packing density, ash flow and how the ash is distributed inside a DPF is dependent on parameters such as temperature, exhaust flow profiles and how much oil a vehicle consumes. There is reason to believe that these parameters are also affected by how a vehicle is operated which is why different operational parameters were analysed for correlation with the measured ash numbers. The operational parameters that was investigated in this study was average speed, number of stops per 100 km, idling percentage and fuel consumption. The study started with method development of measuring ash weights of DPFs and compared three different methods, named I, II and III. Method II, which relies on weighing a piece of a filter substrate before and after cleaning the filter piece from ash with pressurized air was chosen as the most reliable and useful method as it was faster, needed less of each DPF to complete the analysis and could be used when analysing DPF samples that had not been investigated previous to its use in a vehicle. The ash weight, together with the volumetric filling degree and known inlet volume of the DPF was used to calculate the ash packing density. The filling degree and ash distribution profile was measured with an image analysis of microscope images of sawed cross sections of the filter piece. The correlation study was then performed with these methods and correlated with operational data extracted from databases at Scania CV. To study which parameters were correlated to each other a primal component analysis (PCA) was performed with the operational and measured variables as a matrix of data. The PCA analysis showed that three primal components made up >90 % of variation in the data and that plug/wall ratio, which is a numerical value of the ash distribution, was strongly positively correlated with average speed of a vehicle and negatively correlated with number of stops, idling percentage and fuel consumption. Furthermore, ash flow showed a slight positive correlation with idling percentage, number of stops and fuel consumption while oil consumption showed an even slighter correlation with these parameters. This indicates that the oil consumption cannot be taken as a constant value as percentage of fuel consumption when calculating service intervals of DPFs. The ash packing density showed none to very low correlation with any other variables in the study, which could depend on the fact that the DPFs with high percentage of wall ash had a significantly lower runtime which could mean that the ash has not had time to be packed tightly in the filter channels.
36

Vetenskapsteoretiska och metodologiska perspektiv på tidsgeografiska visualiseringsmodeller. -En fallstudie i samhällsvetenskaplig visualisering / Scientific and methodological perspectives on Time Geographical visualization models. -A case study in social science visualization techniques

Joanson, Henric January 2004 (has links)
<p> In the history of scientific visualization techniques there is a lack of social science practices and methodologies. The advent of modern computer graphics brought the use of visualizations into a whole new era, but even though the tools by which such modern visualizations are created become easier to access and use, the lack of social science researchers harvesting the benefits of such tools still remain. This ease of use, increase in power and accessibility plus the ever growing need within the natural sciences to augment the human senses has further complicated the relationship between scientific methodologies, validity, reliability and the use of visualization techniques. This relationship must be explored, demystified and understood in order to fully grasp the impact of visualization practices when incorporated into any given scientific method. Within the social sciences there is one example of a tradition that has since its conception carried within it a graphical notion and a visualization practice. Time geography, a theory/method from the field of human/cultural geography has at its core a set of visualization techniques that encapsulate the very framework of time geographical analysis. Since it has been an integral part of the method trough out its history, it provides the perfect example for the study of the relationship between graphical visualization techniques and methodological development. The essay uses time geography as a case to construct and try out a set of scientific and methodological perspectives on the use of modern visualization techniques in social science practices. It is not an attempt to critically deconstruct this relationship within time geography, rather it points to a possible approach to the study of visualization techniques and their impact/role in the development of social science practices.</p> / <p>Den vetenskapliga visualiserings historia visar en tydlig brist på exempel från samhällsvetenskapliga praktiker och metoder. Den moderna datorgrafikens utveckling har tagit den vetenskapliga visualiseringen till nya nivåer, men trots att verktygen för skapandet av moderna datorgrafiska visualiseringar blivit lättare att hantera och förfoga över lyser de samhällsvetenskapliga exemplen på adopterandet av dessa verktyg fortfarande med sin frånvaro. Vertygens ökande grad av användarvänlighet och kraft, samt de naturvetenskapliga traditionernas ständigt växande behov att gå bortom de mänskliga sinnenas begränsningar har gjort relationen mellan visualiseringstekniker och vetenskapliga metoder, dess reliabilitet och validitet ytterligare komplicerad. För atttill fullo förstå hur inkorporerandet av visuella praktiker och modeller påverkar en metods utveckling i övrigt måste denna relation utforskas och analyseras. Inom samhällsvetenskapen finns en tradition som sedan sin tillkomst burit med sig ett visuellt språk och en visualiseringspraktik. Tidsgeografin, en delvis kulturgeografisk tradition har i själva sitt kärnspråk en serie viusaliseringsmodeller vilka är central del av metodens analysverktyg. Tidsgeografin erbjuder därmed ett utmärkt exempel för studier av relationen mellan vetenskapliga visualiseringspraktiker och metodologisk utveckling. Uppsatsen använder tidsgeografins metod och historia som en fallstudie i ett försök att konstruera och pröva ett antal vetenskapsteoretiska och metodologiska perspektiv på användandet av vetenskaplig visualisering inom samhällsvetenskapen. Uppsatsen är inte ett försök att kritiskt dekonstruera tidsgeografin, snarare visar den på en möjlig väg att närma sig studiet av moderna visualiseringsteknikers påverkan/roll i samhällsvetenskaplig metodutveckling.</p>
37

Vetenskapsteoretiska och metodologiska perspektiv på tidsgeografiska visualiseringsmodeller. -En fallstudie i samhällsvetenskaplig visualisering / Scientific and methodological perspectives on Time Geographical visualization models. -A case study in social science visualization techniques

Joanson, Henric January 2004 (has links)
In the history of scientific visualization techniques there is a lack of social science practices and methodologies. The advent of modern computer graphics brought the use of visualizations into a whole new era, but even though the tools by which such modern visualizations are created become easier to access and use, the lack of social science researchers harvesting the benefits of such tools still remain. This ease of use, increase in power and accessibility plus the ever growing need within the natural sciences to augment the human senses has further complicated the relationship between scientific methodologies, validity, reliability and the use of visualization techniques. This relationship must be explored, demystified and understood in order to fully grasp the impact of visualization practices when incorporated into any given scientific method. Within the social sciences there is one example of a tradition that has since its conception carried within it a graphical notion and a visualization practice. Time geography, a theory/method from the field of human/cultural geography has at its core a set of visualization techniques that encapsulate the very framework of time geographical analysis. Since it has been an integral part of the method trough out its history, it provides the perfect example for the study of the relationship between graphical visualization techniques and methodological development. The essay uses time geography as a case to construct and try out a set of scientific and methodological perspectives on the use of modern visualization techniques in social science practices. It is not an attempt to critically deconstruct this relationship within time geography, rather it points to a possible approach to the study of visualization techniques and their impact/role in the development of social science practices. / Den vetenskapliga visualiserings historia visar en tydlig brist på exempel från samhällsvetenskapliga praktiker och metoder. Den moderna datorgrafikens utveckling har tagit den vetenskapliga visualiseringen till nya nivåer, men trots att verktygen för skapandet av moderna datorgrafiska visualiseringar blivit lättare att hantera och förfoga över lyser de samhällsvetenskapliga exemplen på adopterandet av dessa verktyg fortfarande med sin frånvaro. Vertygens ökande grad av användarvänlighet och kraft, samt de naturvetenskapliga traditionernas ständigt växande behov att gå bortom de mänskliga sinnenas begränsningar har gjort relationen mellan visualiseringstekniker och vetenskapliga metoder, dess reliabilitet och validitet ytterligare komplicerad. För atttill fullo förstå hur inkorporerandet av visuella praktiker och modeller påverkar en metods utveckling i övrigt måste denna relation utforskas och analyseras. Inom samhällsvetenskapen finns en tradition som sedan sin tillkomst burit med sig ett visuellt språk och en visualiseringspraktik. Tidsgeografin, en delvis kulturgeografisk tradition har i själva sitt kärnspråk en serie viusaliseringsmodeller vilka är central del av metodens analysverktyg. Tidsgeografin erbjuder därmed ett utmärkt exempel för studier av relationen mellan vetenskapliga visualiseringspraktiker och metodologisk utveckling. Uppsatsen använder tidsgeografins metod och historia som en fallstudie i ett försök att konstruera och pröva ett antal vetenskapsteoretiska och metodologiska perspektiv på användandet av vetenskaplig visualisering inom samhällsvetenskapen. Uppsatsen är inte ett försök att kritiskt dekonstruera tidsgeografin, snarare visar den på en möjlig väg att närma sig studiet av moderna visualiseringsteknikers påverkan/roll i samhällsvetenskaplig metodutveckling.
38

Method development of an in vitro vertical Franz diffusion cell system to assess permeation of cosmetic active ingredients

Mattiasson, Johanna January 2020 (has links)
For evaluation of potential skincare ingredients, an in-house method using Static Franz diffusion cells and dialysis membranes was developed. Benzoic acid was chosen as a model substance along with L-ascorbic acid and α-Tocopherol. The cell conditions were tailored to encourage transmembrane diffusion. Benzoic acid was tested in acetate buffer (pH 4.6), which yielded a maximum flux of 0.91 ± 0.03 mg ∙ cm-2 ∙ h-1 and absorption of 103 ± 4 % out of the applied dose after 8 h. There were strong indications that benzoic acid ionization must be suppressed by lower pH to increase penetration rates. L-ascorbic acid yielded a flux of 0.29 ± 0.01 mg ∙ cm-2 ∙ h-1 in phosphate buffered saline (PBS, pH 7.4) and absorption of 87 ± 7 % of the applied dose after 8 h. Experiments with α-tocopherol showed no penetration in PBS with added bovine serum albumin (BSA), leading to the hypothesis that more hydrophobic membranes and/or receptor medium are needed for the study of lipophilic compounds. In addition, the release of benzoic acid from the amorphous mesoporous magnesium carbonate Upsalite® was investigated. The results showed significant release and penetration of benzoic acid from the solid matrix in both acetate buffer and PBS. The maximum flux was estimated to 6.61 ± 0.96 mg ∙ cm-2 ∙ h-1 in acetate buffer and 99 ± 9 %  of the applied dose was absorbed after 3h. Tests of Upsalite with benzoic acid on hydrophobic silicone and Strat-M membranes showed no significant penetration, likely due to insufficient wetting of the sample. Pre-wetting of Strat-M membrane lead to penetration of benzoic acid into the membrane. Flux rates achieved on synthetic membranes are generally much higher compared to skin, which results in this thesis show. In conclusion, data for pure benzoic acid and L-ascorbic acid in the developed method using dialysis membranes showed reasonable agreement with literature. Penetration of benzoic acid is pH-dependent and may be either increased or decreased by choice of skin model or by using Upsalite as vehicle. Choosing a buffer pH below the pKa of the substance may enhance penetration. Introducing L-ascorbic acid in Upsalite could potentially increase the permeation, similar to that of benzoic acid.
39

Towards a Method for Utilizing Value-based pricing on Smart Services / Mot en metod för värdebaserad prissättning på smarta tjänster

Andreasson, Oskar, Lambrecht, Per Ole January 2022 (has links)
Purpose - The purpose of this thesis was to develop a method for how practitioners can utilize value-based pricing of smart services. In order to fulfill this purpose, the following research questions were addressed: RQ1) How can firms identify value drivers for their smart services in order to understand customer perceived value? RQ2) How can firms match the perceived value of their smart service and what type of revenue model to use (i.e., how to price and how much to price)? RQ3) How can firms use value-based pricing for calculating the optimal price of their smart service? Method - This thesis adopts a mixed method. This is done by collecting data through interviews and surveys. This data is then analyzed and utilized to develop a method for value-based pricing of smart services.  Findings - Based on the insights gathered through the explored methods for identifying and measuring value drivers, concluding customers’ willingness to pay, matching it with revenue and pricing mechanisms and finally deriving an optimal price a holistic and structured process that connected these different activities has been proposed (see Appendix S). Theoretical contribution - The major theoretical contribution is the synthesis of three different literature streams (i.e., VBP, revenue model design and smart service commercialization). These areas have, to our knowledge, previously never been integrated in one study. In addition, the developed method successfully addresses identification of value drivers, which previously has been labeled as the biggest barrier for B2B firms wanting to transition towards VBP (Liozu et al., 2012).  Practical implications - This thesis supports management in commercialization of smart services by providing a holistic and systematic process for identifying and measuring value drivers, concluding customers’ WTP, matching it with revenue and pricing mechanisms and finally deriving an optimal price based on VBP. The final developed method is presented in Appendix S. / Syfte - Syftet med detta examensarbete var att utveckla en metod för hur praktiker kan utnyttja värdebaserad prissättning av smarta tjänster. För att uppfylla detta syfte togs följande forskningsfrågor upp: RQ1) Hur kan företag identifiera värdedrivare för sina smarta tjänster för att förstå kundens upplevda värde? RQ2) Hur kan företag matcha det upplevda värdet av sin smarta tjänst och vilken typ av intäktsmodell de ska använda (dvs hur man prissätter och hur mycket prissätter man)? RQ3) Hur kan företag använda värdebaserad prissättning för att beräkna det optimala priset för sin smarta tjänst? Metod - Detta exjobb använder en blandad metod. Detta görs genom att samla in data genom intervjuer och enkäter. Denna data analyseras sedan och används för att utveckla en metod för värdebaserad prissättning av smarta tjänster. Resultat - Baserat på de insikter som samlats in genom de utforskade metoderna för att identifiera och mäta värdedrivande faktorer, utnytja kundernas betalningsvilja, matcha den med intäkts- och prissättningsmekanismer och slutligen härleda ett optimalt pris har en holistisk och strukturerad process som kopplar samman dessa olika aktiviteter presenterats (se Bilaga S). Teoretiskt bidrag - Det största teoretiska bidraget är syntesen av tre olika litteraturströmmar (dvs VBP, intäktsmodelldesign och kommersialisering av smarta tjänster). Dessa områden har, såvitt vi vet, tidigare aldrig integrerats i en studie. Dessutom tar den utvecklade metoden framgångsrikt in på identifiering av värdedrivare, som tidigare har stämplats som den största barriären för B2B-företag som vill gå över till VBP (Liozu et al., 2012). Praktiska implikationer - Det här examensarbetet stöder ledning i kommersialisering av smarta tjänster genom att tillhandahålla en holistisk och systematisk process för att identifiera och mäta värdedrivare, avsluta kundernas WTP, matcha den med intäkts- och prissättningsmekanismer och slutligen härleda ett optimalt pris baserat på VBP. Den slutligen utvecklade metoden presenteras i Bilaga S
40

Automatic compilation and summarization of documented Russian equipment losses in Ukraine : A method development / Automatisk sammanställning och sammanfattning av dokumenterade ryska materielförluster i Ukraina : Metodutveckling

Zaff, Carl January 2023 (has links)
Since the Russian invasion of Ukraine on the 24th of February 2022 – most of the United Nations have, in one way or another, participated in the most significant war of many decades. The war is characterized by Russia’s atrocious war crimes, illegal annexations, terror, propaganda, and complete disrespect for international law. On the other hand, the war has also been characterized by Ukrainian resilience, a united Europe, and a new dimension of intelligence gathering through social media.Due to the internet, social media, the accessibility of mobile devices, and Ukraine’s military and civilianeffort in documenting Russian equipment – its whereabouts, status, and quantity, Open-Source Intelligence possibilities have reached new levels for both professionals and amateurs. Despite these improved possibilities, gathering such a vast amount of data is still a Herculean effort.Hence, this study contributes a starting point for anyone wanting to compile equipment losses by providing a process specialized in automatic data extraction and summarization from an existing database. The database in question is the image collection from the military analysis group Oryxspioenkop. To further complement the information provided by Oryxspioenkop, the method automatically extracts and annotates dates from the images to provide a chronological order of the equipment loss as well as a graphical overview.The process shows promising results and manages to compile a large set of data, both the information provided by Oryx and the extracted dates from its imagery. Further, the automated process proves to be many times faster than its manual counterpart, showing a linear relationship between the number of images analysed and manhours saved. However, due to the limited development time – the process still has room for improvement and should be considered semi-automatic, rather than automatic. Nevertheless, thanks to the open-source design, the process can be continuously updated and modified to work with other databases, images, or the extraction of other strings of text from imagery.With the rise of competent artificial image generation models, the study also raises the question if this kind of imagery will be a reliable source in the future when studying equipment losses, or if artificial intelligence will be used as a tool of propaganda and psychological operations in wars to come. / Sedan Rysslands oprovocerade invasion av Ukraina den 24e februari 2022 – har stora delar av de Förenta nationerna engagerat sig i århundradets mest signifikanta krig. Kriget har karaktäriserats av ryska krigsbrott, olagliga annekteringar, terror, propaganda samt en total avsaknad av respekt för folkrätt. I kontrast, har kriget även karaktäriserats av Ukrainas ovillkorliga motståndskraft, ett enat Europa och en ny dimension av underrättelseinhämtning från sociala medier.Genom internet, sociala medier, tillgängligheten av mobiltelefoner och Ukrainas militära och civila ansträngning att dokumentera rysk materiel – vart den befinner sig, vilken status den har samt vilken kvantitet den finns i, har öppen underrättelseinhämtning blomstrat på både professionell och amatörnivå. Dock, på grund av den kvantitet som denna data genereras i, kräver en helhetssammanställning en oerhörd insats.Därav avser detta arbete ge en grund för sammanställning av materielförluster genom att tillhandahålla en automatiserad process för att extrahera data från en befintlig databas. Detta har exemplifierats genom att nyttja bildkollektioner från Oryxspioenkop, en grupp bestående av militäranalytiker som fokuserar på sammanställning av grafiskt material. Utöver detta så kompletterar processen befintliga data genom att inkludera datumet då materielen dokumenterats. Därigenom ges även en kronologisk ordning för förlusterna.Processen visar lovande resultat och lyckas att effektivt och träffsäkert sammanställa stora mängder data. Vidare lyckas processen att överträffa sin manuella motsvarighet och visar på ett linjärt samband mellan antalet analyserade bilder och besparade mantimmar. Dock, på grund av den korta utvecklingstiden har processen fortfarande en del utvecklingsmöjlighet och förblir semiautomatisk, snarare än automatisk. Å andra sidan, eftersom processen bygger på öppen källkod, finns fortsatt möjlighet att uppdatera och modifiera processen för att passa annat källmaterial.Slutligen, i och med den kontinuerliga utvecklingen av artificiell intelligens och artificiellt genererade bilder,lyfter studien frågan om denna typ av data kommer vara en trovärdig källa i framtida analyser av materielförluster, eller om det kommer att förvandlas till verktyg för propaganda och påverkansoperationeri ett framtida krig.

Page generated in 0.046 seconds