• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 43
  • Tagged with
  • 99
  • 75
  • 59
  • 27
  • 26
  • 22
  • 20
  • 20
  • 18
  • 16
  • 16
  • 15
  • 15
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Multi-Data Approach for Subsurface Imaging: Combining Borehole and GPR- Data for Improved Analysis

Yngvesson, Pontus January 2023 (has links)
The investigation to understand the subsurface and its features has long been asubject of interest for various fields, including fields such as archaeology and infras-tructure projects. However, traditional excavation methods are often costly and time-consuming. In their place, alternative techniques such as borehole drilling, which isitself expensive, and ground-penetrating radar (GPR), which produces a good butdistorted image, have gained popularity. Nonetheless, the limitations of each methodimpede them from meeting the requirements of subsurface exploration. This Mas-ter’s thesis introduces an approach combining these two methods to overcome theirlimitations and enhance their accuracy to understand the subsurface.This thesis aims to demonstrate the feasibility and effectiveness of integratingborehole drilling and GPR for subsurface exploration. Specifically, the integrationof borehole with GPR-profiles will be examined to enhance their practicality andaccuracy, meaning that this thesis will investigate the utilization of borehole datato update and adjust GPR-profiles, thereby providing more precise and informativedata for further analysis.The findings of this work indicate that combining borehole drilling and GPR-profiling to improve and update the accuracy of the GPR-profiles is entirely feasibleand results in a substantially improved subsurface exploration capability. Further,the outcomes of this thesis suggest that the integrated approach can generate amore precise representation of the underground structure. Ultimately, the proposedintegration of borehole drilling and GPR-profiling presents a promising approach toenhance the accuracy and efficiency of subsurface exploration and has the potentialto be valuable in a wide range of fields.i
82

Optimisation of warehouse for second-hand items using Machine Learning / Optimering av lager för second-hand varor med hjälp av Maskininlärning

Osnes, Simon January 2023 (has links)
Warehouse management and organisation often use the popularity of items to assign placements in the warehouse and predict sales. However, when dealing with only unique second-hand items another solution is needed. This master's thesis therefore aims to identify influential features for customers buying items together and use this information to optimise Sellpy's warehouse management. Through data analyses, three features were identified as most influential: brand, demography, and type. These features were used to create a K-Means clustering model to group items in the warehouse, and the resulting model was evaluated against a demography baseline and random. Additionally, a second K-Means model was trained using the selected features and the age of items to differentiate between fast-moving and slow-moving items. The results of the analyses showed that the demography baseline performed the best when picking only one order at a time, while the K-Means models performed equally well when picking multiple orders simultaneously. Furthermore, organising items in the warehouse based on the K-Means clustering algorithm could significantly improve efficiency by reducing walking distances for warehouse workers compared to the random approach used today. In conclusion, this thesis highlights the importance of data analysis and clustering in optimising warehouse management for Sellpy. The identified influential features and K-Means clustering models provide a solid foundation for enhancing Sellpy's warehouse management. / Lagerhantering och organisation använder ofta varors popularitet för placering i lagret och för att uppskatta försäljning. Men när det handlar om unika second-hand varor måste en annan lösning användas. Därför kommer denna masteruppsats att ha som mål att identifiera inflytelserika egenskaper för när kunder köper flera saker samtidigt och använda detta för att optimera Sellpys lagerhantering. Genom dataanalyser identifierades tre egenskaper som mest de inflytelserika: demografi, märke och typ av vara. Dessa egenskaper användes för att träna en K-Means klustringsmodell för att gruppera sakerna i lagret, och den framtagna modellen utvärderades mot en förutbestämd gruppering som endast använde demografi samt mot slumpmässigt gruppering. Utöver det så tränades ytterligare en K-Means modell med de inflytelserika egenskaper samt åldern på varorna för att särskilja saker som säljs snabbt och saker som säljs långsamt. Resultatet av analyserna visade att den förutbestämda demografigrupperingen presterade bäst när endast en order skulle plockas, medan K-Means modellerna presterade lika bra när flera ordrar skulle plockas samtidigt i en plocklista. Att organisera lagret baserat på K-Means klustringsalgoritmen skulle kunna förbättra effektiviteten avsevärt genom att minska gångavstånden för lagerarbetare jämfört med det slumpmässiga tillvägagångssättet som används idag. Sammanfattningsvis så har denna uppsats visat vikten av dataanalys och klustring för optimering av lagerhantering för Sellpy. De identifierade inflytelserika egenskaperna och K-Means klustringsmodellen ger en bra grund för att förbättra Sellpys lagerhantering.
83

Hotas (eller främjas) revisorns arbete av teknologier? : En kvantitativ studie om hur revisionsprocessen och revisorns komfort påverkas av framväxande teknologier / Is the auditor’s work threatened (or facilitated) by technologies? : A quantitative study of how the audit process and the auditor’s comfort are affected by emerging technologies

Pettersson, Elin, Lindau, Emelie January 2022 (has links)
Bakgrund: Den teknologiska utvecklingen går väldigt snabbt och framväxande teknologier utgör en stor påverkan på revisionsbranschen och revisorers arbete. Enklare arbetsuppgifter automatiseras och revisorns arbete innefattas allt mer av analyser och bedömning av revisionsbevis. Det kan innebära att revisorns involvering i revisionsprocessen minskar och att revisorsyrket riskerar att förändras i grunden eller till och med försvinna till följd av automatisering. Samtidigt medför teknologin att revisorn kan spendera mer tid på värdeskapande arbetsuppgifter som kan förbättra revisionskvaliteten och öka revisorns komfort. Förändringarna som teknologin medför ställer krav på att revisorn anpassar sitt arbete till att använda teknologi, samt ställer krav på revisionsbranschen, däribland standardsättare och revisionsbyråer, att anpassa standarder, regler och riktlinjer för att stödja revisorer i deras användning av teknologi.  Syfte: Syftet med studien är att kartlägga i vilken utsträckning framväxande teknologier används av revisorer och utforska hur revisorer upplever att revisionsprocessen och deras komfort påverkas av sådana teknologier. Metod: Studien är kvantitativ och har en deduktiv ansats med tvärsnittsdesign. Använd primärdata utgörs av enkätsvar från revisionsmedarbetare i Sverige.  Resultat: Resultatet indikerar att revisionsmedarbetare, vid användning av framväxande teknologier, upplever att revisionsprocessen förbättras och att deras komfort ökar. Därtill tyder resultatet på att revisionsmedarbetare upplever att det finns ytterligare faktorer som påverkar revisionsprocessen och komforten, såsom revisionsbyråns riktlinjer för användning av teknologi och revisionsmedarbetarens kunskaper inom teknologi. Resultatet indikerar även att revisionsmedarbetares användning av teknologi generellt är låg och någon skillnad mellan större och mindre revisionsbyråer har inte identifierats. Kunskapsbidrag: Studien bidrar till litteraturen genom att fokusera på revisorns perspektiv på framväxande teknologiers påverkan på revision. Kunskap om hur revisionsprocessen och revisorns komfort påverkas bidrar till att revisionsbranschen generellt och revisionsbyråer specifikt, kan hantera utmaningarna och tillvarata möjligheterna som framväxande teknologier medför, inte minst för att stödja och vägleda revisionsmedarbetare i dess användning av teknologin. / Background: The technological development is very rapid and emerging technologies have a major impact on the auditing industry and the auditor’s work. Simpler tasks are being automated and the auditor's work is increasingly consisting of analyzes and assessment of audit evidence. This may indicate that the auditor's involvement in the audit process decreases and that the audit profession risks being replaced as a result of automation. At the same time, the technology means that the auditor can spend more time on value-creating tasks that can improve the quality of the audit and increase the auditor's comfort. The changes that technology entails mean that the auditor needs to adapt his/her work to using technology, and require that the auditing industry, including standard setters and audit firms, adapts standards, rules and guidelines to support auditors in their use of technology. Purpose: The aim of the study is to map the extent to which emerging technologies are used by auditors and to explore how auditors perceive that the audit process and their comfort are affected by such technologies. Method: The study is quantitative and has a deductive approach with cross-sectional design. Primary data is based on survey responses collected from audit staff in Sweden.  Results: The results indicate that audit staff, when using emerging technologies, experience that the audit process is improved and that their comfort increases. In addition, the results indicate that audit staff perceive that there are additional factors that affect the audit process and their comfort; the audit firm’s guidelines for the use of technology and the audit staff’s knowledge of technology. The results also indicate that auditors’ use of technology is generally low and that it does not differ between larger and smaller auditing firms. Contribution: This study contributes to the literature by focusing on the auditor's perspective on the impact of emerging technologies on auditing. Knowledge of how the auditing process and the auditor's comfort are affected contributes to the auditing industry in general and auditing firms specifically being able to manage the challenges and take advantage of the opportunities that emerging technologies bring to the industry, auditing firms and auditors.
84

Monitoring Kraft Recovery Boiler Fouling by Multivariate Data Analysis

Edberg, Alexandra January 2018 (has links)
This work deals with fouling in the recovery boiler at Montes del Plata, Uruguay. Multivariate data analysis has been used to analyze the large amount of data that was available in order to investigate how different parameters affect the fouling problems. Principal Component Analysis (PCA) and Partial Least Square Projection (PLS) have in this work been used. PCA has been used to compare average values between time periods with high and low fouling problems while PLS has been used to study the correlation structures between the variables and consequently give an indication of which parameters that might be changed to improve the availability of the boiler. The results show that this recovery boiler tends to have problems with fouling that might depend on the distribution of air, the black liquor pressure or the dry solid content of the black liquor. The results also show that multivariate data analysis is a powerful tool for analyzing these types of fouling problems. / Detta arbete handlar om inkruster i sodapannan pa Montes del Plata, Uruguay. Multivariat dataanalys har anvands for att analysera den stora datamangd som fanns tillganglig for att undersoka hur olika parametrar paverkar inkrusterproblemen. Principal·· Component Analysis (PCA) och Partial Least Square Projection (PLS) har i detta jobb anvants. PCA har anvants for att jamfora medelvarden mellan tidsperioder med hoga och laga inkrusterproblem medan PLS har anvants for att studera korrelationen mellan variablema och darmed ge en indikation pa vilka parametrar som kan tankas att andras for att forbattra tillgangligheten pa sodapannan. Resultaten visar att sodapannan tenderar att ha problem med inkruster som kan hero pa fdrdelningen av luft, pa svartlutens tryck eller pa torrhalten i svartluten. Resultaten visar ocksa att multivariat dataanalys ar ett anvandbart verktyg for att analysera dessa typer av inkrusterproblem.
85

Predicting Large Claims within Non-Life Insurance / Prediktion av storskador inom sakförsäkring

Barnholdt, Jacob, Grafford, Josefin January 2018 (has links)
This bachelor thesis within the field of mathematical statistics aims to study the possibility of predicting specifically large claims from non-life insurance policies with commercial policyholders. This is done through regression analysis, where we seek to develop and evaluate a generalized linear model, GLM. The project is carried out in collaboration with the insurance company If P&C Insurance and most of the research is conducted at their headquarters in Stockholm. The explanatory variables of interest are characteristics associated with the policyholders. Due to the scarcity of large claims in the data set, the prediction is done in two steps. Firstly, logistic regression is used to model the probability of a large claim occurring. Secondly, the magnitude of the large claims is modelled using a generalized linear model with a gamma distribution. Two full models with all characteristics included are constructed and then reduced with computer intensive algorithms. This results in two reduced models, one with two characteristics excluded and one with one characteristic excluded. / Det här kandidatexamensarbetet inom matematisk statistik avser att studera möjligheten att predicera särskilt stora skador från sakförsäkringspolicys med företag som försäkringstagare. Detta görs med regressionsanalys, där vi ämnar att utveckla och bedöma en generaliserad linjär modell, GLM. Projektet utförs i samarbete med försäkringsbolaget If Skadeförsäkring och merparten av undersökningen sker på deras huvudkontor i Stockholm. Förklaringsvariablerna som är av intresse att undersöka är egenskaper associerade med försäkringstagarna. På grund av sällsynthet av storskador i datamängden görs prediktionen i två steg. Först används logistisk regression för att modellera sannolikheten för en storskada att inträffa. Sedan modelleras storskadornas omfattning genom en generaliserad linjär modell med en gammafördelning. Två grundmodeller med alla förklaringsvariabler konstrueras för att sedan reduceras med datorintensiva algoritmer. Det resulterar i två reducerade modeller, med två respektive en kundegenskap utesluten.
86

Automatiserad marknadsföring - mer än bara ett knapptryck? : En kvalitativ studie om automatiserad marknadsföring och CRM inom B2B-verksamheter / Marketing Automation - More than just a Push of a Button? : A qualitative study about marketing automation and CRM in B2B-organizations

Lindsjöö, Emilia, Pithyou, Jennifer January 2022 (has links)
Dagens digitala landskap skapar en hög konkurrens om kunder, vilket gör att verksamheter letar efter nya sätt att utveckla och hantera kundrelationer. Arbete med CRM och automatiserad marknadsföring användbart för att få en bättre förståelse för kundens behov och leverera relevant kommunikation. Automatiserad marknadsföring är en datadriven marknadsföringsteknik som används inom digital marknadsföring för att automatisera aktiviteter. Automatiserad marknadsföring inom B2B-verksamheter är ett outforskat ämne inom informatik. Därmed var syftet med studien att undersöka automatiserad marknadsföring och CRM ur ett informatikperspektiv. Syftet var även att bidra med kunskap om hur verksamheter använder data i arbetet med automatiserad marknadsföring och vilka förmågor för dataanalys som är centrala. I denna studie har en kvalitativ undersökning med semistrukturerade intervjuer genomförts, där sex respondenter som arbetar med automatiserad marknadsföring inom B2B-verksamheter intervjuats. Studiens resultat och slutsats visar att arbete med automatiserad marknadsföring är ett IT- beroende arbetssystem, där teknik är en central resurs för arbetet. Elementen deltagare, information och teknik bör samverka med arbetsprocesser och aktiviteter för att dra nytta av automatiserad marknadsföring. Dessutom är kunddata betydelsefull information för arbete med automatiserad marknadsföring och CRM. Således bör verksamheter besitta förmågor inom verksamhetsområdena ledning, kultur, teknik och människor för analys av data. Studiens resultat och slutsatser visar att de undersökta verksamheterna besitter relevanta förmågor för dataanalys, vilket möjliggör arbetet med automatiserad marknadsföring och CRM. Eftersom automatiserad marknadsföring handlar om att generera och bibehålla befintliga kunder med hjälp av relevant innehåll, är CRM centralt i detta arbete. / Today's digital landscape creates high competition for customers and organizations are looking for new ways to develop and manage customer relationships. Working with CRM and marketing automation is useful to gain a better understanding of customer needs and deliver relevant communication. Marketing automation is a data-driven marketing technique used in digital marketing to automate tasks. Marketing automation in B2B-organizations is an unexplored topic in information systems. Therefore, the aim of this study was to examine marketing automation and CRM through a perspective of information systems. As well as contribute with knowledge of how organizations use data in marketing automation and the data analytics capabilities needed. A qualitative study was conducted through semi-structured interviews with six respondents, who work with marketing automation in B2B-organizations. The results and conclusions of the study shows that working with marketing automation is an IT-reliant work system, where technology is a crucial resource. The elements participants, information and technology should be aligned with processes and activities to benefit from marketing automation. In addition, customer data is meaningful information for working with marketing automation and CRM. Thus, organizations should possess organizational capabilities in governance, culture, technology, and people for analyzing data. The results and conclusions of the study also show the studied organizations possess the data analytics capabilities needed for marketing automation and CRM. CRM becomes pertinent in marketing automation since marketing automation is about generating and retaining customers with relevant content.
87

Construction and Evaluation of Basket Options using the Binomial Option Pricing Model / Konstruktion och Evaluering av Korgoptioner med Binomialmodellen

Nordström, Robin, Tabari, Sepand January 2021 (has links)
Hedge funds use a variety of different financial instruments in order to try to achieve over-average returns without taking on excessive risk - options being one of the most common of these instruments. Basket options is a type of option that is written on several underlying assets that can be used to hedge risky positions. This project has been working together with the hedge fund Proxy P to develop software to construct basket options and to analyze their use as a hedging strategy. Construction of basket options can be performed through the use of several different mathematical models. These models range from complex continuous models, such as Monte Carlo simulations, to simple discrete models, such as the binomial option pricing model. In this project, the binomial option pricing model was chosen as the main tool to determine some quantities of basket options. It can conveniently handle both European and American options, independently of whether these are put or call options. The quantities calculated, the option price and option Delta, are dependent on the volatility and the initial price of the underlying. When evaluating the basket option there are two key assumptions that need to be studied. These key assumptions are if the weights and the initial price of the underlying change with each time step, or if they are held constant. It was found that both the weights and the price of the underlying should change dynamically with each time step. Furthermore, in order to evaluate the performance of the basket options used as a hedge, the project used historical data and measured how the options neutralized negative movements in the underlying. This was done through the use of the option Delta and the hedge ratio. What could be concluded was that the put basket option can serve as a relatively inexpensive hedge and minimize the risk on the downside in a sufficient matter. / Hedgefonder använder en rad olika finansiella instrument, där optioner är ett av de mest förekommande av dessa, för att generera överavkastning utan att ta överdriven risk. Korgoptioner, eller basket options som de kallas på engelska, är en typ av option som är skriven på flertalet underliggande tillgångar som kan användas för att gardera finansiella institutioner mot risk. Det här projektet har samarbetat med den svenska hedgefonden Proxy P för att utveckla programvara för att konstruera korgoptioner och evaluera hur de kan användas som hedgingstrategi. Konstrueringen av dessa korgoptioner kan göras med hjälp av flertalet matematiska mo-deller. Allt ifrån komplexa kontinuerliga modeller, som Monte Carlo simulering, till mer simpla diskreta modeller, som binomialprissättningsmodellen, kan användas. I detta projekt kommer binomialprissättningsmodellen användas för att beräkna relevanta kvantiteter gällande korgoptioner. Modellen kan hantera både optioner av den amerikanska och euro-peiska varianten, samt sälj- och köpoptioner. Relevanta kvantiteterna som benämnts gäller optionspriset samt optionens Delta, där dessa beror på marknadsvolatiliteten och startpriset på den underliggande tillgången. Vid utvärdering av korgoptionen behöver två antaganden tas i beaktande: att vikterna och initiala priset på underliggande ändras vid varje tidssteg eller om de hålls konstanta. Slutsatsen kunde dras att både vikterna och den underliggande tillgångens pris skulle vara dynamiska och därmed ändras vid varje tidssteg. För att kunna utvärdera hur väl korgoptioner fungerade som en hedge använde projektet historisk data för att utvärdera hur optionen neutraliserade negativa rörelser i den under-liggande tillgången. Denna utvärdering gjordes med avseende på Deltat hos optionen och hedgekvoten. Slutsatsen som kunde dras var att korgoptioner är ett relativt billigt sätt att hedga och minimera nedsidans risk.
88

Fighting Unstructured Data with Formatting Methods : Navigating Crisis Communication: The Role of CAP in Effective Information Dissemination / Bekämpar ostrukturerad data med formateringsmetoder : Att navigera i kriskommunikation: CAP:s roll i effektiv informationsspridning

Spridzans, Alfreds January 2024 (has links)
This study investigates the format of crisis communication by analysing a news archive dataset from Krisinformation.se, a Swedish website dedicated to sharing information about crises. The primary goal is to assess the dataset's structure and efficacy in meeting the Common Alerting Protocol (CAP) criteria, an internationally recognised format for emergency alerts. The study uses quantitative text analysis and data preprocessing tools like Python and Power Query to identify inconsistencies in the present dataset format. These anomalies limit the dataset's usefulness for extensive research and effective crisis communication. To address these issues, the study constructs two new datasets with enhanced column structures that rectify the identified problems. These refined datasets aim to improve the clarity and accessibility of information regarding crisis events, providing valuable insights into the nature and frequency of these incidents. Additionally, the research offers practical recommendations for optimising the dataset format to better align with CAP standards, enhancing the overall effectiveness of crisis communication on the platform. The findings highlight the critical role of structured and standardised data formats in crisis communication, particularly in the context of increasing climate-related hazards and other emergencies. By improving the dataset format, the study contributes to more efficient data analysis and better preparedness for future crises. The insights gained from this research are intended to assist other analysts and researchers in conducting more robust studies, ultimately aiding in developing more resilient and responsive crisis communication strategies. / Denna studie undersöker formatet för kriskommunikation genom att analysera ett nyhetsarkiv från Krisinformation.se, en svensk hemsida som är avsedd att dela information om kriser. Det primära målet är att bedöma datasetets struktur och effektivitet när det gäller att uppfylla kriterierna för Common Alerting Protocol (CAP), ett internationellt erkänt format för nödmeddelanden. I studien används kvantitativ textanalys och dataförberedande verktyg som Python och Power Query för att identifiera inkonsekvenser i det aktuella datasetformatet. Dessa anomalier begränsar datasetets användbarhet för omfattande forskning och effektiv kriskommunikation. För att ta itu med dessa frågor konstruerar studien två nya dataset med förbättrade kolumnstrukturer som åtgärdar de identifierade problemen. Dessa förfinade dataset syftar till att förbättra tydligheten och tillgängligheten av information om krishändelser, vilket ger värdefulla insikter om dessa händelsers karaktär och frekvens. Dessutom ger forskningen praktiska rekommendationer för att optimera datasetformatet så att det bättre överensstämmer med CAP-standarderna, vilket förbättrar den övergripande effektiviteten i kriskommunikationen på plattformen. Resultaten visar att strukturerade och standardiserade dataformat spelar en avgörande roll för kriskommunikation, särskilt i samband med ökande klimatrelaterade faror och andra nödsituationer. Genom att förbättra formatet på datasetet bidrar studien till effektivare dataanalys och bättre beredskap för framtida kriser. Insikterna från denna forskning är avsedda att hjälpa andra analytiker och forskare att genomföra mer robusta studier, vilket i slutändan bidrar till att utveckla mer motståndskraftiga och lyhörda strategier för kriskommunikation.
89

En jämförelse av metoder och verktyg för datahantering och analys inom datalager / A comparison of methods and tools for data management and analysis within data warehouses

Aziz, Adeeba January 2024 (has links)
I detta examensarbete utförs en jämförande analys av metoder och verktyg för hantering och analys av data inom datalager. Med den snabbt ökande mängden data och utvecklingen av molnteknologier står företag inför utmaningen att navigera bland olika metoder för att välja den mest lämpliga för sin specifika datahantering och analysbehov. Rapporten belyser metoden One Big Table (OBT) samt verktyget Data Build Tool (dbt) och undersöker deras för- och nackdelar i datalagermiljöer. För att få en djupare förståelse för deras funktion och effektivitet jämförs de i olika användarfall genom prestandatester på latens och samtidighet med hjälp av verktyget Hyperfine. OBT implementeras med hjälp av Google BigQuery såväl som Google Cloud SQL för PostgreSQL där latens och samtidighet för analytiska målsättningar utvärderas genom användning av Python-skript med SQL-frågor respektive med dbt-modeller. Skripten och dbt-modellerna körs mot BigQuery samt PostgreSQL och de båda implementerar OBT. Resultatet visar att SQL-skripten uppvisade lägre latens än dbt-modeller när de exekverades mot både BigQuery och PostgreSQL. Ett annat fynd är att latensen för SQL-skripten var lägre i PostgreSQL jämfört med BigQuery, medan dbt-modellerna istället uppvisade högre latens i PostgreSQL jämfört med BigQuery. I båda datalagermiljöer visas det även att SQL-skripten presterar bättre än dbt-modeller vid samtidiga körningar. / This bachelor’s thesis presents a comparative analysis of methods and tools for data management and analysis within data warehouses. With the rapidly increasing volume of data and the development of cloud technologies, companies face the challenge of navigating various methods to choose the most suitable one for their specific data management and analysis needs. The report highlights the One Big Table (OBT) method and the Data Build Tool (dbt), examining their advantages and disadvantages in data warehouse environments. To gain a deeper understanding of their functionality and efficiency, they are compared in different use cases through performance tests on latency and concurrency using the Hyperfine tool. OBT is implemented using Google BigQuery as well as Google Cloud SQL for PostgreSQL, where latency and concurrency for analytical purposes are evaluated using Python scripts with SQL queries and dbt models. The scripts and dbt models are run against BigQuery and PostgreSQL, both implementing OBT. The results show that the SQL scripts exhibited lower latency than the dbt models when executed against both BigQuery and PostgreSQL. Another finding is that the latency for SQL scripts was lower when run against PostgreSQL compared to BigQuery, while dbt models showed higher latency when run against PostgreSQL compared to BigQuery. The SQL scripts also performed better than the dbt models in concurrent executions in both BigQuery and PostgreSQL.
90

Investigating the Start Performance in Alpine Ski Racing : A data analysis on the effect of launch technique, pole length and acceleration strategy on start performance and its biomechanical interpretation / Undersökning av startprestanda i alpin skidåkning : En dataanalys om effekten av startteknik, stavlängd och accelerationsstrategi på startprestanda och dess biomekaniska interpretation

Vandenberghe, Charlotte January 2024 (has links)
In alpine ski racing, a few hundredths of a second can determine the winner. Analysing the start performance could lead to minor yet significant improvements and thus possibly enhance the overall race performance of skiers. This thesis aims to investigate the start performance by analysing how changes in launch technique, pole length and acceleration strategy affect run time and speed. Additionally, it interprets these results biomechanically and compares the time measurement system and wearable sensor used in an experimental setup. Through a case study, these three factors are varied on a flat slope of 45 meters. To evaluate the start performance, sector times are recorded with four light curtains, the path trajectory with a GNSS sensor and the kinematics of the human movement by two synchronized cameras running on OpenCap. The analysis results indicate that lengthening the poles from 128 to 133 cm reduces the total run time by an average of 0.13 seconds. Changes in the acceleration strategy, which depends on the slope characteristics, lead to smaller time differences, while no difference is found when altering the launch technique. The kinematic findings from OpenCap reveal speed differences that contradict the initial data analysis, requiring further research as this software only focuses on the push-off start phase. Hardware analysis shows that the wearable sensor effectively tracks position but lacks velocity accuracy. The implementation of these findings into the training of the start phase may improve the overall race performance of skiers. This study demonstrates the value of employing new technology in field experiments, paving the way for future research. / I alpin skidtävling kan några få hundradelar av en sekund avgöra vem som vinner. Att analysera startprestationen kan leda till små men ändå betydande förbättringar och på så sätt eventuellt bidra till att förbättra den tävlingsprestationen för skidåkarna. Denna uppsats syftar till att undersöka startprestanda genom att analysera hur ändringar i startteknik, stavlängd och accelerationsstrategi påverkar åktid och hastighet. Resultaten tolkas även biomekaniskt och en jämförelse görs mellan tidmätningssystemet och den bärbara sensorn som används i en experimentell uppställning. Genom en fallstudie varieras dessa tre faktorer på en flack backe på 45 meter. För att utvärdera startprestanda registreras sektortider med fyra ljusbarriärer, banan med en GNSS-sensor och kinematiken i den mänskliga rörelsen med två synkroniserade kameror som körs på OpenCap. Resultaten av analysen visar att en förlängning av stavarna från 128 till 133 cm minskar den totala åktiden med i genomsnitt 0.13 sekunder. Förändringar i accelerationsstrategin, beroende på backens egenskaper, leder till mindre tidsskillnader,  medan ingen förändring kan observeras när starttekniken justeras. De kinematiska resultaten från OpenCap visar hastighetsskillnader som motsäger den ursprungliga dataanalysen, vilket kräver vidare forskning eftersom denna programvara endast fokuserar på push—off fasen. Hårdvaruanalysen visar att den bärbara sensorn  effektivt spårar position men saknar hastighetsnoggrannhet. Genom att implementera dessa lärdomar i startträningen kan den totala tävlingsprestationen för skidåkare ökas. Denna studie demonstrerar värdet av att använda ny teknik i fältexperiment, vilket banar väg för framtida forskning. / Im alpinen Skirennsport können wenige Hundertstelsekunden über den Sieg entscheiden. Eine Analyse der Startleistung könnte zu kleinen, aber signifikanten Verbesserungen beitragen und möglicherweise die Gesamtleistung der Skifahrer verbessern. Ziel dieser Arbeit ist es, die Startleistung zu untersuchen, indem analysiert wird, wie sich Änderungen der Starttechnik, der Stocklänge und der Beschleunigungsstrategie auf Zeit und Geschwindigkeit auswirken. Zusätzlich werden diese Ergebnisse biomechanisch interpretiert und ein Vergleich zwischen einem Zeitmesssystem und einem tragbaren Sensor in einem Versuchsaufbau vorgenommen. Anhand einer Pilotmessung werden diese drei Faktoren auf einer flachen Piste mit einer Länge von 45 Metern variiert. Um die Startleistung zu bewerten, werden die Sektorzeiten mit vier Lichtschranken aufgezeichnet, der Weg mit einem GNSS-Sensor und die Kinematik der menschlichen Bewegung mit zwei synchronisierten Kameras, die auf OpenCap betrieben werden. Die Ergebnisse der Analyse zeigen, dass die Verlängerung der Stöcke von 128 auf 133 cm die Gesamtlaufzeit um durchschnittlich 0.13 Sekunden reduziert. Änderungen der Beschleunigungsstrategie, die von den Pistenverhältnissen abhängt, führen zu geringeren Zeitunterschieden, während bei der Änderung der Starttechnik kein Unterschied festzustellen ist. Die kinematischen Ergebnisse von OpenCap zeigen Geschwindigkeitsunterschiede, die der ursprünglichen Datenanalyse widersprechen und weitere Untersuchungen erfordern, da sich diese Software nur auf die Abstoßphase konzentriert. Die Hardware-Analyse zeigt, dass der am Körper getragene Sensor die Position effektiv misst, aber die Geschwindigkeit ungenau ist. Die Umsetzung dieser Erkenntnisse in das Training der Startphase könnte die Gesamtleistung der Skiläufer im Rennen verbessern. Diese Studie demonstriert den Wert des Einsatzes neuer Technologien in Feldexperimenten und ebnet den Weg für zukünftige Forschung.

Page generated in 0.0955 seconds