• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 7
  • Tagged with
  • 22
  • 16
  • 8
  • 8
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Cloud execution environment for real-time media applications

Kämpe, Eddie January 2015 (has links)
Smartphones and other Internet of Things devices have become a rapidly growing topic. Along with the growth comes new technologies, likeWeb Real- Time Communication (WebRTC), that enables richer services to be built for the devices. These kind of services are typically consumed on-demand, in shorter periods at a time. Likewise have cloud computing exploded in popularity during the last years. Cloud computing offers compelling advantages, such as rapid elasticity and on-demand usage, that allow servers' resource utilization to be more effcient. The flexibility of allocating and releasing resources swiftly as they are required, enables services that run in the cloud to adopt to ephemeral workloads. The research in this thesis targets a real-time video streaming service that is based on WebRTC. Incoming streams are handled by Multipoint Control Units (MCUs) that have the responsibility to redistribute the incoming streams to the consumers. Scaling horizontally aligns well with the idea of cloud computing. The work in this thesis is based on the extreme case where each of the incoming streams are handled by a separate MCU. The thesis presents the process of finding a exible Cloud Execution Environment (CEE) for the streaming service. The process includes an analysis of the streaming service's requirements, an evaluation of existing solutions, and an implementation. Moreover, the thesis includes a discussion about the capabilities of the implemented system. The result of the thesis is a CEE upon which the streaming service can be deployed and managed. The developed CEE allows any workload that is encapsulated within a Docker container to be orchestrated, not exclusively the streaming service, which makes the implementation viable to other cloud computing projects. / Användandet av smartphones och andra "Internet of Things"-enheter ökar snabbt. I takt med ökningen, så släpps nya tekniker som möjliggör utveckling av mer avancerade tjänster. Ett exampel är Web Real-Time Communication (WebRTC). Den här typen av tjänster konsumeras oftast sporadiskt under kortare tidsintervall. även cloud computing har drastiskt ökat i popularitet under de senaste åren. Hög elasticitet samt möjligheten att allokera datorresurser på begäran har medfört att utnyttjandegraden av datorers kapacitet kan höjas. Flexibiliteten att snabbt kunna allokera och frigöra resurser möjliggör att tjänster kan utvecklas för att utnyttja upp- och nerskalningsm öjligheterna bättre, även för kortvariga lastökningar. Forskningen i rapporten riktar in sig på ett system för videoströmning mellan användare i realtid baserat påa WebRTC. Inkommande strömmar hanteras av Multipoint Control Units (MCUs), som har som uppgift att vidaredistribuera strömmarna till andra användare som vill spela upp strömmen. Horisontell skalning och cloud computing har mycket gemensamt. Det underliggande arbetet till den här rapporten fokuserar på ett extremfall, där varje inkommande videoström hanteras av en enskild MCU. Den här uppsatsen presenterar den process som användes för att ta fram en lämplig molnlösning för strömningssystemet. Processen beståar av en kravanalys av strömningssystemet, en jämförelse av befintliga lösningar samt en implementation av en molnlösning. Slutligen så innehåller uppsatsen en utvärdering av implementationen. Resultatet av uppsatsen är en molnlösning som videoströmningssystemet kan driftsättas och köras på. Molnlösningen är inte begränsad till videoströmningssystemet utan klarar av att hantera alla applikationer som paketerats inuti Docker-kapslar. Molnlösningen är så pass generell att den kan användas till andra projekt inom cloud computing.
12

Investigation of the scale factor between full scale ladle furnace process and water models

Abelin, Mathias, Blomkvist, Håkan January 2020 (has links)
The ladle furnace process is an important process in the steel manufacturing industry. The purpose of this process is to optimize the composition of the elements in the melt as well as to homogenize the temperature in the liquid. It is common practice to model this process using smaller water models. In order to accurately scale these models a variety of criteria and scaling factors are needed. The central phenomenon which all else is derived from is the two-phase gas plume dominating the fluid flows. The plume, and its dependant parameters are difficult to define. Which ones ought to be used and how to use them has not been standardized. Concerns have been raised whether the most common method of scaling is even applicable in ladle metallurgy. This report gives an account for studies concerning these variables and their effect on the subject. The objective of this report is to highlight ways to improve these simulations with respect to debated parameters. The conclusion of this study points out the reasons for why these variables may be of importance for the modeling of the ladle furnace process. It also specifically mentions future work that should be conducted in order to provide deeper knowledge of thedifferent parameters affecting the method of modeling. / Skänkmetallurgin är en viktigt process inom stålindustrin. Syftet med denna process är att optimera den kemiska sammansättningen i smältan och att homogenisera temperaturen i vätskan. Det är vanligt att modelera denna process med hjälp av vattenmodeller. För att träffsäkert skala dessa modeller krävs en mängd kriterier och skal-faktorer. Det mest centrala fenomenet, utifrån vilket allt annat kan härledas, är två-fas gasplymen som dominerar flödena i skänken. Plymen och dess beroende parametrar är svåra att definera. Vilka som bör användas och hur de används har inte standardiserats. Oro har väckts över om den vanligaste skalningsmetoden ens går att använda i skänkmetallurgi. Denna rapport redogör för studier rörande dessa variabler och deras påverkan på ämnet. Syftet med denna rapport är att belysa olika tillvägagångssätt till att förbättra dessa simulationer med hänsyn till debaterade parametrar. Slutsatsen för denna studie lyfter fram anledningarna till varför dessa variabler är av vikt för modellering för skänkmetallurgin. Även framtida arbete som bör utföras föratt ge djupare förståelse för de olika parametrarna belyses.
13

Dimensioning Microservices on Kubernetes Platforms Using Machine Learning Techniques

Rubak, Adam January 2023 (has links)
In recent years, cloud computing and containerization have become increasingly popular for various applications. However, optimizing resource usage and minimizing costs while providing reliable and efficient service to users can be a challenge. One such challenge is scaling containers according to the current system load. This thesis focuses on the problem of properly dimensioning pods in Kubernetes, a widely used platform for managing containerized applications. The motivation behind this problem is that the standard solution, Horizontal Pod Autoscaler (HPA), often results in wasted resources or poor performance due to overprovisioning or underprovisioning. This thesis proposes a proactive approach to scaling applications by utilizing machine learning models to predict future resource requirements based on concurrent user counts on the platform. This approach involves collecting and modifying data from HPA and training various machine learning models to forecast and predict the system's future behavior. The results of this thesis demonstrate that machine learning models can predict future resource requirements based on trends in the application. Based on the data evaluation, it was found that overprovisioning negatively affects the response time. Additionally, the machine learning models were accurate enough to predict future CPU needs. However, further research and experimentation are necessary to improve the accuracy and reliability of these models. / Under de senaste åren har cloud computing och containerisering blivit allt populärare för olika applikationer. Det kan dock vara en utmaning att optimera resursanvändningen och minimera kostnaderna och samtidigt tillhandahålla pålitlig och effektiv service till användarna. En sådan utmaning är hur man skalar containrar enligt den aktuella systembelastningen. Det här examensarbetet fokuserar på problemet med korrekt dimensionering av pods i Kubernetes, en allmänt använd plattform för att hantera containeriserade applikationer. Motivet bakom detta problem är att standardlösningen, Horizontal Pod Autoscaler (HPA), ofta resulterar i antingen slöseri med resurser eller dålig prestanda på grund av överprovisionering eller underprovisionering. Detta examensarbete syftar till att föreslå ett proaktivt tillvägagångssätt för att skala applikationer genom att använda maskininlärningsmodeller för att förutsäga framtida resurskrav baserat på samtidiga antal användare på plattformen. Detta tillvägagångssätt innebär att samla in och modifiera data från HPA och träna olika maskininlärningsmodeller för att förutsäga systemets framtida beteende. Resultaten av denna avhandling visar att maskininlärningsmodeller kan förutsäga framtida resursbehov baserat på trender i applikationen. Baserat på datautvärderingen fann man att överprovisionering påverkar svarstiden negativt. Dessutom var maskininlärningsmodellerna tillräckligt exakta för att förutsäga framtida CPU-behov. Det krävs dock ytterligare forskning och experiment för att förbättra noggrannheten och tillförlitligheten hos dessa modeller.
14

Study of bitwise operations on non-scarce attribute based data structures in PostgreSQL

Eschmann, Marcel January 2018 (has links)
This report investigates the viability of bitwise operations on non-scarce attribute based data structures in PostgreSQL. For applications where computation can’t be avoided, it most probably can be optimized. In an attempt of bringing the computation closer to hardware and the underlying data, operations directly on the database system are explored, taking inspiration from the research field of comparative genomics. With the case-study of an online job platform in mind, where possible matchings between candidate and job descriptions are calculated by a matching engine, a binary encoding is proposed and the computational components identified. The ultimate goal was to evaluate the scalability of the bitwise strategy with respect to the current matching engine. Through an iterative approach, this report conducts quantitative experiments on the presented components. Most notably, an implementation of the population count in the form of a C extension was introduced. It was found, that even for large sequence lengths, the operation is highly efficient. Among the chosen algorithms Lookup Table, Hamming Weight, Intrinsic functions and Unrolled Inline Assembly, the 64 bit intrinsic function displayed the best performance. Benchmarks determined, that the proposed bitwise approach is an excellent strategy for the outlined use-case. Despite the tradeoff of additional complexity in the encoding and decoding of data, the speedup is so significant, that the targeted user base of 100000 can easily be managed and allows for the deprecation of caching mechanisms. / Denna rapport undersöker gångbarheten för bitwise-operationer på icke-knappa attributbaserade datastrukturer i PostgreSQL. För applikationer där komputationen inte kan undvikas, kan den högst troligen optimeras. I ett försök att föra beräkningen närmare hårdvaran och den underliggande datan, undersöks operationer direkt på databasen med inspiration från forskningsområdet inom komparativ genomik. Med fallstudien av en online rekryteringsplattform i åtanke, där möjliga matchningar mellan kandidatoch arbetsbeskrivningar beräknas av en matchningsmotor, föreslås en binär kodning och komputationskomponenterna identifieras. Det slutgiltiga målet var att utvärdera skalbarheten hos bitwise-strategin med avseende till den aktuella matchningsmotorn. Genom ett iterativ tillvägagångssätt utför denna rapport kvantitativa experiment på de presenterade komponenterna. Framför allt infördes en implementering av population count i form av ett C-tillägg i databasen. Det visade sig att även för större sekvenslängder är operationen mycket effektiv. Bland de utvalda algoritmerna Lookup Table, Hamming Weight, Intrinsic-funktioner och Unrolled Inline Assembly, visade 64-bitars Intrisicfunktionen den bästa prestandan. Experimenten fastställde att det föreslagna bitwisetillvägagångssättet är en utmärkt strategi för den valda fallstudien. Trots avvägningen med ytterligare komplexitet vid kodning och avkodning av data är hastigheten så signifikant att ett användarantal på 100000 enkelt kan hanteras och möjliggör uteslutning av cache-mekanismer.
15

Comparing Cloud Architectures in terms of Performance and Scalability

Jääskeläinen, Perttu January 2019 (has links)
Cloud Computing is becoming increasingly popular, with large amounts of corporations revenue coming in from various cloud solutions offered to customers. When it comes to choosing a solution, multiple options exist for the same problem from many competitors. This report focuses on the ones offered by Microsoft in their Azure platform, and compares the architectures in terms of performance and scalability.In order to determine the most suitable architecture, three offered by Azure are considered: Cloud Services (CS), Service Fabric Mesh (SFM) and Virtual Machines (VM). By developing and deploying a REST Web API to each service and performing a load test, average response times in milliseconds are measured and compared. To determine scalability, the point at which each service starts timing out requests is identified. The services are tested both by scaling up, by increasing the power of a single instance of a machine, and by scaling out, if possible, by duplicating instances of machines running in parallel.The results show that VMs fall considerably behind both CS and SFM in both performance and scalability, for a regular use case. For low amounts of requests, all services perform about the same, but as soon as the requests increase, it is clear that both SFM and CS outperform VMs. In the end, CS comes ahead both in terms of scalability and performance.Further research may be done into other platforms which offer the same service solutions, such as Amazon Web Services (AWS) and Google Cloud, or other architectures within Azure. / Molntjänster blir alltmer populära i dagens industri, där stora mängder av företagens omsättning består av tjänster erbjudna i form av molnlösningar. När det kommer till att välja en lösning finns många för samma problem, där det är upp till kunden att välja vilken som passar bäst. Denna rapport fokuserar på tjänster erbjudna av Microsofts Azure plattform, i en jämförelse av arkitekturer som belastningstestas för att mäta prestanda och skalbarhet.För att avgöra vilken arkitektur som är optimalast mäts tre olika tjänster erbjudna i Azure: Cloud Services (CS), Service Fabric Mesh (SFM) och Virtual Machines (VM). Detta görs genom att utveckla och deploya ett REST Web API som är simulerat med användare, där prestanda mäts genom att ta medelresponstiden i millisekunder per anrop. För att avgöra skalbarhet identifieras en punkt där tjänsten inte längre klarar av antalet inkommande anrop och börjar returnera felkoder. Maskinerna för varje tjänst testas både genom att skala upp, genom att förstärka en maskin, men även genom att skala ut, där det skapas flera instanser av samma maskin.Resultatet visar att Virtual Machines hamnar betydligt efter både CS och SFM i både prestanda och skalbarhet för ett vanligt användarfall. För låga mängder anrop ligger samtliga tjänster väldigt lika, men så fort anropen börjar öka så märks det tydligt att SFM och CS presterar bättre än Virtual Machines. I slutändan ligger CS i framkant, både i form av prestanda och skalbarhet.Vidare undersökning kan göras för de olika plattformarna erbjudna av konkurrenter, så som Amazon Web Services (AWS) och Google Cloud, samt andra arkitekturer från Azure.
16

Intelligence Extraction Using Machine Learning for Threat Identification Purposes : An Overview / Inhämtande av underrättelseinformation genom maskininlärning för identifikation av hot

Lindgren, Jonatan January 2022 (has links)
Radar is an invaluable tool for detecting and assessing threats on land, on the seas and in the air. To properly evaluate threats, radar operators construct threat libraries where the signal characteristics of emitters are stored and mapped to specific types of platforms. In this project, methods for constructing these threat detection libraries from data obtained during real-life scenarios are investigated. A number of machine learning approaches are investigated and validated using general and method specific scoring methods. Using density based clustering methods and non-linear data transformation it is shown that Hierarchical Density-Based Spatial Clustering of Applications with Noise (HDBSCAN) and spatial consistency metrics can be used to deinterleave and group signals to radar trace emitting platforms, from which suitable library parameters can be extracted. The results show that traditional metrics for evaluating cluster methods are not suited for evaluating data containing spatial information. / Radar är ett ovärderligt verktyg för att upptäcka och identifiera hot på land, till havs och i luften. För att kunna utvärdera olika former av hot använder sig radaroperatörer av hotbibliotek, vilka består av olika radarplattformers signalparametrar. I det här projektet undersöks olika metoder för att bygga hotbibliotek med hjälp av verkliga data insamlat under flygningar i Sverige. Olika maskininlärningsmetoder undersöks och utvärderas med hjälp av både generella och specifika utvärderingsmetoder. Genom att använda sig av densitets- baserade klustringsmetoder och olinjära metoder för att transformera data så visas att hierarkisk densitetsbaserad spatial klustring för tillämningar med störningar (HDBSCAN) och utvärderingsmetoder som baseras på spatial karaktäristik kan användas för att separera och gruppera radarkällor, vilka kan användas för att finna parametrar för att bygga hotbibliotek. Det visas även att traditionella metoder för att utvärdera klustringsresultat inte lämpar sig för att utvärdera spatiala data.
17

Optimizing Resource Allocation in Kubernetes : A Hybrid Auto-Scaling Approach / Optimering av resurstilldelning i Kubernetes : En hybrid auto-skalningsansats

Chiminelli, Brando January 2023 (has links)
This thesis focuses on addressing the challenges of resource management in cloud environments, specifically in the context of running resource-optimized applications on Kubernetes. The scale and growth of cloud services, coupled with the dynamic nature of workloads, make it difficult to efficiently manage resources and control costs. The objective of this thesis is to explore the proactive autoscaling of virtual resources based on traffic demand, aiming to improve the current reactive approach, the Horizontal Pod Autoscaler (HPA), that relies on predefined rules and threshold values. By enabling proactive autoscaling, resource allocation can be optimized proactively, leading to improved resource utilization and cost savings. The aim is to strike a balance between resource utilization and the risk of Service Level Agreement (SLA) violations while optimizing resource usage for microservices. The study involves generating predictions and assessing resource utilization for both the current HPA implementation and the proposed solution. By comparing resource utilization and cost implications, the economic feasibility and benefits of adopting the new approach can be determined. The analysis aims to provide valuable insights into resource utilization patterns and optimization opportunities. The analysis shows significant improvements in CPU utilization and resource consumption using the proposed approach compared to the current HPA implementation. The proactive strategy allows for handling the same number of requests with fewer replicas, resulting in improved efficiency. The proposed solution has the potential to be applied to any type of service running on Kubernetes, with low computational costs. In conclusion, the analysis demonstrates the potential for resource optimization and cost savings through the proposed approach. By adopting proactive strategies and accurately predicting resource needs, organizations can achieve efficient resource utilization, system robustness, and compliance with SLA. Further research and enhancements can be explored based on the findings of this analysis. / Denna avhandling fokuserar på att adressera utmaningarna med resurshantering i molnmiljöer, specifikt i kontexten att köra resursoptimerade applikationer på Kubernetes. Skalan och tillväxten av molntjänster, tillsammans med arbetsbelastningarnas dynamiska natur, gör det svårt att effektivt hantera resurser och kontrollera kostnader. Syftet med denna avhandling är att utforska proaktiv autoskalning av virtuella resurser baserat på trafikbehov, med målet att förbättra den nuvarande reaktiva metoden, Horizontal Pod Autoscaler (HPA), som förlitar sig på fördefinierade regler och tröskelvärden. Genom att möjliggöra proaktiv autoskalning kan resurstilldelningen optimeras i förväg, vilket leder till förbättrad resursanvändning och kostnadsbesparingar. Målet är att hitta en balans mellan resursanvändning och risken för överträdelser av Service Level Agreements (SLA) samtidigt som resursanvändningen för mikrotjänster optimeras. Studien innefattar att generera förutsägelser och bedöma resursanvändning för både den nuvarande HPA-implementeringen och den föreslagna lösningen. Genom att jämföra resursanvändning och kostnadsimplikationer kan den ekonomiska genomförbarheten och fördelarna med att anta det nya tillvägagångssättet bestämmas. Analysen syftar till att ge värdefulla insikter i mönster för resursanvändning och möjligheter till optimering. Analysen visar betydande förbättringar i CPU-användning och resursförbrukning med den föreslagna metoden jämfört med den nuvarande HPA-implementeringen. Den proaktiva strategin möjliggör hantering av samma antal förfrågningar med färre replikor, vilket resulterar i förbättrad effektivitet. Den föreslagna lösningen har potential att tillämpas på alla typer av tjänster som körs på Kubernetes, med låga beräkningskostnader. Sammanfattningsvis visar analysen potentialen för resursoptimering och kostnadsbesparingar genom det föreslagna tillvägagångssättet. Genom att anta proaktiva strategier och noggrant förutsäga resursbehov kan organisationer uppnå effektiv resursanvändning, systemets robusthet och uppfyllnad av SLA:er. Vidare forskning och förbättringar kan utforskas baserat på resultaten av denna analys.
18

Test Rig Adaptation for the Investigation of Bearings in Wave Energy Converters / Testriggsanpassning för undersökning av lager i Wave Energy Converters

Menon, Aju Sukumaran January 2021 (has links)
Wave ocean energy is a source of renewable energy which is gaining interest in the modern world. In contrast to other well-researched renewable energy sources such as wind energy, wave ocean energy is under the development phase. Governments around the world are encouraging the research of harnessing wave energy. As of now, there are different concepts to harness energy from waves. Tribological components are one of the main aspects that need attention in these wave energy converters. The moving components such as bearings can be the life-determining component of the entire device. This thesis provides conceptual solutions to adapt an existing start-stop bearing test rig to the conditions of wave energy converters. The test rig can test different bearing sused in the wave energy converters. The new design intends to provide scaled wave energy conditions. These conditions are mainly influenced by the oscillating movement of the bearings, the complex load condition and the salty environment. Since the testing of bearings in wave energy converters is in the initial stage, modular designs are implemented to test different types of bearings. / Se filen
19

Finite Element Modelling of Compact Gears Using Strain Measurements / Finita element modellering av kompaktväxlar med hjälp av töjningsmätning

Shah, Saujanya January 2020 (has links)
Robot design and development has been the backbone of industrial automation and is in the forefront of accelerated development across all areas. Robot designers have been using simulations for reducing product development lead times. With growing demand for faster, precise and efficient robots, the requirements on computerized simulation for stress analysis has become stringent. While the product structure is mostly designed and developed from scratch, some components are sourced from suppliers, leaving a gap in the knowledge for modelling an entirety of a robot. This thesis applies a structured method to develop a grey-box model of the compact gears, which provides the robots its dexterity in a compact form factor. The method utilizes experimental strain measurements as a basis for building the model. Design of experiment is used as the guide for conducting FE analysis on robot links with unit load case, followed by scaling of stresses to actual load case. Simulated and measured stress plots are compared to conclude on optimum modelling approach. Further, the thesis proposes an alternative method for stress analysis of robot links by omitting the compact gear embodiment. While the method applies well on the robot links considered during the study, its validation across other links and robot architecture is yet to be performed. Finally, recommendations for implementation of proposed method and areas for expanding this thesis work are proposed. / Robotdesign har varit ryggraden inom industriell automation och är i framkanten av utvecklingen inom alla områden. Robotdesigners använder sig av simuleringar för att korta utvecklingstider. Med växande krav på snabbare, effektiva och noggranna robotar, har kraven på datorsimuleringar ökat. Medan huvuddelen av strukturen är utvecklad från grunden, är några komponenter köpta från leverantörer vilket skapar ett glapp i kunskapen för att kunna modellera en hel robot. Det här examensarbetet använder en strukturerad metod för att utveckla en "grey-box" modell av en kompaktväxel, vilken tillåter robotens mångsidighet i ett kompakt format. Metoden använder töjningsmätningar till grund för att bygga modellen. Experimentell design används som en guide för att utföra FE analyser på robotdelar med enhetslastfall, vilka skalas till verkliga lastfall. Simulerade och uppmätta spänningar jämförs för att optimera modelleringen. Det föreslås även en metod där kompaktväxlarna inte modelleras som solider. Metoden fungerar väl för robotarmar som ingick i denna studie, dock bör den verifieras på andra modeller och delar. Slutligen föreslås implementering av metoden som tagits fram i denna rapport samt ytterligare arbete för att verifiera metoden.
20

Evaluation of a CFD method for estimating aerodynamic loads on external stores on JAS 39 Gripen

Öhrman, Jakob January 2011 (has links)
Loads determination for external stores on fighter aircraft is an important task for manufacturers in ensuring the safe operation of their aircraft. Due to the large number of possible store combinations, wind tunnel tests – the primary approach to obtaining loads data – cannot be performed for all configurations. Instead, supplementary techniques to estimating loads are necessary. One approach is to use information from another store and adapt it, using so-called scaling methods, to the non-tested store. In this thesis, a scaling method combining the results of computational fluid dynamics (CFD) simulations, for both a non-tested and a reference store, with existing wind tunnel data for the reference store, is thoroughly examined for a number of different stores, angles of attack, sideslip angles and Mach numbers. The performance of the proposed scaling method is assessed in relation to currently used scaling methods, using non-parametric and multivariate statistics. The results show no definitive improvement in performance for the proposed scaling method over the current methods. Although the proposed method is slightly more conservative, considerable variability in the estimates and an increased time consumption for scaling leads the author to advise against using the proposed method for scaling aerodynamic loads on external stores. / Lastbestämning för yttre utrustning på stridsflygplan är en viktig uppgift för att tillverkarna ska kunna garantera säkerheten för sina flygplan. Då antalet möjliga utrustningskombinationer är mycket stort, kan inte vindtunneltester – normalt den främsta metoden för att erhålla lastdata – utföras för alla konfigurationer. Således behövs kompletterande metoder för att skatta laster. Ett alternativ är att använda data från en annan utrustning och anpassa den, med hjälp av så kallade skalningsmetoder, till den icke-testade utrustningen. I detta examensarbete behandlas en skalningsmetod som kombinerar resultaten från numeriska strömningsberäkningar – så kallade CFD-simuleringar – för både en testad och en icke-testad utrustning med befintliga vindtunneldata för den testade utrustningen. Metoden undersöks grundligt för ett antal olika utrustningar, anfallsvinklar, sidanblåsningsvinklar och Machtal. Prestandan hos den föreslagna skalningsmetoden utvärderas i relation till nu använda skalningsmetoder, baserat på icke-parametrisk och multivariat statistik. Resultaten visar inga definitiva förbättringar av prestanda för den föreslagna skalningsmetoden jämfört med de nuvarande metoderna. Även om den föreslagna metoden är något mer konservativ, så föranleder betydande variationer i skattningar och en ökad tidsåtgång för skalning författaren att avråda från att använda den föreslagna metoden för skalning av luftlaster på yttre utrustning.

Page generated in 0.0702 seconds