• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 26
  • 2
  • 2
  • Tagged with
  • 133
  • 35
  • 31
  • 21
  • 20
  • 19
  • 17
  • 16
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Sökande efter radiovågor från skärzonen vid svarvning

Firoz, Safdari, Yonas, Woldegiorgis January 2021 (has links)
Adhesive wear occurs when small surfaces of the cutting tool due to friction are micro-welded to the chips and removed from the tool surface. A hypothesis as to whywelding occurs is that an electric potential field arises which initiates a chemical reaction and then welding of the work material and the tool takes place in the cuttingzone. The electric potential field results in a fluttering magnetic field, which in turngenerates electromagnetic issues. The waves should be around and above 1 MHz.The aim of this work is thus to investigate the presence of electromagnetic wavesfrom the cutting zone. The purpose is to compare sound and electromagnetic wavesduring the adhesive process. Previous research shows that the adhesive mechanism is a transient vibration thatmanifests itself as a cluster of waves with a stochastic duration, including a feedbacksystem restricted by the plastic deformation within the chip. Furthermore, the cutting speed is the most important cutting parameter in tool wear and the main wearmechanism at cutting speeds around 200 m/min is the adhesive wear. Several studies showed the emission of electromagnetic waves during plastic deformation ofmetals during tensile test. Frequency ranges for radiations are between 1 and 1000MHz. To investigate the hypothesis, axial turning was performed with a cutting speed190–200 (m/min) and one steel grade, SS2541 was used as a work material. Thedepth of cut and feed were set to 1 mm and 0,196 mm/rev. Detection and measurement of electromagnetic waves was performed with a spectrum analyzerMT8221B with four different signal receivers. A reference measurement was madewhen the turning machine was on without the workpiece being machined and then ameasurement was made during the turning process. The results of measurementsshowed a source of electromagnetic radiation within the frequency range 0–5 MHz.This result was achieved with copper plate as an antenna. To find out how signalsfrom acoustic emission and electromagnetic waves develop during the adhesive wearprocess, sound measurements were performed with microphones during the turningprocess. Results of sound measurement showed that the frequency at which adhesivewear occurs decreases and the amplitude increases as the insert wears. To be able toanalyze how electromagnetic radiation develops with the wear process, measurements must be performed in a shielded space from ambient disturbances, as in aworkshop there are many sources of noise that can affect the accuracy of the measurement. An antenna can be designed so that the measurement can take place asclose to the cutting zone as possible.
112

Automated Vulnerability Management / Automatiserad sårbarhetshantering

Ma, Yuhan January 2023 (has links)
The field of software security is constantly evolving, and security must be taken into consideration throughout the entire product life cycle. This is particularly important in today’s dynamic security landscape, where threats and vulnerabilities constantly change. One of the organizations’ biggest challenges is identifying and managing vulnerabilities in their software systems. This is where automating aspects of vulnerability management can play a crucial role. This thesis aims to investigate the feasibility of using natural language processing to automate vulnerability management. The main objective of the work is to develop a proof-of-concept system that simplifies the work of developers and testers by automatically filtering and categorizing vulnerabilities. The system will use natural language processing to distinguish and classify vulnerabilities based on the details of the vulnerability description. This helps organizations to identify and manage vulnerabilities conveniently, meanwhile saving time and resources. In addition, the system will be integrated with the defect-tracking tool, becoming part of the software development process. Therefore, the vulnerabilities can be identified and managed as early as possible in the development cycle, making resolving them easier and more cost-effective. Integrating the defect-tracking tool will also make it easier for organizations to track and resolve vulnerabilities promptly. In conclusion, this work aims to demonstrate that an automated vulnerability management system using natural language processing is feasible and effective. By simplifying the work of developers and testers, organizations can improve their overall software security posture and reduce their risk of security incidents. The expected outcome of this work is a proof-of-concept system that can be used as a model for organizations which aim to improve their vulnerability management processes. / Området mjukvarusäkerhet utvecklas ständigt och säkerhet måste beaktas under hela produktens livscykel. Detta är särskilt viktigt i dagens dynamiska säkerhetslandskap, där hot och sårbarheter ständigt förändras. En av organisationernas största utmaningar är att identifiera och hantera sårbarheter i sina mjukvarusystem. Det är här automatisering av sårbarhetshantering kan spela en avgörande roll. Denna avhandling syftar till att undersöka möjligheten att använda bearbetning av naturligt språk för att automatisera sårbarhetshantering. Huvudsyftet med forskningen är att utveckla prototyp som förenklar arbetet för utvecklare och testare genom att automatiskt filtrera och kategorisera sårbarheter. Systemet kommer att använda naturlig språkbehandling för att särskilja och klassificera sårbarheter baserat på detaljerna i sårbarhetsbeskrivningen. Detta hjälper organisationer att identifiera och hantera sårbarheter, samtidigt som det sparar tid och resurser. Dessutom kommer systemet att integreras i ett automatiserat flöde och blir då en del av mjukvaruutvecklingsprocessen. Detta säkerställer att sårbarheter identifieras och hanteras så tidigt som möjligt i utvecklingscykeln, vilket gör det enklare och mer kostnadseffektivt att lösa dem. Integrationen med defektspårningsverktyg kommer också att göra det lättare för organisationer att följa sårbarheter och lösa dem snabbt. Sammanfattningsvis syftar detta arbete till att visa att ett automatiserat sårbarhetshanteringssystem som använder naturligt språkbehandling är genomförbart och effektivt. Genom att förenkla arbetet för utvecklare och testare kan organisationer förbättra sin övergripande mjukvarusäkerhet och minska risken för säkerhetsincidenter. Det förväntade resultatet av detta arbete är ett proof-of-concept-system som kan användas som en modell för organisationer som strävar efter att förbättra sina processer för sårbarhetshantering.
113

Utvärdering av löstoppsborrars prestanda : Som ett led i Scanias standardiseringsarbete ienlighet med SPS / Evaluation of the performance of drills with indexable heads : As part of Scania's standardization work in accordance with SPS

Chen, Sebastian, Fredriksson, Disa January 2018 (has links)
Inom tillverkning är skärande bearbetning en vanligt förekommande process och däribland borrning.Verktygskostnader har stor påverkan på den totala tillverkningskostnaden då till exempel ett heltarbetsstycke i värsta fall kan gå förlorat vid verktygshaveri. Genom sitt arbete med ständigaförbättringar håller Scania sig konkurrenskraftiga med sina produkter av hög kvalitet. I dettaexamensarbete inom masterprogrammet Industriell Produktion på KTH har en specifik typ av borrmed löstagbar borrkrona utvärderats med avsikt att undersöka nya fabrikat.Uppdragsgivaren var motorbearbetningen (DM) på Scania i Södertälje. Arbetet inleddes med attinförskaffa relevant kunskap gällande verktyget som undersöktes. Samtidigt utfördes ennulägesanalys där de använda borrarna på DM kartlades tillsammans med information kring pris,livslängd, m.m. Utifrån kartläggingen sammanställdes statistik som analyserades för att identifierahur stor påverkan en eventuell standardisering skulle kunna ha.Utvärderingen av borrar bestod av praktiska experiment där sju olika verktyg med en diameter på12,2 mm testades under samma förhållanden. Testet utformades i enighet med berörda parter påDM samt efter studier av adekvat litteratur rörande borrexperiment. Fyra parametrar testadesutöver borrarnas livslängd. Dessa var axialkraft, förslitning, håldiameter och spånor. Parametrarnaämnades jämföras och analyseras för att dra slutsatser kring borrarnas prestationer.Nulägesanalysen visade att ett fabrikat utgjorde hela 69% av borrarna på hela DM. Efter slutfördaborrtester hade enbart tre av sju genomfört utan haveri, Borr E, F och G. Samtliga sju borrar visadegodkända spånor och höll sig inom toleranserna för angiven håldiameter. Axialkrafterna varierademellan borrarna där Borr F hade lägst krafter och Borr A högst. Borr E visade bäst motstånd motförslitningar. Utifrån detta valdes borrarna E, F och G att rekommenderas för deras goda prestationermed Borr E på första plats. Utöver det föreslogs att utbudet av fabrikat som kan användas på DMbegränsas för att uppnå kostnadsbesparingar gällande verktygen. / Drilling is a common cutting process within manufacturing. Tool costs have great influence on thetotal manufacturing cost since a tool break down can cause an entire work piece to be scrapped.Through their constant work with improvements, Scania stays competitive with their high qualityproducts. This Master Thesis in Industrial Production and Management at KTH has evaluated aspecific type of drill with indexable heads with the purpose of investigating new brands.The Engine Manufacturing department (DM) at Scania in Södertälje requested this project. The taskwas initiated by obtaining knowledge about the tool that were to be investigated. Simultaneously ananalysis of the current state was performed where the drills at DM were mapped out withinformation regarding price, tool life, etc. The statistics were compiled and analysed to identify theeffect of an eventual standardisation.The evaluation consisted of practical experiments where seven different drills with a diameter of12,2 mm was tested under the same circumstances. The test was design in concurrence with affectedparts at DM and studies of adequate literature regarding drilling experiments. Four parameters weretested in addition to the tool life of the drills. These were axial force, tool wear, hole diameter andchips. The parameters were intended to be used for comparing and analysing in order to makeconclusions regarding the performance of the drills.The current state analysis showed that one brand represented 69% of the drills used at DM. Afterfinished drilling tests three out of seven drills managed to complete the test without tool breakdown. All drills produced chips that were acceptable and the measured diameters stayed within thegiven tolerances. The axial forces varied between the drill where Borr F had the lowest force and BorrA the highest. Borr E showed the best resistance against tool wear. From the results the drills thatwere recommended were Borr E, F and G because of their good performances with Borr E in the firstplace. Ultimately it was suggested to limit the amount of brands used at DM to achieve cost savingsregarding the tools.
114

Discover patterns within train log data using unsupervised learning and network analysis

Guo, Zehua January 2022 (has links)
With the development of information technology in recent years, log analysis has gradually become a hot research topic. However, manual log analysis requires specialized knowledge and is a time-consuming task. Therefore, more and more researchers are searching for ways to automate log analysis. In this project, we explore methods for train log analysis using natural language processing and unsupervised machine learning. Multiple language models are used in this project to extract word embeddings, one of which is the traditional language model TF-IDF, and the other three are the very popular transformer-based model, BERT, and its variants, the DistilBERT and the RoBERTa. In addition, we also compare two unsupervised clustering algorithms, the DBSCAN and the Mini-Batch k-means. The silhouette coefficient and Davies-Bouldin score are utilized for evaluating the clustering performance. Moreover, the metadata of the train logs is used to verify the effectiveness of the unsupervised methods. Apart from unsupervised learning, network analysis is applied to the train log data in order to explore the connections between the patterns, which are identified by train control system experts. Network visualization and centrality analysis are investigated to analyze the relationship and, in terms of graph theory, importance of the patterns. In general, this project provides a feasible direction to conduct log analysis and processing in the future. / I och med informationsteknologins utveckling de senaste åren har logganalys gradvis blivit ett hett forskningsämne. Manuell logganalys kräver dock specialistkunskap och är en tidskrävande uppgift. Därför söker fler och fler forskare efter sätt att automatisera logganalys. I detta projekt utforskar vi metoder för tåglogganalys med hjälp av naturlig språkbehandling och oövervakad maskininlärning. Flera språkmodeller används i detta projekt för att extrahera ordinbäddningar, varav en är den traditionella språkmodellen TF-IDF, och de andra tre är den mycket populära transformatorbaserade modellen, BERT, och dess varianter, DistilBERT och RoBERTa. Dessutom jämför vi två oövervakade klustringsalgoritmer, DBSCAN och Mini-Batch k-means. Siluettkoefficienten och Davies-Bouldin-poängen används för att utvärdera klustringsprestandan. Dessutom används tågloggarnas metadata för att verifiera effektiviteten hos de oövervakade metoderna. Förutom oövervakad inlärning tillämpas nätverksanalys på tågloggdata för att utforska sambanden mellan mönstren, som identifieras av experter på tågstyrsystem. Nätverksvisualisering och centralitetsanalys undersöks för att analysera sambandet och grafteoriskt betydelsen av mönstren mönstren. I allmänhet ger detta projekt en genomförbar riktning för att genomföra logganalys och bearbetning i framtiden.
115

Diffuser: Packet Spraying While Maintaining Order : Distributed Event Scheduler for Maintaining Packet Order while Packet Spraying in DPDK / Diffusor: Packet Spraying While Upprätthålla Ordning : Distribuerad händelseschemaläggare för att upprätthålla paketordning medan Paketsprutning i DPDK

Purushotham Srinivas, Vignesh January 2023 (has links)
The demand for high-speed networking applications has made Network Processors (NPs) and Central Computing Units (CPUs) increasingly parallel and complex, containing numerous on-chip processing cores. This parallelism can only be exploited fully by the underlying packet scheduler by efficiently utilizing all the available cores. Classically, packets have been directed towards the processing cores at flow granularity, making them susceptible to traffic locality. Ensuring a good load balance among the processors improves the application’s throughput and packet loss characteristics. Hence, packet-level schedulers dispatch flows to the processing core at a packet granularity to improve the load balance. However, packet-level scheduling combined with advanced parallelism introduces out-of-order departure of the processed packets. Simultaneously optimizing both the load balance and packet order is challenging. In this degree project, we micro-benchmark the DPDK’s (Dataplane Development Kit) event scheduler and identify many performance and scalability bottlenecks. We find the event scheduler consumes around 40% of the cycles on each participating core for event scheduling. Additionally, we find that DSW (Distributed Software Scheduler) cannot saturate all the workers with traffic because a single NIC (Network Interface Card) queue is polled for packets in our test setup. Then we propose Diffuser, an event scheduler for DPDK that combines the functional properties of both the flow and packet-level schedulers. The diffuser aims to achieve optimal load balance while minimizing out-of-order packet transmission. Diffuser uses stochastic flow assignments along with a load imbalance feedback mechanism to adaptively control the rate of flow migrations to optimize the scheduler’s load distribution. Diffuser reduces packet reordering by at least 65% with ten flows of 100 bytes at 25 MPPS (Million Packet Per Second) and at least 50% with one flow. While Diffuser improves the reordering performance, it slightly reduces throughput and increases latency due to flow migrations and reduced cache locality / Efterfrågan på höghastighets-nätverksapplikationer har gjort nätverkspro-cessorer (NP) och centrala beräkningsenheter (CPU:er) alltmer parallella, komplexa och innehållande många processorkärnor. Denna parallellitet kan endast utnyttjas fullt ut av den underliggande paketschemaläggaren genom att effektivt utnyttja alla tillgängliga kärnor. Vanligtvis har paketschemaläggaren skickat paket till olika kärnor baserat på flödesgranularitet, vilket medför trafik-lokalitet. En bra belastningsbalans mellan processorerna förbättrar applikationens genomströmning och minskar förlorade paket. Därför skickar schemaläggare på paketnivå istället flöden till kärnan med en paketgranularitet för att förbättra lastbalansen. Schemaläggning på paketnivå kombinerat med avancerad parallellism innebär dock att de behandlade paketen avgår i oordning. Att samtidigt optimera både lastbalans och paketordning är en utmaning. I detta examensprojekt utvärderar vi DPDKs (Dataplane Development Kit) händelseschemaläggare och hittar många flaskhalsar i prestanda och skalbarhet. Vi finner att händelseschemaläggaren konsume-rar cirka 40 % av cyklerna på varje kärna.Dessutom finner vi att DSW (Schemaläggare för distribuerad programvara) inte kan mätta alla arbetande kärnor med trafik eftersom en enda nätverkskorts-kö används i vår testmiljö. Vi introducerar också Diffuser, en händelse-schemaläggare för DPDK som kombinerar egenskaperna hos både flödes-och paketnivåschemaläggare. Diffuser ämnar att uppnå optimal lastbalans samtidigt som den minimerar paketöverföring i oordning. Den använder stokastiska flödestilldelningar tillsammans med en återkopplingsmekanism för lastobalans för att adaptivt kontrollera flödesmigreringar för att optimera lastfördelningen. Diffuser minskar omordning av paket med minst 65 % med tio flöden på 100 byte vid 25 MPPS (Miljoner paket per sekund) och minst 50 % med endast ett flöde. Även om Diffuser förbättrar omordningsprestandan, minskar den genomströmningen något och ökar latensen på grund av flödesmigreringar och minskad cache-lokalitet.
116

Predictable Multiprocessor Platform for Safety- Critical Real- Time Systems

Sigurðsson, Páll Axel January 2021 (has links)
Multicore systems excel at providing concurrent execution of applications, giving true parallelism where all cores can execute sequences of machine instructions at the same time. However, multicore systems come with their own sets of problems, most notably when cores in a system (or core tiles) share hardware components such as memory modules or Input/Output (IO) peripherals. This increased level of complexity makes it especially difficult to design and verify safety- critical systems that require real- time operation, such as flight controllers in airplanes and airbag controllers in the automotive industry. Verifying that that systems are predictable is therefore essential, requiring methods for measuring and finding out the Worst- Case Execution Times (WCETs) and Best- Case Execution Times (BCETs). Additionally, the designer must ensure isolation between running applications (indicating that the platform is composable). This thesis work consists of designing a predictable Multiprocessor System On- Chip (MPSoC) using Qsys and Quartus II, as well as providing methods and test benches that can support all claims made about the platform’s reported behavior. A shared- memory loosely coupled multicore design was implemented, which can be horizontally scaled from 2 to 8 core tiles. A high- level Hardware Abstraction Layer (HAL) is written for the platform to simplify its use. Using Nios II/e processors as the logical cores in the platform’s core tiles gives predictable (mostly static) latencies when the platform is tested, showing no erratic or unexplained timing variations. However, due to the Round Robin (RR) nature of the arbitration logic in the Avalon Switch Fabric (ASF), composability was not fully achieved in the platform. Groundwork for implementing Time- Division Multiplexing (TDM) arbitration logic is proposed and will ideally be fully implemented in future work. / Mångkärniga processorsystem utmärker sig när det kommer till samkörning mellan applikationer. De ger en sann parallellism, där alla kärnor kan köra processorinstruktioner samtidigt. Mångkärniga system kommer med sina egna problem, framför allt när kärnorna ska dela komponenter så som minnesmoduler och Input/Output tillbehör. Den ökade komplexiteten gör att det är extra svårt att designa och verifiera säkerhetskritiska system som kräver körning i realtid, så som flygkontrollers på flygplan och styrenheter för krockkudden i bilar. Verifiering av att systemen är förutsägbara är essentiellt, detta behöver metoder för att mäta och hitta den värsta möjliga exekveringstiden (WCET) och den bästa möjliga exekveringstiden (BCET). Utöver detta måste designern säkerställa att processerna som körs på kärnorna är isolerade ifrån varandra (komponerbara). Detta arbetet består av att designa ett förutsägbart mångkärnigt system på chip (MPSoC) med Qsys och Quartus II, samt att ge metoder och testbänkar som kan bevisa systemets hävdade beteende. Ett löst kopplat mångkärnigt system med delat minne implementerades, där systemets kärnor kan ökas horisontellt från 2 till 8 stycken. Ett Hardware Abstraction Layer (HAL) skapades för systemet för att simplifiera användningen. Användningen av Nios II/e som processorkärna gav förutsägbara exekveringstider när systemet testades och visade inga oförklarliga tids variationer. Däremot, på grund av att Avalon Switch Fabric (ASF) tilldelar access med Round Robin (RR), är systemet inte komponerbart. Basen för att implementera Time- Division Multiplexing (TDM) istället är föreslaget och kommer idealt implementeras som fortsatt arbete.
117

Task-agnostic knowledge distillation of mBERT to Swedish / Uppgiftsagnostisk kunskapsdestillation av mBERT till svenska

Kina, Added January 2022 (has links)
Large transformer models have shown great performance in multiple natural language processing tasks. However, slow inference, strong dependency on powerful hardware, and large energy consumption limit their availability. Furthermore, the best-performing models use high-resource languages such as English, which increases the difficulty of using these models for low-resource languages. Research into compressing large transformer models has been successful, using methods such as knowledge distillation. In this thesis, an existing task-agnostic knowledge distillation method is employed by using Swedish data for distillation of mBERT models further pre-trained on different amounts of Swedish data, in order to obtain a smaller multilingual model with performance in Swedish competitive with a monolingual student model baseline. It is shown that none of the models distilled from a multilingual model outperform the distilled Swedish monolingual model on Swedish named entity recognition and Swedish translated natural language understanding benchmark tasks. It is also shown that further pre-training mBERT does not significantly affect the performance of the multilingual teacher or student models on downstream tasks. The results corroborate previously published results showing that no student model outperforms its teacher. / Stora transformator-modeller har uppvisat bra prestanda i flera olika uppgifter inom naturlig bearbetning av språk. Men långsam inferensförmåga, starkt beroende av kraftfull hårdvara och stor energiförbrukning begränsar deras tillgänglighet. Dessutom använder de bäst presterande modellerna högresursspråk som engelska, vilket ökar svårigheten att använda dessa modeller för lågresursspråk. Forskning om att komprimera dessa stora transformatormodeller har varit framgångsrik, med metoder som kunskapsdestillation. I denna avhandling används en existerande uppgiftsagnostisk kunskapsdestillationsmetod genom att använda svensk data för destillation av mBERT modeller vidare förtränade på olika mängder svensk data för att få fram en mindre flerspråkig modell med prestanda på svenska konkurrerande med en enspråkig elevmodell baslinje. Det visas att ingen av modellerna destillerade från en flerspråkig modell överträffar den destillerade svenska enspråkiga modellen på svensk namngiven enhetserkännande och svensk översatta naturlig språkförståelse benchmark uppgifter. Det visas också att ytterligare förträning av mBERTpåverkar inte väsentligt prestandan av de flerspråkiga lärar- eller elevmodeller för nedströmsuppgifter. Resultaten bekräftar tidigare publicerade resultat som visar att ingen elevmodell överträffar sin lärare.
118

Natura 2000-tillstånd vid bearbetningskoncession : En komplex process med parallella prövningar

Boman, Emelie, Marklund, Stephanie January 2024 (has links)
Den nuvarande prövningsordningen för bearbetningskoncession bygger på ett system där Bergsstaten bedömer företrädesrätt till mineral och mark- och vattenområden. Prospektören måste senare ansöka om miljötillstånd enligt miljöbalken. Problem uppstår när de parallella prövningarna kolliderar med EU:s skydd för utpekade arter och livsmiljöer (Natura 2000). Risken med att vid ett tidigt skede i processen ansöka om Natura 2000-tillstånd är att man behöver söka nytt tillstånd senare i processen, detta om gruvverksamhetens omfattning och miljöeffekter inte var fullt klarlagda vid det första ansökningstillfället. Dessa omständigheter har resulterat i en rättsosäkerhet och att färre gruvor etableras. Arbetet har tagit utgångspunkt ifrån analyser av gällande rätt och har genom en rättsdogmatisk metod syftat till att redogöra för förutsättningarna för att erhålla bearbetningskoncession. Vidare har arbetet avsett att undersöka när i prövningsprocessen ett Natura 2000-tillstånd behöver sökas samt vilka kriterier som behöver vara uppfyllda för att erhålla tillståndet. De parallella prövningarna samt nuvarande prövningsordning har blivit ett problem som givit upphov till ett lagförslag som föreslår att ett Natura 2000-tillstånd inte längre ska vara en förutsättning för att erhålla bearbetningskoncession. Natura 2000-tillståndsprövningen ska istället interageras med miljötillståndsprövningen som sker vid ett senare tillfälle. De tilltänkta ändringarna syftar till att effektivisera prövningsprocessen samt bidra till att den ska bli mer förutsägbar och rättssäker, detta i sin tur antas leda till att investeringsviljan ökar. Lagändringen antas inte leda till några negativa effekter på miljön eftersom en koncession inte per automatik innebär tillstånd att starta en gruvverksamhet, den utgör heller ingen garanti för att verksamheten kommer godkännas i slutändan. Kraven på tillstånd enligt miljöbalken kvarstår och lagstiftarens syfte är endast att ändra när i tillståndsprövningen ansökan ska ske.
119

Deepfakes: ett upphovsrättsligt problem : En undersökning av det upphovsrättsliga skyddet och parodiundantagets samspel med AI-assisterade skapandeprocesser / Deepfakes: A Copyright Issue : An Inquiry of the Copyright Protection and Parody Exception's Interplay with AI-assisted Creative Processes

Atala Labbé, Daniel Atala January 2022 (has links)
In the age of digitalizarion several new ways of creating immaterial property have sprung up due to the resurgence of artificial intelligence (AI). This has paved the way for different kinds of tech including the assistance of AI in a more normalized way. A prominent variation of this tech is called "deepfake". Deepfakes are a technology that essentially places your face, likeness, mannerisms, and voice onto new situations that the creator then steers to make the deepfake do or say things that the person whose deepfake is based on hasn't done or said. This technology has been used in a myriad of ways, all from humourous content to extorsion and revenge porn. The aim of this master thesis is to analyse how immaterial law protection is achieved through current Swedish immaterial law principles and how these fit within the context of heavily based AI-tech such as deepfakes. This is done through a dogmatic lens, meaning that a systematization and mapping of both Swedish and EU-based laws and praxis are done as well as discussing the current thoughts on AI-assistance throughout the creative process. Another subject that is touched upon is the parody exception in immaterial law and the concept of adaptation and how these work with and apply to AI-based creations. Part of the problems that we face right now is that we have no existing legal parameters to solve the problem of larger AI-involvement in creative processes, this is certainly going to change how we view copyright law today. When comparing and using EU as well as Swedish praxis to analyze the AI-problem a common denominator is that all copyright law and praxis is based around the presumption that there needs to be a human involved in the majority of the creative process. AI already exists as a part of many creative processes today without any questions asked, however when the AI-part is more significant in the process the question becomes complicated when paired with traditional copyright law perspectives. However, some discussions have been going on in both Swedish and EU legal spheres, mostly in the EU who are going to legislate more in the field of AI. In Sweden there have been no legislative processes when it comes to AI in copyright law however there have been some governmental organisations and essays that have shed a light on the matter. I conclude this master thesis by writing about the findings of each question as has been mentioned above, namely that AI becomes a significant factor in deciding if a deepfake achieves copyright protection or not and the same can be said about parodies. After this I make a concluding analysis of the urgency of a need for laws that tackle AI in the area of immaterial laws listing other areas that might need it more than immaterial laws as has been explored throughout this thesis as well and that Sweden needs to take part in every discussion about this to form a sustainable legal framework for AIs in the context of immaterial laws. This will open up for a clear framework when assessing different technologies that use AI like deepfakes as well.
120

Utvärdering och analys av batchstorlekar, produktsekvenser och omställningstider / Evaluation and analysis of batch sizes, production sequences and setup times

Lundberg, Jesper, Mehtonen, Ronja January 2015 (has links)
Volvo GTO is one of the strongest brands in the truck industry, with a long and proud history of world-leading innovations. The factory in Skövde produces diesel engines of various sizes to Volvo GTO. The project has been carried out on the processing part of grovdel crankshaft. Where the objective was to construct a simulation model that reflects flows 0, 1 and 2 on the crankshaft grovdel order to produce the best driving style for the size of the batches and sequences, focusing on PIA, between the stock and conversion-up times. A theoretical study intervention gave knowledge to the methodology to ensure that the data is collected and processed correctly. The data were collected in an Excel document, which was integrated with the simulation model for an overview and adjustments would be possible. The simulation program, Siemens Plant Simulation 12 used in the construction of the complex model of the three flows, which where verified and validated against the real flows. Optimization on the simulation model was made with a high and a low demand for crankshafts. Several objects were taken into consideration as: minimal waiting processing Findel, minimal setup time and minimal total-PIA from a truly viable perspective. The optimization showed a possible production planning in order to best be able to run such large batches as possible with reduced readjustment time and for delays of production in processing rawflows to not occur in the refined flow. For maximum capacity in the company there are two different optimal solutions one solution focused on reducing setup time and the second solution to minimize the number of additional production hours per week. Discrete simulation of production flows are being used to support production planning and simulation model is created for the continued use of the Volvo GTO, either in simulation group or future researches and theses in collaboration with the University of Skövde. The project objectives were achieved with good results and resulted as a standing basis for future planning of batches and sequences of processing crankshaft Volvo GTO.

Page generated in 0.3301 seconds