Spelling suggestions: "subject:"candidat examensarbete"" "subject:"candidat avexamensarbete""
1 |
En jämförelse av prestanda mellan centraliserad och decentraliserad datainsamlingHidén, Filip, Qvarnström, Magnus January 2021 (has links)
In the modern world, data and information is used on a larger scale than ever before. Much of this information is stored on the internet in many different shapes, like articles, files and webpages, among others. If you try to start a new project or company that depends on this data there is a need for a way to efficiently search for, sort and gather what you need to process. A common method to achieve this is called Web scraping, that can be implemented in several different ways to search and gather data. This can be an expensive investment for smaller companies, as Web scraping is an intensive process that requires that you pay for a powerful enough server to manage everything. The purpose of this report is to investigate whether there exist other cheaper alternatives to implement Web scraping, that don’t require access to expensive servers. To find an answer to this, it was necessary to research the subject of Web scraping further along with different system architectures that are used in the industry to implement it. This research was then used to develop a Web scraping application that was implemented on both a centralised server and as a decentralised implementation on an Android device. Finally all the summarized research and results from performance tests of the two applications were used in order to provide a result. The conclusion drawn from these results was that decentralised android implementations is a valid and functional solution for Web scraping today, however the difference in performance means it’s not always useful for every situation. Instead it must be handled based on the specifications and requirements of the particular company. There is also a very limited amount of research done on this topic, which means it needs further investigation in order to keep developing implementations and knowledge on this particular subject. / I den moderna världen används data och information i en större skala än någonsin tidigare. Mycket av denna information och data kan hittas på internet i många olika former som artiklar, filer, webbsidor med mera. Om man försöker att starta ett nytt projekt eller företag som är beroende av delar av denna data behövs det ett sätt att effektivt söka igenom den, sortera ut det som söks och samla in den för att hanteras. Ett vanligt sätt att göra detta är en metod som kallas Web scraping, som kan implementeras på flera olika sätt för att söka och samla in den funna datan. För små företag kan detta bli en kostsam satsning, då Web scraping är en intensiv process som vanligtvis kräver att man måste betala för att driva en tillräckligt kraftfull server som kan hantera datan. Syftet med denna rapport är att undersöka om det finns giltiga och billigare alternativ för att implementera Web scraping lösningar, som inte kräver tillgång till kostsamma serverlösningar. För att svara på detta utfördes en undersökning runt Web scraping, samt olika systemarkitekturer som används för att utveckla dessa system i den nuvarande marknaden samt hur de kan implementeras. Med denna kunskap utvecklades en Web scraping applikation som anpassades för att samla in ingredienser från recept artiklar på internet. Denna implementation anpassades sedan för två olika lösningar, en centraliserad på en server och en decentraliserad, för Android enheter. Till slut summerades all den insamlade faktan, tillsammans med enhetstester utförda på test implementationerna för att få ut ett resultat. Slutsatsen som drogs av detta resultat var att decentraliserade Android implementationer är en giltig och funktionell lösning för Web scraping idag, men skillnaden i prestanda innebär att det inte alltid är en användbar lösning, istället måste det bestämmas beroende på ett företags behov och specifikationer. Dessutom är forskningen runt detta ämne begränsat, och kräver vidare undersökning och fördjupning för att förbättra kunskaper och implementationer av detta område i framtiden.
|
2 |
GDPR ́s Impact on Sales at Flygresor.se: A Regression Analysis / GDPRs påverkan på försäljning hos Flygresor.se: en regressionsanalysLansryd, Lisette, Engvall Birr, Madeleine January 2019 (has links)
The possible effects of the General Data Protections Regulations (GDPR) have been widely discussed among policymakers, stakeholders and ordinary people who are the objective for data collection. The purpose of GDPR is to protect people’s integrity and increase transparency for how personal data is used. Up until May 25th, 2018 personal data could be sampled and used without consent from users. Many argue that the introduction of GDPR is good, others are reluctant and argue that GDPR may harm data-driven companies. The report aims to answer how GDPR affects sales at the flight search engine Flygresor.se. By examining how and to what extent these regulations impact revenue, it is hoped for that these findings will lead to a deeper understanding of how these regulations affect businesses. Multiple linear regression analysis was used as the framework to answer the research question. Numerous models were constructed based on data provided by Flygresor.se. The models mostly included categorical variables representing time indicators such as month, weekday, etc. After carefully performing data modifications, variable selections and model evaluation tests three final models were obtained. After performing statistical inference tests and multicollinearity diagnostics on the models it could be concluded that an effect from GDPR could not be statistically proven. However, this does not mean that an actual effect of GDPR did not occur, only that it could not be isolated and proven. Thus, the extent of the effect of GDPR is statistically inconclusive. / De möjliga följderna av införandet av General Data Protections Regulations (GDPR) har varit väl omdiskuterat bland beslutsfattare, intressenter och människor som är målet för datainsamlingen. Syftet med GDPR är att skydda människors integritet samt öka insynen för hur personlig data används. Fram tills den 25 maj 2018 har det varit möjligt att samla in och använda personuppgifter utan samtyckte från användare. Många menar att införandet av GDPR är nödvändigt medans andra är mer kritiska och menar att GDPR kan skada lönsamheten för data beroende verksamheter. Denna rapport syftar till att svara på huruvida GDPR har påverkat försäljningen på flygsökmotorn Flygresor.se. Genom att undersöka om och i vilken utsträckning dessa regler påverkat intäkterna, är förhoppningen att dessa resultat kan leda till en djupare förståelse för hur GDPR påverkar företag. Multipel linjär regressionsanalys användes som ramverk för att svara på frågeställningen. Flera modeller utformades baserat på data som tillhandahölls av Flygresor.se. Modellerna var främst baserade på kategoriska variabler som representerade tidsaspekter så som månad, veckodag etc. Efter ett grundligt genomförande av data modifieringar, variabelselektion och modellutvärdering kunde tre modeller konstateras. Efter att ha genomfört signifikanstester och korrelationstester på modellerna kunde det fastställas att en effekt från GDPR inte kunde statistiskt säkerställas. Dock betyder detta inte att GDPR inte har haft en faktisk effekt, utan att en effekt inte kunde isoleras och bevisas.
|
3 |
A JavaScript Backend for the Miking CompilerRågstad, William January 2022 (has links)
This thesis presents the design and implementation of an extension of the self-hosted Miking compiler to enable the generation of JavaScript code for different runtime environments and web browsers. Miking is a framework for developing domain-specific and general-purpose programming languages through sound language fragment composition, among other things, to create efficient compilers. Miking Core encapsulates a meta-language called Miking Lang and a fundamental functional Miking Expression language which Miking Lang itself is also lowered to. The presented backend translates Miking expressions into semantically equivalent effective, readable, sound, and correct JavaScript programs. In this report, development challenges, implementation methods, and techniques are also discussed and evaluated along with a review of the final compiler backend. Likewise, details on JavaScript-specific optimizations and pattern-matching compilation are presented, including how tail recursion is handled to enable complex Miking programs to be compiled into flexible and efficient JavaScript. / Detta examensarbete presenterar design och implementation för utveckling av Miking-kompilatorn, med syfte att möjliggöra generering av JavaScript-kod för olika exekveringsmiljöer och webbläsare. Miking är ett ramverk för att utveckla domänspecifika och generella programmeringsspråk genom sund komposition av språksfragment som kan används för att skapa effektiva kompilatorer. Miking Core ramverket innehåller ett metaspråk kallat Miking Lang, vilket ”sänks” till det mer grundläggande funktionella Miking Expression-språket. ”Sänkning” betyder i huvudsak att skriva om mer komplexa semantiska konstruktioner i form av enklare. Den backend som presenteras översätter Miking-uttryck till semantiskt ekvivalenta JavaScript program som också är effektiva, läsbara, sunda och korrekta. I denna rapport diskuteras och utvärderas även utvecklingsutmaningar, implementeringsmetod och andra tekniker som har använts under arbetet. På samma sätt presenteras detaljer om JavaScript-specifika optimeringar och mönstermatchningskompilering, inklusive hur svansrekursion hanteras för att möjliggöra kompilering av komplexa Miking-program till flexibel och effektiv JavaScript med hjälp av ”trampoline” teknik.
|
4 |
Digitalisering av intern hantering av kvalitetsavvikelser / Digitalization of internal management of quality deviationsLindh, Jesper, Forsberg, Albin January 2022 (has links)
Projektet riktar sig mot ett företag som är verksamma inom förpackningsindustrin med behandling och hållbarhet av papper. Operatörerna på anläggningen arbetar med att applicera plastbeläggning på papper för att göra det mer resistent mot vätska. När pappersrullar erhåller ett mindre vanligt produktionsfel utan tydlig åtgärd, finns en felhantering som kallas för ''tveksam bedömning'' (TVB). Hanteringen av TVB:er har tidigare bestått av mycket manuell hantering, vilket är ineffektivt, tidskrävande och otydligt som i sin tur kan leda till missförstånd. För att förbättra felhanteringen har ett befintligt program, som företaget använder sedan tidigare, vidareutvecklats för att kunna rapportera TVB:er och även kunna spåra tidigare TVB:er. Syftet med projektet är att förenkla processen för hanteringen av TVB:er samt minimera och underlätta arbetet för operatörerna. Genom att automatisera hur och var information sparas, samt koppla det till ett lättanvänt användargränssnitt, förenklas proceduren och minimerar arbetet för operatörerna. / This project targets a company that are operative within treatment and durability of paper in the packaging industry. At their facility, the production consists of applying plastic coating on the paper to make it more resistant to liquids, as the final product is intended as a container for liquid, e.g. milk. When paper rolls have a less common or more difficult error, there is an error handling procedure called ''questionable assessment''. This procedure consists of much manual handling which is ineffective, time consuming and inexplicit, which can lead to misunderstanding. To improve the error handling, an existing program that the company uses, will be further developed to manage error reports and to track earlier error reports. The purpose of the project is to simplify the process and minimize the workload for the staff. By automating how and where the information is stored as well as connecting it to a user-friendly interface, it will improve the procedure and minimize the work needed by the staff.
|
5 |
Optimering av beställningsrutiner och lagernivåer av färska råvaror hos en liten restaurang / Optimization of ordering routines and inventory levels of perishable products in a small restaurantHedengren, Sofia, Zargari Marandi, Ronya January 2021 (has links)
Arbetet syftade till att finna en passande modell för Moraberg AB:s beställningsrutiner för två färskvaror av anledning att optimera lagernivåer och minska matsvinn. Då efterfrågan hos Moraberg AB var okänd togs en modell fram för att prediktera och undersöka ifall det fanns ett linjärt samband mellan ett par parametrar och efterfrågan. Parametrarna som undersöktes var veckodag, temperatur, nederbörd och antal smittade personer i Covid-19. Modellen baserades på historisk försäljningsdata för åren 2018– 2020. Två efterfrågemodeller togs fram, den första modellen innehöll alla nämnda parametrar förutom antal smittade personer i Covid-19 och den andra modellen innehöll alla parametrar. Resultatet visade att temperatur, nederbörd och antal smittade personer i Covid-19 har ett svagt beroende med efterfrågan hos företaget men parametern veckodag visade ett högt beroende med efterfrågan. Analys av modellerna visade att det inte existerade multikollinearitet samt att de inte bröt de fem antagandena om regression. Vidare visade resultatet att modell 2 presterade bättre än modell 1. Lageroptimeringsmodellen som var lämpligast för Moraberg AB, med avseende på de resurser och begräsningar som fanns inom ramen av detta arbete, var den deterministiska periodiska inspektions modellen som kan lösas med dynamisk programmering. Ett numeriskt exempel genomfördes på den valda lageroptimeringsmodellen med hjälp av modell 2. Det numeriska exemplet baserades på prognoser från vecka 17 år 2021. / This thesis aimed to find a suitable inventory model for Moraberg AB’s ordering routines to optimize inventory levels and reduce food waste for two perishable products. As the demand at Moraberg AB was unknown, a regression model was developed to predict and investigate whether there was a linear relationship between a few parameters and the demand. The parameters examined were weekday, temperature, precipitation, and number of infected people in Covid19. The model was based on historical sales data for the years 2018–2020. Two demand models were developed, the first model contained all the mentioned parameters except the number of people infected in Covid-19 and the second model contained all parameters. The results showed that temperature, precipitation, and number of people infected in Covid-19 have a weak dependence with the demand, however the parameter weekday showed a dependence with the demand. Analysis of the two models did not show any signs of multicollinearity and they did not violate the five assumptions regarding regression. Furthermore, the results showed that model 2 performed better than model 1. The inventory model that was most suitable for Moraberg AB, regarding the resources and limitations that existed within the framework of this thesis, was the deterministic periodic review model that could be solved by dynamic programming. A numerical example was solved using the suitable inventory model and with the second demand model. The numerical example was based on forecasts from week 17 year 2021.
|
6 |
Evaluating CNN Architectures on the CSAW-M Dataset / Evaluering av olika CNN Arkitekturer på CSAW-MKristoffersson, Ludwig, Zetterman, Noa January 2022 (has links)
CSAW-M is a dataset that contains about 10 000 x-ray images created from mammograms. Mammograms are used to identify patients with breast cancer through a screening process with the goal of catching cancer tumours early. Modern convolutional neural networks are very sophisticated and capable of identifying patterns nearly indistinguishable to humans. CSAW-M doesn’t contain images of active cancer tumours, rather, whether the patient will develop cancer or not. Classification tasks such as this are known to require large datasets for training, which is cumbersome to acquire in the biomedical domain. In this paper we investigate how classification performance of non-trivial classification tasks scale with the size of available annotated images. To research this, a wide range of data-sets are generated from CSAW-M, with varying sample size and cancer types. Three different convolutional neural networks were trained on all data-sets. The study showed that classification performance does increase with the size of the annotated dataset. All three networks generally improved their prediction on the supplied benchmarking dataset. However, the improvements were very small and the research question could not be conclusively answered. The primary reasons for this was the challenging nature of the classification task, and the size of the data-set. Further research is required to gain more understanding of how much data is needed to yield a usable model. / CSAW-M är ett dataset som innehåller ungefär 10 000 röntgenbilder skapade från ett stort antal mammografier. Mammografi används för att identifiera patienter med bröstcancer genom en screeningprocess med målet att fånga cancerfall tidigt. Moderna konvolutionella neurala nätverk är mycket sofistikerade och kan tränas till att identifiera mönster i bilder mycket bättre än människor. CSAW-M innehåller inga bilder av cancertumörer, utan istället data på huruvida patienten kommer att utveckla cancer eller inte. Klassificeringsuppgifter som denna är kända för att kräva stora datamängder för träning, vilket är svårt att införskaffa inom den biomedicinska domänen. I denna artikel undersöker vi hur klassificerings prestanda för svåra klassificeringsuppgifter skalar med storleken på tillgänglig annoterad data. För att undersöka detta, genererades ett antal nya dataset från CSAW-M, med varierande storleksurval och cancertyp. Tre olika konvolutionella neurala nätverk tränades på alla nya data-set. Studien visar att klassificeringsprestanda ökar med storleken på den annoterade datamängden. Alla tre nätverk förbättrade generellt sin klassificeringsprestanda desto större urval som gjordes från CSAW-M. Förbättringarna var dock små och den studerade frågan kunde inte besvaras fullständigt. De främsta anledningarna till detta var klassificeringsuppgiftens utmanande karaktär och storleken på det tillgängliga datat i CSAW-M. Ytterligare forskning krävs för att få mer förståelse för hur mycket data som behövs för att skapa en användbar modell.
|
7 |
Internet of things connected notification device for people who are hard of hearingHang Shek, Wai, Geiger Ferotin, Thomas January 2022 (has links)
This degree project investigates the possibility to develop and re-design an IoT solution called NOT!FY, offered by the company Omnitor. NOT!FY is used by users who are hard of hearing or deaf as a complement to an accessibility communication application. It functions by registering incoming calls and activating a relay connected to, for example, a light source, notifying the user. The current problems that Omnitor experiences with NOT!FY is its price, production difficulties, size and design. The project will take on these problems by investigating the market of programmable devices and, through comparative analysis, choosing a platform to transfer and improve upon the current NOT!FY functionalities. The devices were decided together with Omnitor and a grant calculation was drafted to evaluate which units yielded the best profit. With the help of the grant calculation, Raspberry Pi Zero W and ESP8266 were the chosen devices. A basic evaluation was performed to verify that the implemented functions of ESP8266 and Raspberry Pi Zero W functioned as intended. An in-depth evaluation and functional verification were performed on the finalized prototype. It confirmed the prototype’s functionality and the possibility to replace the current product in use by Omnitor. / Detta projekt undersöker möjligheten att utveckla och designa om en IoT-lösning kallad NOT!FY, som erbjuds av företaget Omnitor AB. NOT!FY används av döva eller hörselskadade användare som ett komplement till en tillgänglighetsanpassad kommunikationsapplikation. Den fungerar genom att registrera inkommande samtal och aktivera ett relä som är anslutet till exempel en ljuskälla för att meddela användaren. De nuvarande problemen som Omnitor upplever med NOT!FY är dess pris, produktionssvårigheter, storlek och design. Projektet kommer att ta sig an dessa problem genom att undersöka marknaden för programmerbara enheter och genom en jämförande analys välja en plattform att överföra och förbättra funktionerna från den nuvarande produkten. Enheterna bestämdes tillsammans med Omnitor och en bidragskalkyl är framtagen för att utvärdera vilka enheter som gav bäst vinst. Med hjälp av bidragskalkylen var Raspberry Pi Zero W och ESP8266 de valda enheterna. En grundläggande utvärdering utfördes för att verifiera att de implementerade funktionerna i ESP8266 och Raspberry Pi Zero W fungerade som avsett. En mer ingående utvärdering och funktionell verifiering utfördes på den färdiga prototypen. Detta bekräftade prototypens funktionalitet och möjligheten att ersätta den nuvarande produkten som används av Omnitor.
|
Page generated in 0.0911 seconds