• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 38
  • Tagged with
  • 93
  • 69
  • 54
  • 23
  • 23
  • 21
  • 18
  • 18
  • 16
  • 16
  • 15
  • 14
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Opto-Acoustic Slopping Prediction System in Basic Oxygen Furnace Converters

Ghosh, Binayak January 2017 (has links)
Today, everyday objects are becoming more and more intelligent and some-times even have self-learning capabilities. These self-learning capacities in particular also act as catalysts for new developments in the steel industry.Technical developments that enhance the sustainability and productivity of steel production are very much in demand in the long-term. The methods of Industry 4.0 can support the steel production process in a way that enables steel to be produced in a more cost-effective and environmentally friendly manner. This thesis describes the development of an opto-acoustic system for the early detection of slag slopping in the BOF (Basic Oxygen Furnace) converter process. The prototype has been installed in Salzgitter Stahlwerks, a German steel plant for initial testing. It consists of an image monitoring camera at the converter mouth, a sound measurement system and an oscillation measurement device installed at the blowing lance. The camera signals are processed by a special image processing software. These signals are used to rate the amount of spilled slag and for a better interpretation of both the sound data and the oscillation data. A certain aspect of the opto-acoustic system for slopping detection is that all signals, i.e. optic, acoustic and vibratory, are affected by process-related parameters which are not always relevant for the slopping event. These uncertainties affect the prediction of the slopping phenomena and ultimately the reliability of the entire slopping system. Machine Learning algorithms have been been applied to predict the Slopping phenomenon based on the data from the sensors as well as the other process parameters. / Idag blir vardagliga föremål mer och mer intelligenta och ibland har de självlärande möjligheter. Dessa självlärande förmågor fungerar också som katalysatorer för den nya utvecklingen inom stålindustrin. Teknisk utveckling som stärker hållbarheten och produktiviteten i stålproduktionen är mycket efterfrågad på lång sikt. Metoderna för Industry 4.0 kan stödja stålproduktionsprocessen på ett sätt som gör att stål kan produceras på ett mer kostnadseffektivt och miljövänligt sätt. Denna avhandling beskriver utvecklingen av ett opto-akustiskt system för tidig detektering av slaggsslipning i konverteringsprocessen BOF (Basic Oxygen Furnace). Prototypen har installerats i Salzgitter Stahlwerks, en tysk stålverk för första provning. Den består av en bildövervakningskamera på omvandlarens mun, ett ljudmätningssystem och en oscillationsmätningsenhet som installeras vid blåsans. Kamerans signaler behandlas av en speciell bildbehandlingsprogram. Dessa signaler används för att bestämma mängden spilld slagg och för bättre tolkning av både ljuddata och oscillationsdata. En viss aspekt av det optoakustiska systemet för släckningsdetektering är att alla signaler, dvs optiska, akustiska och vibrerande, påverkas av processrelaterade parametrar som inte alltid är relevanta för slöjningsevenemanget. Dessa osäkerheter påverkar förutsägelsen av slopfenomenerna och i slutändan tillförlitligheten för hela slöjningssystemet. Maskininlärningsalgoritmer har tillämpats för att förutsäga Slopping-fenomenet baserat på data från sensorerna liksom de andra processparametrarna.
62

Modelling Non-life Insurance Policyholder Price Sensitivity : A Statistical Analysis Performed with Logistic Regression / Modellering av priskänslighet i sakförsäkring

Hardin, Patrik, Tabari, Sam January 2017 (has links)
This bachelor thesis within mathematical statistics studies the possibility of modelling the renewal probability for commercial non-life insurance policyholders. The project was carried out in collaboration with the non-life insurance company If P&C Insurance Ltd. at their headquarters in Stockholm, Sweden. The paper includes an introduction to underlying concepts within insurance and mathematics and a detailed review of the analytical process followed by a discussion and conclusions. The first stages of the project were the initial collection and processing of explanatory insurance data and the development of a logistic regression model for policy renewal. An initial model was built and modern methods of mathematics and statistics were applied in order obtain a final model consisting of 9 significant characteristics. The regression model had a predictive power of 61%. This suggests that it to a certain degree is possible to predict the renewal probability of non-life insurance policyholders based on their characteristics. The results from the final model were ultimately translated into a measure of price sensitivity which can be implemented in both pricing models and CRM systems. We believe that price sensitivity analysis, if done correctly, is a natural step in improving the current pricing models in the insurance industry and this project provides a foundation for further research in this area. / Detta kandidatexamensarbete inom matematisk statistik undersöker möjligheten att modellera förnyelsegraden för kommersiella skadeförsärkringskunder. Arbetet utfördes i samarbete med If Skadeförsäkring vid huvudkontoret i Stockholm, Sverige. Uppsatsen innehåller en introduktion till underliggande koncept inom försäkring och matematik samt en utförlig översikt över projektets analytiska process, följt av en diskussion och slutsatser. De huvudsakliga delarna av projektet var insamling och bearbetning av förklarande försäkringsdata samt utvecklandet och tolkningen av en logistisk regressionsmodell för förnyelsegrad. En första modell byggdes och moderna metoder inom matematik och statistik utfördes för att erhålla en slutgiltig regressionsmodell uppbyggd av 9  signifikanta kundkaraktäristika. Regressionsmodellen hade en förklaringsgrad av 61% vilket pekar på att det till en viss grad är möjligt att förklara förnyelsegraden hos försäkringskunder utifrån dessa karaktäristika. Resultaten från den slutgiltiga modellen översattes slutligen till ett priskänslighetsmått vilket möjliggjorde implementering i prissättningsmodeller samt CRM-system. Vi anser att priskänslighetsanalys, om korrekt genomfört, är ett naturligt steg i utvecklingen av dagens prissättningsmodeller inom försäkringsbranschen och detta projekt lägger en grund för fortsatta studier inom detta område.
63

ML enhanced interpretation of failed test result

Pechetti, Hiranmayi January 2023 (has links)
This master thesis addresses the problem of classifying test failures in Ericsson AB’s BAIT test framework, specifically distinguishing between environment faults and product faults. The project aims to automate the initial defect classification process, reducing manual work and facilitating faster debugging. The significance of this problem lies in the potential time and cost savings it offers to Ericsson and other companies utilizing similar test frameworks. By automating the classification of test failures, developers can quickly identify the root cause of an issue and take appropriate action, leading to improved efficiency and productivity. To solve this problem, the thesis employs machine learning techniques. A dataset of test logs is utilized to evaluate the performance of six classification models: logistic regression, support vector machines, k-nearest neighbors, naive Bayes, decision trees, and XGBoost. Precision and macro F1 scores are used as evaluation metrics to assess the models’ performance. The results demonstrate that all models perform well in classifying test failures, achieving high precision values and macro F1 scores. The decision tree and XGBoost models exhibit perfect precision scores for product faults, while the naive Bayes model achieves the highest macro F1 score. These findings highlight the effectiveness of machine learning in accurately distinguishing between environment faults and product faults within the Bait framework. Developers and organizations can benefit from the automated defect classification system, reducing manual effort and expediting the debugging process. The successful application of machine learning in this context opens up opportunities for further research and development in automated defect classification algorithms. / Detta examensarbete tar upp problemet med att klassificera testfel i Ericsson AB:s BAIT-testramverk, där man specifikt skiljer mellan miljöfel och produktfel. Projektet syftar till att automatisera den initiala defekten klassificeringsprocessen, vilket minskar manuellt arbete och underlättar snabbare felsökning. Betydelsen av detta problem ligger i de potentiella tids- och kostnadsbesparingarna det erbjuder till Ericsson och andra företag som använder liknande testramar. Förbi automatisera klassificeringen av testfel, kan utvecklare snabbt identifiera grundorsaken till ett problem och vidta lämpliga åtgärder, vilket leder till förbättrad effektivitet och produktivitet. För att lösa detta problem använder avhandlingen maskininlärningstekniker. A datauppsättning av testloggar används för att utvärdera prestandan för sex klassificeringar modeller: logistisk regression, stödvektormaskiner, k-närmaste grannar, naiva Bayes, beslutsträd och XGBoost. Precision och makro F1 poäng används som utvärderingsmått för att bedöma modellernas prestanda. Resultaten visar att alla modeller presterar bra i klassificeringstest misslyckanden, uppnå höga precisionsvärden och makro F1-poäng. Beslutet tree- och XGBoost-modeller uppvisar perfekta precision-spoäng för produktfel, medan den naiva Bayes-modellen uppnår högsta makro F1-poäng. Dessa resultat belyser effektiviteten av maskininlärning när det gäller att exakt särskilja mellan miljöfel och produktfel inom Bait-ramverket. Utvecklare och organisationer kan dra nytta av den automatiska defektklassificeringen system, vilket minskar manuell ansträngning och påskyndar felsöknings-processen. De framgångsrik tillämpning av maskininlärning i detta sammanhang öppnar möjligheter för vidare forskning och utveckling inom automatiserade defektklassificeringsalgoritmer.
64

Scraping bot detection using machine learning / Botdetektering med hjälp av maskininlärning

Dezfoli, Hamta, Newman, Joseph January 2022 (has links)
Illegitimate acquisition and use of data is a problematic issue faced by many organizations operating web servers on the internet today. Despite frameworks of rules to prevent ”scraping bots” from carrying out this action, they have developed advanced methods to continue taking data. Following research into what the problem is and how it can be handled, this report identifies and evaluates how machine learning can be used to detect bots. Since developing and testing a machine learning solution proved difficult, an alternative solution was also developed aiming to polarize (separate) bot and human traffic through behavioral analysis. This particular solution to optimize traffic session classification is presented and discussed, as well as, other key findings which can help in detecting and preventing these unwanted visitors. / Olaglig insamling och användning av data är problematiskt för många organisationer som idag använder sig av webbservrar på internet. Trots ramar av regler för att förhindra ”scraping bots” så har de utvecklat avancerade sätt att komma åt data. Efter forskning om vad problemet är och hur det kan hanteras, identifierar och evaluerar denna rapport hur maskininlärning kan användas för att detektera bottar. Då utvecklingen och testningen av en lösning med hjälp av maskininlärning visade sig bli svårt, utvecklades en alternativ lösning med målet att polarisera (separera) bottrafik och legitim trafik. Denna lösning presenteras och diskuteras i rapporten tillsammans med andra nyckelresultat som kan hjälpa till att upptäcka och förhindra dessa oönskade besökare.
65

Data Analysis for Energy Evaluation of Stockholm Campuses

Moncayo Villa, Esteban January 2023 (has links)
The building sector is a significant contributor to global greenhouse gas emissions, necessitating the development of energy-efficient measures to address environmental concerns. The availability of building energy data sets enables the application of data analysis techniques to assess building energy conditions, providing greater potential for evaluating building energy demands. This research centers on the evaluation of three distinct Campuses in Stockholm, including KTH, Frescati, and Solna buildings. The analysis encompasses two critical dimensions: the first related to energy performance certificates, while the second leverages data from the Akademiska Hus database. The information gathered from the Akademiska Hus database is obtained by using a web application developed at KTH Energy Technology, which was mainly available for internal usage. Examination of energy performance certificates reveals a crucial distinction among buildings concerning their energy utilization, construction year, and activity areas. Buildings categorized with energy performance levels E, F, and G emerge as critical areas demanding urgent evaluations. By inspecting data from the Akademiska Hus database, the study evaluates district heating, district cooling, and electricity variations in relation to outdoor temperature fluctuations during 2022. This analysis uncovers notable anomalies in buildings' energy demands. KTH and Solna buildings present abrupt district cooling and district heating variations, as well as high district cooling values during winter, and high district heating values during summer. While some Frescati and Solna buildings evidence constant district heating and district cooling values as an anomaly, along with high district cooling and district heating values during winter and summer periods, respectively. In conclusion, this study recommends in-depth assessments and the implementation of energyefficient measures for buildings classified with energy performance levels E, F, and G linked to large energy variation anomalies. The aim is to recognize the sources of these anomalies and enhance overall energy performance. Notably, KTH and Solna Campuses are identified as areas warranting immediate attention / Byggsektorn är en betydande bidragsgivare till globala utsläpp av växthusgaser, vilket kräver utveckling av energieffektiva åtgärder för att hantera miljöproblem. Tillgången till byggnadsenergidatauppsättningar möjliggör tillämpning av dataanalystekniker för att bedöma byggnaders energiförhållanden, vilket ger större potential för att utvärdera byggnaders energibehov. Denna forskning fokuserar på utvärdering av tre distinkta Campus i Stockholm, inklusive KTH, Frescati och Solna-byggnaderna. Analysen omfattar två kritiska dimensioner: den första avser energicertifikat, medan den andra utnyttjar data från Akademiska Hus energiplattform. Granskning av energicertifikat visar en avgörande skillnad mellan byggnader när det gäller deras energianvändning, ålder och verksamhetsområden. Byggnader kategoriserade med energiprestandanivåerna E, F och G framstår som kritiska områden som kräver brådskande utvärderingar. Genom att granska data från Akademiska Hus energiplattform utvärderar studien fjärrvärme-, fjärrkyla- och elvariationer i relation till utomhustemperaturfluktuationer under 2022. Denna analys avslöjar betydande anomalier i byggnaders energibehov. KTH och Solnas byggnader uppvisar abrupta fjärrkyla- och fjärrvärmevariationer, samt höga fjärrkylavärden under vinter noch höga fjärrvärmevärden under sommaren. Medan vissa Frescati- och Solna-byggnader visar konstanta fjärrvärme- och fjärrkylavärden som en anomali, tillsammans med höga fjärrkyla och fjärrvärmevärden under vinter- respektive sommarperioder. Sammanfattningsvis rekommenderar denna studie fördjupade bedömningar och genomförande av energieffektiva åtgärder för byggnader klassificerade med energiprestandanivåer E, F och G kopplade till stora energivariationer. Syftet är att lokalisera källorna till dessa anomalier och förbättra den övergripande energiprestanda. Noterbart är att Campus KTH och Solna har en framträdande plats som områden som kräver omedelbar uppmärksamhet.
66

Holistic embedding of equivalent conicity in wheelset maintenance / Holistiskt inbäddning av ekvivalent konicitet i hjulset underhåll

Linzbichler, Philipp January 2023 (has links)
With continuing digitization of railways an increasing number of data is recorded but particularly in operation advanced analysis tends to be partially rudimentary. Yet, it is essential to implement sophisticated processing for all records in order to develop more purposeful and predictive vehicle maintenance strategies that adhere to the increasing requirements imposed by the homologation. Typically developing requisites are permissible track forces and lateral accelerations which are directly affected by the vehicle's condition. The present work addresses this issue by executing a case study focused on a Swiss high-speed electric multiple unit with equivalent conicity being the main parameter of interest. This geometry quantity holds high relevance in determining the running stability of track guided vehicles, respectively in assessment of comfortable and safe operation. Currently, it experiences an increasing significance in the homologation as well. Thus, wheelset maintenance is challenged to elaborately embed equivalent conicity to the other influencing factors in the re-profiling strategy. A framework is established on how operational data can be analyzed and findings systematically be evaluated. The required records are provided by a Swiss railway operator and majorly processed by visualization as well as statistic tools while considering vehicle design and operational aspects. The subsequent proposition of strategies is accompanied by holistic balancing of vehicle needs, maintenance resources, and vehicle scheduling needs. As a result, correlations concerning the vehicle's configuration, design, and operational properties are observed. Incorporating these observations, for example by applying advanced warning limits, enables deduction of more predictive and holistic strategies. The potentially emerging benefits are manifold and range from lower demand on engineering staff, increased mileages, to fewer unplanned servicing tasks and subsequently increased operational stability. Further, the findings emphasize the need of in depth understanding about relevant data to derive more advanced and holistic maintenance strategies. / Med fortsatt digitalisering av järnväg registreras ett ökande antal data. Men särskilt i drift är avancerad analys av dessa data ofta outvecklad och otillräcklig. Därför är det väsentligt för framgångsrik järnvägsdrift att implementera mer avancerad analys för att utveckla mer målmedvetna och förutsägande strategier för fordonsunderhåll i syfte att följa befintliga regelverk. Det här arbetet belyser denna fråga genom en fallstudie med fokus på ekvivalent konicitet i schweiziska eldrivna höghastighetståg. Koniciteten är mycket relevant för att bedöma dynamisk gångstabilitet på spårfordon och avgörande för bekväm och säker tågrörelse. Den utgör en viktig indikator i utformandet av regelverk vilket i sin tur är avgörande vid underhåll av hjulpar och för att bedöma hjulprofilers status. Avhandlingen föreslår ett tillvägagångssätt för hur data av ekvivalent konicitet och relaterade aspekter kan analyseras och systematiskt implementeras i fordonens reprofileringsstrategi av hjulen. Dokumenten tillhandahålls av en schweizisk operatör och utvärderas huvudsakligen genom visualisering och statistiska verktyg samtidigt som design- och driftsaspekter kontinuerligt prövas. Präsentationen av strategier åtföljs av en helhetlig utvärdering av behov för såväl fordon och underhållsanläggningar som schemaläggningar av driften. Som ett resultat av detta observeras korrelationer mellan fordonens tekniska egenskaper med design- och driftsegenskaper. Genom att inkludera dessa observationer, till exempel genom att tillämpa avancerade varningsgränser, kan mer predikativa och helhetliga strategier föreslås. De potentiella fördelarna är många och kan sträcka sig från lägre behov av ingenjörspersonal, ökad körsträcka, till färre oplanerade serviceuppgifter och leder till ökad driftstabilitet. Vidare betonar resultaten behovet av djupgående förståelse för parametrar för att härleda helhetliga underhållsstrategier.
67

Experimental Research on a Continuous Integrating pipeline with a Machine Learning approach : Master Thesis done in collaboration with Electronic Arts

Sigurdardóttir, Sigrún Arna January 2021 (has links)
Time-consuming code builds within the Continuous Integration pipeline is a common problem in today’s software industry. With fast-evolving trends and technologies, Machine Learning has become a more popular approach to tackle and solve real problems within the software industry. It has been shown to be successful to train Machine Learning models that can classify whether a code change is likely to be successful or fail during a code build. Reducing the time it takes to run code builds within the Continuous Integration pipeline can lead to higher productivity in software development, faster feedback for developers, and lower the cost of hardware resources used to run the builds. To answer the research question: How accurate can success or failure in code build be predicted by using Machine Learning techniques on the historical data collection? The important factor is the historical data available and understanding the data. Thorough data analysis was conducted on the historical data and a data cleaning process to create a dataset suitable for feeding the Machine Learning models. The dataset was imbalanced, favouring the successful builds, and to balance the dataset the SMOTE method was used to create synthetic samples. Binary classification and supervised learning comparison of four Machine Learning models were performed; Random Forest, Logistic Regression, Support Vector Machine, and Neural Network. The performance metrics used to measure the performance of the models were recall, precision, specificity, f1-score, ROC curve, and AUC score. To reduce the dimensionality of the features the PCA method was used. The outcome of the Machine Learning models revealed that historical data can be used to accurately predict if a code change will result in a code build success or failure. / Den tidskrävande koden bygger inom pipeline för kontinuerlig integration är en vanlig faktor i dagens mjukvaruindustri. Med trender och teknologier som utvecklas snabbt har maskininlärning blivit ett mer populärt tillvägagångssätt för att ta itu med och lösa verkliga problem inom programvaruindustrin. Det har visat sig vara framgångsrikt att träna maskininlärningsmodeller som kan klassificeras om en kodändring sannolikt kommer att lyckas eller misslyckas under en kodbyggnad. Genom att förbättra och minska den tid det tar att köra kodbyggnader i den kontinuerliga integrationsrörledningen kan det leda till högre produktivitet inom mjukvaruutveckling och snabbare feedback för utvecklare. För att svara på forskningsfrågan: Hur korrekt kan förutsäga framgång eller misslyckande i kodbyggnad med hjälp av Machine Learning-tekniker för historisk datainsamling? Den viktiga faktorn är den tillgängliga historiska informationen och förståelsen för data. Noggrann dataanalys utfördes på historiska data och en datarengöringsprocess för att skapa en datamängd lämplig för matning av maskininlärningsmodellerna. Datauppsättningen var obalanserad och för att balansera användes uppsättningen SMOTE-metoden. Med binär klassificering och övervakad inlärningsjämförelse gjordes fyra maskininlärningsmodeller, Random Forest, Logistic Regression, Support Vector Machine och Neural Network. Prestandamätvärdena som används för att mäta prestandan hos modellerna är återkallelse, precision, f1-poäng och genomsnittlig ROCAUC-poäng. För att minska dimensionaliteten hos funktionerna användes PCA-metoden. Resultatet av modellerna avslöjar att de med god noggrannhet kan klassificeras om en kodändring misslyckas eller lyckas baserat på den datamängd som skapats från historiska data som används för att träna modellerna.
68

Deriving Spectral Maps from JWST Data : A Study of Enceladus’ Plumes / Avledning av spektrala kartor från JWST-data : En studie av Enceladus’ plymer

Weissenböck, Stephan January 2023 (has links)
This study investigates the presence of water vapor plumes in the region south of Enceladus, a moon in the Saturnian system, through observations conducted by the James Webb Space Telescope. Enceladus is believed to harbor a subsurface ocean or localized water reservoir that gives rise to water geysers, expelling vapor into its tenuous atmosphere and outer space. On the 9th of November 2022, the James Webb Space Telescope made its first observations of the satellite using its Near-Infrared Spectrograph. The instrument's high sensitivity and spectral resolution offer the potential to measure these Enceladus' water vapor plumes, providing an opportunity to study this feature from a telescope located near Earth. However, it remains uncertain whether the obtained results are consistent with previous missions or if the instrument is even capable of conducting detailed examinations of the plumes. Hence, the primary objective of this research is to gain insights into the methodology of conducting scientific investigations of Enceladus and to understand the available data. More specifically, the aim is to verify the presence of the moon's water vapor plumes through a comprehensive analysis of the obtained data. The approach involves deriving spectral maps and extracting residual spectra that are used for comparisons with a reference spectrum entailing known water vapor emission features. The results reveal distinct emission peaks in the extracted spectra that closely resemble the features of water vapor. Additionally, the calculated column density of 6.25 - 8.25E+14 cm-2 over a region of 8.16E+07 km2 closely aligns with observations from the Herschel Space Observatory and Cassini mission. This outcome strongly supports the hypothesis that water vapor plumes are present in the area south of Enceladus, verifying the feasibility of using the James Webb Space Telescope for detecting and studying the characteristics of Enceladus' plumes. / Denna studie utforskar Enceladus' vattenplymer, en måne i Saturnussystemet, genom observationer utförda av James Webb Space Telescope. Det antas att Enceladus har en underjordisk ocean eller en lokaliserad vattenreservoar som ger upphov till vattengejsrar som sprutar ut ånga i dess tunna atmosfär och rymden. Den 9:e november 2022 genomförde James Webb-rymdteleskopet sina första observationer av satelliten med hjälp av sin nära-infraröda spektrograf. Instrumentets höga känslighet och spektrala upplösning erbjuder möjligheten att mäta Enceladus vattenplymer och därigenom möjliggöra studier av denna egenskap från ett teleskop beläget nära jorden. Det är emellertid fortfarande osäkert om de erhållna resultaten är förenliga med tidigare uppdrag eller om instrumentet ens är kapabelt att genomföra detaljerade undersökningar av plymer. Det primära syftet med denna forskning är att få insikt i metodologin för att utföra vetenskapliga undersökningar av Enceladus och att förstå den tillgängliga datan. Mer specifikt är målet att verifiera närvaron av vattenånga i månens plymer genom en omfattande analys av den insamlade datan. Metoden innefattar framställning av spektrala kartor och extrahering av restspektra. Därefter görs jämförelser mellan de extraherade spektrana och ett referensspektrum med kända emissionslinjer för vattenånga. Resultaten visar tydliga emissionspektrum i de extraherade spektrana som starkt liknar egenskaperna hos vattenånga. Dessutom stämmer den beräknade kolumn densiteten på 6.25 - 8.25E+14 cm-2 över ett område på 8,16E+07 km2 väl överens med observationer från Herschel Space Observatory och Cassini-uppdraget. Denna slutsats stöder starkt hypotesen att vattenånga finns i Enceladus' plymer och bekräftar möjligheten att använda James Webb Space Telescope för att detektera och studera egenskaperna hos Enceladus' plymer.
69

Data mining historical insights for a software keyword from GitHub and Libraries.io; GraphQL / Datautvinning av historiska insikter för ett mjukvara nyckelord från GitHub och Libraries.io; GraphQL

Bodemar, Gustaf January 2022 (has links)
This paper explores an approach to extracting historical insights into a software keyword by data mining GitHub and Libraries.io. We test our method using the keyword GraphQL to see what insights we can gain. We managed to plot several timelines of how repositories and software libraries related to our keyword were created over time. We could also do a rudimentary analysis of how active said items were. We also extracted programing language data associated with each repository and library from GitHub and Libraries.io. With this data, we could, at worst, correlate which programming languages were associated with each item or, in the best case, predict what implementations of GraphQL they used. We found through our attempt many problems and caveats that needed to be dealt with but still concluded that extracting historical insights by data mining GitHub and Libraries.io is worthwhile.
70

Utveckling av mjukvara för analys av järnvägens trafikloggar i felförebyggande syfte / Developing software for analysis of railway traffic logs with the purpose of failure prevention

Reuterskiöld, Tommy, Arnesson, Mikael January 2021 (has links)
Inom svenska järnvägen skapas en stor mängd information om hur objekt så som växlar och spårledningar beter sig, i form av dataloggar. Dessa används i dagsläget mycket sparsamt, trots sin stora potential till analys. Detta arbete ämnar utforma mjukvara som kan förädla dessa loggar och extrahera användbar information om banobjektens nuvarande och framtida tillstånd. Detta kan höja säkerheten och förebygga fel och på så vis minimera oplanerade driftstopp och kostsamma byten eller nödreparationer av utrustning. Arbetet resulterade i en mjukvara framtagen i Python som läser in loggar av godtycklig storlek och detekterar atypiska beteenden i ett flertal kategorier av banobjekt. Mjukvaran fungerar även som ett verktyg för mer användarvänlig hantering av dessa loggar, varur användaren kan sammanställa och presentera information som annars vore svårtillgänglig. / In the Swedish rail network, a large amount of information is generated regarding the behaviours of various objects such as switches and track circuits, which is then stored in logs. Currently, these logs are severely underused despite their great potential for analysis. The purpose of this project is to develop a software which can refine these logs and extract useful information about the current and future states of the objects. This can increase operational safety and prevent faults from occurring, thereby minimizing unplanned downtime and costly replacements or reparations of equipment. The project results in a software developed in Python which reads logs of an arbitrary size and detects atypical behaviours in several different categories of objects. The software also acts as a tool for more user-friendly handling of these logs, offering the ability to compile and present information which would otherwise be difficult to access.

Page generated in 0.1212 seconds