• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 6
  • Tagged with
  • 27
  • 17
  • 16
  • 13
  • 12
  • 11
  • 11
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Load Classification with Machine Learning : Classifying Loads in a Distribution Grid

Kristensson, Jonathan January 2019 (has links)
This thesis explores the use of machine learning as a load classifier in a distribution grid based on the daily consumption behaviour of roughly 1600 loads spread throughout the areas Bromma, Hässelby and Vällingby in Stockholm, Sweden. Two common unsupervised learning methods were used for this, K-means clustering and hierarchical agglomerative clustering (HAC), the performance of which was analysed with different input data sets and parameters. K-means and HAC were unfortunately difficult to compare and there were also some difficulties in finding a suitable number of clusters K with the used input data. This issue was resolved by evaluating the clustering outcome with custom loss function MSE-tot that compared created clusters with subsequent assignment of new data. The loss function MSE-tot indicates that K-means is more suitable than HAC in this particular clustering setup. To investigate how the obtained clusters could be used in practice, two K-means clustering models were also used to perform some cluster-specific peak load predictions. These predictions were done using unitless load profiles created from the mean properties of each cluster and dimensioned using load specific parameters. The developed models had a mean relative error of approximately 8-19 % per load, depending on the prediction method and which of the two clustering models that was used. This result is quite promising, especially since deviations above 20 % were not uncommon in previous work. The models gave poor predictions for some clusters, however, which indicates that the models may not be suitable to use on all kinds of load data in its current form. One suggestion for how to further improve the predictions is to add more explanatory variables, for example the temperature dependence. The result of the developed models were also compared to the conventionally used Velander's formula, which makes predictions based on the loads' facility-type and annual electricity consumption. Velander's formula generally performed worse than the developed methods, only reaching a mean relative error of 40-43 % per load. One likely reason for this is that the used database had poor facility label quality, which is essential for obtaining correct constants in Velander's formula.
22

Business Intelligence påverkan på beslutsprocesser : En undersökning av BI-systemens påverkan på beslutsprocesser och förändring av beslutsunderlaget hos en organisation

Berhane, Aron, Nabeel, Mohamad January 2020 (has links)
Business Intelligence-systems are well embedded in the daily work of managers in the organizations today. These systems have a significant impact on the management of big data as well as assisting managers in making decisions. The purpose of this study is to investigate how BI-systems affect decision making processes and the change of decision making in organizations and their activities, by looking into three aspects in Business intelligence (data quality, data analysis and the human factor). This study's approach consists of literature review and interviews with organizations who have implemented a BI-system in their activities. The results show that data quality does not have a direct impact on the use success of BI but is still an essential aspect when it comes to information management for decision making. Data analysis tools offers various of methods to help a decision maker in creating a decision basis for different types of decisions. BI-systems affects the decision-making process by making organizations think systematically in decision making in comparison with making decisions based on intuitions. / Business intelligence-system idag är väl inbäddade i det dagliga arbetet hos ledningen i organisationer. Dessa system har en stor inverkan på hanteringen av Big data och hjälper cheferna att fatta beslut. Studien syftar till att undersöka BI-systemens påverkan på beslutsprocesser och förändringen av beslutsunderlag hos organisationer och dess verksamheter, genom att undersöka utifrån tre aspekter inom BI som kan ha ett inflytande hos beslutsprocessen och beslutsunderlaget (Datakvalitet, dataanalys och mänskliga faktorn). Studiens tillvägagångssätt består av litteraturstudie och intervjuer med organisationer som har ett BI-system implementerat i deras verksamhet. Resultaten antyder på att datakvalitet har ingen direkt påverkan på framgången med BI men att kvalitetssäkring av data är fortfarande en essentiell del vid bearbetning av information för beslutsunderlaget, dataanalysverktyg erbjuder variationer av metoder för att hjälpa en beslutsfattare i att skapa beslutsunderlag för olika typer av beslut. BIsystems påverkar processen genom att organisationer utför ett mer systematiskt tänkande vid beslutshantering i jämförelse med att ta beslut på intuition.
23

Faktorer som påverkar ett rättvist beslutsfattande : En undersökning av begränsningar och möjligheter inom datainsamling för maskininlärning

Westerberg, Erik January 2023 (has links)
Artificial intelligence, AI, is widely acknowledged to have atransformative impact on various industries. However, thistechnology is not without its limitations. One such limitationis the potential reinforcement of human biases withinmachine learning systems. After all, these systems rely ondata generated by humans. To address this issue, theEuropean Union, EU, are implementing regulationsgoverning the development of AI systems, not only topromote ethical decision-making but also to curb marketoligopolies. Achieving fair decision-making relies on highquality data. The performance of a model is thussynonymous with high-quality data, encompassing breadth,accurate annotation, and relevance. Previous researchhighlights the lack of processes and methods guiding theeffort to ensure high-quality training data. In response, thisstudy aims to investigate the limitations and opportunitiesassociated with claims of data quality within the domain ofdata collection research. To achieve this, a research questionis posed: What factors constrain and enable the creation of ahigh-quality dataset in the context of AI fairness? The studyemploys a method of semistructured interviews withindustry experts, allowing them to describe their personalexperiences and the challenges they have encountered. Thestudy reveals multiple factors that restrict the ability tocreate a high-quality dataset and, ultimately, a fair decisionmaking system. The study also reveals a few opportunities inrelation to high quality data, which methods associated withthe research landscape provides. / Att artificiell intelligens är något som kommer vända uppoch ned på många branscher är något som många experter äröverens om. Men denna teknik är inte helt befriad frånbegränsningar. En av dessa begränsningar är att ett systemsom använder maskininlärning potentiellt kan förstärka defördomar vi människor besitter. Tekniken grundar sig trotsallt i data, data som skapas av oss människor. EU harbestämt sig för att tackla denna problematik genom att införaregler gällande huruvida system som tillämpar AI skallutvecklas. Både för att gynna det etiska beslutsfattandet menockså för att hämma oligopol på marknaden. För att uppnåett så rättvist beslutsfattande som möjligt krävs det data avhög kvalitet. En modells prestanda är således synonymt meddata av hög kvalitet, där bredd, korrekt annotering ochrelevans är betydande. Tidigare forskning pekar påavsaknaden av processer och metoder för att vägleda arbetetmed att säkerställa högkvalitativa träningsdata. Som svar pådetta syftar denna studie till att undersöka vilkabegränsningar och möjligheter som gör anspråk pådatakvalitet i delar av forskningsområdet Data collection.Detta görs genom att besvara forskningsfrågan: Vilkafaktorer begränsar och möjliggör skapandet av etthögkvalitativt dataset i kontexten rättvis AI? Metoden somtillämpas i studien för att besvara ovanstående ärsemistrukturerade intervjuer där yrkesverksamma experterfår beskriva sina personliga upplevelser gällande vilkautmaningar de har ställts inför. Studien resulterar i ett antalfaktorer som begränsar förutsättningarna för att skapa etthögkvalitativt dataset och i slutändan ett rättvistbeslutsfattande system. Studien resulterar även i att peka påett antal möjligheter i relation till högkvalitativa data, sommetoder associerade med forskningslandskapet besitter
24

Tillförlitlighet hos Big Social Data : En fallstudie om upplevd problematik kopplat till beslutfattande i en organisationskontext

Rangnitt, Eric, Wiljander, Louise January 2020 (has links)
Den växande globala användningen av sociala medier skapar enorma mängder social data online, kallat för Big Social Data (BSD). Tidigare forskning lyfter problem med att BSD ofta har bristande tillförlitlighet som underlag vid beslutsfattande och att det är starkt kopplat till dataoch informationskvalitet. Det finns dock en avsaknad av forskning som redogör för praktikers perspektiv på detta. Därför undersökte denna studie vad som upplevs problematiskt kring transformation av BSD till tillförlitlig information för beslutsfattande i en organisationskontext, samt hur detta skiljer sig i teori jämfört med praktik. En fallstudie gjordes av mjukvaruföretaget SAS Institute (SAS). Datainsamlingen genomfördes via intervjuer samt insamling av dokument och resultaten analyserades kvalitativt. Studien gjorde många intressanta fynd gällande upplevda problem kopplat till transformation av BSD, bl.a. hög risk för partisk data och låg analysmognad, samt flera skillnader mellan teori och praktik. Tidigare forskning gör inte heller skillnad mellan begreppen datakvalitet och informationskvalitet, vilket görs i praktiken. / The growing use of social media generates enormous amounts of online social data, called Big Social Data (BSD). Previous research highlights problems with BSD reliability related to decision making, and that reliability is strongly connected to data quality and information quality. However, there is a lack of research with a focus on practitioners’ perspectives on this matter. To address this gap, this study set out to investigate what is perceived as a problem when transforming BSD into reliable information for decision making in an organisational context, and also how this differs in theory compared with practice. A case study was conducted of the software company SAS Institute (SAS). Data collection was done through interviews and gathering of documents, and results were analysed qualitatively. The study resulted in many interesting findings regarding perceived problems connected to the transformation of BSD, e.g. high risk of biased data and low maturity regarding data analysis, as well as several differences between theory and practice. Furthermore, previous research makes no distinction between the terms data quality and information quality, but this is done in practice.
25

Robustness of Machine Learning algorithms applied to gas turbines / Robusthet av maskininlärningsalgoritmer i gasturbiner

Cardenas Meza, Andres Felipe January 2024 (has links)
This thesis demonstrates the successful development of a software sensor for Siemens Energy's SGT-700 gas turbines using machine learning algorithms. Our goal was to enhance the robustness of measurements and redundancies, enabling early detection of sensor or turbine malfunctions and contributing to predictive maintenance methodologies. The research is based on a real-world case study, implementing the Cross Industry Standard Process for Data Mining (CRISP DM) methodology in an industrial setting. The thesis details the process from dataset preparation and data exploration to algorithm development and evaluation, providing a comprehensive view of the development process. This work is a step towards integrating machine learning into gas turbine systems. The data preparation process highlights the challenges that arise in the industrial application of data-driven methodologies due to inevitable data quality issues. It provides insight into potential future improvements, such as the constraint programming approach used for dataset construction in this thesis, which remains a valuable tool for future research. The range of algorithms proposed for the software sensor's development spans from basic to more complex methods, including shallow networks, ensemble methods and recurrent neural networks. Our findings explore the limitations and potential of the proposed algorithms, providing valuable insights into the practical application of machine learning in gas turbines. This includes assessing the reliability of these solutions, their role in monitoring machine health over time, and the importance of clean, usable data in driving accurate and satisfactory estimates of different variables in gas turbines. The research underscores that, while replacing a physical sensor with a software sensor is not yet feasible, integrating these solutions into gas turbine systems for health monitoring is indeed possible. This work lays the groundwork for future advancements and discoveries in the field. / Denna avhandling dokumenterar den framgångsrika utvecklingen av en mjukvarusensor för Siemens Energy's SGT-700 gasturbiner med hjälp av maskininlärningsalgoritmer. Vårt mål var att öka mätkvaliten samt införa redundans, vilket möjliggör tidig upptäckt av sensor- eller turbinfel och bidrar till utvecklingen av prediktiv underhållsmetodik. Forskningen baseras på en verklig fallstudie, implementerad enligt Cross Industry Standard Process for Data Mining-metodiken i en industriell miljö. Avhandligen beskriver processen från datamängdsförberedelse och datautforskning till utveckling och utvärdering av algoritmer, vilket ger en heltäckande bild av utvecklingsprocessen. Detta arbete är ett steg mot att integrera maskininlärning i gasturbinssystem. Dataförberedelsesprocessen belyser de utmaningar som uppstår vid industriell tillämpning av datadrivna metoder på grund av oundvikliga datakvalitetsproblem. Det ger insikt i potentiella framtida förbättringar, såsom den begränsningsprogrammeringsansats som används för datamängdskonstruktion i denna avhandling, vilket förblir ett värdefullt verktyg för framtida forskning. Utvecklingen av mjukvarusensorn sträcker sig från grundläggande till mer komplexa metoder, inklusive ytliga nätverk, ensemblemetoder och återkommande neurala nätverk. Våra resultat utforskar begränsningarna och potentialen hos de föreslagna algoritmerna och ger värdefulla insikter i den praktiska tillämpningen av maskininlärning i gasturbiner. Detta inkluderar att bedöma tillförlitligheten hos dessa lösningar, deras roll i övervakning av maskinhälsa över tid och vikten av ren, användbar data för att generera korrekta och tillfredsställande uppskattningar av olika variabler i gasturbiner. Forskningen understryker att, medan det ännu inte är genomförbart att ersätta en fysisk sensor med en mjukvarusensor, är det verkligen möjligt att integrera dessa lösningar i gasturbinssystem för tillståndsövervakning. Detta arbete lägger grunden för vidare studier och upptäckter inom området. / Esta tesis demuestra el exitoso desarrollo de un sensor basado en software para las turbinas de gas SGT-700 de Siemens Energy utilizando algoritmos de aprendizaje automático. Esto con el objetivo de contribuir a las metodologías de mantenimiento predictivo. La investigación se basa en un estudio industrial que implementa la metodología de Proceso Estándar de la Industria para la Minería de Datos, cuyo acrónimo en inglés CRISP-DM. La tesis detalla el proceso desde la preparación del 'dataset', la exploración de datos hasta el desarrollo y evaluación de algoritmos, proporcionando una visión holistica del proceso de desarrollo. Este trabajo representa un paso hacia la integración del aprendizaje automático en turbinas de gas. Nuestros hallazgos exploran las limitaciones y el potencial de los algoritmos propuestos, proporcionando un analisis sobre la aplicación práctica del aprendizaje automático en turbinas de gas. Esto incluye evaluar la confiabilidad de estas soluciones, su papel en la monitorización de la salud de la máquina a lo largo del tiempo, y la importancia de los datos limpios y utilizables para impulsar estimaciones precisas y satisfactorias de diferentes variables en las turbinas de gas. La investigación sugiere que, aunque reemplazar un sensor físico con un sensor basado en aprendizaje automatico aún no es factible, sí es posible integrar estas soluciones en los sistemas de turbinas de gas para monitorear del estado de la maquina.
26

Flood Hazard Assessment in Data-Scarce Basins : Use of alternative data and modelling techniques / Riskbedömning av översvämning i avrinningsområden med dålig datatillgång : Användning av alternativa data och modelleringsverktyg

Fuentes-Andino, Diana January 2017 (has links)
Flooding is of great concern world-wide, causing damage to infrastructure, property and loss of life. Low-income countries, in particular, can be negatively affected by flood events due to their inherent vulnerabilities. Moreover, data to perform studies for flood risk management in low-income regions are often scarce or lacking sufficient quality. This thesis proposes new methodologies and explores the use of unconventional sources of information in flood hazard assessment in areas where the quantity or sufficient quality of traditional hydrometrical data are lacking.  One method was developed to account for errors in spatially averaged rainfall, from a sparse rain-gauge network, used as input to a rainfall-runoff model. A spatially-averaged and event-dependent rainfall depth multiplier led to improvements of the hydrographs at calibration. And by using a distribution of the multiplier, identified from previous events in the catchment, improvement in predictions could also be obtained. A second method explored the possibility of reproducing an unmeasured extreme flood event using a combination of models, post-event data, precipitation and an uncertainty-analysis framework. This combination allowed the identification of likelihood-associated parameter sets from which the flood hazard map for the extreme event could be obtained. A third and fourth study made at the regional scale explored the value of catchment similarities, and the effects of climate on the hydrological response of catchments. Flood frequency curves were estimated for 36 basins, assumed ungauged, using regional information of short flow records, and local information about the frequency of the storm. In the second regional study, hydro-climatic information provided great value to constrain predictions of series of daily flow from a hydrological model. Previously described methods, used in combination with unconventional information within an uncertainty analysis, proven to be useful for flood hazard assessment at basins with data limitations. The explored data included: post-event measurements of an extreme flood event, hydro-climate regional information and local precipitation data. The methods presented in this thesis are expected to support development of hydrological studies underpinning flood-risk reduction in data-poor areas. / Extremt höga vattenflöden ställer till stora problem i hela världen. De skadar infrastruktur och egendom och orsakar död. Framför allt kan låg- och medelinkomstländer vara väldigt sårbara för extrema flöden. I dessa länder saknas dessutom ofta data som behövs för att kunna bedöma översvämningsrisker, eller så finns bara data av dålig kvalitet. Denna avhandling föreslår nya metoder som använder okonventionella informationskällor vid bedömning av översvämningsrisker i områden där traditionella hydrologiska data saknas eller har otillräcklig kvalitet. En metod utvecklades för att ta hänsyn till fel i rumslig medelnederbörd beräknad från ett glest nät av nederbördsmätare att användas som indata i en nederbörds-avrinningsmodell. Användning av en multiplikator för medelvärdesbildad nederbörd, i tid och rum, för enskilda högflödestillfällen ledde till förbättrad modellkalibrering. Genom att använda multiplikatorfördelningar, identifierade från tidigare högflödestillfällen i avrinningsområdet, kunde också prognoser förbättras. En andra metod använde sig av möjligheten att reproducera ett extremt högflöde inom ramen för en osäkerhetsanalys med hjälp av en kombination av modeller, nederbördsdata och data som uppmätts i efterhand. Denna kombination gjorde det möjligt att identifiera parametervärdesuppsättningar med hophörande sannolikheter ur vilka det gick att erhålla en översvämningskarta för det höga flödet. En tredje och fjärde studie i regional skala utforskade värdet av likheter mellan avrinningsområden och hur områdenas hydrologiska gensvar beror av klimatet. Kurvan för kumulativa högflödesfrekvenser (flood frequency curve, FFC) kunde skattas med hjälp av lokal nederbördsinformation och regional information om korta tidsserier av vattenföring från 36 avrinningsområden som antogs sakna vattenföringsdata. I den andra regionala studien visade sig hydroklimatisk information av värde för att avgränsa godtagbara prognoser för daglig vattenföring från en hydrologisk modell. Tidigare beskrivna metoder, använda tillsammans med okonventionell information inom ramen för en osäkerhetsanalys, visade sig vara användbara för att bedöma översvämningsrisker i avrinningsområden med databegränsningar. Bland utforskade data fanns: mätningar i efterhand av ett extremt högflöde, hydroklimatisk regional information och lokala nederbördsmätningar. Metoderna i denna avhandling förväntas kunna stödja utvecklingen av hydrologiska studier av höga flöden och översvämningar i områden med bristande datatillgång. / Las inundaciones ocasionan daños a la infraestructura, propiedad y pérdida de vidas a nivel mundial. Los países en desarrollo son los más vulnerables a inundaciones, la calidad y cantidad de datos hidro-climatológicos disponibles en los mismos dificulta el desarrollo de estudios para la evaluación de riesgo a esta amenaza. Esta tesis propone métodos en la que se hace uso de fuentes de información no-convencionales para la evaluación de riesgo por inundación en regiones con datos escasos o limitados. Un método considera el error asociado a la precipitación promedio sobre cuencas en modelos lluvia-escorrentía como un factor multiplicador del histograma del evento. El uso de la precipitación promedio junto con una distribución probabilística del factor multiplicador como datos de entrada a un modelo de lluvia-escorrentía mejoraron los hidrogramas durante los periodos de calibración y predicción. Un segundo método exploró la posibilidad de reproducir un evento extremo de inundación usando una combinación de modelos hidrológicos e hidráulico, un análisis de incertidumbre, datos hidrométricos recopilados después del evento y datos de precipitación registrados durante-el-evento. Dicha combinación permitió la identificación de los parámetros de los modelos y la elaboración un mapa de amenaza por inundaciones para dicho evento. Adicionalmente, se estimaron curvas de frecuencia de inundaciones para 36 cuencas, asumidas no aforadas, mediante un método de regionalización que usa registros de caudal de corta duración disponibles en la región. Dichas curvas fueron extendidas haciendo uso de información local sobre la frecuencia de las tormentas. Se encontró que la información hidro-climatológica tiene un gran valor para reducir el rango de incertidumbre de las simulaciones de caudal diaria de un modelo hidrológico. Los métodos anteriores se usaron en combinación con información no-convencional dentro de un análisis de incertidumbre y han probado su utilidad para la evaluación de riesgo por inundaciones en cuencas con registros escasos o limitados. Los datos utilizados en esta tesis incluyen datos hidrométricos recopilados pasado el evento, registros hidro-climatológicos regionales y precipitación local. Se espera que los métodos presentados aquí contribuyan al desarrollo de estudios hidrológicos importantes para la reducción del riesgo por inundaciones en regiones con déficit de registros hidro-climatológicos.
27

Om informationstekniskt bevis

Ekfeldt, Jonas January 2016 (has links)
Information technology evidence consists of a mix of representations of various applications of digital electronic equipment, and can be brought to the fore in all contexts that result in legal decisions. The occurrence of such evidence in legal proceedings, and other legal decision-making, is a phenomenon previously not researched within legal science in Sweden. The thesis examines some of the consequences resulting from the occurrence of information technology evidence within Swedish practical legal and judicial decision-making. The thesis has three main focal points. The first consists of a broad identification of legal problems that information technology evidence entails. The second focal point examines the legal terminology associated with information technology evidence. The third focal point consists of identifying sources of error pertaining to information technology evidence from the adjudicator’s point of view. The examination utilizes a Swedish legal viewpoint from a perspective of the public trust in courts. Conclusions include a number of legal problems in several areas, primarily in regards to the knowledge of the adjudicator, the qualification of different means of evidence and the consequences of representational evidence upon its evaluation. In order to properly evaluate information technology evidence, judges are – to a greater extent than for other types of evidence – in need of (objective) knowledge supplementary to that provided by parties and their witnesses and experts. Furthermore, the current Swedish evidence terminology has been identified as a complex of problems in and of itself. The thesis includes suggestions on certain additions to this terminology. Several sources of error have been identified as being attributable to different procedures associated with the handling of information technology evidence, in particular in relation to computer forensic investigations. There is a general need for future research focused on matters regarding both standards of proof for and evaluation of information technology evidence. In addition, a need for deeper legal scientific studies aimed at evidence theory has been identified, inter alia regarding the extent to which frequency theories are applicable in respect to information technology evidence. The need for related further discussions on future emerging areas such as negative evidence and predictive evidence are foreseen.

Page generated in 0.0657 seconds