• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 352
  • 23
  • 19
  • 17
  • 9
  • 9
  • 9
  • 9
  • 9
  • 9
  • 9
  • 6
  • 3
  • 3
  • 3
  • Tagged with
  • 537
  • 537
  • 537
  • 147
  • 117
  • 109
  • 90
  • 68
  • 60
  • 59
  • 56
  • 56
  • 55
  • 54
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Predicting the Temporal Dynamics of Turbulent Channels through Deep Learning / Predicering den Tids-Dynamiken i Turbulentakanaler genom Djupinlärning

Giuseppe, Borrelli January 2021 (has links)
The interest towrds machine learning applied to turbulence has experienced a fast-paced growth in the last years. Thanks to deep-learning algorithms, flow-control stratigies have been designed, as well as tools to model and reproduce the most relevant turbulent features. In particular, the success of recurrent neural networks (RNNs) has been demonstrated in many recent studies and applications. The main objective of this project is to assess the capability of these networks to reproduce the temporal evolution of a minimal turbulent channel flow. We first obtain a data-driven model based on a modal decomposition in the Fourier domain (FFT-POD) on the time series sampled from the flow. This particular case of turbulent flow allows us to accurately simulate the most relevant coherent structures close to the wall. Long-short-term-memory (LSTM) networks and a Koopman-based framework (KNF) are trained to predict the temporal dynamics of the minimal channel flow modes. Tests with different configurations highlight the limits of the KNF method compared to the LSTM, given the complexity of the data-driven model. Long-term prediction for LSTM show excellent agreement from the statistical point of view, with errors below 2% for the best models. Furthermore, the analysis of the chaotic behaviour thorugh the use of the Lyapunov exponent and of the dynamic behaviour through Pointcaré maps emphasizes the ability of LSTM to reproduce the nature of turbulence. Alternative reduced-order models (ROMS), based on the identification of different turbulent structures, are explored and they continue to show a good potential in predicting the temporal dynamics of the minimal channel.
442

Stock Market Prediction With Deep Learning

Fatah, Kiar, Nazar, Taariq January 2020 (has links)
Due to the unpredictability of the stock market,forecasting stock prices is a challenging task. In this project,we will investigate the performance of the machine learningalgorithm LSTM for stock market prediction. The algorithmwill be based only on historical numerical data and technicalindicators for IBM and FORD. Furthermore, the denoising anddimension reduction algorithm, PCA, is applied to the stockdata, to examine if the performance of forecasting the stockprice is greater than the initial model. A second method, transferlearning, is applied by training the model on the IBM datasetand then applying it on the FORD dataset, and vice versa, toevaluate if the results will improve. The results show that whenthe PCA algorithm is applied to the dataset separately, and incombination with transfer learning, the performance is greater incomparison to the initial model. Moreover, the transfer learningmodel is inconsistent as the performance is worse for FORD inrespect to the initial model, but better for IBM. Thus, concerningthe results when forecasting stock prices using related tools, it issuggested to use trial and error to identify which of the modelsthat performs the optimally. / Att förutse aktiekurser är en utmanande uppgift. Detta beror på aktiemarknadens oförutsägbarhet. Därför kommer vi i detta projekt att undersöka prestandan för maskininlärnings algoritmen LSTMs prognosförmåga för aktie priser. Algoritmen baseras endast på historisk numerisk data och tekniska indikatorer for företagen IBM och FORD. Vidare tillämpas brus minskande och dimension reducerande algorithmen, PCA, på aktiedata för att undersöka om prestandan för att förutse aktie priser är bättre än den ursprungliga modellen. En andra metod, transfer learning, tillämpas genom att träna modellen på IBM data och sedan använda den på FORD data, och vice versa, för att utvärdera om resultaten kommer att förbättras. Resultaten visar, när PCA-algoritmen tillämpas på aktiedata separat, och i kombination med transfer learning är prestandan bättre jämfört med bas modellen. Vidare kan vi inte dra slutsatser om transfer learning då prestandan är sämre för FORD med avseende på bas modellen, men bättre för IBM. I hänsyn till resultaten så föreslås det att man tillämpar modellerna för att identifiera vilken som är mest optimal när man arbetar i ett relaterat ämnesområde. / Kandidatexjobb i elektroteknik 2020, KTH, Stockholm
443

Machine Learning for State Estimation in Fighter Aircraft / Maskininlärning för tillståndsestimering i stridsflygplan

Boivie, Axel January 2023 (has links)
This thesis presents an estimator to assist or replace a fighter aircraft’s air datasystem (ADS). The estimator is based on machine learning and LSTM neuralnetworks and uses the statistical correlation between states to estimate the angleof attack, angle of sideslip and Mach number using only the internal sensorsof the aircraft. The model is trained and extensively tested on a fighter jetsimulation model and shows promising results. The methodology and accuracyof the estimator are discussed, together with how a real-world implementationwould work. The estimators presented should act as a proof of concept of thepower of neural networks in state estimation, whilst the report discusses theirstrengths and weaknesses. The estimators can estimate the three targets wellin a vast envelope of altitudes, speeds, winds and manoeuvres. However, thetechnology is quite far from real-world implementation as it lacks transparencybut shows promising potential for future development. / Det här examensarbetet presenterar en estimator för att hjälpa eller ersätta ettstridsflygplans luftdatasystem (ADS). Estimatorn är baserad på maskininlärningoch LSTM neurala nätverk och använder statistisk korrelation mellan tillstånd föratt uppskatta anfallsvinkeln, sidglidningsvinkel och Mach-tal endast med hjälpav flygplanets interna sensorer. Modellen är tränad och utförligt testad på ensimuleringsmodell för stridsflygplan och visar lovande resultat. Estimatornsmetodik och noggrannhet diskuteras, tillsammans med hur en implementeringi verkligheten skulle fungera. De presenterade estimatorerna bör fungera somett “proof of concept” för kraften hos neurala nätverk för tillståndsuppskattning,medan rapporten diskuterar deras styrkor och svagheter. Estimatorerna kanuppskatta de tre tillstånden väl i ett stort spektra av altituder, hastigheter, vindaroch manövrar. Tekniken är dock ganska långt ifrån en verklig implementeringeftersom den saknar transparens, men visar lovande potential för framtidautveckling.
444

Comparative Analysis of Machine Learning Algorithms for Cryptocurrency Price Prediction

Kurtagic, Leila January 2024 (has links)
As the cryptocurrency markets continuously grow, so does the need for reliable analytical tools for price prediction. This study conducted a comparative analysis of machine learning (ML) algorithms for cryptocurrency price prediction. Through a literature review, three common and reliable ML algorithms for cryptocurrency price prediction were identified: Long Short-Term Memory (LSTM), Random Forest (RF), and eXtreme Gradient Boosting (XGBoost). Utilizing the Bitcoin All Time History dataset from TradingView, the study assessed both the individual performance of each algorithm and the potential of ensemble methods to enhance predictive accuracy. The results reveal that the LSTM algorithm outperformed RF and XGBoost in terms of predictive accuracy according to the metrics Mean Absolute Error (MAE), Mean Squared Error (MSE), and Root Mean Squared Error (RMSE). Additionally, two ensemble approaches were tested: Ensemble 1, which enhanced the LSTM model with the combined predictions from RF and XGBoost, and Ensemble 2, which integrated predictions from all three models. Ensemble 2 demonstrated the highest predictive performance among all models, highlighting the advantages of using ensemble approaches for more robust predictions.
445

Lien entre l'activité pariéto-occipitale enregistrée pendant une tâche de mémoire à court terme visuelle et les habiletés mathématiques : une étude en magnétoencéphalographie

Boulet-Craig, Aubrée 08 1900 (has links)
La mémoire à court terme visuelle (MCTv) est un système qui permet le maintien temporaire de l’information visuelle en mémoire. La capacité en mémoire à court terme se définit par le nombre d’items qu’un individu peut maintenir en mémoire sur une courte période de temps et est limitée à environ quatre items. Il a été démontré que la capacité en MCTv et les habiletés mathématiques sont étroitement liées. La MCTv est utile dans beaucoup de composantes liées aux mathématiques, comme la résolution de problèmes, la visualisation mentale et l’arithmétique. En outre, la MCTv et le raisonnement mathématique font appel à des régions similaires du cerveau, notamment dans le cortex pariétal. Le sillon intrapariétal (SIP) semble être particulièrement important, autant dans la réalisation de tâches liées à la MCTv qu’aux habiletés mathématiques. Nous avons créé une tâche de MCTv que 15 participants adultes en santé ont réalisée pendant que nous enregistrions leur activité cérébrale à l’aide de la magnétoencéphalographie (MEG). Nous nous sommes intéressés principalement à la composante SPCM. Une évaluation neuropsychologique a également été administrée aux participants. Nous souhaitions tester l’hypothèse selon laquelle l’activité cérébrale aux capteurs pariéto-occipitaux pendant la tâche de MCTv en MEG sera liée à la performance en mathématiques. Les résultats indiquent que l’amplitude de l’activité pariéto-occipitale pendant la tâche de MCTv permet de prédire les habiletés mathématiques ainsi que la performance dans une tâche de raisonnement perceptif. Ces résultats permettent de confirmer le lien existant entre les habiletés mathématiques et le fonctionnement sous-jacent à la MCTv. / Visual short-term memory (VSTM) is a memory system that permits the temporary retention of visual information. Short-term memory capacity can be defined by the amount of information that an individual can remember over a short period of time and is limited to about four items. It was shown that VSTM capacity and mathematical abilities are closely related. VSTM is useful for a lot of components linked to mathematical skills like word problem solving, mental visualisation and arithmetic. Moreover, VSTM and mathematical reasoning activate similar brain regions, mainly within the parietal cortex. The intraparietal sulcus (IPS) appears to be particularly important both in the realization of VSTM tasks and mathematical reasoning tasks. We created a VSTM task which 15 healthy adult participants completed while we recorded their brain activity using magnetoencephalography (MEG). We were mainly interested in the SPCM component. A neuropsychological assessment was also administrated to the participants. We wanted to verify the hypothesis stipulating that cerebral activity recorded at parieto-occipital sensors during the VSTM task should be linked to performance in mathematics. The results indicate that parieto-occipital activity during the VSTM tasks predicted mathematical abilities as well as performance on a perceptive reasoning task. These results confirmed the link existing between mathematical abilities and VSTM functioning.
446

Sensitivity to changes with and without awareness: an empirical investigation

Laloyaux, Cédric 08 May 2007 (has links)
Ce travail a pour objectif d'investiguer le sort réservé à  des changements de nature visuelle qui se produisent dans notre environnement et que nous ne détectons pas consciemment. J'investiguerai en particulier si de tels changements non-perçus consciemment peuvent néanmoins (1) être représentés d'une certaine manière en-dessous du seuil de la conscience, et (2) exercer une influence causale sur des tâches comportementales subséquentes. A cette fin, une première étude cherche à établir si les paradigmes classiques de détection de changement sous-évaluent les capacités réelles de la mémoire visuelle à court terme. Cette étude a effectivement montré qu'il était possible de récupérer de l'information stockée en mémoire visuelle à court terme (MVCT), suggérant donc qu'il existe plus de capacités mnésiques visuelles que ce qui est utilisé dans les tâches classiques de détection de changement. Ensuite, une seconde étude a répliqué un paradigme dit d'identification implicite de changements et qui était controversé dans la littérature en raison de biais potentiels. Après correction de ces biais, nous avons pu démontrer que ce paradigme suggère bel et bien un effet d'identification implicite de changement puisque l'identité d'un changement simple (changement d'orientation d'un rectangle parmi 8 rectangles orientés de différentes manières) peut indicer un jugement d'orientation subséquent. Finalement, dans le dernier groupe d'expériences, un nouveau paradigme dans lequel les changements se produisent très progressivement et très lentement sera décrit. En utilisant ce paradigme, j'ai pu démontrer qu'alors que les observateurs demeurent inconscients du changement, ils restent néanmoins sensibles aux changements puisqu'ils « synchronisent » leur représentation en mémoire visuelle avec le stimulus présenté à l'écran. Enfin, dans la conclusion, je m'attacherai également à  développer l'idée selon laquelle nous sommes (1) capables, au minimum, de mettre à jour notre mémoire visuelle d'un changement et probablement d'identifier, un tel changement sans conscience et (2) influençables par ce changement. En effet, à la fin de ce travail, j'arriverai à la conclusion que les représentations visuelles sont ébruitéess et incomplètes. Ceci est dû (1) à  la constitution de la rétine, qui n'est pas homogène (la quantité de photorécepteurs n'est pas identique dans la partie centrale et dans la périphérie du champ visuel), (2) aux imperfections des systèmes biologiques (des imperfections et des erreurs dans la planification des saccades et dans leurs exécutions surgissent,) et (3) aux limitations de nos capacités attentionnelles. / Doctorat en sciences psychologiques / info:eu-repo/semantics/nonPublished
447

Finding the QRS Complex in a Sampled ECG Signal Using AI Methods / Hitta QRS komplex in en samplad EKG signal med AI metoder

Skeppland Hole, Jeanette Marie Victoria January 2023 (has links)
This study aimed to explore the application of artificial intelligence (AI) and machine learning (ML) techniques in implementing a QRS detector forambulatory electrocardiography (ECG) monitoring devices. Three ML models, namely long short-term memory (LSTM), convolutional neural network (CNN), and multilayer perceptron (MLP), were compared and evaluated using the MIT-BIH arrhythmia database (MITDB) and the MIT-BIH noise stress test database (NSTDB). The MLP model consistently outperformed the other models, achieving high accuracy in R-peak detection. However, when tested on noisy data, all models faced challenges in accurately predicting R-peaks, indicating the need for further improvement. To address this, the study emphasized the importance of iteratively refining the input data configurations for achieving accurate R-peak detection. By incorporating both the MITDB and NSTDB during training, the models demonstrated improved generalization to noisy signals. This iterative refinement process allowed for the identification of the best models and configurations, consistently surpassing existing ML-based implementations and outperforming the current ECG analysis system. The MLP model, without shifting segments and utilizing both datasets, achieved an outstanding accuracy of 99.73 % in R-peak detection. This accuracy exceeded values reported in the literature, demonstrating the superior performance of this approach. Furthermore, the shifted MLP model, which considered temporal dependencies by incorporating shifted segments, showed promising results with an accuracy of 99.75 %. It exhibited enhanced accuracy, precision, and F1-score compared to the other models, highlighting the effectiveness of incorporating shifted segments. For future research, it is important to address challenges such as overfitting and validate the models on independent datasets. Additionally, continuous refinement and optimization of the input data configurations will contribute to further advancements in ECG signal analysis and improve the accuracy of R-peak detection. This study underscores the potential of ML techniques in enhancing ECG analysis, ultimately leading to improved cardiac diagnostics and better patient care. / Syftet med denna studie var att utforska användningen av AI- och ML-tekniker för att implementera en QRS-detektor i EKG-övervakningsenheter. Tre olika ML-modeller, LSTM, CNN och MLP jämfördes och utvärderades med hjälp av MITDB och NSTDB. Resultaten visade att MLP-modellen konsekvent presterade bättre än de andra modellerna och uppnådde hög noggrannhet vid detektion av R-toppar i EKG-signalen. Trots detta stötte alla modeller på utmaningar när de testades på brusig realtidsdata, vilket indikerade behovet av ytterligare förbättringar. För att hantera dessa utmaningar betonade studien vikten av att iterativt förbättra konfigurationen av indata för att uppnå noggrann detektering av R toppar. Genom att inkludera både MITDB och NSTDB under träningen visade modellerna förbättrad förmåga att generalisera till brusiga signaler. Denna iterativa process möjliggjorde identifiering av de bästa modellerna och konfigurationerna, vilka konsekvent överträffade befintliga ML-baserade implementeringar och presterade bättre än den nuvarande EKG-analysystemet. MLP-modellen, utan användning av skiftade segment och med båda databaserna, uppnådde en imponerande noggrannhet på 99,73 % vid detektion av R-toppar. Denna noggrannhet överträffade tidigare studier och visade på den överlägsna prestandan hos denna metod. Dessutom visade den skiftade MLP-modellen, som inkluderade skiftade segment för att beakta tidsberoenden, lovande resultat med en noggrannhet på 99,75 %. Modellen uppvisade förbättrad noggrannhet, precision och F1-score jämfört med de andra modellerna, vilket betonar vikten av att inkludera skiftade segment. För framtida studier är det viktigt att hantera utmaningar som överanpassning och att validera modellerna med oberoende datamängder. Dessutom kommer en kontinuerlig förfining och optimering av konfigurationen av indata att bidra till ytterligare framsteg inom EKG-signalanalys och förbättrad noggrannhet vid detektion av R-toppar. Denna studie understryker potentialen hos ML-modeller för att förbättra EKG-analysen och därigenom bidra till förbättrad diagnostik av hjärtsjukdomar och högre kvalitet inom patientvården.
448

[en] EXTRACTING AND CONNECTING PLAINTIFF S LEGAL CLAIMS AND JUDICIAL PROVISIONS FROM BRAZILIAN COURT DECISIONS / [pt] EXTRAÇÃO E CONEXÃO ENTRE PEDIDOS E DECISÕES JUDICIAIS DE UM TRIBUNAL BRASILEIRO

WILLIAM PAULO DUCCA FERNANDES 03 November 2020 (has links)
[pt] Neste trabalho, propomos uma metodologia para anotar decisões judiciais, criar modelos de Deep Learning para extração de informação, e visualizar de forma agregada a informação extraída das decisões. Instanciamos a metodologia em dois sistemas. O primeiro extrai modificações de um tribunal de segunda instância, que consiste em um conjunto de categorias legais que são comumente modificadas pelos tribunais de segunda instância. O segundo (i) extrai as causas que motivaram uma pessoa a propor uma ação judicial (causa de pedir), os pedidos do autor e os provimentos judiciais dessas ações proferidas pela primeira e segunda instância de um tribunal, e (ii) conecta os pedidos com os provimentos judiciais correspondentes. O sistema apresenta seus resultados através de visualizações. Extração de Informação para textos legais tem sido abordada usando diferentes técnicas e idiomas. Nossas propostas diferem dos trabalhos anteriores, pois nossos corpora são compostos por decisões de primeira e segunda instância de um tribunal brasileiro. Para extrair as informações, usamos uma abordagem tradicional de Aprendizado de Máquina e outra usando Deep Learning, tanto individualmente quanto como uma solução combinada. Para treinar e avaliar os sistemas, construímos quatro corpora: Kauane Junior para o primeiro sistema, e Kauane Insurance Report, Kauane Insurance Lower e Kauane Insurance Upper para o segundo. Usamos dados públicos disponibilizados pelo Tribunal de Justiça do Estado do Rio de Janeiro para construir os corpora. Para o Kauane Junior, o melhor modelo (Fbeta=1 de 94.79 por cento) foi uma rede neural bidirecional Long Short-Term Memory combinada com Conditional Random Fields (BILSTM-CRF); para o Kauane Insurance Report, o melhor (Fbeta=1 de 67,15 por cento) foi uma rede neural bidirecional Long Short-Term Memory com embeddings de caracteres concatenados a embeddings de palavras combinada com Conditional Random Fields (BILSTM-CE-CRF). Para o Kauane Insurance Lower, o melhor (Fbeta=1 de 89,12 por cento) foi uma BILSTM-CE-CRF; para o Kauane Insurance Upper, uma BILSTM-CRF (Fbeta=1 de 83,66 por cento). / [en] In this work, we propose a methodology to annotate Court decisions, create Deep Learning models to extract information, and visualize the aggregated information extracted from the decisions. We instantiate our methodology in two systems we have developed. The first one extracts Appellate Court modifications, a set of legal categories that are commonly modified by Appellate Courts. The second one (i) extracts plaintiff s legal claims and each specific provision on legal opinions enacted by lower and Appellate Courts, and (ii) connects each legal claim with the corresponding judicial provision. The system presents the results through visualizations. Information Extraction for legal texts has been previously addressed using different techniques and languages. Our proposals differ from previous work, since our corpora are composed of Brazilian lower and Appellate Court decisions. To automatically extract that information, we use a traditional Machine Learning approach and a Deep Learning approach, both as alternative solutions and also as a combined solution. In order to train and evaluate the systems, we have built Kauane Junior corpus for the first system, and three corpora for the second system – Kauane Insurance Report, Kauane Insurance Lower, and Kauane Insurance Upper. We used public data disclosed by the State Court of Rio de Janeiro to build the corpora. For Kauane Junior, the best model, which is a Bidirectional Long Short-Term Memory network combined with Conditional Random Fields (BILSTM-CRF), obtained an (F)beta=1 score of 94.79 percent. For Kauane Insurance Report, the best model, which is a Bidirectional Long Short-Term Memory network with character embeddings concatenated to word embeddings combined with Conditional Random Fields (BILSTM-CE-CRF), obtained an (F)beta=1 score of 67.15 percent. For Kauane Insurance Lower, the best model, which is a BILSTM-CE-CRF, obtained an (F)beta=1 score of 89.12 percent. For Kauane Insurance Upper, the best model, which is a BILSTM-CRF, obtained an (F)beta=1 score of 83.66 percent.
449

Outlier detection with ensembled LSTM auto-encoders on PCA transformed financial data / Avvikelse-detektering med ensemble LSTM auto-encoders på PCA-transformerad finansiell data

Stark, Love January 2021 (has links)
Financial institutions today generate a large amount of data, data that can contain interesting information to investigate to further the economic growth of said institution. There exists an interest in analyzing these points of information, especially if they are anomalous from the normal day-to-day work. However, to find these outliers is not an easy task and not possible to do manually due to the massive amounts of data being generated daily. Previous work to solve this has explored the usage of machine learning to find outliers in these financial datasets. Previous studies have shown that the pre-processing of data usually stands for a big part in information loss. This work aims to study if there is a proper balance in how the pre-processing is carried out to retain the highest amount of information while simultaneously not letting the data remain too complex for the machine learning models. The dataset used consisted of Foreign exchange transactions supplied by the host company and was pre-processed through the use of Principal Component Analysis (PCA). The main purpose of this work is to test if an ensemble of Long Short-Term Memory Recurrent Neural Networks (LSTM), configured as autoencoders, can be used to detect outliers in the data and if the ensemble is more accurate than a single LSTM autoencoder. Previous studies have shown that Ensemble autoencoders can prove more accurate than a single autoencoder, especially when SkipCells have been implemented (a configuration that skips over LSTM cells to make the model perform with more variation). A datapoint will be considered an outlier if the LSTM model has trouble properly recreating it, i.e. a pattern that is hard to classify, making it available for further investigations done manually. The results show that the ensembled LSTM model proved to be more accurate than that of a single LSTM model in regards to reconstructing the dataset, and by our definition of an outlier, more accurate in outlier detection. The results from the pre-processing experiments reveal different methods of obtaining an optimal number of components for your data. One of those is by studying retained variance and accuracy of PCA transformation compared to model performance for a certain number of components. One of the conclusions from the work is that ensembled LSTM networks can prove very powerful, but that alternatives to pre-processing should be explored such as categorical embedding instead of PCA. / Finansinstitut genererar idag en stor mängd data, data som kan innehålla intressant information värd att undersöka för att främja den ekonomiska tillväxten för nämnda institution. Det finns ett intresse för att analysera dessa informationspunkter, särskilt om de är avvikande från det normala dagliga arbetet. Att upptäcka dessa avvikelser är dock inte en lätt uppgift och ej möjligt att göra manuellt på grund av de stora mängderna data som genereras dagligen. Tidigare arbete för att lösa detta har undersökt användningen av maskininlärning för att upptäcka avvikelser i finansiell data. Tidigare studier har visat på att förbehandlingen av datan vanligtvis står för en stor del i förlust av emphinformation från datan. Detta arbete syftar till att studera om det finns en korrekt balans i hur förbehandlingen utförs för att behålla den högsta mängden information samtidigt som datan inte förblir för komplex för maskininlärnings-modellerna. Det emphdataset som användes bestod av valutatransaktioner som tillhandahölls av värdföretaget och förbehandlades genom användning av Principal Component Analysis (PCA). Huvudsyftet med detta arbete är att undersöka om en ensemble av Long Short-Term Memory Recurrent Neural Networks (LSTM), konfigurerad som autoenkodare, kan användas för att upptäcka avvikelser i data och om ensemblen är mer precis i sina predikteringar än en ensam LSTM-autoenkodare. Tidigare studier har visat att en ensembel avautoenkodare kan visa sig vara mer precisa än en singel autokodare, särskilt när SkipCells har implementerats (en konfiguration som hoppar över vissa av LSTM-cellerna för att göra modellerna mer varierade). En datapunkt kommer att betraktas som en avvikelse om LSTM-modellen har problem med att återskapa den väl, dvs ett mönster som nätverket har svårt att återskapa, vilket gör datapunkten tillgänglig för vidare undersökningar. Resultaten visar att en ensemble av LSTM-modeller predikterade mer precist än en singel LSTM-modell när det gäller att återskapa datasetet, och då enligt vår definition av avvikelser, mer precis avvikelse detektering. Resultaten från förbehandlingen visar olika metoder för att uppnå ett optimalt antal komponenter för dina data genom att studera bibehållen varians och precision för PCA-transformation jämfört med modellprestanda. En av slutsatserna från arbetet är att en ensembel av LSTM-nätverk kan visa sig vara mycket kraftfulla, men att alternativ till förbehandling bör undersökas, såsom categorical embedding istället för PCA.
450

Deep Learning in the Web Browser for Wind Speed Forecasting using TensorFlow.js / Djupinlärning i Webbläsaren för Vindhastighetsprognoser med TensorFlow.js

Moazez Gharebagh, Sara January 2023 (has links)
Deep Learning is a powerful and rapidly advancing technology that has shown promising results within the field of weather forecasting. Implementing and using deep learning models can however be challenging due to their complexity. One approach to potentially overcome the challenges with deep learning is to run deep learning models directly in the web browser. This approach introduces several advantages, including accessibility, data privacy, and the ability to access device sensors. The ability to run deep learning models on the web browser thus opens new possibilities for research and development in areas such as weather forecasting. In this thesis, two deep learning models that run in the web browser are implemented using JavaScript and TensorFlow.js to predict wind speed in the near future. Specifically, the application of Long Short-Term Memory and Gated Recurrent Units models are investigated. The results demonstrate that both the Long Short-Term Memory and Gated Recurrent Units models achieve similar performance and are able to generate predictions that closely align with the expected patterns when the variations in the data are less significant. The best performing Long Short-Term Memory model achieved a mean squared error of 0.432, a root mean squared error of 0.657 and a mean average error of 0.459. The best performing Gated Recurrent Units model achieved a mean squared error of 0.435, a root mean squared error of 0.660 and a mean average error of 0.461. / Djupinlärning är en kraftfull teknik som genomgår snabb utveckling och har uppnått lovande resultat inom väderprognoser. Att implementera och använda djupinlärningsmodeller kan dock vara utmanande på grund av deras komplexitet. Ett möjligt sätt att möta utmaningarna med djupinlärning är att köra djupinlärningsmodeller direkt i webbläsaren. Detta sätt medför flera fördelar, inklusive tillgänglighet, dataintegritet och möjligheten att använda enhetens egna sensorer. Att kunna köra djupinlärningsmodeller i webbläsaren bidrar därför med möjligheter för forskning och utveckling inom områden såsom väderprognoser. I denna studie implementeras två djupinlärningsmodeller med JavaScript och TensorFlow.js som körs i webbläsaren för att prediktera vindhastighet i en nära framtid. Specifikt undersöks tillämpningen av modellerna Long Short-Term Memory och Gated Recurrent Units. Resultaten visar att både Long Short-Term Memory och Gated Recurrent Units modellerna presterar lika bra och kan generera prediktioner som är nära förväntade mönster när variationen i datat är mindre signifikant. Den Long Short-Term Memory modell som presterade bäst uppnådde en mean squared error på 0.432, en root mean squared error på 0.657 och en mean average error på 0.459. Den Gated Recurrent Units modell som presterade bäst uppnådde en mean squared error på 0.435, en root mean squared error på 0.660 och en mean average error på 0.461.

Page generated in 0.0684 seconds