Spelling suggestions: "subject:"eae"" "subject:"aae""
31 |
MahlerNet : Unbounded Orchestral Music with Neural Networks / Orkestermusik utan begränsning med neurala nätverkLousseief, Elias January 2019 (has links)
Modelling music with mathematical and statistical methods in general, and with neural networks in particular, has a long history and has been well explored in the last decades. Exactly when the first attempt at strictly systematic music took place is hard to say; some would say in the days of Mozart, others would say even earlier, but it is safe to say that the field of algorithmic composition has a long history. Even though composers have always had structure and rules as part of the writing process, implicitly or explicitly, following rules at a stricter level was well investigated in the middle of the 20th century at which point also the first music writing computer program based on mathematics was implemented. This work in computer science focuses on the history of musical composition with computers, also known as algorithmic composition, using machine learning and neural networks and consists of two parts: a literature survey covering in-depth the last decades in the field from which is drawn inspiration and experience to construct MahlerNet, a neural network based on the previous architectures MusicVAE, BALSTM, PerformanceRNN and BachProp, capable of modelling polyphonic symbolic music with up to 23 instruments. MahlerNet is a new architecture that uses a custom preprocessor with musical heuristics to normalize and filter the input and output files in MIDI format into a data representation that it uses for processing. MahlerNet, and its preprocessor, was written altogether for this project and produces music that clearly shows musical characteristics reminiscent of the data it was trained on, with some long-term structure, albeit not in the form of motives and themes. / Matematik och statistik i allmänhet, och maskininlärning och neurala nätverk i synnerhet, har sedan långt tillbaka använts för att modellera musik med en utveckling som kulminerat under de senaste decennierna. Exakt vid vilken historisk tidpunkt som musikalisk komposition för första gången tillämpades med strikt systematiska regler är svårt att säga; vissa skulle hävda att det skedde under Mozarts dagar, andra att det skedde redan långt tidigare. Oavsett vilket, innebär det att systematisk komposition är en företeelse med lång historia. Även om kompositörer i alla tider följt strukturer och regler, medvetet eller ej, som en del av kompositionsprocessen började man under 1900-talets mitt att göra detta i högre utsträckning och det var också då som de första programmen för musikalisk komposition, baserade på matematik, kom till. Den här uppsatsen i datateknik behandlar hur musik historiskt har komponerats med hjälp av datorer, ett område som också är känt som algoritmisk komposition. Uppsatsens fokus ligger på användning av maskininlärning och neurala nätverk och består av två delar: en litteraturstudie som i hög detalj behandlar utvecklingen under de senaste decennierna från vilken tas inspiration och erfarenheter för att konstruera MahlerNet, ett neuralt nätverk baserat på de tidigare modellerna MusicVAE, BALSTM, PerformanceRNN och BachProp. MahlerNet kan modellera polyfon musik med upp till 23 instrument och är en ny arkitektur som kommer tillsammans med en egen preprocessor som använder heuristiker från musikteori för att normalisera och filtrera data i MIDI-format till en intern representation. MahlerNet, och dess preprocessor, är helt och hållet implementerade för detta arbete och kan komponera musik som tydligt uppvisar egenskaper från den musik som nätverket tränats på. En viss kontinuitet finns i den skapade musiken även om det inte är i form av konkreta teman och motiv.
|
32 |
The Sierra Ballena Shear zone: / kinematics, timing and its significance for the geotectonic evolution of southeast Uruguay / Die Sierra Ballena Scherzone: / Kinematik, Zeiteinteilung und seine Bedeutung für die geotektonische Entwicklung von Südost UruguayOyhantçabal Cironi, Pedro Bernardo 30 May 2005 (has links)
No description available.
|
33 |
Tectonically-controlled emplacement mechanisms in the upper crust under specific stress regimes: case studies / Tektonisch-kontrollierte Platznahmemechanismen in der oberen Kruste unter spezifischen Spannungsregimen: FallbeispieleFriese, Nadine 15 July 2009 (has links)
No description available.
|
34 |
Insurance Fraud Detection using Unsupervised Sequential Anomaly Detection / Detektion av försäkringsbedrägeri med oövervakad sekvensiell anomalitetsdetektionHansson, Anton, Cedervall, Hugo January 2022 (has links)
Fraud is a common crime within the insurance industry, and insurance companies want to quickly identify fraudulent claimants as they often result in higher premiums for honest customers. Due to the digital transformation where the sheer volume and complexity of available data has grown, manual fraud detection is no longer suitable. This work aims to automate the detection of fraudulent claimants and gain practical insights into fraudulent behavior using unsupervised anomaly detection, which, compared to supervised methods, allows for a more cost-efficient and practical application in the insurance industry. To obtain interpretable results and benefit from the temporal dependencies in human behavior, we propose two variations of LSTM based autoencoders to classify sequences of insurance claims. Autoencoders can provide feature importances that give insight into the models' predictions, which is essential when models are put to practice. This approach relies on the assumption that outliers in the data are fraudulent. The models were trained and evaluated on a dataset we engineered using data from a Swedish insurance company, where the few labeled frauds that existed were solely used for validation and testing. Experimental results show state-of-the-art performance, and further evaluation shows that the combination of autoencoders and LSTMs are efficient but have similar performance to the employed baselines. This thesis provides an entry point for interested practitioners to learn key aspects of anomaly detection within fraud detection by thoroughly discussing the subject at hand and the details of our work. / <p>Gjordes digitalt via Zoom. </p>
|
35 |
Deep Scenario Generation of Financial Markets / Djup scenario generering av finansiella marknaderCarlsson, Filip, Lindgren, Philip January 2020 (has links)
The goal of this thesis is to explore a new clustering algorithm, VAE-Clustering, and examine if it can be applied to find differences in the distribution of stock returns and augment the distribution of a current portfolio of stocks and see how it performs in different market conditions. The VAE-clustering method is as mentioned a newly introduced method and not widely tested, especially not on time series. The first step is therefore to see if and how well the clustering works. We first apply the algorithm to a dataset containing monthly time series of the power demand in Italy. The purpose in this part is to focus on how well the method works technically. When the model works well and generates proper results with the Italian Power Demand data, we move forward and apply the model on stock return data. In the latter application we are unable to find meaningful clusters and therefore unable to move forward towards the goal of the thesis. The results shows that the VAE-clustering method is applicable for time series. The power demand have clear differences from season to season and the model can successfully identify those differences. When it comes to the financial data we hoped that the model would be able to find different market regimes based on time periods. The model is though not able distinguish different time periods from each other. We therefore conclude that the VAE-clustering method is applicable on time series data, but that the structure and setting of the financial data in this thesis makes it to hard to find meaningful clusters. The major finding is that the VAE-clustering method can be applied to time series. We highly encourage further research to find if the method can be successfully used on financial data in different settings than tested in this thesis. / Syftet med den här avhandlingen är att utforska en ny klustringsalgoritm, VAE-Clustering, och undersöka om den kan tillämpas för att hitta skillnader i fördelningen av aktieavkastningar och förändra distributionen av en nuvarande aktieportfölj och se hur den presterar under olika marknadsvillkor. VAE-klusteringsmetoden är som nämnts en nyinförd metod och inte testad i stort, särskilt inte på tidsserier. Det första steget är därför att se om och hur klusteringen fungerar. Vi tillämpar först algoritmen på ett datasätt som innehåller månatliga tidsserier för strömbehovet i Italien. Syftet med denna del är att fokusera på hur väl metoden fungerar tekniskt. När modellen fungerar bra och ger tillfredställande resultat, går vi vidare och tillämpar modellen på aktieavkastningsdata. I den senare applikationen kan vi inte hitta meningsfulla kluster och kan därför inte gå framåt mot målet som var att simulera olika marknader och se hur en nuvarande portfölj presterar under olika marknadsregimer. Resultaten visar att VAE-klustermetoden är väl tillämpbar på tidsserier. Behovet av el har tydliga skillnader från säsong till säsong och modellen kan framgångsrikt identifiera dessa skillnader. När det gäller finansiell data hoppades vi att modellen skulle kunna hitta olika marknadsregimer baserade på tidsperioder. Modellen kan dock inte skilja olika tidsperioder från varandra. Vi drar därför slutsatsen att VAE-klustermetoden är tillämplig på tidsseriedata, men att strukturen på den finansiella data som undersöktes i denna avhandling gör det svårt att hitta meningsfulla kluster. Den viktigaste upptäckten är att VAE-klustermetoden kan tillämpas på tidsserier. Vi uppmuntrar ytterligare forskning för att hitta om metoden framgångsrikt kan användas på finansiell data i andra former än de testade i denna avhandling
|
36 |
Machine Learning for Glaucoma Assessment using Fundus ImagesDíaz Pinto, Andrés Yesid 29 July 2019 (has links)
[ES] Las imágenes de fondo de ojo son muy utilizadas por los oftalmólogos para la evaluación de la retina y la detección de glaucoma. Esta patología es la segunda causa de ceguera en el mundo, según estudios de la Organización Mundial de la Salud (OMS).
En esta tesis doctoral, se estudian algoritmos de aprendizaje automático (machine learning) para la evaluación automática del glaucoma usando imágenes de fondo de ojo. En primer lugar, se proponen dos métodos para la segmentación automática. El primer método utiliza la transformación Watershed Estocástica para segmentar la copa óptica y posteriormente medir características clínicas como la relación Copa/Disco y la regla ISNT. El segundo método es una arquitectura U-Net que se usa específicamente para la segmentación del disco óptico y la copa óptica.
A continuación, se presentan sistemas automáticos de evaluación del glaucoma basados en redes neuronales convolucionales (CNN por sus siglas en inglés). En este enfoque se utilizan diferentes modelos entrenados en ImageNet como clasificadores automáticos de glaucoma, usando fine-tuning. Esta nueva técnica permite detectar el glaucoma sin segmentación previa o extracción de características. Además, este enfoque presenta una mejora considerable del rendimiento comparado con otros trabajos del estado del arte.
En tercer lugar, dada la dificultad de obtener grandes cantidades de imágenes etiquetadas (glaucoma/no glaucoma), esta tesis también aborda el problema de la síntesis de imágenes de la retina. En concreto se analizaron dos arquitecturas diferentes para la síntesis de imágenes, las arquitecturas Variational Autoencoder (VAE) y la Generative Adversarial Networks (GAN). Con estas arquitecturas se generaron imágenes sintéticas que se analizaron cualitativa y cuantitativamente, obteniendo un rendimiento similar a otros trabajos en la literatura.
Finalmente, en esta tesis se plantea la utilización de un tipo de GAN (DCGAN) como alternativa a los sistemas automáticos de evaluación del glaucoma presentados anteriormente. Para alcanzar este objetivo se implementó un algoritmo de aprendizaje semi-supervisado. / [CA] Les imatges de fons d'ull són molt utilitzades pels oftalmòlegs per a l'avaluació de la retina i la detecció de glaucoma. Aquesta patologia és la segona causa de ceguesa al món, segons estudis de l'Organització Mundial de la Salut (OMS).
En aquesta tesi doctoral, s'estudien algoritmes d'aprenentatge automàtic (machine learning) per a l'avaluació automàtica del glaucoma usant imatges de fons d'ull. En primer lloc, es proposen dos mètodes per a la segmentació automàtica. El primer mètode utilitza la transformació Watershed Estocàstica per segmentar la copa òptica i després mesurar característiques clíniques com la relació Copa / Disc i la regla ISNT. El segon mètode és una arquitectura U-Net que s'usa específicament per a la segmentació del disc òptic i la copa òptica.
A continuació, es presenten sistemes automàtics d'avaluació del glaucoma basats en xarxes neuronals convolucionals (CNN per les sigles en anglès). En aquest enfocament s'utilitzen diferents models entrenats en ImageNet com classificadors automàtics de glaucoma, usant fine-tuning. Aquesta nova tècnica permet detectar el glaucoma sense segmentació prèvia o extracció de característiques. A més, aquest enfocament presenta una millora considerable del rendiment comparat amb altres treballs de l'estat de l'art.
En tercer lloc, donada la dificultat d'obtenir grans quantitats d'imatges etiquetades (glaucoma / no glaucoma), aquesta tesi també aborda el problema de la síntesi d'imatges de la retina. En concret es van analitzar dues arquitectures diferents per a la síntesi d'imatges, les arquitectures Variational Autoencoder (VAE) i la Generative adversarial Networks (GAN). Amb aquestes arquitectures es van generar imatges sintètiques que es van analitzar qualitativament i quantitativament, obtenint un rendiment similar a altres treballs a la literatura.
Finalment, en aquesta tesi es planteja la utilització d'un tipus de GAN (DCGAN) com a alternativa als sistemes automàtics d'avaluació del glaucoma presentats anteriorment. Per assolir aquest objectiu es va implementar un algoritme d'aprenentatge semi-supervisat. / [EN] Fundus images are widely used by ophthalmologists to assess the retina and detect glaucoma, which is, according to studies from the World Health Organization (WHO), the second cause of blindness worldwide.
In this thesis, machine learning algorithms for automatic glaucoma assessment using fundus images are studied. First, two methods for automatic segmentation are proposed. The first method uses the Stochastic Watershed transformation to segment the optic cup and measures clinical features such as the Cup/Disc ratio and ISNT rule. The second method is a U-Net architecture focused on the optic disc and optic cup segmentation task.
Secondly, automated glaucoma assessment systems using convolutional neural networks (CNNs) are presented. In this approach, different ImageNet-trained models are fine-tuned and used as automatic glaucoma classifiers. These new techniques allow detecting glaucoma without previous segmentation or feature extraction. Moreover, it improves the performance of other state-of-art works.
Thirdly, given the difficulty of getting large amounts of glaucoma-labelled images, this thesis addresses the problem of retinal image synthesis. Two different architectures for image synthesis, the Variational Autoencoder (VAE) and Generative Adversarial Networks (GAN) architectures, were analysed. Using these models, synthetic images that were qualitative and quantitative analysed, reporting state-of-the-art performance, were generated.
Finally, an adversarial model is used to create an alternative automatic glaucoma assessment system. In this part, a semi-supervised learning algorithm was implemented to reach this goal. / The research derived from this doctoral thesis has been supported by the Generalitat Valenciana under the scholarship Santiago Grisolía [GRISOLIA/2015/027]. / Díaz Pinto, AY. (2019). Machine Learning for Glaucoma Assessment using Fundus Images [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/124351
|
37 |
Cenozoic tectonic deformation, thermochronology and exhumation of the Diancang Shan metamorphic massif along Ailao Shan-Red River shear zone, southeastern Tibet, China / Känozoischen tektonischen Deformationen, Thermochronologie und Exhumierung der Diancang Shan metamorphen Massiv entlang Ailao Shan-Red River Scherzone, Südost-Tibet, ChinaCao, Shuyun 03 November 2010 (has links)
No description available.
|
38 |
Verbundene Mikroporosität in Kristallingesteinen / Fallstudie Felslabor GrimselSchild, Maren 04 November 1999 (has links)
No description available.
|
39 |
GIS-basierte Analyse der känozoischen Geodynamik und Mineralisationsgeschichte der östlichen Syntaxis des Himalaya (NW-Yunnan/ VR China) / GIS-based analysis of the Cenozoic geodynamics and mineralisation history of the eastern hinterland of the Himalaya (NW Yunnan/P.R. of China)Wagner, Bianca 06 May 2003 (has links)
No description available.
|
40 |
La validation des acquis de l'expérience, un dispositif transformateur : le secteur social et médico-social en exemple / The accreditation of previous learning, a transformer device : the social and medical-social sector in exampleSabasch, Francelise 12 June 2014 (has links)
Nous considérons que tout individu a une expérience à produire. Mais quel usage en fait-il ? La Validation des acquis de l’expérience propose ainsi de faire un retour de son expérience par une approche réflexive. Néanmoins, ne devons-nous pas nous interroger sur l’intérêt pour un être humain de s’engager dans un processus aussi long, aussi rigoureux et aussi générateur de changements ? Nous servir d’un ensemble de repères historiques, juridiques, philosophiques et de recherches scientifiques (en Sciences de l’éducation, en Sociologie), nous a paru être fondamental pour pouvoir mieux cerner la validité et la légitimité d’un dispositif comme celui de la Validation des acquis de l’expérience dans les pratiques professionnelles, en l’occurrence dans le secteur social et médico-social. L’objectif principal de cette étude qualitative et empirique est de mettre en exergue les effets transformateurs du dispositif de la Validation des acquis de l’expérience aussi bien sur les candidats que sur les autres acteurs. Nous avons ainsi, analysé les données inscrites dans le journal de bord au cours de l’observation in situ, et celles issues des 20 entretiens semi-directifs. Les résultats de cette recherche montrent la nécessité de concevoir le travail social et médico-social, à partir d’un processus de changement inéluctable, s’opérant chez le candidat à la Validation des acquis de l’expérience, tout en modifiant aussi bien, le fonctionnement institutionnel, que le positionnement des autres acteurs qui le composent. / Every individual has benefitted from some kind of experience (professional or personal).The question is what does one draw from experience ? The Accreditation of previous learning proposes an approach that evaluates this previous experience using a set of historic, legal and philosophical markers. Within the Accreditation of previous learning framework, it is possible to assess the validity and the legitimacy of an action plan concerning professional practices. My dissertation applies this approach to the social and medical-social sector. The Accreditation of previous learning could be considered as a relatively recent training system which could eventually influence other types of training courses and the actors involved in them.The main objective of this qualitative and empirical study is to highlight the effects of the Accreditation of previous learning plan on the candidates as well as on other actors. I analysed the data recorded in the logbook during in situ observation, and the result of twenty semi-directive interviews. The research results show the necessity of designing social and medical-social work, from the perspective of a process of inevitable change, taking place in the candidate’s for the Accreditation of previous learning, and of modifying the way social and medical-social institutions work as well as the way actors participate in them. / Consideramos que todo individuo tiene una experiencia que aplicar. Pero ¿ cómo lo hace ? El Procedimiento de evaluación y acreditación de las competencias profesionales (P.E.A.C) implica dar una vuelta por un enfoque reflexivo de la experiencia. Sin embargo, ¿ no deberíamos interrogarnos sobre el interés que pueda tener un ser humano en embarcarse en un proceso tan largo, tan riguroso y que genera tantos cambios? Servirnos de un conjunto de indicaciones históricas, jurídicas y filosóficas y de investigaciones científicas (en Ciencias de la Educación, en Sociología), nos apareció fundamental para poder cercar mejor la validez y la legitimidad de un dispositivo como el del P.E.A.C en las prácticas profesionales, en este caso en el sector social y médico social.El objetivo principal de este estudio cualitativo y empírico es poner de relieve los efectos transformadores del dispositivo del P.E.A.C tanto sobre los candidatos como sobre otros actores. De este modo, hemos analizando los datos del diario de abordo en el transcurso de la observación in situ, y los obtenidos de las veinte entrevistas a subdirectivos. Los resultados de esta investigación muestran la necesidad de concebir el trabajo social y médico social a través de un proceso de cambio ineluctable que se produce en el candidato del P.E.A.C, modificando no solamente el funcionamiento institucional, sino el posicionamiento de otros actores que intervienen.
|
Page generated in 0.0534 seconds