• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 9
  • 9
  • 5
  • 4
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 194
  • 70
  • 61
  • 57
  • 57
  • 43
  • 40
  • 40
  • 39
  • 36
  • 36
  • 36
  • 32
  • 28
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

A compactness result for the div-curl system with inhomogeneous mixed boundary conditions for bounded Lipschitz domains and some applications

Pauly, Dirk, Skrepek, Nathanael 04 June 2024 (has links)
For a bounded Lipschitz domain with Lipschitz interface we show the following compactness theorem: Any L2-bounded sequence of vector fields with L2-bounded rotations and L2-bounded divergences as well as L2-bounded tangential traces on one part of the boundary and L2-bounded normal traces on the other part of the boundary, contains a strongly L2-convergent subsequence. This generalises recent results for homogeneous mixed boundary conditions in Bauer et al. (SIAM J Math Anal 48(4):2912-2943, 2016) Bauer et al. (in: Maxwell’s Equations: Analysis and Numerics (Radon Series on Computational and Applied Mathematics 24), De Gruyter, pp. 77-104, 2019). As applications we present a related Friedrichs/Poincaré type estimate, a div-curl lemma, and show that the Maxwell operator with mixed tangential and impedance boundary conditions (Robin type boundary conditions) has compact resolvents.
162

„The Vectorian“ – Eine parametrisierbare Suchmaschine für intertextuelle Referenzen

Liebl, Bernhard, Burghardt, Manuel 20 June 2024 (has links)
No description available.
163

Dynamic Student Embeddings for a Stable Time Dimension in Knowledge Tracing

Tump, Clara January 2020 (has links)
Knowledge tracing is concerned with tracking a student’s knowledge as she/he engages with exercises in an (online) learning platform. A commonly used state-of-theart knowledge tracing model is Deep Knowledge Tracing (DKT) which models the time dimension as a sequence of completed exercises per student by using a Long Short-Term Memory Neural Network (LSTM). However, a common problem in this sequence-based model is too much instability in the time dimension of the modelled knowledge of a student. In other words, the student’s knowledge on a skill changes too quickly and unreliably. We propose dynamic student embeddings as a stable method for encoding the time dimension of knowledge tracing systems. In this method the time dimension is encoded in time slices of a fixed size, while the model’s loss function is designed to smoothly align subsequent time slices. We compare the dynamic student embeddings to DKT on a large-scale real-world dataset, and we show that dynamic student embeddings provide a more stable knowledge tracing while retaining good performance. / Kunskapsspårning handlar om att modellera en students kunskaper då den arbetar med uppgifter i en (online) lärplattform. En vanlig state-of-the-art kunskapsspårningsmodell är Deep Knowledge Tracing (DKT) vilken modellerar tidsdimensionen som en sekvens av avslutade uppgifter per student med hjälp av ett neuronnät kallat Long Short-Term Memory Neural Network (LSTM). Ett vanligt problem i dessa sekvensbaserade modeller är emellertid en för stor instabilitet i tidsdimensionen för studentens modellerade kunskap. Med andra ord, studentens kunskaper förändras för snabbt och otillförlitligt. Vi föreslår därför Dynamiska Studentvektorer som en stabil metod för kodning av tidsdimensionen för kunskapsspårningssystem. I denna metod kodas tidsdimensionen i tidsskivor av fix storlek, medan modellens förlustfunktion är utformad för att smidigt justera efterföljande tidsskivor. I denna uppsats jämför vi de Dynamiska Studentvektorer med DKT i en storskalig verklighetsbaserad dataset, och visar att Dynamiska Studentvektorer tillhandahåller en stabilare kunskapsspårning samtidigt som prestandan bibehålls.
164

Clustering of Distributed Word Representations and its Applicability for Enterprise Search

Korger, Christina 04 October 2016 (has links) (PDF)
Machine learning of distributed word representations with neural embeddings is a state-of-the-art approach to modelling semantic relationships hidden in natural language. The thesis “Clustering of Distributed Word Representations and its Applicability for Enterprise Search” covers different aspects of how such a model can be applied to knowledge management in enterprises. A review of distributed word representations and related language modelling techniques, combined with an overview of applicable clustering algorithms, constitutes the basis for practical studies. The latter have two goals: firstly, they examine the quality of German embedding models trained with gensim and a selected choice of parameter configurations. Secondly, clusterings conducted on the resulting word representations are evaluated against the objective of retrieving immediate semantic relations for a given term. The application of the final results to company-wide knowledge management is subsequently outlined by the example of the platform intergator and conceptual extensions."
165

Extractive Multi-document Summarization of News Articles

Grant, Harald January 2019 (has links)
Publicly available data grows exponentially through web services and technological advancements. To comprehend large data-streams multi-document summarization (MDS) can be used. In this research, the area of multi-document summarization is investigated. Multiple systems for extractive multi-document summarization are implemented using modern techniques, in the form of the pre-trained BERT language model for word embeddings and sentence classification. This is combined with well proven techniques, in the form of the TextRank ranking algorithm, the Waterfall architecture and anti-redundancy filtering. The systems are evaluated on the DUC-2002, 2006 and 2007 datasets using the ROUGE metric. Where the results show that the BM25 sentence representation implemented in the TextRank model using the Waterfall architecture and an anti-redundancy technique outperforms the other implementations, providing competitive results with other state-of-the-art systems. A cohesive model is derived from the leading system and tried in a user study using a real-world application. The user study is conducted using a real-time news detection application with users from the news-domain. The study shows a clear favour for cohesive summaries in the case of extractive multi-document summarization. Where the cohesive summary is preferred in the majority of cases.
166

b-divisors on toric and toroidal embeddings

Botero, Ana María 11 August 2017 (has links)
In dieser Dissertation entwickeln wir eine Schnittheorie von torischen bzw. toroidalen b-Divisoren auf torischen bzw. toroidalen Einbettungen. Motiviert wird dies durch das Ziel, eine arithmetische Schnittheorie auf gemischten Shimura- Varietäten von nicht-kompaktem Typ zu begründen. Die bisher zur Verfügung stehenden Werkzeuge definieren keine numerischen Invarianten, die birational invariant sind. Zuerst definieren wir torische b-Divisoren auf torischen Varietäten und einen Integrabilitätsbegriff für solche Divisoren. Wir zeigen, dass torische b-Divisoren unter geeigneten Annahmen an die Positivität integrierbar sind und dass ihr Grad als das Volumen einer konvexen Menge gegeben ist. Außerdem zeigen wir, dass die Dimension des Vektorraums der globalen Schnitte eines torischen b-Divisors, der nef ist, gleich der Anzahl der Gitterpunkte in besagter konvexer Menge ist und wir geben eine Hilbert–Samuel-Formel für das asymptotische Wachstum dieser Dimension. Dies verallgemeinert klassische Resultate für klassische torische Divisoren auf torischen Varietäten. Als ein zusätzliches Resultat setzen wir konvexe Mengen, die von torischen b-Divisoren kommen, mit Newton–Okounkov- Körpern in Beziehung. Anschließend definieren wir toroidale b-Divisoren auf toroidalen Varietäten und einen Integrierbarkeitsbegriff für solche Divisoren. Wir zeigen, dass unter geeigneten Positivitätsannahmen toroidale b-Divisoren integrierbar sind und ihr Grad als ein Integral bezüglich eines Grenzmaßes aufgefasst werden kann. Dieses Grenzmaß ist ein schwacher Grenzwert von diskreten Maßen, deren Gewichte über tropische Schnittheorie auf rationalen konischen polyedrischen Komplexen definiert sind, welche zu der toroidalen Varietät gehören. Wir setzen dieses Grenzmaß ebenfalls in Beziehung zum zu einem konvexen Körper assoziierten Flächeninhaltsmaß. Diese Beziehung erlaubt es uns, Integrale bezüglich des Grenzmaßes explizit auszurechnen. Zusätzlich erhalten wir eine kanonische Zerlegung der Differenz zweier konvexer Mengen und eine Beziehung zwischen das Volumen von den Teilen und tropische Schnittheoretische Mengen. Schließlich berechnen wir als Anwendung den Grad des b-Divisors von Jacobiformen vom Gewicht k und Index m bezüglich der Hauptkongruenzuntergruppe zum Level N >= 3 auf der verallgemeinerten universellen elliptischen Kurve und wir zeigen, dass der b-divisoriale Ansatz gegenüber lediglich einer kanonischen Kompaktifizierung Vorteile bietet. / In this thesis we develop an intersection theory of toric and toroidal b-divisors on toric and toroidal embeddings, respectively. Our motivation comes from wanting to establish an arithmetic intersection theory on mixed Shimura varieties of non- compact type. The tools available until now do not define numerical invariants which are birationally invariant. First, we define toric b-divisors on toric varieties and an integrability notion of such divisors. We show that under suitable positivity assumptions toric b- divisors are integrable and that their degree is given as the volume of a convex set. Moreover, we show that the dimension of the space of global sections of a nef toric b-divisor is equal to the number of lattice points in this convex set and we give a Hilbert-Samuel type formula for its asymptotic growth. This generalizes classical results for classical toric divisors on toric varieties. As a by-product, we relate convex sets arising from toric b-divisors with Newton-Okounkov bodies. Then, we define toroidal b-divisors on toroidal varieties and an integrability notion of such divisors. We show that under suitable positivity assumptions toroidal b-divisors are integrable and that their degree is given as an integral with respect to a limit measure, which is a weak limit of discrete measures whose weights are defined via tropical intersection theory on the rational con- ical polyhedral complex attached to the toroidal variety. We also relate this limit measure with the surface area measure associated to a convex body. This relation enables us to compute integrals with respect to these limit measures ex- plicitly. Additionally, we give a canonical decomposition of the difference of two convex sets and we relate the volume of the pieces to tropical top intersection numbers. Finally, as an application, we compute the degree of the b-divisor of Jacobi forms of weight k and index m with respect to the principal congruence subgroup of level N >= 3 on the generalized universal elliptic curve and we show that it is meaningful to consider the b-divisorial approach instead of just fixing one canonical compactification.
167

Um analisador sintático neural multilíngue baseado em transições

Costa, Pablo Botton da 24 January 2017 (has links)
Submitted by Ronildo Prado (ronisp@ufscar.br) on 2017-08-23T18:26:08Z No. of bitstreams: 1 DissPBC.pdf: 1229668 bytes, checksum: 806b06dd0fbdd6a4076384a7d0f90456 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-23T18:26:15Z (GMT) No. of bitstreams: 1 DissPBC.pdf: 1229668 bytes, checksum: 806b06dd0fbdd6a4076384a7d0f90456 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-23T18:26:21Z (GMT) No. of bitstreams: 1 DissPBC.pdf: 1229668 bytes, checksum: 806b06dd0fbdd6a4076384a7d0f90456 (MD5) / Made available in DSpace on 2017-08-23T18:26:28Z (GMT). No. of bitstreams: 1 DissPBC.pdf: 1229668 bytes, checksum: 806b06dd0fbdd6a4076384a7d0f90456 (MD5) Previous issue date: 2017-01-24 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / A dependency parser consists in inducing a model that is capable of extracting the right dependency tree from an input natural language sentence. Nowadays, the multilingual techniques are being used more and more in Natural Language Processing (NLP) (BROWN et al., 1995; COHEN; DAS; SMITH, 2011), especially in the dependency parsing task. Intuitively, a multilingual parser can be seen as vector of different parsers, in which each one is individually trained on one language. However, this approach can be a really pain in the neck in terms of processing time and resources. As an alternative, many parsing techniques have been developed in order to solve this problem (MCDONALD; PETROV; HALL, 2011; TACKSTROM; MCDONALD; USZKOREIT, 2012; TITOV; HENDERSON, 2007) but all of them depends on word alignment (TACKSTROM; MCDONALD; USZKOREIT, 2012) or word clustering, which increases the complexity since it is difficult to induce alignments between words and syntactic resources (TSARFATY et al., 2013; BOHNET et al., 2013a). A simple solution proposed recently (NIVRE et al., 2016a) uses an universal annotated corpus in order to reduce the complexity associated with the construction of a multilingual parser. In this context, this work presents an universal model for dependency parsing: the NNParser. Our model is a modification of Chen e Manning (2014) with a more greedy and accurate model to capture distributional representations (MIKOLOV et al., 2011). The NNparser reached 93.08% UAS in English Penn Treebank (WSJ) and better results than the state of the art Stack LSTM parser for Portuguese (87.93% × 86.2% LAS) and Spanish (86.95% × 85.7% LAS) on the universal dependencies corpus. / Um analisador sintático de dependência consiste em um modelo capaz de extrair a estrutura de dependência de uma sentença em língua natural. No Processamento de Linguagem Natural (PLN), os métodos multilíngues tem sido cada vez mais utilizados (BROWN et al., 1995; COHEN; DAS; SMITH, 2011), inclusive na tarefa de análise de dependência. Intuitivamente, um analisador sintático multilíngue pode ser visto como um vetor de analisadores sintáticos treinados individualmente em cada língua. Contudo, a tarefa realizada com base neste vetor torna-se inviável devido a sua alta demanda por recursos. Como alternativa, diversos métodos de análise sintática foram propostos (MCDONALD; PETROV; HALL, 2011; TACKSTROM; MCDONALD; USZKOREIT, 2012; TITOV; HENDERSON, 2007), mas todos dependentes de alinhamento entre palavras (TACKSTROM; MCDONALD; USZKOREIT, 2012) ou de técnicas de agrupamento, o que também aumenta a complexidade associada ao modelo (TSARFATY et al., 2013; BOHNET et al., 2013a). Uma solução simples surgiu recentemente com a construção de recursos universais (NIVRE et al., 2016a). Estes recursos universais têm o potencial de diminuir a complexidade associada à construção de um modelo multilíngue, uma vez que não é necessário um mapeamento entre as diferentes notações das línguas. Nesta linha, este trabalho apresenta um modelo para análise sintática universal de dependência: o NNParser. O modelo em questão é uma modificação da proposta de Chen e Manning (2014) com um modelo mais guloso e preciso na captura de representações distribuídas (MIKOLOV et al., 2011). Nos experimentos aqui apresentados o NNParser atingiu 93, 08% de UAS para o inglês no córpus Penn Treebank e resultados melhores do que o estado da arte, o Stack LSTM, para o português (87,93% × 86,2% LAS) e o espanhol (86,95% × 85,7% LAS) no córpus UD 1.2.
168

Word Representations and Machine Learning Models for Implicit Sense Classification in Shallow Discourse Parsing

Callin, Jimmy January 2017 (has links)
CoNLL 2015 featured a shared task on shallow discourse parsing. In 2016, the efforts continued with an increasing focus on sense classification. In the case of implicit sense classification, there was an interesting mix of traditional and modern machine learning classifiers using word representation models. In this thesis, we explore the performance of a number of these models, and investigate how they perform using a variety of word representation models. We show that there are large performance differences between word representation models for certain machine learning classifiers, while others are more robust to the choice of word representation model. We also show that with the right choice of word representation model, simple and traditional machine learning classifiers can reach competitive scores even when compared with modern neural network approaches.
169

Etude d'injections de Sobolev critiques dans les espaces d'Orlicz et applications / Study of the critical embedding ofthe lack of Sobolev into the Orlicz spaces and applications

Ben Ayed, Inès 28 December 2015 (has links)
Dans cette thèse, on s'est attaché d'une part à d'écrire le défaut de compacité de l'injection de Sobolev critique dans les différentes classes d'espaces d'Orlicz, et d'autre part à étudier l'équation de Klein-Gordon avec une non-linéarité exponentielle. Ce travail se divise en trois parties. L'objectif de la première partie est de caractériser le défaut de compacité de l'injection de Sobolev de $H^2_{rad}(R^4)$ dans l'espace d'Orlicz $mathcal{L}(R^4)$.Le but de la deuxième partie est double : tout d'abord, on a décrit le défaut de compacité de l'injection de Sobolev de $H^1(R^2)$ dans les différentes classes d'espaces d'Orlicz, ensuite on a étudié une famille d'équations de Klein-Gordon non linéaires à croissance exponentielle. Cette étude inclut à la fois les problèmes d'existence globale, de complétude asymptotique et d'étude qualitative pour le problème de Cauchy associé. La troisième partie est dédiée à l'analyse des solutions de l'équation de Klein-Gordon 2D issues d'une suite de données de Cauchy bornée dans $H^1_{rad}(R^2)times L^2_{rad}(R^2)$. Basée sur les décompositions en profils, cette analyse a été conduite dans le cadre de la norme d'Orlicz / In this thesis, we focused on the one hand on the description of the lack of compactness of the critical Sobolev embedding into different classes of Orlicz spaces, and on the other hand on the study of the nonlinear Klein-Gordon equation with exponential nonlinearity. This work is divided into three parts. The aim of the first part is to characterize the lack of compactness of the Sobolev embedding of $H^2_{rad}(R^4)$ into the Orlicz space $mathcal{L}(R^4)$.The aim of the second part is twofold: firstly, we describe the lack of compactness of the Sobolev embedding of $H^1(R^2)$ into different classes of Orlicz spaces, secondly we investigate a family of nonlinear Klein-Gordon equations with exponential nonlinearity. This study includes both the global existence problem, the asymptotic completeness and the qualitative study for the associated Cauchy problem. The third part is dedicated to the analysis of the solutions to the 2D Klein-Gordon equation associated to a sequence of bounded Cauchy data in $H^1_{rad}(R^2)times L^2_{rad}(R^2)$. Based on the profile decompositions, this analysis was conducted in the framework of Orlicz norm
170

Advanced techniques for domain adaptation in Statistical Machine Translation

Chinea Ríos, Mara 04 March 2019 (has links)
[ES] La Traducción Automática Estadística es un sup-campo de la lingüística computacional que investiga como emplear los ordenadores en el proceso de traducción de un texto de un lenguaje humano a otro. La traducción automática estadística es el enfoque más popular que se emplea para construir estos sistemas de traducción automáticos. La calidad de dichos sistemas depende en gran medida de los ejemplos de traducción que se emplean durante los procesos de entrenamiento y adaptación de los modelos. Los conjuntos de datos empleados son obtenidos a partir de una gran variedad de fuentes y en muchos casos puede que no tengamos a mano los datos más adecuados para un dominio específico. Dado este problema de carencia de datos, la idea principal para solucionarlo es encontrar aquellos conjuntos de datos más adecuados para entrenar o adaptar un sistema de traducción. En este sentido, esta tesis propone un conjunto de técnicas de selección de datos que identifican los datos bilingües más relevantes para una tarea extraídos de un gran conjunto de datos. Como primer paso en esta tesis, las técnicas de selección de datos son aplicadas para mejorar la calidad de la traducción de los sistemas de traducción bajo el paradigma basado en frases. Estas técnicas se basan en el concepto de representación continua de las palabras o las oraciones en un espacio vectorial. Los resultados experimentales demuestran que las técnicas utilizadas son efectivas para diferentes lenguajes y dominios. El paradigma de Traducción Automática Neuronal también fue aplicado en esta tesis. Dentro de este paradigma, investigamos la aplicación que pueden tener las técnicas de selección de datos anteriormente validadas en el paradigma basado en frases. El trabajo realizado se centró en la utilización de dos tareas diferentes de adaptación del sistema. Por un lado, investigamos cómo aumentar la calidad de traducción del sistema, aumentando el tamaño del conjunto de entrenamiento. Por otro lado, el método de selección de datos se empleó para crear un conjunto de datos sintéticos. Los experimentos se realizaron para diferentes dominios y los resultados de traducción obtenidos son convincentes para ambas tareas. Finalmente, cabe señalar que las técnicas desarrolladas y presentadas a lo largo de esta tesis pueden implementarse fácilmente dentro de un escenario de traducción real. / [CAT] La Traducció Automàtica Estadística és un sup-camp de la lingüística computacional que investiga com emprar els ordinadors en el procés de traducció d'un text d'un llenguatge humà a un altre. La traducció automàtica estadística és l'enfocament més popular que s'empra per a construir aquests sistemes de traducció automàtics. La qualitat d'aquests sistemes depèn en gran mesura dels exemples de traducció que s'empren durant els processos d'entrenament i adaptació dels models. Els conjunts de dades emprades són obtinguts a partir d'una gran varietat de fonts i en molts casos pot ser que no tinguem a mà les dades més adequades per a un domini específic. Donat aquest problema de manca de dades, la idea principal per a solucionar-ho és trobar aquells conjunts de dades més adequades per a entrenar o adaptar un sistema de traducció. En aquest sentit, aquesta tesi proposa un conjunt de tècniques de selecció de dades que identifiquen les dades bilingües més rellevants per a una tasca extrets d'un gran conjunt de dades. Com a primer pas en aquesta tesi, les tècniques de selecció de dades són aplicades per a millorar la qualitat de la traducció dels sistemes de traducció sota el paradigma basat en frases. Aquestes tècniques es basen en el concepte de representació contínua de les paraules o les oracions en un espai vectorial. Els resultats experimentals demostren que les tècniques utilitzades són efectives per a diferents llenguatges i dominis. El paradigma de Traducció Automàtica Neuronal també va ser aplicat en aquesta tesi. Dins d'aquest paradigma, investiguem l'aplicació que poden tenir les tècniques de selecció de dades anteriorment validades en el paradigma basat en frases. El treball realitzat es va centrar en la utilització de dues tasques diferents. D'una banda, investiguem com augmentar la qualitat de traducció del sistema, augmentant la grandària del conjunt d'entrenament. D'altra banda, el mètode de selecció de dades es va emprar per a crear un conjunt de dades sintètiques. Els experiments es van realitzar per a diferents dominis i els resultats de traducció obtinguts són convincents per a ambdues tasques. Finalment, cal assenyalar que les tècniques desenvolupades i presentades al llarg d'aquesta tesi poden implementar-se fàcilment dins d'un escenari de traducció real. / [EN] La Traducció Automàtica Estadística és un sup-camp de la lingüística computacional que investiga com emprar els ordinadors en el procés de traducció d'un text d'un llenguatge humà a un altre. La traducció automàtica estadística és l'enfocament més popular que s'empra per a construir aquests sistemes de traducció automàtics. La qualitat d'aquests sistemes depèn en gran mesura dels exemples de traducció que s'empren durant els processos d'entrenament i adaptació dels models. Els conjunts de dades emprades són obtinguts a partir d'una gran varietat de fonts i en molts casos pot ser que no tinguem a mà les dades més adequades per a un domini específic. Donat aquest problema de manca de dades, la idea principal per a solucionar-ho és trobar aquells conjunts de dades més adequades per a entrenar o adaptar un sistema de traducció. En aquest sentit, aquesta tesi proposa un conjunt de tècniques de selecció de dades que identifiquen les dades bilingües més rellevants per a una tasca extrets d'un gran conjunt de dades. Com a primer pas en aquesta tesi, les tècniques de selecció de dades són aplicades per a millorar la qualitat de la traducció dels sistemes de traducció sota el paradigma basat en frases. Aquestes tècniques es basen en el concepte de representació contínua de les paraules o les oracions en un espai vectorial. Els resultats experimentals demostren que les tècniques utilitzades són efectives per a diferents llenguatges i dominis. El paradigma de Traducció Automàtica Neuronal també va ser aplicat en aquesta tesi. Dins d'aquest paradigma, investiguem l'aplicació que poden tenir les tècniques de selecció de dades anteriorment validades en el paradigma basat en frases. El treball realitzat es va centrar en la utilització de dues tasques diferents d'adaptació del sistema. D'una banda, investiguem com augmentar la qualitat de traducció del sistema, augmentant la grandària del conjunt d'entrenament. D'altra banda, el mètode de selecció de dades es va emprar per a crear un conjunt de dades sintètiques. Els experiments es van realitzar per a diferents dominis i els resultats de traducció obtinguts són convincents per a ambdues tasques. Finalment, cal assenyalar que les tècniques desenvolupades i presentades al llarg d'aquesta tesi poden implementar-se fàcilment dins d'un escenari de traducció real. / Chinea Ríos, M. (2019). Advanced techniques for domain adaptation in Statistical Machine Translation [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/117611 / TESIS

Page generated in 0.3033 seconds