• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • Tagged with
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Boksamtal ur ett tvärspråkligt perspektiv : Modersmålets betydelse för läsförståelsen i undervisningen av svenska som andraspråk / Discussions of literature from a cross-linguistic perspective : The importance of the mother tongue for reading comprehension in the teaching of Swedish as a second language

Bengtson, Linnea, Gustafsson, Anna January 2022 (has links)
Syftet med denna studie är att undersöka hur ett tvärspråkligt angreppssätt vid läsning av en novell kan ge eleverna en djupare förståelse för det skönlitterära verket, där läsning på modersmålet är den oberoende variabeln. Denna kvasiexperimentella studie genomfördes i en klass i ämnet Svenska som andraspråk nationell delkurs 4 och utformades som ett boksamtal. Studien besvaras primärt genom hypotesprövning. I den kvantitativa jämförelsen, som baseras på en kvalitativ analys utifrån Xenia Hadjioannou och Jane S. Townsends (2015) etnografiska diskursanalys, undersöker vi det bakomliggande motivet till deltagarnas yttranden (drag). För att få en djupare förståelse för boksamtalen genomfördes även semideltagande observationer samt en avslutande enkätundersökning. I den inledande kvalitativa analysen samt under observationerna kan en skillnad mellan grupperna observeras där gruppen som fick läsa novellen på både sitt första- och andraspråk uppvisar en djupare förståelse för novellen. Däremot visar den efterföljande kvantitativa hypotesprövningen inte ett statistiskt signifikant resultat varav resultatet inte kan generaliseras till populationen. Trots att studiens nollhypotes inte kan förkastas tyder studiens kvalitativa resultat på att andraspråkslärare bör använda sig av boksamtal i undervisningen samt ge eleverna möjlighet till läsning på sitt modersmål för att, om inte annat, bejaka elevernas tidigare erfarenheter.
2

Word embeddings for monolingual and cross-language domain-specific information retrieval / Ordinbäddningar för enspråkig och tvärspråklig domänspecifik informationssökning

Wigder, Chaya January 2018 (has links)
Various studies have shown the usefulness of word embedding models for a wide variety of natural language processing tasks. This thesis examines how word embeddings can be incorporated into domain-specific search engines for both monolingual and cross-language search. This is done by testing various embedding model hyperparameters, as well as methods for weighting the relative importance of words to a document or query. In addition, methods for generating domain-specific bilingual embeddings are examined and tested. The system was compared to a baseline that used cosine similarity without word embeddings, and for both the monolingual and bilingual search engines the use of monolingual embedding models improved performance above the baseline. However, bilingual embeddings, especially for domain-specific terms, tended to be of too poor quality to be used directly in the search engines. / Flera studier har visat att ordinbäddningsmodeller är användningsbara för många olika språkteknologiuppgifter. Denna avhandling undersöker hur ordinbäddningsmodeller kan användas i sökmotorer för både enspråkig och tvärspråklig domänspecifik sökning. Experiment gjordes för att optimera hyperparametrarna till ordinbäddningsmodellerna och för att hitta det bästa sättet att vikta ord efter hur viktiga de är i dokumentet eller sökfrågan. Dessutom undersöktes metoder för att skapa domänspecifika tvåspråkiga inbäddningar. Systemet jämfördes med en baslinje utan inbäddningar baserad på cosinuslikhet, och för både enspråkiga och tvärspråkliga sökningar var systemet som använde enspråkiga inbäddningar bättre än baslinjen. Däremot var de tvåspråkiga inbäddningarna, särskilt för domänspecifika ord, av låg kvalitet och gav för dåliga resultat för direkt användning inom sökmotorer.
3

Task-agnostic knowledge distillation of mBERT to Swedish / Uppgiftsagnostisk kunskapsdestillation av mBERT till svenska

Kina, Added January 2022 (has links)
Large transformer models have shown great performance in multiple natural language processing tasks. However, slow inference, strong dependency on powerful hardware, and large energy consumption limit their availability. Furthermore, the best-performing models use high-resource languages such as English, which increases the difficulty of using these models for low-resource languages. Research into compressing large transformer models has been successful, using methods such as knowledge distillation. In this thesis, an existing task-agnostic knowledge distillation method is employed by using Swedish data for distillation of mBERT models further pre-trained on different amounts of Swedish data, in order to obtain a smaller multilingual model with performance in Swedish competitive with a monolingual student model baseline. It is shown that none of the models distilled from a multilingual model outperform the distilled Swedish monolingual model on Swedish named entity recognition and Swedish translated natural language understanding benchmark tasks. It is also shown that further pre-training mBERT does not significantly affect the performance of the multilingual teacher or student models on downstream tasks. The results corroborate previously published results showing that no student model outperforms its teacher. / Stora transformator-modeller har uppvisat bra prestanda i flera olika uppgifter inom naturlig bearbetning av språk. Men långsam inferensförmåga, starkt beroende av kraftfull hårdvara och stor energiförbrukning begränsar deras tillgänglighet. Dessutom använder de bäst presterande modellerna högresursspråk som engelska, vilket ökar svårigheten att använda dessa modeller för lågresursspråk. Forskning om att komprimera dessa stora transformatormodeller har varit framgångsrik, med metoder som kunskapsdestillation. I denna avhandling används en existerande uppgiftsagnostisk kunskapsdestillationsmetod genom att använda svensk data för destillation av mBERT modeller vidare förtränade på olika mängder svensk data för att få fram en mindre flerspråkig modell med prestanda på svenska konkurrerande med en enspråkig elevmodell baslinje. Det visas att ingen av modellerna destillerade från en flerspråkig modell överträffar den destillerade svenska enspråkiga modellen på svensk namngiven enhetserkännande och svensk översatta naturlig språkförståelse benchmark uppgifter. Det visas också att ytterligare förträning av mBERTpåverkar inte väsentligt prestandan av de flerspråkiga lärar- eller elevmodeller för nedströmsuppgifter. Resultaten bekräftar tidigare publicerade resultat som visar att ingen elevmodell överträffar sin lärare.
4

Multilingual Speech Emotion Recognition using pretrained models powered by Self-Supervised Learning / Flerspråkig känsloigenkänning från tal med hjälp av förtränade tal-modeller baserat på själv-övervakad Inlärning

Luthman, Felix January 2022 (has links)
Society is based on communication, for which speech is the most prevalent medium. In day to day interactions we talk to each other, but it is not only the words spoken that matters, but the emotional delivery as well. Extracting emotion from speech has therefore become a topic of research in the area of speech tasks. This area as a whole has in recent years adopted a Self- Supervised Learning approach for learning speech representations from raw speech audio, without the need for any supplementary labelling. These speech representations can be leveraged for solving tasks limited by the availability of annotated data, be it for low-resource language, or a general lack of data for the task itself. This thesis aims to evaluate the performances of a set of pre-trained speech models by fine-tuning them in different multilingual environments, and evaluating their performance thereafter. The model presented in this paper is based on wav2vec 2.0 and manages to correctly classify 86.58% of samples over eight different languages and four emotional classes when trained on those same languages. Experiments were conducted to garner how well a model trained on seven languages would perform on the one left out, which showed that there is quite a large margin of similarity in how different cultures express vocal emotions, and further investigations showed that as little as just a few minutes of in-domain data is able to increase the performance substantially. This shows promising results even for niche languages, as the amount of available data may not be as large of a hurdle as one might think. With that said, increasing the amount of data from minutes to hours does still garner substantial improvements, albeit to a lesser degree. / Hela vårt samhälle är byggt på kommunikation mellan olika människor, varav tal är det vanligaste mediet. På en daglig basis interagerar vi genom att prata med varandra, men det är inte bara orden som förmedlar våra intentioner, utan även hur vi uttrycker dem. Till exempel kan samma mening ge helt olika intryck beroende på ifall den sägs med ett argt eller glatt tonfall. Talbaserad forskning är ett stort vetenskapligt område i vilket talbaserad känsloigenkänning vuxit fram. Detta stora tal-område har under de senaste åren sett en tendens att utnyttja en teknik kallad själv-övervakad inlärning för att utnyttja omärkt ljuddata för att lära sig generella språkrepresentationer, vilket kan liknas vid att lära sig strukturen av tal. Dessa representationer, eller förtränade modeller, kan sedan utnyttjas som en bas för att lösa problem med begränsad tillgång till märkt data, vilket kan vara fallet för sällsynta språk eller unika uppgifter. Målet med denna rapport är att utvärdera olika applikationer av denna representations inlärning i en flerspråkig miljö genom att finjustera förtränade modeller för känsloigenkänning. I detta syfte presenterar vi en modell baserad på wav2vec 2.0 som lyckas klassifiera 86.58% av ljudklipp tagna från åtta olika språk över fyra olika känslo-klasser, efter att modellen tränats på dessa språk. För att avgöra hur bra en modell kan klassifiera data från ett språk den inte tränats på skapades modeller tränade på sju språk, och evaluerades sedan på det språk som var kvar. Dessa experiment visar att sättet vi uttrycker känslor mellan olika kulturer är tillräckligt lika för att modellen ska prestera acceptabelt även i det fall då modellen inte sett språket under träningsfasen. Den sista undersökningen utforskar hur olika mängd data från ett språk påverkar prestandan på det språket, och visar att så lite som endast ett par minuter data kan förbättra resultet nämnvärt, vilket är lovande för att utvidga modellen för fler språk i framtiden. Med det sagt är ytterligare data att föredra, då detta medför fortsatta förbättringar, om än i en lägre grad.
5

Länge leve livet : En lexikal typologisk studie om begreppet LIV med hjälp av en bibelkorpus / Long live life : A lexical typological study about the concept of LIFE using a Bible corpus

Ardabili-Farshi, Daniel R. January 2022 (has links)
Det här är en lexikal typologisk pilotstudie som undersöker begreppet LIV i elva olika språk. Huvudmaterialet består av texter från Bibeln, Nya testamentet. Studien utgår ifrån de koine-grekiska lexemen för liv, ζωή (zōḗ), ψυχή (psūkhḗ) och βῐ́ος (bíos). Uti- från huvudmaterial från parallelltexterna har probabilistiska semantiska kartor skapats genom multidimensionell skalering för varje språk och har analyserats med partitio- ning around medoids pam(). Resultatet visar på två intressanta fenomen. För det förs- ta har zōḗ översatts mest enhetligt. psūkhḗ och bíos översätts på ett mer varierande sätt i det flesta språken där fler olika lexem har använts och det här tyder på att deras be- tydelse är mer varierad. De koine-grekiska lexemen bildar en konceptuell struktur, vilket innebär att de olika koncepten för LIV inordnas efter en snävare och bredare be- tydelse. För det andra, visar resultatet även att språken anpassar sitt vokabulär för att efterliknar denna struktur. Det visar sig tydligast i språk med flera lexem för LIV samt hur de används för att översätta de tre koine-grekiska lexemen. / This is a lexical typological pilot study that examines the concept of LIFE in eleven different languages. The main material consists of texts retrieved from the Bible, the New Testament. The study is based on the Koine-Greek lexemes for life, ζωή (zōḗ), ψυχή (psūkhḗ) and βῐ́ος (bíos). Probabilistic semantic maps have been created through multidimensional scaling for each language and have been analyzed with partitioning around medoids pam(). The results show two interesting phenomena. Firstly, zōḗ has been translated most consistently. psūkhḗ and bíos have been translated with more va- riation in most languages where several different lexemes have been used, and this indicates that their meaning is more varied. The Koine-Greek lexemes form a concep- tual structure, which means that the various concepts of LIFE is arranged according to a narrower and broader meaning. Secondly the results also show that the languages adapt their vocabulary to mimic this structure, it is most evident in languages with several lexemes for LIFE and how they are used to translate the three Koine-Greek lexemes.

Page generated in 0.0808 seconds