• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Heteronormativitet "by the book" : En studie om attraktion och sexuell läggning i skolans läromedel för engelska 5

Elias, Åkerlund January 2019 (has links)
This study examines the representation of different forms of realizations of attraction as an expression of sexual orientation and attitudes in connection to these in two textbooks for the upper secondary school. A constructionistic view and critical discourse analysis create the theoretical basis for the study coupled with quantitative and qualitative methods to answer the research questions. The result shows that realizations of heterosexual expressions are the most common and realizations of other forms of attraction are scarce. However, the attitudes presented in connection to certain heterosexual relationships are not homogenous or entirely unproblematic. The main conclusion that can be drawn from this study is the importance of an active effort to include people of different sexual orientations in textbooks as a part of the Swedish National Agency for Education’s equality goals.
2

JÄMFÖRELSE AV ATTITYDANALYS ALGORITMER FÖR SPELOMDÖMEN / COMPARISON OF SENTIMENT ANALYSIS ALGORITHMS FOR GAME REVIEWS

Gernandt, Niclas, Farhod, Jaser January 2019 (has links)
Idag finns det stora mängder användar-skapat data i form av texter från spelomdömen till åsikter i mikro-bloggar som Twitter. Att analysera detta data kan vara utav värde för både företag och akademisk forskning men är väldigt omfattande. Med hjälp av attitydanalysen kan detta utföras automatiskt och spara resurser, men vilka algoritmer presterar bäst? Med hjälp av en förstudie och ett par kvantitativa tester kunde dem mest populära tillvägagångsätten inom attitydanalysen genom att analysera spelomdömen från plattformen Steam. I testning har det visat sig att maskininlärningsalgoritmer både presterar bättre och är enklare att komma igång i jämförelse med lexikonbaserade algoritmer som knappast uppnår tröskelvärdet för pålitlighet vid klassifikation av omdömen som positiva eller negativa. Men det är fortfarande viktigt anpassa attitydanalysen för just det specifika problemet eftersom båda dessa har sina brister eftersom båda dessa tillvägagångsätt hade en dålig prestation i förhållande till sarkastiska omdömen. / Today there exist a huge amount of user created content in the shape of text from game reviews to opinions in microblogs like Twitter. To analyze this data could be of value for both companies and data scientists but remains to be very daunting. With the help of sentiment analysis this could be achieved automatically and save resources, but the question remains which algorithms have the best performance? With the help of a study and a couple of tests the most popular approaches in sentiment analysis could be compared by analyzing game reviews from the platform Steam. Through testing it has showed that machine learning based algorithms have the best performance and are easier to start with in comparison to lexicon-based approaches, which barely even reach the threshold for reliability in classifying reviews to be positive or negative. But it’s still important to plan and consider which algorithm one chooses for sentiment analysis as both approaches have their flaws and had a weak performance regarding sarcastic reviews.
3

Attitydanalys på ett internetforum med general-purpose-verktyg

Forssner, Mårten, Aldenbäck, Frida January 2022 (has links)
För människor uppstår det ofta problem vid behandling och organisering av stora mängder information. Detta ledde i slutet på 90-talet till att automatiserad textkategorisering började utvecklas. Sedan dess har tillväxten av sociala medier och sociala nätverk på internet ökat explosionsartat. Det senaste årtiondet har en betydande mängd forskning gjorts inom automatiserad textkategorisering. Syftet med denna studie var att undersöka vad som kan påverka hur general-purpose-verktyg för attitydanalys bedömer kommentarer från ett internet- forum. 240 kommentarer samlades in från sex olika forumtrådar på internetforumet Reddit. Attitydanalys utfördes på dessa kommentarer med hjälp av fyra general-purpose-verktyg, och verktygens bedömningar jämfördes sedan med en människas bedömning av samma kommentarer. Genom studien framkom ett antal faktorer som kan ha påverkat hur verktygen bedömde kommentarerna. En faktor var längden på en kommentar: verktygen TextBlob och MeaningCloud hade högre överensstämmelse med människan för korta kommentarer, medan Free Sentiment Analyzer och MonkeyLearn hade högre överensstämmelse för långa kommentarer. Vad en kommentar kategoriserats som var också en faktor: verktygen hade högre överensstämmelse med människan gällande kommentarer som inte tillhörde kategorier jämfört med kommentarer som tillhörde minst en kategori. / When processing and organizing large amounts of information, people tend to encounter problems. This led to the development of automated text categorization in the late 1990s. Since then, the growth of social media and social networks on the Internet has increased exponentially. Over the last decade a substantial amount of research has been conducted on the subject of automated text categorization. The purpose of this study was to investigate what factors may affect how general-purpose tools for sentiment analysis assess attitudes expressed on Internet forums. 240 comments were collected from six different forum threads on the Internet forum Reddit. Sentiment analysis was performed on these comments using four general-purpose tools, and the tools' assessments were then compared with a human’s assessments of the same comments. A number of factors were identified that may have affected how the tools assessed the comments. One factor was the comment length: TextBlob and MeaningClouds assessments were more congruent with the human’s assessments regarding short comments, while Free Sentiment Analyzer and MonkeyLearns assessments were more congruent regarding long comments. Another factor was the categories associated with a comment: all tools had higher congruence with the human’s assessments regarding comments that were not assigned to a category compared to comments that fit the criteria for at least one category.
4

Attitydanalys av svenska produktomdömen – behövs språkspecifika verktyg? / Sentiment Analysis of Swedish Product Reviews – Are Language-specific Tools Necessary?

Glant, Oliver January 2018 (has links)
Sentiment analysis of Swedish data is often performed using English tools and machine. This thesis compares using a neural network trained on Swedish data with a corresponding one trained on English data. Two datasets were used: approximately 200,000 non-neutral Swedish reviews from the company Prisjakt Sverige AB, one of the largest annotated datasets used for Swedish sentiment analysis, and 1,000,000 non-neutral English reviews from Amazon.com. Both networks were evaluated on 11,638 randomly selected reviews, in Swedish and in English machine translation. The test set had the same overrepresentation of positive reviews as the Swedish dataset (84% were positive). The results suggest that English tools can be used with machine translation for sentiment analysis of Swedish reviews, without loss of classification ability. However, the English tool required 33% more training data to achieve maximum performance. Evaluation on the unbalanced test set required extra consideration regarding statistical measures. F1-measure turned out to be reliable only when calculated for the underrepresented class. It then showed a strong correlation with the Matthews correlation coefficient, which has been found to be more reliable. This warrants further investigation into whether the correlation is valid for all different balances, which would simplify comparison between studies. / Attitydanalys av svensk data sker i många fall genom maskinöversättning till engelska för att använda tillgängliga analysverktyg. I den här uppsatsen undersöktes skillnaden mellan användning av ett neuronnät tränat på svensk data och av motsvarande neuronnät tränat på engelsk data. Två datamängder användes: cirka 200 000 icke-neutrala svenska produktomdömen från Prisjakt Sverige AB, en av de största annoterade datamängder som använts för svensk attitydanalys, och 1 000 000 icke-neutrala engelskaproduktomdömen från Amazon.com. Båda versionerna av neuronnätet utvärderades på 11 638 slumpmässigt utvalda svenska produktomdömen, i original och maskinöversatta till engelska. Testmängden hade samma överrepresentation av positiva omdömen som den svenska datamängden (84% positiva omdömen). Resultaten tyder på att engelska verktyg med hjälp av maskinöversättning kan användas för attitydanalys av svenska produktomdömen med bibehållen klassificeringsförmåga, dock krävdes cirka 33% större träningsdata för att det engelska verktyget skulle uppnå maximal klassificeringsförmåga. Utvärdering på den obalanserade datamängden visade sig ställa särskilda krav på de statistiska mått som användes. F1-värde fungerade tillfredsställande endast när det beräknades för den underrepresenterade klassen. Det korrelerade då starkt med Matthews korrelationskoefficient, som tidigare funnits vara ett pålitligare mått. Om korrelationen gäller vid alla olika balanser skulle jämförelser mellan olika studiers resultat underlättas, något som bör undersökas.
5

Multi-Class Emotion Classification for Interactive Presentations : A case study on how emotional sentiment analysis can help end users better convey intended emotion

Andersson, Charlotte January 2022 (has links)
Mentimeter is one of the fastest-growing startups in Sweden. They are an audience engagement platform that allows users to create interactive presentations and engage an audience. As online information spreads increasingly faster, methods of analyzing, understanding, and categorizing information are developing and improving rapidly. Natural Language Processing (NLP) is the ability to break down input, for instance, text or audio, and process it using technologies such as computational linguistics and statistical learning, machine learning, and deep learning models. This thesis aimed to investigate if a tool that applies multi-class emotion classification of text could benefit end users when they are creating presentations using Mentimeter. A case study was conducted where a pre-trained BERT base model that had been fine-tuned and trained to the GoEmotions data set was applied as a tool to Mentimeter’s presentation software and then evaluated by end users. The results found that the tool was accurate; however, overall was not helpful for end users. For future research, improvements such as including emotions/tones that are more related to presentations would make the tool more applicable to presentations and would be helpful according to end users. / Mentimeter är en av Sveriges snabbast växande startupbolag som erbjuder en tjänst där användare kan skapa interaktiva presenationer och engagera sin publik. Medan infomration online sprids allt snabbare utvecklas och förbättras metoder för att kunna analysera, förstå och kategorisera information. Natural Language Processing (NLP) är förmågan att kunna bryta ner indata, som text och ljud, och processera det med hjälp av teknologier som datalingvistik och statistisk inlärnings, maskininlärnings, och djupinlärnings modeller. Syftet med denna uppsats var att undersöka om ett verktyg som applicerar multi-class emotion classification med text skulle gynna användare när de skapar presentation med Mentimeter. En fallstudie utfördes där en förtränad BERT modell som hade finjusterats och tränats på GoEmotions dataset applicerades som ett verktyg på Mentimeters programvara som användare sen fick utvärdera. Resultaten visar att verktyget var motsvarande men övergripande fann användarna att verktyget inte var hjälpsamt. För framtida forskning skulle förbättringar av verktyget som att använda känslor/toner som är mer relterade till presentationer göra verktyget mer hjälpsamt enligt användare.

Page generated in 0.0683 seconds