• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 5
  • Tagged with
  • 21
  • 12
  • 11
  • 10
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sökfrasanalys på Gula Sidorna

Åsberg, Sanna January 2006 (has links)
<p>Söktjänsten på Gula Sidorna innefattar sökningar på produkter, varor och tjänster och där görs tusentals sökningar varje dag. Enligt Eniro finns en del problem med söktjänsten och syftet med studien är att fastställa vilka dessa problem är och om systemet med språkteknologiska metoder kan förbättra träffarnas relevans, omfattning och rankning.</p><p>Studiens huvudsakliga frågeställning är om det är möjligt att med språkteknologiska metoder förbättra sökningen på Gula Sidorna med avseende på träffarnas relevans och täckning samt rankning av dessa träffar, och vilka språkteknologiska metoder som i så fall mest höjer systemets kvalitet utifrån användningssynpunkt, inom ramarna för företagets intressen.</p><p>Genom lingvistisk analys av en månads sökordssökningar på www.gulasidorna.eniro.se identifierades sju olika problemtyper utifrån hur väl träffarna matchade sökfrasens syntax och semantik. Med bakgrund i systemets existerande struktur och den typ av data som finns lagrad togs ett antal lösningsförslag fram utifrån teorier om språkteknologiska metoder i informationssökningssystem. Sju kortsiktiga och fem långsiktiga lösningar presenterades och dess effekter på prestationen vid en eventuell implementering diskuterades. Med nämnda förbättringsförslag som grund gavs förslag på hur rankningssystemet för Gula Sidorna skulle kunna förbättras.</p><p>Slutsatser som kan dras utifrån resultaten är att de kortsiktiga lösningarna vid implementering bör kunna lösa drygt hälften av de identifierade problemen. Dock krävs vidare studier för att säkerställa att de långsiktiga lösningarna inte orsakar fler problem än de löser.</p>
2

Att synas bland alla andra : En studie om SEO och arbetet för synlighet på sökmotorer / To be seen among all others : A study about SEO and the work with visibility on search engines

Klaesson, Simon, Wulff, Jennifer January 2018 (has links)
The aim of this bachelor’s thesis is to examine how search engine algorithms and the continuous growth of the internet affect the work with search engine optimization and website visibility. By using two complementary methods, one quantitative and one qualitative, consisting of an online survey and interviews, this study investigates SEO company employees’ experiences of working with search engine optimization and their thoughts regarding search algorithms and the internet. The result of this study shows that the continuous growth of the internet is hugely affecting how demanding the work with search engine optimization is. The amount of competition involved in making a website visible among all others is consuming a great amount of resources and time. It also became clear that the search engine algorithms are not really part of the greater problem when it comes to optimizing a website. Rather, the problem lies with the resources it takes to do so. Suggestions are made on what further scientific research is needed around search engine optimization. Foremost there is a lack of studies investigating just how much of an impact the continuous expansion of the internet has on the rivalry among websites to be visible and how much time and resources are needed to keep getting high rankings and visibility for a website.
3

Ärlighet varar längst? -en studie av elevers och lärares syn på fusk i gymnasieskolan

Gjörtler, Johanna, Svensson, Karin January 2004 (has links)
En enkätstudie av elever och lärares syn på fusk i gymnasieskolan. Hur och varför fuskar eleverna? Hur kan man minska fuskandet? Hur hanterar lärarna fusk? Hur påverkar internet plagiering av skolarbeten?
4

Ask.com, Web Wombat och Yahoo : En studie av två globala och en lokal sökmotor. / Ask.com, Web Wombat and Yahoo : A study of two global and one local search engines.

Ekstein, Jonas, Runesson, Christian January 2007 (has links)
This thesis is focusing on how global and local search engines retrieve information from the local domain. The three search engines tested are the global search engines Yahoo, Ask.com and the local search engine Web Wombat. The questions we examined were: which search engine has the best retrieval effectiveness? Could there be other reasons than retrieval effectiveness, to choosing a local search engine?For our test we constructed 20 questions related to Australia.We chose to divide the questions into topics like nature, sports and culture. For all questions we evaluated the relevance of the first 20 hits. We used the following measures in our test: Jaccard´s index, precision and average precision. We also looked at factors such as duplicates and error pages, because we consider this to be an important aspect to consider, when looking at the relevance of the first 20 hits. The results of our study showed that Yahoo had the best performance for precision. Web Wombat had faulty precision but results from Jaccard´s index revealed that Web Wombat had many unique documents. Web Wombat had the best average precision on one of our questions. In spite of Web Wombats faulty precision, we think that Web Wombat serve a purpose as an alternative to global search engines. / Uppsatsnivå: D
5

Optimerad bildsökning : Bör vissa egenskaper prioriteras vid sökning efter en viss kategori av bilder? / Optimized image search : Should certain features be emphasized when searching for a specific image category?

Larsson, Carl January 2009 (has links)
As the information society becomes increasingly flooded with digital images, the need for efficient image retrieval systems increases as well. To handle the vast amounts of data involved, the indexing process needs to be run automatically, using content-based descriptors extracted directly from the digital image, such as colour composition, shape and texture features. These content-based image retrieval systems are often slow and cumbersome, and can appear confusing to an ordinary user who does not understand the underlying mechanisms. One step towards more efficient and user-friendly retrieval systems might be to adjust the weight placed on various descriptors depending on which image category is being searched for. The results of this thesis show that certain categories of digital images would benefit from having extra weight assigned to colour, texture or shape features when searching for images of that category.
6

Evaluering av återvinningseffektiviteten i Svensk Medicin och Google Scholar med medicinska frågor ur Fråga doktorn. / Evaluation of retrieval effectiveness in Svensk Medicin and Google Scholar with medical questions from Fråga doktorn.

Teppo, Anne January 2008 (has links)
The purpose of this thesis is to evaluate and compare the retrieval effectiveness of two search engines on the Internet: Svensk Medicin and Google Scholar. Svensk Medicin is a medicine-specific search engine and Google Scholar specialises in indexing scholarly material. A set of 20 questions in four categories were used to conduct the searches with the search engines. Genuine medical information needs were selected from a question collection provided by the television program Fråga doktorn. The relevance of the first 10 retrieved documents was judged by using a binary scale and the measure used was precision. An analysis on average precision for all the search questions and an average measure was calculated (macro precision). Results for average precision over all the search questions and a mean average precision is also presented (micro precision and map). These measures shows which search engine performs best for single queries and how the relevant documents spread among the displayed results. The occurrence of duplicates and error pages was noted, because they also show how the search engine performs. Svensk Medicin is performing better than Google Scholar on the single queries and Svensk Medicin also retrieves the highest number of relevant documents. Methodology is discussed close since the experimental design affects the result. / Uppsatsnivå: D
7

Classification into Readability Levels : Implementation and Evaluation

Larsson, Patrik January 2006 (has links)
<p>The use for a readability classification model is mainly as an integrated part of an information retrieval system. By matching the user's demands of readability to the documents with the corresponding readability, the classification model can further improve the results of, for example, a search engine. This thesis presents a new solution for classification into readability levels for Swedish. The results from the thesis are a number of classification models. The models were induced by training a Support Vector Machines classifier on features that are established by previous research as good measurements of readability. The features were extracted from a corpus annotated with three readability levels. Natural Language Processing tools for tagging and parsing were used to analyze the corpus and enable the extraction of the features from the corpus. Empirical testings of different feature combinations were performed to optimize the classification model. The classification models render a good and stable classification. The best model obtained a precision score of 90.21\% and a recall score of 89.56\% on the test-set, which is equal to a F-score of 89.88.</p> / <p>Uppsatsen beskriver utvecklandet av en klassificeringsmodell för Svenska texter beroende på dess läsbarhet. Användningsområdet för en läsbaretsklassificeringsmodell är främst inom informationssökningssystem. Modellen kan öka träffsäkerheten på de dokument som anses relevanta av en sökmotor genom att matcha användarens krav på läsbarhet med de indexerade dokumentens läsbarhet. Resultatet av uppsatsen är ett antal modeller för klassificering av text beroende på läsbarhet. Modellerna har tagits fram genom att träna upp en Support Vector Machines klassificerare, på ett antal särdrag som av tidigare forskning har fastslagits vara goda mått på läsbarhet. Särdragen extraherades från en korpus som är annoterad med tre läsbarhetsnivåer. Språkteknologiska verktyg för taggning och parsning användes för att möjliggöra extraktionen av särdragen. Särdragen utvärderades empiriskt i olika särdragskombinationer för att optimera modellerna. Modellerna testades och utvärderades med goda resultat. Den bästa modellen hade en precision på 90,21 och en recall på 89,56, detta ger en F-score som är 89,88. Uppsatsen presenterar förslag på vidareutveckling samt potentiella användningsområden.</p>
8

Sökfrasanalys på Gula Sidorna

Åsberg, Sanna January 2006 (has links)
Söktjänsten på Gula Sidorna innefattar sökningar på produkter, varor och tjänster och där görs tusentals sökningar varje dag. Enligt Eniro finns en del problem med söktjänsten och syftet med studien är att fastställa vilka dessa problem är och om systemet med språkteknologiska metoder kan förbättra träffarnas relevans, omfattning och rankning. Studiens huvudsakliga frågeställning är om det är möjligt att med språkteknologiska metoder förbättra sökningen på Gula Sidorna med avseende på träffarnas relevans och täckning samt rankning av dessa träffar, och vilka språkteknologiska metoder som i så fall mest höjer systemets kvalitet utifrån användningssynpunkt, inom ramarna för företagets intressen. Genom lingvistisk analys av en månads sökordssökningar på www.gulasidorna.eniro.se identifierades sju olika problemtyper utifrån hur väl träffarna matchade sökfrasens syntax och semantik. Med bakgrund i systemets existerande struktur och den typ av data som finns lagrad togs ett antal lösningsförslag fram utifrån teorier om språkteknologiska metoder i informationssökningssystem. Sju kortsiktiga och fem långsiktiga lösningar presenterades och dess effekter på prestationen vid en eventuell implementering diskuterades. Med nämnda förbättringsförslag som grund gavs förslag på hur rankningssystemet för Gula Sidorna skulle kunna förbättras. Slutsatser som kan dras utifrån resultaten är att de kortsiktiga lösningarna vid implementering bör kunna lösa drygt hälften av de identifierade problemen. Dock krävs vidare studier för att säkerställa att de långsiktiga lösningarna inte orsakar fler problem än de löser.
9

NLP i sökmotorer : Informationssökning och språkteknologi / NLP in search engines : Information retrieval and language technology

Friberg, Jens January 2024 (has links)
Sökmotorer har blivit en allt viktigare del i människors informationshantering för att uppfylla olika behov. I en pressad situation ställs detta på sin spets, antingen det rör sig om en akut kris eller bara den moderna människans tidspress. I en sådan situation är det viktigt att enkelt kunna hitta rättinformation.I det här arbetet undersöktes hur tre västsvenska kommuners sökmotorer presterar för användare som försöker hitta tillbaka till ett bestämt dokument, en av kommunens webbsidor. Det var ett tänkt scenario som handlade om användare som redan var bekanta med innehållet, till exempel för attnågon behjälplig bekant läste delar av texten för dem, eller att de hade sidan utskriven från tidigare, eller att användaren hade besökt sidan tidigare och mindes delar av innehållet. Oavsett bakgrund tänktes en situation där informationen blev relevant och användaren var i behov av uppdaterad detaljinformation.Syftet var att jämföra de kommunala sökmotorernas prestation jämfört med en egenkonstruerad sökmotor där NLP-metoder användes. NLP – Natural Language Processing – handlar om attspråkvetenskapliga metoder används i systemutvecklingen. Undersökningen utfördes kvantitativt genom att sätta en poängskala för hur högt upp i sökresultaten den eftersökta webbsidan hamnade. Resultaten visade hur de respektive kommunerna presterade parallellt med resultaten från den egna sökmotorn. Genom att särskilja sökningarna beroende på användningen av olika NLP-metoder (separat eller i kombination) kunde de specifika metodernas effektivitet förtydligas.Resultaten visade tydliga brister hos samtliga av de undersökta kommunernas sökmotorer, medan den NLP-stödda sökmotorn konsekvent presterade bättre. De undersökta kommunernas sökmotorer gav likartade resultat, både gällande den generella prestationen och i fråga om vilka sökord som fungerade bättre samt andra detaljer. Arbetet visade att NLP-metoder kan ge bättre resultat, framför allt på grund av att de kommunala sökmotorerna var bristfälliga. / <p>Opponeringsdatum</p>
10

Classification into Readability Levels : Implementation and Evaluation

Larsson, Patrik January 2006 (has links)
The use for a readability classification model is mainly as an integrated part of an information retrieval system. By matching the user's demands of readability to the documents with the corresponding readability, the classification model can further improve the results of, for example, a search engine. This thesis presents a new solution for classification into readability levels for Swedish. The results from the thesis are a number of classification models. The models were induced by training a Support Vector Machines classifier on features that are established by previous research as good measurements of readability. The features were extracted from a corpus annotated with three readability levels. Natural Language Processing tools for tagging and parsing were used to analyze the corpus and enable the extraction of the features from the corpus. Empirical testings of different feature combinations were performed to optimize the classification model. The classification models render a good and stable classification. The best model obtained a precision score of 90.21\% and a recall score of 89.56\% on the test-set, which is equal to a F-score of 89.88. / Uppsatsen beskriver utvecklandet av en klassificeringsmodell för Svenska texter beroende på dess läsbarhet. Användningsområdet för en läsbaretsklassificeringsmodell är främst inom informationssökningssystem. Modellen kan öka träffsäkerheten på de dokument som anses relevanta av en sökmotor genom att matcha användarens krav på läsbarhet med de indexerade dokumentens läsbarhet. Resultatet av uppsatsen är ett antal modeller för klassificering av text beroende på läsbarhet. Modellerna har tagits fram genom att träna upp en Support Vector Machines klassificerare, på ett antal särdrag som av tidigare forskning har fastslagits vara goda mått på läsbarhet. Särdragen extraherades från en korpus som är annoterad med tre läsbarhetsnivåer. Språkteknologiska verktyg för taggning och parsning användes för att möjliggöra extraktionen av särdragen. Särdragen utvärderades empiriskt i olika särdragskombinationer för att optimera modellerna. Modellerna testades och utvärderades med goda resultat. Den bästa modellen hade en precision på 90,21 och en recall på 89,56, detta ger en F-score som är 89,88. Uppsatsen presenterar förslag på vidareutveckling samt potentiella användningsområden.

Page generated in 0.1107 seconds