• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 5
  • Tagged with
  • 21
  • 12
  • 11
  • 10
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

"Har jag hittat det jag söker efter?" : En kvantitativ och kvalitativ studie kring användares attityder till informationssökning online inför en semesterplanering / “Have I found what I’m looking for?” : A qualitative and quantitative study of users’ attitudes to online information searching ahead of a vacation planning

Duong, Tony, Disayabuttra, Supavadee January 2019 (has links)
Tidigare studier visar på att när en resa planeras används oftast sökmotorer som verktyg för att tillfredsställa de informationsbehov som existerar hos en användare. Det är också bevisat att det upplevs vara problematiskt för användarna att särskilja på vad som är relevant information. Den här studien undersöker användarens upplevelser samt attityder till informationssökning online. Är dagens användare nöjda med hur sökresultaten presenteras i dagsläget i dess semesterplanering? I studien genomförs en enkätundersökning på Arlanda flygplats med 121 respondenter samt intervjuer. Vidare deltog även fem informanter som beskriver sina upplevelser och sökbeteenden. Resultatet visar på att majoriteten av respondenterna är nöjda med sökresultatet från sin informationssökning där deras upplevelser av användningen av sökmotorer riktar sig mot det positivare hållet. / Research has shown that when a travel is being planned, users tend to use search engines in order to satisfy their need for information. It has also been proven that problems occur when users must distinguish which information that is relevant. This study examines users’ attitudes to searching of information with the use of search engines prior to an outbound trip. In this study, a survey is conducted at Arlanda Airport with 121 respondents participating. Furthermore, five informants partook in an interview where they would elaborate their experiences as well as search behaviors. The results indicate that the majority of our participants are satisfied with the search results presented today. The participants also showed a positive attitude towards the user experience.
12

Combining output from MS-based proteomics search engines using spectrum predictors / Sammanvägning av resultat från sökmotorer för masspektrometribaserad proteomik medels spektrumprediktorer

Hadd, William January 2022 (has links)
Masspektrometri (MS) är en analysmetod som indikerar provers kemiska sammansättning. Provernas innehåll fragmenteras och joniseras, varefter jonernas förhållande mellan massa och laddning (m/z) och sammanlagda intensiteter mäts i form av ett masspektrum. Tandem-masspektrometri (MS/MS eller MS2) innebär att prover utsätts för MS i två omgångar, där den första resulterar i s.k precursor-joner med skilda m/z och den följande MS omgången analyserar masspektrum från varje precursor-jon. MS2 leder till masspektrum med hög upplösning vilket är användbart vid analys av komplexa prover. Proteinsammansättning i biologiska prover är ett exempel på en typ av vetenskapligt- och kliniskt viktig provtyp samt en mycket komplex sådan. Analysmetoder där MS2 används för sådan analys kallas shotgun-proteomik, vilka tar hänsyn till det extremt stora antalet möjliga peptider genom att använda specifika algoritmer för databehandling. Målet är att identifiera peptid-spektrum matchningar (PSMs), d.v.s att uppskatta vilka peptider som gett upphov till de observerade MS2-spektrumen. I detta syfte används sökmotorer som uppskattar vilka peptider som bäst matchar de precursor-jonerna som för varje MS-spektrum, och bibliotekssökning där MS2-spektrum jämförs med dokumenterade MS2-spektrum som härstammar från diverse peptider för att hitta bäst matchning. I detta projekt utnyttjas en nyligen utvecklad algoritm, en spektrumprediktor, för att skapa en workflow där peptiders masspektrum predikeras utifrån PSMs som hittats av en sökmotor. Därefter jämförs predikerade spektrum med de experimentella spektrumen som användes av sökmotorn, och likheten mellan paren av spektrum räknas ut. Projektet har som mål att kombinera fördelarna med sökmotorer och med bibliotekssökning genom att använda de uträknade likheterna mellan spektrum för att öka antalet PSMs som kan identifieras för den experimentella datan. Genom att använda PSM post-processorn Percolator så kan den uträknade likheten mellan par av spektrum leda till fler PSM-identifikationer då likheten implementeras som features i Percolator. Resultaten av detta visar att Percolator kan identifiera PSMs utifrån features baserade på likhet mellan par av spektrum, varav vissa har q-värden under 0.01 och vissa inte kunde identifieras då Percolator användes i kombination med sökmotorn Crux. Om metoden kan förbättras genom att öka den genomsnittliga likheten mellan par av spektrum, samt om fler mått på likhet implementeras, så kan metoden som beskrivs i projektet bidra till att öka antalet PSM-identifikationer utifrån sökmotorresultat. / Mass spectrometry (MS) is an analysis method revealing chemical composition of samples by fragmenting and ionizing the sample contents and measuring the mass-to-charge ratio (m/z) and cumulative intensity of each produced ion as an ion mass spectrum. Tandem mass spectrometry (MS/MS or MS2) uses two round of MS, the first to produce a set of precursor ions with distinct m/z, and then sequentially analyzing the ionization pattern of each precursor ion with a second round of MS. For complex samples, MS2 provides vastly increased ability to resolve the sample contents. Protein contents of biological samples represents both a critically important analysis target and a highly complex sample type. Analysis of such samples using MS2 is known as shotgun proteomics. The vast number of possible peptides in these samples necessitates the use of specialized algorithms when interpreting MS2 results data which aim to find peptide-spectrum matches (PSMs) between spectra and peptides identities. This includes search engines that predict which peptides best match each MS2 precursor ion, as well as library searching which match known peptide spectra to the MS2 spectral data. This project uses a recent advancement in shotgun proteomics, spectrum predictors, in a workflow that predicts peptide fragment spectra based on peptide identities suggested by a search engine, and calculates spectral similarity between the predicted peptide spectra and the experimental spectra which were assigned these peptides. This method aims to combine the strengths of both search engines and library searching, and to use the similarity score between experimental and predicted spectra to increase the number of spectra that can be confidently matched to a peptide identity. This project utilizes the PSM post-processor Percolator to rescore PSMs after introducing predicted spectrum similarity as a feature of the PSMs. The results indicate that the predicted spectrum similarity score is able to identify additional PSMs when used as a Percolator feature, when compared to the default Percolator PSM features. When using a combination of three similarity scores as a Percolator feature set, a number of PSMs are identified with q-values below 0.01 which were not identified by the corresponding Crux followed by Percolator workflow. If the average spectral similarity of predicted- and experimental spectra can be increased, and additional effective similarity scores can be added, this workflow could provide a useful tool for increasing PSM identifications from search engine results.
13

David vs. Goliath : En kvalitativ studie om hur mikroföretag kan använda sökmotorer i sin marknadsföring / David vs. Goliath : A qualitative study about how micro enterprises can use search engines in their marketing

Henriksson, Johannes, Ågehäll, Adam January 2019 (has links)
Titel:                                  David vs. Goliath Författare:                        Henriksson, Johannes & Ågehäll, Adam Institution:                        Linnéuniversitetet, Ekonomihögskolan Program:                           Ekonomprogrammet inriktning Marknadsföring Kurs:                                 Företagsekonomi III – Marknadsföring, Examensarbete, 15hp Handledare:                      Leif Rytting Examinator:                      Kaisa Lund   Syfte:                                 Uppsatsens syfte är att undersöka huruvida mikroföretag kan skapa marknadsfördelar av att implementera Search Engine Marketing. Ytterligare en avsikt är att uppsatsen skall bidra med kunskap kring hur mikroföretag kan stärka sitt varumärke genom Search Engine Marketing.    Metod:                               Kvalitativ studie innehavande en mix mellan induktiv- och deduktiv forskningsansats. Även kallad abduktiv forskningsansats. Den empiriska datan är insamlad genom semi-strukturerade intervjuer bestående av tio respondenter.   Slutsats:                             Sökmotormarknadsföring är en grundkomponent i den digitala marknadsföringen. Mikroföretag skapas möjlighet att konkurrera mot större varumärken genom skapad synlighet. Marknadsföring via en nischad marknad visar sig fördelaktig. En sammanstrålad varumärkesidentitet och varumärkesimage bör avspeglas i content.   Nyckelord:                          Sökmotormarknadsföring, SEO, PPC, Google, mikroföretag, sökmotorer, sociala medier, varumärken.   Fördelning av arbete:         Båda författarna har varit lika delaktiga under alla delar av studien. / Title:                                   David vs. Goliath Authors:                             Henriksson, Johannes & Ågehäll, Adam Institution:                          Linnaeus University, School of Business and Economics Programme:                       Business Administration and Economics, specialization Marketing Course:                               Business Administration III – Marketing, Bachelor Thesis, 15hp Supervisor:                         Leif Rytting Examiner:                           Kaisa Lund   Purpose:                             The purpose of this study is to examine how micro enterprises can create market advantages by implementing Search Engine Marketing. Further intention is that the study will provide knowledge about how micro enterprises can invigorate they brand through Search Engine Marketing.    Method:                              Qualitative study using a mix of both inductive- and deductive research approach. Also known as abductive approach. The empirical data is collected using semi-structured interviews, with ten respondants.   Conclusion:                         Search Engine Marketing is a basic component in digital marketing. Micro enterprises creates the opportunity to compete against larger brands through visibility. Niche marketing is found valueable. A converged brand identity and brand image should be mirrored in content.   Keywords:                          Search engine marketing, SEO, PPC, Google, micro enterprises, search engines, social medias, brands.   Allocation of work:             Both authors have been equally involved in all parts of the thesis.
14

Missbruk av dominerande ställning på marknaden för digitala sökmotorer – en fallstudie av Google Search : En komparativ studie av amerikansk antitrustlagstiftning och europeisk konkurrensrätt / Abuse of Dominance on the Market for Digital Search Engines – A Case Study of Google Search : A Comparative Legal Study of American Antitrust Law and European Competition Law

Blake Elmvall, Alma January 2016 (has links)
Konkurrenslagstiftningarna i USA och EU är ledande på konkurrensområdet i världen idag. Förbudet mot missbruk av dominerande ställning i artikel 102 FEUF och monopolistisk maktposition i section 2 Sherman Act, utgör en central del av de konkurrensrättsliga regelverken i EU och USA. Reglerna delar många likheter, men de skiljer sig åt till viss del angående reglernas syfte, formulering samt hur de tillämpas av konkurrensmyndigheter och domstolar. Den ökande digitaliseringen i samhället, i kombination med teknisk utveckling, har skapat en ny form av marknader, så kallade new economy industries, som skiljer sig åt från traditionella marknader. De nya digitala marknaderna saknar geografiska begränsningar och kännetecknas av innovation som konkurrensmässig drivkraft. Google är den mest använda digitala sökmotorn i EU och USA. Bolaget har varit under utredning av konkurrensmyndigheterna i båda rättsordningar sedan år 2010. Genom att främja sina egna tjänster i sökresultaten, anklagas Google för att hindra konkurrerande aktörer från att beträda marknaden och därmed hämma konkurrensen. Det är första gången som artikel 102 FEUF och section 2 Sherman Act tillämpas på en sökmotor. De traditionella verktyg som konkurrensmyndigheterna använder sig av vid utredningar enligt artikel 102 FEUF och section 2 Sherman Act, går dock inte att applicera tillfredsställande på digitala marknader. De konkurrensrättsliga regelverken i EU och USA har inte anpassats efter de digitala marknadernas särskilda förutsättningar, vilket skapar en osäkerhet kring konkurrensrättens effektivitet. Skillnaderna mellan rättsordningarnas tillämpning av artikel 102 FEUF och section 2 Sherman Act på Googles agerande, grundar sig således främst på de digitala marknadernas särskilda förutsättningar och det osäkra rättsläget. En reformering av de konkurrensrättsliga regelverken i EU och USA är därför nödvändig, för att säkerställa att digitala marknader i framtiden kan regleras ur ett konkurrensrättsligt perspektiv.
15

Att skapa en upplevelse av god svarskvalitet i VAPA

Börjesson, Tim, Kumlin, Filip January 2021 (has links)
Voice-activated personal assistants (VAPA) har på senare tid blivit allt vanligare i dagligt bruk för individer. Då VAPA används som sökmotorer är det viktigt att de kan leverera ett svar som användaren upplever är av god kvalitet. Tidigare studier har genomfört kvantitativa tester för att undersöka svarskvaliteten i VAPA där användarens upplevelse inte tagits hänsyn till. Vi presenterar en studie ämnad för att fylla denna kunskapslucka. Genom en litteraturstudie togs fem grundteman fram, relevans, trovärdighet, läsbarhet, aktualitet och rikhet på innehåll, som ligger till grund för upplevelse av god svarskvalitet. Genom en intervjustudie med nio respondenter har deras upplevelse av VAPAs svarskvalitet undersökts baserat på litteraturstudiens teman. Utkomsten av studien är: (1) Studien visade på ett komplext samband mellan dessa teman, där några teman var beroende av andra teman. (2) Rikhet på innehåll visades ha motsatt effekt i en VAPA jämfört med traditionella sökverktyg, detta då rikheten i VAPA önskades vara kort och koncist snarare än att visa mycket innehåll. (3) I VAPA bör svaren vara i rätt svarsform för den ställda frågan, därmed bör svaren vara enkla, tydliga och inte innehålla onödig information såsom annonser som kan störa användaren i sökandet av ett svar. (4) Svarens trovärdighet är beroende av källornas rykten och användarens kunskap om källan, där vissa användare upplever blind tillit till vissa källor. / Voice-activated personal assistants (VAPA) have recently become more common in daily use for individuals. Because VAPAs are used as search engines, it is important that they can deliver an answer that the user feels is of good quality. Previous studies have conducted quantitative tests to examine the response quality in VAPA where the user experience has not been taken into account. We present a study intended to fill this knowledge gap. Through a literature study, five base themes were developed, relevance, credibility, readability, timeliness and richness of content, which is the basis for the experience of good response quality. Through an interview study with nine respondents, their experience of VAPA's response quality was investigated based on the literature study's themes. The results of the study are: (1) The study showed a complex relationship between these themes, where some themes were dependent on other themes. (2) Richness in content was shown to have the opposite effect in a VAPA compared to traditional search tools, as the richness in VAPA was desired to be short and concise rather than to show a lot of content. (3) The answers in VAPA should be in the correct form of answer for the question asked, thus the answers should be simple, clear and not contain unnecessary information such as advertisements that could disturb the user in the search for the answer. (4) The credibility of the answers depends on the sources' rumors and the user's knowledge of the source, where some users experience blind trust in certain sources.
16

Framtagning av en konceptuell kostnadsmodell för sökmotoroptimerade webbapplikationer : Ett förslag på kostnadsmodell som beskriver uppkomna kostnader utifrån centrala aktiviteter / Development of a conceptual cost model for search engine optimized web applications : An alternative cost model that describes expenses based on key activities

Rosvall, Oliver January 2021 (has links)
Den digitala utvecklingen har förändrat sättet människor kommunicerar och lever sina liv. Idag är det möjligt att boka ett möte, beställa mat eller köpa en resa online. Den moderna människans konsumtionsvanor gör det livsviktigt för företag att etablera en digital närvaro. Som ett resultat av detta väljer allt fler företag att utveckla nya webbapplikationer för att sälja och marknadsföra sina produkter. För att synas finns det idag många olika marknadsföringsstrategier men under de senaste åren har det visat sig vara populärt att använda sig av sökmotorer. Sökmotormarknadsföring kan utföras med hjälp av sökmotoroptimering (SEO) och sökmotorannonsering. Båda metoderna behandlar olika områden som gör att en webbsida syns bland sökresultaten på sökmotorer såsom Google, Yahoo och Bing. Som ett resultat har det blivit vanligt att dessa två metoder används i symbios med varandra för att skapa ett konstant inflöde av användare. Att räkna ut priset för sökmotorannonsering är enkelt eftersom webbägaren betalar ett pris för varje annonsklick. Att räkna ut priset för SEO är något mer komplicerat eftersom kostnaden beror på vilket optimeringsarbete som utförs. Problemet är att det inte finns en känd kostnadsmodell som presenterar uppkomna kostnader vid framtagning och underhåll av en sökmotoroptimerad webbapplikation. Denna rapport syftar därför till att ta fram och presentera en konceptuell kostnadsmodell som ökar förståelsen för uppkomna kostnader vid centrala aktiviteter. Rapportens mål är däremot att ta fram en modell som kan användas av företag, organisationer, forskargrupper och individer för att identifiera och kategorisera uppkomna kostnader vid skapande och underhåll av en sökmotoroptimerad webbapplikation. Framtagandet av den konceptuella kostnadsmodellen genomfördes via en kvalitativ studie vilket innebär att studiens resultat bygger på observationer, upplevelser och sinnesintryck. Insamling av data gjordes med hjälp av en utforskningsmodell som består av två forskningskriterier. Arbetet inleddes med att utforska (1) centrala aktiviteter som påverkar kostnaden och därefter studerades (2) initiala och löpande kostnader. En fallstudie och fyra stycken intervjuer har använts som rapportens forskningsinstrument. De data som samlats in har analyserats med en tematisk analys där samband och olikheter identifieras. Utifrån upptäckterna i analysen skapades sedan en primär kostnadsmodell. Den primära kostnadsmodellen utvärderades med hjälp av arbetets utvärderingsmodell som präglades av tre forskningskriterier. Utvärderingen gjordes med en av intervjupersonerna och fokus låg på att studera hur bra modellen speglar verkligheten. Under intervjun utvärderades modellens övergripande (1) struktur, (2) aktiviteter och (3) kostnadsslag. Resultatet från utvärderingen resulterades sedan i en slutgiltig kostnadsmodell vid namn SEOCM (Search Engine Optimization Cost Model). Modellen tar och beskriver centrala aktiviteter som påverkar tillverkningskostnader och underhållskostnader för en sökmotoroptimerad webbapplikation. / The rise of technology has changed the way people communicate and live their lives. Nowadays, people can book a meeting, order food, or buy a trip online. The change in consumption habits makes it vital for companies to establish a digital presence. As a result, more companies are choosing to develop web applications to sell and market their product. To be visible, there are many different marketing strategies, but in recent years it has proven popular to use search engines. Search engine marketing can be done with search engine optimization (SEO) and search engine advertising. Both methods deal with different areas that make a web application visible on search engines such as Google, Yahoo and Bing. As a result, both methods are usually combined to generate a higher number of visitors. Calculating the price of search engine advertising is easy because the web owner pays a price for each ad clicked. Calculating the price for SEO is somewhat more complicated as the cost depends on the optimization work performed. The problem is that there is no known cost model that presents costs categories during development and maintenance of a search engine optimized web application. This purpose of the report, is therefore, to develop and present a conceptual cost model that demonstrates costs incurred in key activities. The goal of the report, however, is to develop a model that can be used by companies, organizations, research groups, and individuals to identify and categorize the cost incurred in creating a web application that applies search engine optimization. The development of the conceptual cost model has been carried out via a qualitative study, which means that the results are based on observations, experiences, and sensory impressions. Data collection has been done using an exploration model that consists of two research criteria. The work began with exploring (1) key activities that affect the cost and then studied (2) initial and running costs. A case study and four interviews have been used as the report's research instruments. The data collected have been analyzed with a thematic analysis where similarities and differences are identified. Based on the findings, a primary cost model was created. The primary cost model has been evaluated with an evaluation model, which carried three research criteria. The evaluation was made with one of the interviewees and the focus was on studying how well the model reflects reality. During the interview, the model's overall (1) structure, (2) activities, and (3) cost categories were evaluated. The results of the evaluation then resulted in a final cost model called SEOCM (Search Engine Optimization Cost Model). The model captures and describes key activities that affect manufacturing costs and maintenance costs for search engine optimized web applications.
17

Transfer Learning in Deep Structured Semantic Models for Information Retrieval / Kunskapsöverföring mellan datamängder i djupa arkitekturer för informationssökning

Zarrinkoub, Sahand January 2020 (has links)
Recent approaches to IR include neural networks that generate query and document vector representations. The representations are used as the basis for document retrieval and are able to encode semantic features if trained on large datasets, an ability that sets them apart from classical IR approaches such as TF-IDF. However, the datasets necessary to train these networks are not available to the owners of most search services used today, since they are not used by enough users. Thus, methods for enabling the use of neural IR models in data-poor environments are of interest. In this work, a bag-of-trigrams neural IR architecture is used in a transfer learning procedure in an attempt to increase performance on a target dataset by pre-training on external datasets. The target dataset used is WikiQA, and the external datasets are Quora’s Question Pairs, Reuters’ RCV1 and SQuAD. When considering individual model performance, pre-training on Question Pairs and fine-tuning on WikiQA gives us the best individual models. However, when considering average performance, pre-training on the chosen external dataset result in lower performance on the target dataset, both when all datasets are used together and when they are used individually, with different average performance depending on the external dataset used. On average, pre-training on RCV1 and Question Pairs gives the lowest and highest average performance respectively, when considering only the pre-trained networks. Surprisingly, the performance of an untrained, randomly generated network is high, and beats the performance of all pre-trained networks on average. The best performing model on average is a neural IR model trained on the target dataset without prior pre-training. / Nya modeller inom informationssökning inkluderar neurala nät som genererar vektorrepresentationer för sökfrågor och dokument. Dessa vektorrepresentationer används tillsammans med ett likhetsmått för att avgöra relevansen för ett givet dokument med avseende på en sökfråga. Semantiska särdrag i sökfrågor och dokument kan kodas in i vektorrepresentationerna. Detta möjliggör informationssökning baserat på semantiska enheter, vilket ej är möjligt genom de klassiska metoderna inom informationssökning, som istället förlitar sig på den ömsesidiga förekomsten av nyckelord i sökfrågor och dokument. För att träna neurala sökmodeller krävs stora datamängder. De flesta av dagens söktjänster används i för liten utsträckning för att möjliggöra framställande av datamängder som är stora nog att träna en neural sökmodell. Därför är det önskvärt att hitta metoder som möjliggör användadet av neurala sökmodeller i domäner med små tillgängliga datamängder. I detta examensarbete har en neural sökmodell implementerats och använts i en metod avsedd att förbättra dess prestanda på en måldatamängd genom att förträna den på externa datamängder. Måldatamängden som används är WikiQA, och de externa datamängderna är Quoras Question Pairs, Reuters RCV1 samt SquAD. I experimenten erhålls de bästa enskilda modellerna genom att föträna på Question Pairs och finjustera på WikiQA. Den genomsnittliga prestandan över ett flertal tränade modeller påverkas negativt av vår metod. Detta äller både när samtliga externa datamänder används tillsammans, samt när de används enskilt, med varierande prestanda beroende på vilken datamängd som används. Att förträna på RCV1 och Question Pairs ger den största respektive minsta negativa påverkan på den genomsnittliga prestandan. Prestandan hos en slumpmässigt genererad, otränad modell är förvånansvärt hög, i genomsnitt högre än samtliga förtränade modeller, och i nivå med BM25. Den bästa genomsnittliga prestandan erhålls genom att träna på måldatamängden WikiQA utan tidigare förträning.
18

”Jag trivs ändå i min lilla bubbla” – En studie om studenters attityder till personalisering

Hedin, Alice January 2016 (has links)
Denna studie ämnar att undersöka studenters attityder till utvecklingen av personalisering inom webbaserade tjänster och utforska skillnader och likheter mellan studenternas attityder. Studiens empiriska material är insamlat genom fem kvalitativa intervjuer och en webbenkät med 72 respondenter. Studien behandlar fördelar och nackdelar med personalisering, möjligheter att förhindra personalisering och möjliga konsekvenser av personalisering. Majoriteten av studenterna har en positiv attityd till personalisering av webbaserade tjänster. Resultatet visar att studenterna var mest positivt inställda till personalisering av streamingtjänster och minst positiva till personalisering av nyhetstjänster. Jag fann att användare i stor utsträckning inte anser att nyhetstjänster bör vara personaliserade. Det visade sig finnas en tydlig skillnad mellan studenternas kännedom om olika verktyg som kan användas för att förhindra personalisering. Ju mer teknisk utbildning som studenterna läser, desto bättre kännedom hade studenterna om verktygen. Resultatet visade även att en stor del av studenterna önskade att de kunde stänga av personaliseringsfunktionen på tjänster. Personalisering har blivit en naturlig del av användarnas vardag och att majoriteten av användarna inte har tillräcklig kunskap om fenomenet och därför intar de en passiv attityd och undviker att reflektera närmare över personaliseringen och dess möjliga konsekvenser. / This essay aims to study student’s attitudes towards web personalization and explore where the student’s attitudes differ and converge. The empirical materials of the study where assembled by the usage of five qualitative interviews and a quantitative survey with 72 respondents. The study discusses the pros and cons, the ability to constrain web personalization and possible effects and outcomes of web personalization. The majority of the students have a positive attitude towards web personalization. The students were most positive towards personalization of streaming services and least positive towards personalization of media channels that output news. There was an explicit difference between the students’ knowledge of the possibilities to constrain web personalization through the usage of different extensions and tools. Those students who studied a more technical program showed more knowledge of extensions and tools that can be used to prevent or constrain web personalization. The results also showed that the over all students desire more control over web personalization and demand a function where the personalization of web services could be turned off. The study resulted in the findings that web personalization has become a part of the users every-day life and that the students do not have enough knowledge of web personalization which have led to a passive attitude towards it.
19

Semantiska webben och sökmotorer / Semantic web and search engines

Haj-Bolouri, Amir January 2010 (has links)
<p>Den här semantiska webben. Syftet är att undersöka hur den semantiska webben påverkar sökmotorer på webben. Detta sker genom en undersökning av tio olika sökmotorer där nio är semantiskt sådana och den tionde är den mest använda sökmotorn idag. Studien är genomförd som både en deskriptiv och kvantitativ studie. En litteraturundersökning har också genomförts om den semantiska webben och sökmotorer. Slutsatserna av den här studien är att den semantiska webben är mångfacetterad med dess definitioner, och att resultatet kring hur konkreta sökmotorer tillämpar semantiska webbprinciper kan variera beroende vilken sökmotor man interagerar med.Nyckelord: Semantic web, Semantiska webben, Semantik, Informatik, Web 2.0, Internet, Search engines, Sökmotorerthat relates to the semantic web. Therapporten behandlar definitioner av begrepp som är kopplade till denDen här semantiska webben. Syftet är att undersöka hur den semantiska webben påverkar sökmotorer på webben. Detta sker genom en undersökning av tio olika sökmotorer där nio är semantiskt sådana och den tionde är den mest använda sökmotorn idag. Studien är genomförd som både en deskriptiv och kvantitativ studie. En litteraturundersökning har också genomförts om den semantiska webben och sökmotorer. Slutsatserna av den här studien är att den semantiska webben är mångfacetterad med dess definitioner, och att resultatet kring hur konkreta sökmotorer tillämpar semantiska webbprinciper kan variera beroende vilken sökmotor man interagerar med.</p> / <p>This report deals with the definitions and terms main purpose has been to investigate how the semantic web affects search engines on the web. This has been done through an investigation consisting of ten different search engines. Nine of these search engines are considering being semantic search engines, and the last one being the most used one on the web today. The study is conducted as a descriptive and quantitative study. A literature review has also been implemented by the relevant sources about the semantic web and search engines. The conclusions drawn where that the semantic web is multifaceted with its definitions and that the result of how concrete search engines implements semantic web principles can vary depending on which search engine one interacts with.</p>
20

Optimizing Search Engine Field Weights with Limited Data : Offline exploration of optimal field weight combinations through regression analysis / Optimering av sökmotorers fältvikter med begränsad data : Offline-utforskning av optimala fältviktskombinationer genom regressionsanalys

Kader, Zino January 2023 (has links)
Modern search engines, particularly those utilizing the BM25 ranking algorithm, offer a multitude of tunable parameters designed to refine search results. Among these parameters, the weight of each searchable field plays a crucial role in enhancing search outcomes. Traditional methods of discovering optimal weight combinations, however, are often exploratory, demanding substantial time and risking the delivery of substandard results during testing. This thesis proposes a streamlined solution: an ordinal-regression-based model specifically engineered to identify optimal weight combinations with minimal data input, within an offline testing environment. The evaluation corpus comprises a comprehensive snapshot of a product search database from Tradera. The top $100$ search queries and corresponding search results pages on the Tradera platform were divided into a training set and an evaluation set. The model underwent iterative training on the training set, and subsequent testing on the evaluation set, with progressively increasing amounts of labeled data. This methodological approach allowed examining the model's proficiency in deriving high-performance weight combinations from limited data. The empirical experiments conducted confirmed that the proposed model successfully generated promising weight combinations, even with restricted data, and exhibited robust generalization to the evaluation dataset. In conclusion, this research substantiates the significant potential for enhancing search results by tuning searchable field weights using a regression-based model, even in data-scarce scenarios. / Moderna sökmotorer, i synnerhet sådana som använder rankningsalgoritmen BM25, erbjuder en mängd justerbara parametrar utformade för att förbättra sökresultat. Bland dessa parametrar spelar vikten av varje sökbart fält en avgörande roll för att förbättra sökresultaten. Traditionella metoder för att hitta optimala viktkombinationer är dock ofta utforskande, kräver mycket tid och riskerar att ge undermåliga sökresultat under testningsperioden. Denna avhandling föreslår en strömlinjeformad lösning: en ordinal-regressionsbaserad modell specifikt utvecklad för att identifiera optimala viktkombinationer med minimal träningsdata, inom en offline testmiljö. Utvärderingskorpus består av en omfattande ögonblicksbild av en produktsökdatabas från Tradera. De $100$ vanligaste sökfrågorna och motsvarande sökresultatssidor på Traderas plattform delades in i en träningsuppsättning och en utvärderingsuppsättning. Modellen genomgick iterativ träning på träningsuppsättningen, och därefter testning på utvärderingsuppsättningen, med successivt ökande mängder av kategoriserad data. Denna metodologiska strategi möjliggjorde undersökning av modellens förmåga att härleda högpresterande viktkombinationer från begränsad data. De empiriska experimenten som genomfördes bekräftade att den föreslagna modellen framgångsrikt genererade lovande viktkombinationer, även med begränsad data, och uppvisade robust generalisering till utvärderingsdatamängden. Sammanfattningsvis bekräftar denna forskning den betydande potentialen för förbättring av sökresultat genom att justera sökbara fältvikter med hjälp av en regressionsbaserad modell, även i datasnåla scenarion.

Page generated in 0.0659 seconds