51 |
Rett til tilgjengelighet : En studie i tilgjengelighet for blinde brukere på offentlige nettsteder i teori og praksis. / The Right to Accessibility : A study of accessibility for blind users on public websites in theory and practical use.Berg, Mats January 2008 (has links)
Forskningen som er blitt gjort i dette arbeidet har vært rettet mot tilgjengelighet for blinde brukere på offentlige nettsteder. For å få svar på forskningspørsmålet har det blitt gjennomført manuelle tester av en del nettsteder samt brukertesting med blinde brukere. I tillegg har resultatene fra dette arbeidet blitt vurdert i mot resultatene fra Norge.no sin kvalitetsvurdering av offentlige nettsteder. Dette har blitt gjort for å få finne ut om det er samsvar mellom tilgjengelighet i praksis og teori. I den manuelle testingen ble nettstedene sjekket for korrekt bruk av HTML 4.01, CSS 2.1 og WCAG 1.0. Dette var blant annet for å avdekke forhold rundt retningslinjene for tilgjengelighet som ikke kommer fram i Norge.no sitt arbeid. Brukertestingen foregikk ved at en testbrukergruppe skulle løse en del oppgaver ved noen offentlig nettsteder. Fra disse observasjonene ble det samlet data om tidsbruk, problemer som oppstod og testbrukernes synspunkt og erfaringer. Observasjonen som ble gjort avdekket at det er flere ting som gjør det vanskelig for blinde brukere å navigere på et offentlig nettsted. Av de nettstedene som ble testet i dette arbeidet viste det seg at de som hadde høye verdier for tilgjengelighet fra Norge.no sin undersøkelse ikke nødvendigvis hadde veldig god tilgjengelighet i praksis. Videre viste resultatene at kvalitetsvurderingen til Norge.no gir en ganske god indikasjon på tilgjengeligheten til et offentlig nettsted, men at et bra resultat derfra ikke nødvendigvis betyr at det fra en blind brukers synspunkt har så god tilgjengelighet.
|
52 |
Indeksering av heterogene XML dokumenter ved hjelp av datatyper fra XML Schema / Indexing heterogeneous XML Documents using Data Types from XML SchemaMyklebust, Trond Aksel January 2006 (has links)
Denne masteroppgaven foreslår og undersøker en metode for hvordan informasjons-gjenfinning i heterogene XML dokumenter kan gjøres ved å differensiere indekserings-prosessen ut i fra datatyper angitt i tilhørende XML Schema. Målet er å tilby bedre søkemuligheter for informasjonssøkere ved å muliggjøre spørringer som er uavhengige av elementnavn i en samling av forskjellig strukturerte dokumenter. Informasjonssøking foregår i dag primært i ustrukturerte dokumenter der betydningen av innholdet ikke er direkte kjent. Dette krever kompliserte og unøyaktige tolkninger av innholdet for å kunne trekke ut hva som er hva og hvordan dokumentene best mulig kan indekseres. En stadig økende mengde produsert informasjon og metadata gjør dette til en krevende prosess å utføre manuelt. Det trengs derfor nye metoder der innholdet blir beskrevet ved produksjonstidspunktet slik at en datamaskin automatisk kan forstå dokumentenes innhold. Semistrukturerte dokumentformater som XML inneholder støtte for spesifisering av slik informasjon og muliggjør differensiert indeksering av innholdet basert på annotert informasjon. Dette gjør mer detaljerte spørringer enn tidligere mulig men stiller nye krav til de metoder som brukes for å indeksere dokumentene. En av de største utfordringene er å lokalisere og tolke den informasjonen som øker kvaliteten på resultatet av et søk uten at noe informasjon forsvinner. Informasjonen eksisterer ikke i en flat tekstfil, men inneholder distinkte datatyper som må behandles individuelt. Dette krever nye metoder som muliggjør indeksering basert på denne informasjonen. I denne oppgaven presenteres et forslag til et system som indekserer XML dokumenter ved å tolke tilhørende XML Schema inneholdende annotasjoner av datatype og dataformat. Ved å bruke for hvert element denne informasjonen er ønsket at indekseringen gjøres ved å automatisk normalisere elementinnholdet ut i fra angitt format og datatype. Søk kan dermed optimaliseres basert på datatype uavhengig av om originalt format og dokumentstruktur er forskjellig. Testing av systemet er gjennomført for å finne ut hvordan eksisterende XML dokumenter støtter denne typen indeksering og eventuelle løsninger for hvordan det kan gjøres bedre. Utkommet fra arbeidet på oppgaven og hovedkonklusjonen er at den foreslåtte metoden fungerer godt som løsning på problemstillingen, gitt at de eksterne data som brukes er strukturert slik at datatyper kan defineres for innholdet.
|
53 |
Verktøy for evaluering av brukergrensesnitt for bibliografisk informasjon / Tools for evaluation of user interfaces for bibliographic informationBergheim, Erlend Klakegg January 2010 (has links)
I denne oppgaven skal jeg se på logging generelt og logging på Verdensveven spesielt for å lage et verktøy som kan logge brukeraktiviteter i en helt vanlig nettleser uten å benytte ekstra utstyr.I første omgang gjennomføres en mindre teoristudie om logging, og logging på Verdensveven spesielt, før de to verktøyene lages. Det må også velges teknologi som passer til formålet og som lar applikasjonene kunne settes opp i etterkant av ferdigstillelse. Hovedvekten av oppgaven blir å se på hvilke tekniske muligheter man har ved logging i en nettleser samt implementasjon av de to verktøyene.Som resultat er det laget et verktøy som logger brukeraktiviteter i moderne nettlesere uten å måtte benytte andre hjelpemidler. Det er også laget en mindre applikasjon som passer til målgruppen slik at verktøyet kan testes ut i praksis.
|
54 |
Using Information Extraction and Text Classification in an Effort to Support Systematic Literature ReviewsLazreg, Sofien January 2012 (has links)
Systematic literature reviews are an important tool in Evidence-basedSoftware Engineering, but require a large amount of effort and time from theresearchers. Data extraction is an important step in these reviews, but currentpractice requires the researchers to manually extract large amounts ofdata. This thesis investigates the possibility of developing a prototype forautomatic extraction, so to reduce the time spent on manually extracting thisdata. By reviewing related research, and experimenting with different features and machine learning models, two different models were implemented in the prototype: Conditional Random Fields for information extraction and Maximum Entropy for text classification. The models achieved average F1 performance score of 67.02% and 73.82%, respectively. These results can be characterized as good results, and show that it is possible to automate the data extraction process, by annotating a small part of the dataset and training machine learning models to perform the extraction.
|
55 |
Evaluating the use of Learning Algorithms in Categorization of TextSørensen, Alf Simen Nygaard January 2012 (has links)
We have tested this by developing a small prototype that used thecorpora of labeled documents with some different learning algorithmsto see if the results would be satisfactory. We conclude that while thesystem would indeed make it easier for someone to classify unlabeleddocuments, it can not work totally autonomously based on the rela-tively small amount of documents and large amount of categories thatare in the ontology.
|
56 |
Test-Driven Conceptual Modelling : evaluation through a case studyBernat-Casi, Isaac January 2011 (has links)
The purpose of this project is to showcase the workcycle and feasibility of Test-Driven Conceptual Modelling (TDCM) on a real-sized system. TDCM is a novel methodology to develop conceptual schemas which can be understood as belonging to the wider eXtreme Programming (XP) family called Test-Driven Development (TDD). Its aim is to iteratively develop conceptual schemas through automated testing at the conceptual level.In order to achieve its goal, this project is built upon the state of the art of conceptual schema testing, as seen in recent publications. It has been carried out in accordance with the design-science research model to ensure both rigour and relevance. We contribute to TDCM experimentation by applying it to a case study. In particular, this project focus on the development, by reverse engineering, of the conceptual schema of Remember the Milk (RTM), a popular system that supports the management of tasks. As a complementary goal, some suggestions to improve the RTM system will be presented thanks to the knowledge gathered during the process. This document collects the result of this experience.Our findings confirm that this methodology is promising, because the resultant conceptual's schema validation and high semantic quality paid off its relatively small additional development efforts.
|
57 |
Viable Open Source for the Consultancy IndustryKlette, Kristian Fredrik January 2012 (has links)
Open source software is growing in the market, and increasingly preferred toclosed software for the increased flexibility free software provides. As aresult of this more and more businesses are trying to enter this market andprofit from open source software.Consultancy agencies targeting the public sector are in demand of expertise andproducts released as open source. As this is a new field for many companies,studies are needed on how to approach these markets with a high chance ofsuccess with regards to business models and the technological benefits thatopen source software may provide. The problem description raises two researchquestions:* Is authoring of open source software a viable business idea for consultancy agencies?* How should software be released as open source?This thesis presents two main contributions for answering the research questions.The first is a set of guidelines and techniques for estimating the business viability of aof open source software venture. The second is some best practices for authoring and releasingopen source by observing the successful projects that already exists.In addition to these theoretical parts of the thesis, a system for analyzing andgenerating XSLT-transformations for OpenFEIDE is presented.
|
58 |
Finding an Optimal Approach for Indexing DNA SequencesBrujordet, Anders January 2010 (has links)
In this thesis you should find an optimal approach to index and retriev DNA sequences. As part of the task you should develop an algorithm that is fast, and accurate enough to find relevant sequences. The result will be evaluated based on speed, scalability and search efficiency (e.g. Precision and Recall). The approach should be implemented in a Java-based prototype which will be a "proof-of-the-concept".
|
59 |
Ranking Mechanisms for Image Retrieval based on Coordinates, Perspective, and AreaSkjønsberg, Sindre January 2010 (has links)
Image retrieval is becoming increasingly relevant as the size of image collections, and amount of image types grow. One of these types is aerial photography, unique in that it can be represented by its spatial content, and through this, be combined with digital maps. Finding good ways of describing this image type with regard to performing queries and ranking results is therefore an important task, and what this study is about.Existing systems already combine maps and imagery, but does not take the spatial features found within each image into consideration. Instead, more traditional external metadata, e.g. file name, author, and date are used when performing retrieval operations on the objects involved.A set of requirements for an image retrieval system on aerial photography using spatial features, were suggested. This described the image- and query types one can expect such a system to handle, and how the information found within these could be represented. A prototype was developed based on these requirements, evaluating the performance of single coordinate queries and a relevance calculation using the coverage, perspective, and areas of interest found in each picture.The prototype evaluation shows that the different characteristics found in aerial photography makes it very difficult to represent and rank all these images in the same way. Especially images taken horizontally, i.e. where the horizon is showing, have other properties than images looking straight down on an area. The evaluation also shows problems related to manual registration of spatial features for images covering large areas, where inaccuracies introduced here can have a damaging effect on ranking.Suggestions for future work with spatial image retrieval are mentioned, proposing alternatives to the spatial features used in the prototype, improvements for calculating relevance, as well as technologies that might help the feature extraction process.
|
60 |
Searching for, and identifying Protein Information in the LiteratureKlæboe, Espen January 2010 (has links)
As research papers grow in volume and in quantity, there is still to this day, a hassle to locate desired articles based on specific protein names and/or Protein-Protein-Interactions. This is due to the everlasting problem of extracting protein names and Protein-Protein-Interactions from bio-medical papers and articles. The goal of this thesis was to investigate an approach that suggests the use of the Lucene framework for storing and indexing different articles found in bio-medical databases and being able to effciently identify protein names and possible interactions that exist in them. The system, dubbed MasterPPI, locates protein names and Protein-Protein-Interaction keywords with the help of two dictionaries, and when these are found and labeled, determins a Protein-Protein-Interaction if a specific interaction-keyword is present in a sentence, between to protein names. When tested against the test collection from the IAS subtask in the BioCreAtIvE2 challenge; the prototype system achieved a f-score of 0.34, showing that the system has potential, but needs a great deal of work.
|
Page generated in 0.1255 seconds