• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 174
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 187
  • 108
  • 61
  • 52
  • 28
  • 28
  • 27
  • 27
  • 26
  • 26
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Um método para deduplicação de metadados bibliográficos baseado no empilhamento de classificadores / A method for bibliographic metadata deduplication based on stacked generalization

Borges, Eduardo Nunes January 2013 (has links)
Metadados bibliográficos duplicados são registros que correspondem a referências bibliográficas semanticamente equivalentes, ou seja, que descrevem a mesma publicação. Identificar metadados bibliográficos duplicados em uma ou mais bibliotecas digitais é uma tarefa essencial para garantir a qualidade de alguns serviços como busca, navegação e recomendação de conteúdo. Embora diversos padrões de metadados tenham sido propostos, eles não resolvem totalmente os problemas de interoperabilidade porque mesmo que exista um mapeamento entre diferentes esquemas de metadados, podem existir variações na representação do conteúdo. Grande parte dos trabalhos propostos para identificar duplicatas aplica uma ou mais funções sobre o conteúdo de determinados campos no intuito de captar a similaridade entre os registros. Entretanto, é necessário escolher um limiar que defina se dois registros são suficientemente similares para serem considerados semanticamente equivalentes ou duplicados. Trabalhos mais recentes tratam a deduplicação de registros como um problema de classificação de dados, em que um modelo preditivo é treinado para estimar a que objeto do mundo real um registro faz referência. O objetivo principal desta tese é o desenvolvimento de um método efetivo e automático para identificar metadados bibliográficos duplicados, combinando o aprendizado de múltiplos classificadores supervisionados, sem a necessidade de intervenção humana na definição de limiares de similaridade. Sobre o conjunto de treinamento são aplicadas funções de similaridade desenvolvidas especificamente para o contexto de bibliotecas digitais e com baixo custo computacional. Os escores produzidos pelas funções são utilizados para treinar múltiplos modelos de classificação heterogêneos, ou seja, a partir de algoritmos de diversos tipos: baseados em árvores, regras, redes neurais artificiais e probabilísticos. Os classificadores aprendidos são combinados através da estratégia de empilhamento visando potencializar o resultado da deduplicação a partir do conhecimento heterogêneo adquirido individualmente pelos algoritmo de aprendizagem. O modelo de classificação final é aplicado aos pares candidatos ao casamento retornados por uma estratégia de blocagem de dois níveis bastante eficiente. A solução proposta é baseada na hipótese de que o empilhamento de classificadores supervisionados pode aumentar a qualidade da deduplicação quando comparado a outras estratégias de combinação. A avaliação experimental mostra que a hipótese foi confirmada quando o método proposto é comparado com a escolha do melhor classificador e com o voto da maioria. Ainda são analisados o impacto da diversidade dos classificadores no resultado do empilhamento e os casos de falha do método proposto. / Duplicated bibliographic metadata are semantically equivalent records, i.e., references that describe the same publication. Identifying duplicated bibliographic metadata in one or more digital libraries is an essential task to ensure the quality of some services such as search, navigation, and content recommendation. Although many metadata standards have been proposed, they do not completely solve interoperability problems because even if there is a mapping between different metadata schemas, there may be variations in the content representation. Most of work proposed to identify duplicated records uses one or more functions on some fields in order to capture the similarity between the records. However, we need to choose a threshold that defines whether two records are sufficiently similar to be considered semantically equivalent or duplicated. Recent studies deal with record deduplication as a data classification problem, in which a predictive model is trained to estimate the real-world object to which a record refers. The main goal of this thesis is the development of an effective and automatic method to identify duplicated bibliographic metadata, combining multiple supervised classifiers, without any human intervention in the setting of similarity thresholds. We have applied on the training set cheap similarity functions specifically designed for the context of digital libraries. The scores returned by these functions are used to train multiple and heterogeneous classification models, i.e., using learning algorithms based on trees, rules, artificial neural networks and probabilistic models. The learned classifiers are combined by stacked generalization strategy to improve the deduplication result through heterogeneous knowledge acquired by each learning algorithm. The final model is applied to pairs of records that are candidate to matching. These pairs are defined by an efficient two phase blocking strategy. The proposed solution is based on the hypothesis that stacking supervised classifiers can improve the quality of deduplication when compared to other combination strategies. The experimental evaluation shows that the hypothesis has been confirmed by comparing the proposed method to selecting the best classifier or the majority vote technique. We also have analyzed the impact of classifiers diversity on the stacking results and the cases for which the proposed method fails.
102

ONTOER+: uma ontologia para descrição de recursos educacionais fragmentados

NOGUEIRA, Ubirajara Santos 29 May 2015 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-03-11T14:47:26Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ONTOER+ Final.pdf: 7209205 bytes, checksum: fe6acd91293a1dd34f5ffe3a04d42c21 (MD5) / Made available in DSpace on 2016-03-11T14:47:26Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ONTOER+ Final.pdf: 7209205 bytes, checksum: fe6acd91293a1dd34f5ffe3a04d42c21 (MD5) Previous issue date: 2015-05-29 / FACEPE / A facilidade de acesso e comunica#!o proporcionada pela Internet contribuiu para o surgimento de novas solu#'es, como as baseadas em Objetos de Aprendizagem, com o intuito de facilitar ainda mais o compartilhamento de conte*dos educacionais dispon(veis na Web. Os Recursos Educacionais Abertos +REA/ s!o objetos de aprendizagem disponibilizados por meio de licen#as de copyright, para qualquer usu%rio usar livremente, sendo *teis para o aprendizado de alunos dos ensinos a dist3ncia e presencial. Em geral, os REA quase sempre s!o encontrados em formatos que n!o permitem ao usu%rio utilizar apenas as partes desejadas. Por&m, disponibilizar as partes que comp'em o REA & de fundamental import3ncia para facilitar o seu re*so. Tomando como exemplo uma publica#!o do tipo artigo, este seria disponibilizado separando suas se#'es, par%grafos, figuras e tabelas. Neste contexto, este trabalho descreve o desenvolvimento de uma ontologia para o dom(nio de REA, a qual permite n!o apenas a representa#!o do REA como um todo, mas tamb&m a representa#!o de partes do conte*do dos recursos. Para facilitar o entendimento do uso de REA pelos usu%rios podem ser usadas ontologias, as quais objetivam melhor organizar o conhecimento comum de dom(nios espec(ficos. A ontologia de dom(nio dos REA aqui descrita, nomeada de ONTOER4, & baseada em metadados e descri#!o de conte*do, o que facilita o entendimento para se obter um n(vel de granularidade menor, uma das caracter(sticas de fragmenta#!o dos REA. Para guiar o processo de desenvolvimento da ontologia, uma metodologia, denominada Methontology, foi adotada. / Ease of access and communication provided by the Internet contributed to the emergence of new solutions such as those based on Learning Objects, in order to further facilitate the sharing of educational content available on the Web. Open Educational Resources +OER/ are learning objects available through copyright licenses for any user to use freely and are useful for learning to students from distance and classroom teaching. Generally, OER are almost always found in formats that do not allow the user to use only any portions of it. However, to provide the component parts of the OER is extremely important to facilitate their reuse. Taking as an example a publication of the article type, this would be made available by separating its sections, paragraphs, figures and tables. In this context, this work describes the development of an ontology for OER domain, which allows not only the representation of the OER as a whole, but also the representation of pieces of content resources. Ontology can be used to facilitate the understanding of the use of OER by users, which aims at better organizing common knowledge of specific areas. The domain ontology OER described herein, named ONTOER4, is based on metadata and content description, which facilitates understanding how to obtain a lower level of granularity, one of fragmentation characteristics of OER. To guide the ontology development process, a method called Methontology was adopted.
103

Registros de marcas da Junta Comercial do Estado de Pernambuco: um olhar semântico para a organização de um acervo histórico

ARAÚJO, Ana Cláudia Gouveia 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:49:13Z (GMT). No. of bitstreams: 2 arquivo7108_1.pdf: 1742419 bytes, checksum: 08d096ae656d7b9af8cfdedc0dc4bec3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A produção intelectual no Brasil é resguardada, dentre outras formas, através do registro de marca. Durante o período de 1875 a 1924, o registro de marca em Pernambuco foi realizado na Junta Comercial do Estado de Pernambuco (JUCEPE), antigo Tribunal do Comércio. Dessa atividade administrativa realizada pela Junta, resultou um manancial de documentos que foram digitalizados, cujo papel fundamental não está mais vinculado a resguardar juridicamente a propriedade das marcas, mas atuam como elementos representativos de preservação da cultura e memória social. A presente pesquisa traz uma discussão teórico-reflexiva proporcionada por temas referentes à organização do acervo digital dos registros de marcas da JUCEPE. A respeito dos aspectos metodológicos, configura-se como uma pesquisa qualitativa de caráter exploratório e investigativo e utiliza o levantamento documental como técnica de pesquisa, cujo objetivo é avaliar a necessidade/importância da descrição semântica das informações do acervo digital de registros de marcas da Junta Comercial do Estado de Pernambuco a partir das necessidades potenciais dos usuários. Diante disso, procura discutir temas relacionados à Web semântica, principalmente
104

Proposta de Esquema Dimensional Hierárquico Genérico para implementação em SGBD relacional

Paranaguá de Carvalho, Ney January 2003 (has links)
Made available in DSpace on 2014-06-12T15:58:51Z (GMT). No. of bitstreams: 2 arquivo4735_1.pdf: 1533660 bytes, checksum: aa67a9072a7931fd4026194587808e0f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / Os Sistemas de Informação têm evoluído naturalmente, impulsionados pelo aumento do volume de dados tratado e armazenado, pela disponibilidade de novas e mais baratas tecnologias para manipulação dos dados e por demandas mais complexas por informação e conhecimento, originadas do usuário. Este, por sua vez, teve o seu perfil expandido: se antes era preponderantemente de nível operacional, hoje apresenta com maior freqüência o nível de gerência e executivo, o que exige uma visão progressivamente mais ampla e corporativa do negócio. Diante deste cenário, tecnologias para o tratamento da informação foram desenvolvidas para o atendimento às novas demandas, especialmente voltadas para a modelagem do negócio sob uma nova ótica a dimensional e a recuperação de informações e conhecimento diretamente pelo usuário final. No centro das novas tecnologias está o Data Warehouse, grande repositório integrador dos dados corporativos do negócio. Os esquemas atualmente existentes para a modelagem dimensional de Data Warehouse em SGBDs relacionais estrela e, sua derivação, flocos de neve são simples o suficiente para proporcionar a compreensão do modelo pelo usuário final e para possibilitar um excelente desempenho no processamento de consultas. No entanto, não atacam diretamente questões que consideramos importantes: a) permitir que o usuário final realize, sem a intervenção do projetista de banco de dados, a concepção da modelagem de seu negócio; b) permitir que o usuário final diretamente implemente as modificações requeridas na modelagem dimensional decorrentes da alteração do negócio ou das alterações de sua visão do negócio e; c) poder ser genérico a fim de permitir que qualquer modelagem dimensional realizada possa ser implementada sobre os mesmos projetos lógico e físico de bancos de dados relacionais. Para atender a estas questões propusemos neste trabalho um esquema para modelagem dimensional implementada em SGBD relacional genérico que
105

Metadados para recuperação da informação em ambiente virtual

Santiago, Mônica Cristina Costa 30 September 2004 (has links)
Made available in DSpace on 2015-10-19T11:50:10Z (GMT). No. of bitstreams: 1 monicasantiago2004.pdf: 543328 bytes, checksum: 9b7d3383f133c7063fff2120aeb543fc (MD5) Previous issue date: 2004-09-30 / This research analyses metadata use in Brazil and abroad, based on cataloging, classification and indexing theory and techniques, focused on information retrieval system and its evolution, from manual, automated systems till internet/web. In the virtual environment, the information retrieval, its evaluation criteria and tools like classification schemes, subject headings and thesaurus, are studied. Metadata concepts, definitions, types and attributes are presented and syntax and interoperability are the focal point in the identified metadata schemes. The results refer to metadata use mapping in Brazil and abroad, stressing the Dublin Core. The conclusion points out metadata knowledge and use in Brazil, specially Mark and Dublin Core / Análise de metadados no exterior e no Brasil, tendo a catalogação, classificação e indexação como fundamentos teóricos e técnicos, nas suas interrelações, e com foco nos sistemas de recuperação da informação, acompanhados na sua trajetória evolutiva desde sistemas manuais, automatizados até a Internet/Web. No ambiente virtual a recuperação da informação é estudada, com seus critérios de avaliação e instrumentos como esquemas de classificação bibliográfica, cabeçalhos de assuntos e tesauros. Os metadados são abordados nos seus conceitos, definições, tipos, características e funções e, nos esquemas identificados, a sintaxe e interoperabilidade são destacadas. Os resultados referem-se ao mapeamento de metadados no Brasil e em outros países, com ênfase no Dublin Core. As conclusões apontam o conhecimento de metadados e seu uso no Brasil, sobretudo o MARC e Dublin Core
106

Gerenciamento do ciclo de vida de dados de sensores : da produção ao consumo / Managing the lifecycle of sensor data : from production to consumption

Pastorello Júnior, Gilberto Zonta 12 August 2018 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-12T16:26:12Z (GMT). No. of bitstreams: 1 PastorelloJunior_GilbertoZonta_D.pdf: 2896768 bytes, checksum: 8ea5592ef09ce0af7c0c4d520d00c5eb (MD5) Previous issue date: 2008 / Resumo: Dispositivos sensores estão se tornando bastante disseminados e vêem sendo aplicados em diversos domínios, principalmente em pesquisa científica. Entretanto, o aumento n número e variedade desses sensores introduz problemas de gerenciamento dos dados gerados, tais como a disponibilização de dados de sensores em diferentes taxas ou resoluções temporais e espaciais. Este trabalho trata de quatro aspectos do gerenciamento de dados de sensores para aplicações científicas: (i) prover acesso homogêneo a dispositivos sensores heterogêneos e aos dados produzidos por eles; (ii) gerenciar a composição de operações aplicadas a dados de sensores; (iii) oferecer funcionalidades de pré-processamento de dados que sejam flexíveis e possam ser executadas antes da publicação dos dados; e, (iv) propagar e criar anotações válidas (metadados) associadas aos dados durante todo seu ciclo de vida. A solução proposta para o aspecto (i) envolve o encapsulamento uniforme de dados e software, através da extensão de uma tecnologia de componentes chamada Componentes de Conteúdo Digital (DCCs), oferecendo também a associação de anotações a esse conteúdo. Tendo esses componentes como base, a solução proposta para (ii) é baseada no uso de workflows científicos para coordenar a combinação de DCCs de dados e software. A solução proposta para (iii) considera a invocação de workflows armazenados no provedor de dados e a submissão de novas especificações de workflows para armazenamento e/ou execução. Além disso, a solução usa as anotações dos DCCs para enriquecer consultas e suas respostas. Finalmente, um mecanismo de propagação de anotações é proposto como solução para (iv). As contribuições desta tese são apresentadas em um framework para gerenciamento de dados de sensores, considerando aspectos de acesso, pré-processamento, publicação e anotações de dados. / Abstract: Sensing devices are becoming widely disseminated, being applied in several domains, noticeably in scientific research. However, the increase in their number and variety introduces problems on managing the produced data, such as how to provide sensor data at distinct rates or temporal resolutions for different applications, or how to pre-process or format the data differently for each request. This work is concerned with tackling four issues that arise in the management of sensor data for scientific applications: (i) providing homogeneous access to heterogeneous sensing devices and their data; (ii) managing the composition of operations applied to sensor data; (iii) offering flexible data pre-processing facilities prior to sensor data publication; and, (iv) propagating and creating valid data annotations (metadata) throughout the data life cycle. The proposed solution to issue (i) is to uniformly encapsulate both software and data by extending a component technology called Digital Content Components (DCCs), also allowing associated annotations. Using these components as a basis, the proposed solution to (ii) is to apply scientific workflows to coordinate the combination of data and software DCCs. The solution proposed to (iii) involves invoking and posting workflow specifications from the data provider as well as using the annotations on DCCs to enrich the queries and answers. Finally, an annotation propagation mechanism is proposed as a solution to (iv). Our contributions are presented within a framework for sensor data management, which unifies aspects of data access, pre-processing, publication and annotation. / Doutorado / Banco de Dados / Doutor em Ciência da Computação
107

Utilização de metadados no gerenciamento de acesso a servidores de vídeo. / Metadata utilization in the video servers access management.

Rudinei Goularte 26 February 1998 (has links)
A experiência com autoria de material didático multimídia para propósitos educacionais mostra um grande problema: como prover uma maneira de tratar objetos multimídia de modo que usuários inexperientes (como professores) possam estar aptos a projetar e construir suas próprias apresentações? A criação de tais apresentações envolve fatores como armazenamento, entrega, busca e apresentação de material multimídia (vídeo em especial). Uma infra-estrutura básica que armazene e entregue eficientemente os dados de vídeo é necessária, porém, outro ponto importante é organizar esses dados armazenados no servidor de forma a facilitar seu acesso por parte dos usuários. Neste trabalho, isto é alcançado através do uso de um sistema interativo de recuperação e gerenciamento de informações projetado para facilitar o acesso a itens (ou parte deles) armazenados no servidor. A principal característica de tal sistema é o uso de uma base de metadados contendo os atributos dos vídeos armazenados no servidor. Buscas podem ser feitas por título, assunto, tamanho, autor, conteúdo ou, mais importante no caso de material didático, por cenas ou frames específicos. O sistema foi implementado segundo uma abordagem cliente/servidor utilizando a linguagem de programação JAVA. A comunicação entre clientes e servidores é realizada através do uso do Visibroker 3.0, que é uma ferramenta de programação para Objetos Distribuídos segundo o padrão CORBA. O acesso aos dados a partir da base de metadados é realizado através do uso de um driver PostgreSQL que segue a API JDBC. Para propósitos de avaliação do sistema um player foi construído utilizando a ferramenta Java Media Framework (JMF). Foi realizada uma análise para a verificação do impacto da utilização das tecnologias CORBA e JDBC no sistema. Foi detectado que a utilização da tecnologia JDBC impõe um atraso muito mais significante que a utilização da tecnologia CORBA. Outra conclusão é que a utilização de metadados provê uma melhor interatividade em buscas, permite economia de tempo durante o processo de edição e provê economia de espaço de armazenamento através do compartilhamento de objetos como vídeos, cenas e frames. / The experience with authoring multimedia material for educational purposes shows a major problem: how to provide an easy and efficient way to handle multimedia objects in a manner that non-expert users (namely school teachers) can be able to design and build their own presentations? The creation of this presentations involves factors like storage, delivery, search and presentation of multimedia material (video in special). A basic infra-structure that stores and efficiently deliver the video data is needed. However, another important point is the organization of these data stored into the server in a way to facilitate the access to them from the users. In the system wich is the subject of this work, this is achived through the use of an interactive information management and retrieval system designed to facilitate the access to items (or parts of the items) stored in the server. The main characteristic of the system is the use of a metadata base which contains attributes of the videos stored in the server. Searches can be made by title, subject, length, author, content or, most important in the didatic multimedia material case, by a specific scene or frame. The system was built with JAVA programming language in a client/server way. The communication between clients and servers is realized through the use of the Visibroker 3.0, which is a Distributed Objects programming tool according to the CORBA standard. The data access from the metadata base use a PostgreSQL driver which follows the JDBC API. For evaluation purposes a playback tool was built using Java Media Framework (JMF). An analisys was carried out to verify the impact of the utilization of CORBA and JDBC technologies in the system. It was detected that JDBC technology utilization imposes a much more significate delay than the CORBA technology utilization. Another conclusion is that metadata utilization provide better interactivity searches, making the editing process faster and save storage space through the sharing of objects like videos, scenes and frames.
108

Uma abordagem flexível para extração de metadados em citações bibliográficas

Vilarinho, Eli Cortez Custódio 03 April 2009 (has links)
Made available in DSpace on 2015-04-11T14:03:10Z (GMT). No. of bitstreams: 1 DISSERTACAO - ELI VILARINHO.PDF: 1381247 bytes, checksum: dfa9030f7c470ee99bac100407ec5628 (MD5) Previous issue date: 2009-04-03 / Fundação de Amparo à Pesquisa do Estado do Amazonas / In this dissertation, we present FLUX-CiM, a novel method for extracting components (e.g., author names, article titles, venues, page numbers) from bibliographic citations. Our method does not rely on patterns encoding specific delimiters used in a particular citation style. This feature yields a high degree of automation and flexibility and allows FLUX-CiM to extract from citations in any given format. Differently from previous methods that are based on models learned from user-driven training, our method relies on a knowledge-base automatically constructed from an existing set of sample metadata records from a given field (e.g., computer science, health sciences, social science, etc). These records are usually available on the Web or other public data repositories. To demonstrate the effectiveness and applicability of our proposed method we present a serie of experiments in which we apply it to extract bibliographic data from citations in articles of different fields. Results of these experiments exhibit precision and recall levels above 94% for all fields as well as perfect extraction for the large majority of citations tested. Also, in a comparison against a state-of-art information extraction method, ours produced superior results without the training phase required by that method. Finally, we present a strategy for using bibliographic data resulting from the extraction process with FLUX- CiM to automatically update and expand the knowledge-base of a given domain. We show that this strategy can be used to achieve good extraction results even if only a very small initial sample of bibliographic records is available for building the knowledge-base. / Nesta dissertação apresentamos o FLUX-CiM, um novo método de extração de componentes de citações bibliográficas tais como nomes de autores, títulos de artigo, números de página, etc. Tal método não se baseia em padrões específicos de codificação de delimitadores de um determinado estilo de citação que nos dá um alto grau de automação e flexibilidade e permite a extração de metadados a partir de citações em qualquer estilo. Diferentemente de abordagens anteriores que dependem de treinamento manual para realizar o reconhecimento de componentes em uma citação, no nosso caso, o método baseia-se em uma base de conhecimento automaticamente construída a partir de um conjunto existente de registros de metadados de um dado domínio, por exemplo: Ciência da Computação, Ciências da Saúde, Ciências Sociais, etc. Tal conjunto de registros com metadados pode ser facilmente obtido na Web ou através de outros repositórios de dados. Para demonstrar a eficácia e aplicabilidade do método proposto, apresentamos uma serie de experimentos que visam extrair dados de citações bibliográficas de artigos. Os resultados destes experimento apresentam níveis precisão e revocação acima de 94% para todos os domínios, bem como extração perfeita para a grande maioria das citações testadas. Além disso, em uma comparação com o método que representa o estado da arte de extração de informação, o FLUX-CiM produziu resultados superiores sem a fase de treino que é exigida por esse método. Por fim, apresentamos uma estratégia para a utilização de dados bibliográficos resultante do processo de extração com FLUX-CIM para automaticamente atualizar e expandir a base de conhecimento de um determinado domínio. Mostramos que esta estratégia pode ser usada para alcançar bons resultados de extração mesmo quando apenas uma pequena amostra inicial de registros bibliográficos está disponível para a construção da base de conhecimento.
109

Um modelo de navegação exploratória para a infra-estrutura da web semântica / A model for exploratory navigation in the semantic web infrastructure

Luciano Tadeu Esteves Pansanato 21 November 2007 (has links)
Esta tese propõe um modelo de navegação exploratória para a infra-estrutura da Web Semântica, denominado Navigation and Exploration Model (NAVE). O modelo NAVE foi desenvolvido com base na literatura de information searching, nos níveis de atividades de information seeking, e na estratégia de orienteering. O objetivo é facilitar o projeto e desenvolvimento de sistemas de navegação exploratória. O NAVE é descrito por meio de uma representação gráfica dos estágios e decisões do processo de navegação e suas respectivas técnicas de suporte à navegação, além de recomendações. Um sistema, denominado de Exploratory Navigation System (ENS), foi desenvolvido para avaliar a viabilidade de utilizar o modelo NAVE em aplicações reais. O sistema ENS é composto de diversas ferramentas de navegação que permitem ao usuário escolher a ferramenta adequada, ou a melhor combinação de ferramentas, provavelmente ajustada ao seu nível de habilidade e conhecimento, à sua preferência, e ao tipo de informação que ele está procurando no momento. O sistema permite ao usuário priorizar de maneiras diferentes as suas escolhas de ferramentas em cada passo de uma estratégia de orienteering, subjacente ao modelo NAVE. Essas ferramentas podem apresentar vantagens complementares no contexto de uma tarefa de information searching. O sistema ENS foi avaliado utilizando uma abordagem tanto qualitativa quanto quantitativa, que serviram para refinar as questões de pesquisa e explorar o modelo NAVE. Primeiro, um estudo de usabilidade foi conduzido que combinou vários métodos, como questionários, think-aloud, entrevistas, e registro da interação do usuário. Esse estudo forneceu informações com relação às ferramentas e o modelo NAVE subjacente, as quais foram consideradas no seu desenvolvimento. Segundo, um estudo experimental foi conduzido para comparar o ENS com uma abordagem de busca por palavra-chave. Os resultados forneceram indicações estatísticas de que os participantes tiveram desempenho superior utilizando o ENS / A model for exploratory navigation in the Semantic Web infrastructure called NAVE - Navigation and Exploration Model - is proposed. NAVE is based on literature of information searching, levels of information seeking activities, and an orienteering strategy. This model aims in particular at facilitating the design and development of exploratory navigation systems. It is described by a graphical representation of stages and decisions of the search process and their respective navigation support techniques, and recommendations. As a proof of concept and also to evaluate the feasibility of using NAVE in real-life applications, a system called ENS - Exploratory Navigation System - was developed. ENS is composed of a variety of navigation tools, enabling users to choose the appropriate tool or the best combination of tools (that is, the best strategy) in agreement with different levels of users\' ability, background, preferences, and kind of information they are looking for at moment. It enables users to prioritize different ways their choices of tools to use at each step in an orienteering strategy embedded on the model NAVE. These tools may present complementary advantages in an information searching task. ENS was evaluated in both qualitative and quantitative approach which served to refine research questions and explore the model NAVE. First, a usability study was conducted which combined a variety of methods, such as questionnaires, think-aloud, interview, and user log recording. This study provided insights regarding the tools and the underlying model which were considered in its further development. Second, an experimental study was conducted in order to compare the ENS with a keyword search approach. The findings provided statistical indications that participants had a better performance using the ENS
110

Avaliação da qualidade do dado espacial digital de acordo com parâmetros estabelecidos por usuários. / Digital spatial data quality evaluation based on users parameters.

João Luiz Salisso Filho 02 May 2013 (has links)
Informações espaciais estão cada vez mais disseminadas no cotidiano do cidadão comum, de empresas e de instituições governamentais. Aplicações como o Google Earth, Bing Maps, aplicativos de localização por GPS, entre outros apresentam a informação espacial como uma commodity. Cada vez mais empresas públicas e privadas incorporam o dado espacial em seu processo decisório, tornando ainda mais crítico a questão da qualidade deste tipo de dado. Dada a natureza multidisciplinar e, principalmente, o volume de informações disponibilizadas para os usuários, faz-se necessário apresentar um método de avaliação de dados apoiado por processos computacionais, que permita ao usuário avaliar a verdadeira adequação que tais dados têm frente ao uso pretendido. Nesta Dissertação de Mestrado propõe-se uma metodologia estruturada de avaliação de dados espaciais apoiada por computador. A metodologia utilizada, baseada em normas apresentadas pela International Standards Organization (ISO), permite ao usuário de dados espaciais avaliar sua qualidade comparando a qualidade do dado de acordo com os parâmetros estabelecidos pelo próprio usuário. Também permite ao usuário comparar a qualidade apresentada pelo dado espacial com a informação de qualidade provida pelo produtor do dado. Desta forma, o método apresentado, ajuda o usuário a determinar a real adequação do dado espacial ao seu uso pretendido. / Spatial information is increasingly widespread in everyday life of ordinary people, businesses and government institutions. Applications like Google Earth, Bing Maps, GPS location applications, among others present spatial data as a commodity. More and more public and private companies incorporate the usage of spatial data into their decision process, increasing the importance of spatial quality issues. Given the multidisciplinary nature and, especially, the volume of information available to all users, it is necessary to introduce a data quality evaluation method supported by computational processes, enabling the end user to evaluate the real fitness for use that such data have for an intended use. This dissertation aims to present a structure methodology for spatial data evaluation supported by computational process. The methodology, based on standards provided by the International Standards Organization (ISO), allows users of spatial information evaluating the quality of spatial data comparing the quality of information against users own quality parameters. It will also allow the user to compare the quality presented by the given spatial data with quality information provided by the data producer. Thus, the presented method will support the end user in determining the real fitness for use for the spatial data.

Page generated in 0.0311 seconds