• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 239
  • 139
  • 42
  • 40
  • 35
  • 19
  • 15
  • 10
  • 8
  • 7
  • 5
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 621
  • 136
  • 119
  • 108
  • 108
  • 103
  • 99
  • 70
  • 62
  • 61
  • 54
  • 54
  • 53
  • 46
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Metadata extraction from scientific documents in PDF / Extração de metadados em artigos científicos no formato PDF

Souza, Alan Pinto January 2014 (has links)
A maioria dos artigos científicos estão disponíveis no formato PDF. Este padrão permite a geracão de metadados que são inclusos dentro do documento. Porém, muitos autores não definem esta informação, fazendo esse recurso inseguro ou incompleto. Este fato tem motivado pesquisa que busca extrair metadados automaticamente. A extração automática de metadados foi classificada como uma das tarefas mais desafiadoras na área de engenharia de documentos. Este trabalho propõe Artic, um método para extração de metadados de artigos científicos que aplica um modelo probabilístico em duas camadas baseado em Conditional Random Fields. A primeira camada visa identificar as secões principais com possíveis metadados. Já a segunda camada identifica, para cada secão, o metadado correspondente. Dado um PDF contendo um artigo científico, Artic extrai título, nome dos autores, emails, afiliações e informações sobre a conferência onde o paper foi publicado. Os experimentos usaram 100 artigos de conferências variadas. Os resultados superaram a solução estado-da-arte usada como baseline, atingindo uma precisão acima de 99%. / Most scientific articles are available in PDF format. The PDF standard allows the generation of metadata that is included within the document. However, many authors do not define this information, making this feature unreliable or incomplete. This fact has been motivating research which aims to extract metadata automatically. Automatic metadata extraction has been identified as one of the most challenging tasks in document engineering. This work proposes Artic, a method for metadata extraction from scientific papers which employs a two-layer probabilistic framework based on Conditional Random Fields. The first layer aims at identifying the main sections with metadata information, and the second layer finds, for each section, the corresponding metadata. Given a PDF file containing a scientific paper, Artic extracts the title, author names, emails, affiliations, and venue information. We report on experiments using 100 real papers from a variety of publishers. Our results outperformed the state-of-the-art system used as the baseline, achieving a precision of over 99%.
332

Método de representação de conhecimento baseado em ontologias para apoiar sistemas de recomendação educacionais / A method to describe knowledge with ontologies to support educational recommender systems

Primo, Tiago Thompsen January 2013 (has links)
A expansão das tecnologias de comunicação e informação apoiadas pela internet trazem benefícios crescentes à sociedade. As redes sociais geolocalizadas, televisores que fazem uso da internet e avançados telefones celulares ganham popularidade em conjunto ao aumento da disponibilidade de acesso à internet. A utilização de tais meios para o compartilhamento de informações possibilita a construção de ambientes ricos em informação e conhecimento. Incorporar tais benefícios a ambientes educacionais, propondo métodos que façam uso da riqueza de informações inerentes a tais domínios, provendo a sugestão de conteúdos educacionais é o foco do presente trabalho. Para isto, é apresentado o arcabouço teórico das áreas de Sistemas de Recomendação, Ontologias, Metadados Educacionais e Web Semântica. Revisar os conceitos e o estado da arte de tais áreas conduz a uma análise crítica das mesmas, bem como, ao conjunto de práticas para a descrição de ontologias, que atuem como núcleo de conhecimento, para aplicações educacionais voltadas a recomendação de objetos de aprendizagem. Em conjunto, é também apresentada uma alternativa para que os desenvolvedores de sistemas educacionais possam repensar a maneira como estes estão sendo desenvolvidos, abrindo possibilidades para a agregação de serviços baseados na web semântica que facilitem integrações, filtros e compartilhamentos de informações. Os resultados obtidos através do método de representação de conhecimento que foi proposto neste trabalho, prevê a descrição de objetos de aprendizagem, perfis de usuários, como indivíduos de ontologias, bem como, perfis de aplicação que possibilitam raciocínio lógico visando auxiliar a sistemas de recomendação, e também uma proposta para a migração dos atuais repositórios de conteúdos educacionais para repositórios compatíveis com triplas, também compõe o presente trabalho. / It is a fact that the expansion of the communication and information technologies supported by the Internet brought growing benefits to the society. Geo-localized social networks, televisions that make use of the Internet and smartphones became popular with the wide spread of the Internet access. Information sharing among those devices took information and knowledge sharing at a new level. Incorporate such benefits to educational environments, especially when dealing with content suggestion it is the main focus of this work. To cope with this, we present a theoretical study over the areas of recommender systems, ontologies, educational metadata and semantic web. The study of such concepts and their following state of the art lead to a critical analyses, as also, to a set of practices to describe ontologies that can act as the knowledge core of learning object recommendation. Parallel to that, it is also presented an alternative for educational systems designers to reconsider the way that they are being developed, allowing the connection of a network of services, based on semantic web techniques, to provide knowledge filtering and sharing. The results present a set of practices that allow the description of learning objects and user profiles as ontology individuals, practices to build application profiles that allow reasoning over them, as also an alternative to migrate the current learning object repositories to a triple store.
333

ONTOER+: uma ontologia para descrição de recursos educacionais fragmentados

NOGUEIRA, Ubirajara Santos 29 May 2015 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-03-11T14:47:26Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ONTOER+ Final.pdf: 7209205 bytes, checksum: fe6acd91293a1dd34f5ffe3a04d42c21 (MD5) / Made available in DSpace on 2016-03-11T14:47:26Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ONTOER+ Final.pdf: 7209205 bytes, checksum: fe6acd91293a1dd34f5ffe3a04d42c21 (MD5) Previous issue date: 2015-05-29 / FACEPE / A facilidade de acesso e comunica#!o proporcionada pela Internet contribuiu para o surgimento de novas solu#'es, como as baseadas em Objetos de Aprendizagem, com o intuito de facilitar ainda mais o compartilhamento de conte*dos educacionais dispon(veis na Web. Os Recursos Educacionais Abertos +REA/ s!o objetos de aprendizagem disponibilizados por meio de licen#as de copyright, para qualquer usu%rio usar livremente, sendo *teis para o aprendizado de alunos dos ensinos a dist3ncia e presencial. Em geral, os REA quase sempre s!o encontrados em formatos que n!o permitem ao usu%rio utilizar apenas as partes desejadas. Por&m, disponibilizar as partes que comp'em o REA & de fundamental import3ncia para facilitar o seu re*so. Tomando como exemplo uma publica#!o do tipo artigo, este seria disponibilizado separando suas se#'es, par%grafos, figuras e tabelas. Neste contexto, este trabalho descreve o desenvolvimento de uma ontologia para o dom(nio de REA, a qual permite n!o apenas a representa#!o do REA como um todo, mas tamb&m a representa#!o de partes do conte*do dos recursos. Para facilitar o entendimento do uso de REA pelos usu%rios podem ser usadas ontologias, as quais objetivam melhor organizar o conhecimento comum de dom(nios espec(ficos. A ontologia de dom(nio dos REA aqui descrita, nomeada de ONTOER4, & baseada em metadados e descri#!o de conte*do, o que facilita o entendimento para se obter um n(vel de granularidade menor, uma das caracter(sticas de fragmenta#!o dos REA. Para guiar o processo de desenvolvimento da ontologia, uma metodologia, denominada Methontology, foi adotada. / Ease of access and communication provided by the Internet contributed to the emergence of new solutions such as those based on Learning Objects, in order to further facilitate the sharing of educational content available on the Web. Open Educational Resources +OER/ are learning objects available through copyright licenses for any user to use freely and are useful for learning to students from distance and classroom teaching. Generally, OER are almost always found in formats that do not allow the user to use only any portions of it. However, to provide the component parts of the OER is extremely important to facilitate their reuse. Taking as an example a publication of the article type, this would be made available by separating its sections, paragraphs, figures and tables. In this context, this work describes the development of an ontology for OER domain, which allows not only the representation of the OER as a whole, but also the representation of pieces of content resources. Ontology can be used to facilitate the understanding of the use of OER by users, which aims at better organizing common knowledge of specific areas. The domain ontology OER described herein, named ONTOER4, is based on metadata and content description, which facilitates understanding how to obtain a lower level of granularity, one of fragmentation characteristics of OER. To guide the ontology development process, a method called Methontology was adopted.
334

Gerenciamento do ciclo de vida de dados de sensores : da produção ao consumo / Managing the lifecycle of sensor data : from production to consumption

Pastorello Júnior, Gilberto Zonta 12 August 2018 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-12T16:26:12Z (GMT). No. of bitstreams: 1 PastorelloJunior_GilbertoZonta_D.pdf: 2896768 bytes, checksum: 8ea5592ef09ce0af7c0c4d520d00c5eb (MD5) Previous issue date: 2008 / Resumo: Dispositivos sensores estão se tornando bastante disseminados e vêem sendo aplicados em diversos domínios, principalmente em pesquisa científica. Entretanto, o aumento n número e variedade desses sensores introduz problemas de gerenciamento dos dados gerados, tais como a disponibilização de dados de sensores em diferentes taxas ou resoluções temporais e espaciais. Este trabalho trata de quatro aspectos do gerenciamento de dados de sensores para aplicações científicas: (i) prover acesso homogêneo a dispositivos sensores heterogêneos e aos dados produzidos por eles; (ii) gerenciar a composição de operações aplicadas a dados de sensores; (iii) oferecer funcionalidades de pré-processamento de dados que sejam flexíveis e possam ser executadas antes da publicação dos dados; e, (iv) propagar e criar anotações válidas (metadados) associadas aos dados durante todo seu ciclo de vida. A solução proposta para o aspecto (i) envolve o encapsulamento uniforme de dados e software, através da extensão de uma tecnologia de componentes chamada Componentes de Conteúdo Digital (DCCs), oferecendo também a associação de anotações a esse conteúdo. Tendo esses componentes como base, a solução proposta para (ii) é baseada no uso de workflows científicos para coordenar a combinação de DCCs de dados e software. A solução proposta para (iii) considera a invocação de workflows armazenados no provedor de dados e a submissão de novas especificações de workflows para armazenamento e/ou execução. Além disso, a solução usa as anotações dos DCCs para enriquecer consultas e suas respostas. Finalmente, um mecanismo de propagação de anotações é proposto como solução para (iv). As contribuições desta tese são apresentadas em um framework para gerenciamento de dados de sensores, considerando aspectos de acesso, pré-processamento, publicação e anotações de dados. / Abstract: Sensing devices are becoming widely disseminated, being applied in several domains, noticeably in scientific research. However, the increase in their number and variety introduces problems on managing the produced data, such as how to provide sensor data at distinct rates or temporal resolutions for different applications, or how to pre-process or format the data differently for each request. This work is concerned with tackling four issues that arise in the management of sensor data for scientific applications: (i) providing homogeneous access to heterogeneous sensing devices and their data; (ii) managing the composition of operations applied to sensor data; (iii) offering flexible data pre-processing facilities prior to sensor data publication; and, (iv) propagating and creating valid data annotations (metadata) throughout the data life cycle. The proposed solution to issue (i) is to uniformly encapsulate both software and data by extending a component technology called Digital Content Components (DCCs), also allowing associated annotations. Using these components as a basis, the proposed solution to (ii) is to apply scientific workflows to coordinate the combination of data and software DCCs. The solution proposed to (iii) involves invoking and posting workflow specifications from the data provider as well as using the annotations on DCCs to enrich the queries and answers. Finally, an annotation propagation mechanism is proposed as a solution to (iv). Our contributions are presented within a framework for sensor data management, which unifies aspects of data access, pre-processing, publication and annotation. / Doutorado / Banco de Dados / Doutor em Ciência da Computação
335

Utilização de metadados no gerenciamento de acesso a servidores de vídeo. / Metadata utilization in the video servers access management.

Rudinei Goularte 26 February 1998 (has links)
A experiência com autoria de material didático multimídia para propósitos educacionais mostra um grande problema: como prover uma maneira de tratar objetos multimídia de modo que usuários inexperientes (como professores) possam estar aptos a projetar e construir suas próprias apresentações? A criação de tais apresentações envolve fatores como armazenamento, entrega, busca e apresentação de material multimídia (vídeo em especial). Uma infra-estrutura básica que armazene e entregue eficientemente os dados de vídeo é necessária, porém, outro ponto importante é organizar esses dados armazenados no servidor de forma a facilitar seu acesso por parte dos usuários. Neste trabalho, isto é alcançado através do uso de um sistema interativo de recuperação e gerenciamento de informações projetado para facilitar o acesso a itens (ou parte deles) armazenados no servidor. A principal característica de tal sistema é o uso de uma base de metadados contendo os atributos dos vídeos armazenados no servidor. Buscas podem ser feitas por título, assunto, tamanho, autor, conteúdo ou, mais importante no caso de material didático, por cenas ou frames específicos. O sistema foi implementado segundo uma abordagem cliente/servidor utilizando a linguagem de programação JAVA. A comunicação entre clientes e servidores é realizada através do uso do Visibroker 3.0, que é uma ferramenta de programação para Objetos Distribuídos segundo o padrão CORBA. O acesso aos dados a partir da base de metadados é realizado através do uso de um driver PostgreSQL que segue a API JDBC. Para propósitos de avaliação do sistema um player foi construído utilizando a ferramenta Java Media Framework (JMF). Foi realizada uma análise para a verificação do impacto da utilização das tecnologias CORBA e JDBC no sistema. Foi detectado que a utilização da tecnologia JDBC impõe um atraso muito mais significante que a utilização da tecnologia CORBA. Outra conclusão é que a utilização de metadados provê uma melhor interatividade em buscas, permite economia de tempo durante o processo de edição e provê economia de espaço de armazenamento através do compartilhamento de objetos como vídeos, cenas e frames. / The experience with authoring multimedia material for educational purposes shows a major problem: how to provide an easy and efficient way to handle multimedia objects in a manner that non-expert users (namely school teachers) can be able to design and build their own presentations? The creation of this presentations involves factors like storage, delivery, search and presentation of multimedia material (video in special). A basic infra-structure that stores and efficiently deliver the video data is needed. However, another important point is the organization of these data stored into the server in a way to facilitate the access to them from the users. In the system wich is the subject of this work, this is achived through the use of an interactive information management and retrieval system designed to facilitate the access to items (or parts of the items) stored in the server. The main characteristic of the system is the use of a metadata base which contains attributes of the videos stored in the server. Searches can be made by title, subject, length, author, content or, most important in the didatic multimedia material case, by a specific scene or frame. The system was built with JAVA programming language in a client/server way. The communication between clients and servers is realized through the use of the Visibroker 3.0, which is a Distributed Objects programming tool according to the CORBA standard. The data access from the metadata base use a PostgreSQL driver which follows the JDBC API. For evaluation purposes a playback tool was built using Java Media Framework (JMF). An analisys was carried out to verify the impact of the utilization of CORBA and JDBC technologies in the system. It was detected that JDBC technology utilization imposes a much more significate delay than the CORBA technology utilization. Another conclusion is that metadata utilization provide better interactivity searches, making the editing process faster and save storage space through the sharing of objects like videos, scenes and frames.
336

Uma abordagem flexível para extração de metadados em citações bibliográficas

Vilarinho, Eli Cortez Custódio 03 April 2009 (has links)
Made available in DSpace on 2015-04-11T14:03:10Z (GMT). No. of bitstreams: 1 DISSERTACAO - ELI VILARINHO.PDF: 1381247 bytes, checksum: dfa9030f7c470ee99bac100407ec5628 (MD5) Previous issue date: 2009-04-03 / Fundação de Amparo à Pesquisa do Estado do Amazonas / In this dissertation, we present FLUX-CiM, a novel method for extracting components (e.g., author names, article titles, venues, page numbers) from bibliographic citations. Our method does not rely on patterns encoding specific delimiters used in a particular citation style. This feature yields a high degree of automation and flexibility and allows FLUX-CiM to extract from citations in any given format. Differently from previous methods that are based on models learned from user-driven training, our method relies on a knowledge-base automatically constructed from an existing set of sample metadata records from a given field (e.g., computer science, health sciences, social science, etc). These records are usually available on the Web or other public data repositories. To demonstrate the effectiveness and applicability of our proposed method we present a serie of experiments in which we apply it to extract bibliographic data from citations in articles of different fields. Results of these experiments exhibit precision and recall levels above 94% for all fields as well as perfect extraction for the large majority of citations tested. Also, in a comparison against a state-of-art information extraction method, ours produced superior results without the training phase required by that method. Finally, we present a strategy for using bibliographic data resulting from the extraction process with FLUX- CiM to automatically update and expand the knowledge-base of a given domain. We show that this strategy can be used to achieve good extraction results even if only a very small initial sample of bibliographic records is available for building the knowledge-base. / Nesta dissertação apresentamos o FLUX-CiM, um novo método de extração de componentes de citações bibliográficas tais como nomes de autores, títulos de artigo, números de página, etc. Tal método não se baseia em padrões específicos de codificação de delimitadores de um determinado estilo de citação que nos dá um alto grau de automação e flexibilidade e permite a extração de metadados a partir de citações em qualquer estilo. Diferentemente de abordagens anteriores que dependem de treinamento manual para realizar o reconhecimento de componentes em uma citação, no nosso caso, o método baseia-se em uma base de conhecimento automaticamente construída a partir de um conjunto existente de registros de metadados de um dado domínio, por exemplo: Ciência da Computação, Ciências da Saúde, Ciências Sociais, etc. Tal conjunto de registros com metadados pode ser facilmente obtido na Web ou através de outros repositórios de dados. Para demonstrar a eficácia e aplicabilidade do método proposto, apresentamos uma serie de experimentos que visam extrair dados de citações bibliográficas de artigos. Os resultados destes experimento apresentam níveis precisão e revocação acima de 94% para todos os domínios, bem como extração perfeita para a grande maioria das citações testadas. Além disso, em uma comparação com o método que representa o estado da arte de extração de informação, o FLUX-CiM produziu resultados superiores sem a fase de treino que é exigida por esse método. Por fim, apresentamos uma estratégia para a utilização de dados bibliográficos resultante do processo de extração com FLUX-CIM para automaticamente atualizar e expandir a base de conhecimento de um determinado domínio. Mostramos que esta estratégia pode ser usada para alcançar bons resultados de extração mesmo quando apenas uma pequena amostra inicial de registros bibliográficos está disponível para a construção da base de conhecimento.
337

Um modelo de navegação exploratória para a infra-estrutura da web semântica / A model for exploratory navigation in the semantic web infrastructure

Luciano Tadeu Esteves Pansanato 21 November 2007 (has links)
Esta tese propõe um modelo de navegação exploratória para a infra-estrutura da Web Semântica, denominado Navigation and Exploration Model (NAVE). O modelo NAVE foi desenvolvido com base na literatura de information searching, nos níveis de atividades de information seeking, e na estratégia de orienteering. O objetivo é facilitar o projeto e desenvolvimento de sistemas de navegação exploratória. O NAVE é descrito por meio de uma representação gráfica dos estágios e decisões do processo de navegação e suas respectivas técnicas de suporte à navegação, além de recomendações. Um sistema, denominado de Exploratory Navigation System (ENS), foi desenvolvido para avaliar a viabilidade de utilizar o modelo NAVE em aplicações reais. O sistema ENS é composto de diversas ferramentas de navegação que permitem ao usuário escolher a ferramenta adequada, ou a melhor combinação de ferramentas, provavelmente ajustada ao seu nível de habilidade e conhecimento, à sua preferência, e ao tipo de informação que ele está procurando no momento. O sistema permite ao usuário priorizar de maneiras diferentes as suas escolhas de ferramentas em cada passo de uma estratégia de orienteering, subjacente ao modelo NAVE. Essas ferramentas podem apresentar vantagens complementares no contexto de uma tarefa de information searching. O sistema ENS foi avaliado utilizando uma abordagem tanto qualitativa quanto quantitativa, que serviram para refinar as questões de pesquisa e explorar o modelo NAVE. Primeiro, um estudo de usabilidade foi conduzido que combinou vários métodos, como questionários, think-aloud, entrevistas, e registro da interação do usuário. Esse estudo forneceu informações com relação às ferramentas e o modelo NAVE subjacente, as quais foram consideradas no seu desenvolvimento. Segundo, um estudo experimental foi conduzido para comparar o ENS com uma abordagem de busca por palavra-chave. Os resultados forneceram indicações estatísticas de que os participantes tiveram desempenho superior utilizando o ENS / A model for exploratory navigation in the Semantic Web infrastructure called NAVE - Navigation and Exploration Model - is proposed. NAVE is based on literature of information searching, levels of information seeking activities, and an orienteering strategy. This model aims in particular at facilitating the design and development of exploratory navigation systems. It is described by a graphical representation of stages and decisions of the search process and their respective navigation support techniques, and recommendations. As a proof of concept and also to evaluate the feasibility of using NAVE in real-life applications, a system called ENS - Exploratory Navigation System - was developed. ENS is composed of a variety of navigation tools, enabling users to choose the appropriate tool or the best combination of tools (that is, the best strategy) in agreement with different levels of users\' ability, background, preferences, and kind of information they are looking for at moment. It enables users to prioritize different ways their choices of tools to use at each step in an orienteering strategy embedded on the model NAVE. These tools may present complementary advantages in an information searching task. ENS was evaluated in both qualitative and quantitative approach which served to refine research questions and explore the model NAVE. First, a usability study was conducted which combined a variety of methods, such as questionnaires, think-aloud, interview, and user log recording. This study provided insights regarding the tools and the underlying model which were considered in its further development. Second, an experimental study was conducted in order to compare the ENS with a keyword search approach. The findings provided statistical indications that participants had a better performance using the ENS
338

Avaliação da qualidade do dado espacial digital de acordo com parâmetros estabelecidos por usuários. / Digital spatial data quality evaluation based on users parameters.

João Luiz Salisso Filho 02 May 2013 (has links)
Informações espaciais estão cada vez mais disseminadas no cotidiano do cidadão comum, de empresas e de instituições governamentais. Aplicações como o Google Earth, Bing Maps, aplicativos de localização por GPS, entre outros apresentam a informação espacial como uma commodity. Cada vez mais empresas públicas e privadas incorporam o dado espacial em seu processo decisório, tornando ainda mais crítico a questão da qualidade deste tipo de dado. Dada a natureza multidisciplinar e, principalmente, o volume de informações disponibilizadas para os usuários, faz-se necessário apresentar um método de avaliação de dados apoiado por processos computacionais, que permita ao usuário avaliar a verdadeira adequação que tais dados têm frente ao uso pretendido. Nesta Dissertação de Mestrado propõe-se uma metodologia estruturada de avaliação de dados espaciais apoiada por computador. A metodologia utilizada, baseada em normas apresentadas pela International Standards Organization (ISO), permite ao usuário de dados espaciais avaliar sua qualidade comparando a qualidade do dado de acordo com os parâmetros estabelecidos pelo próprio usuário. Também permite ao usuário comparar a qualidade apresentada pelo dado espacial com a informação de qualidade provida pelo produtor do dado. Desta forma, o método apresentado, ajuda o usuário a determinar a real adequação do dado espacial ao seu uso pretendido. / Spatial information is increasingly widespread in everyday life of ordinary people, businesses and government institutions. Applications like Google Earth, Bing Maps, GPS location applications, among others present spatial data as a commodity. More and more public and private companies incorporate the usage of spatial data into their decision process, increasing the importance of spatial quality issues. Given the multidisciplinary nature and, especially, the volume of information available to all users, it is necessary to introduce a data quality evaluation method supported by computational processes, enabling the end user to evaluate the real fitness for use that such data have for an intended use. This dissertation aims to present a structure methodology for spatial data evaluation supported by computational process. The methodology, based on standards provided by the International Standards Organization (ISO), allows users of spatial information evaluating the quality of spatial data comparing the quality of information against users own quality parameters. It will also allow the user to compare the quality presented by the given spatial data with quality information provided by the data producer. Thus, the presented method will support the end user in determining the real fitness for use for the spatial data.
339

Ontologia de metadados para a preservação de prontuário eletrônico do paciente (PEP) / Metadata ontology for the preservation of electronic health record (EHR)

Piconi, Andressa Cristiani, 1981- 26 August 2018 (has links)
Orientadores: Ivan Luiz Marques Ricarte, Maria Cristiane Barbosa Galvão / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T07:52:51Z (GMT). No. of bitstreams: 1 Piconi_AndressaCristiani_M.pdf: 1915313 bytes, checksum: 8c75fc45b07dd43aba52a24a307e8bed (MD5) Previous issue date: 2014 / Resumo: Os prontuários eletrônicos do paciente (PEP) são mais do que um repositório de informações e provas relativas à assistência em saúde, são fontes de informação para a pesquisa, para a gestão e para a memória da sociedade. Considerados documentos arquivísticos digitais, a preservação desta informação, produzida e mantida por instituições de saúde ao longo do tempo, é fundamental para garantir a qualidade da assistência, da eficiência em diagnósticos e tratamentos e dos direitos dos pacientes. Dentre os mecanismos tecnológicos existentes para apoiar a preservação de documentos em meio digital ao longo do tempo está o da associação de metadados, desde o momento de sua produção até sua destinação final. É de fundamental importância que instituições produtoras e detentoras de documentos digitais de caráter arquivístico determinem estratégias consolida-das de preservação digital, atendendo à adoção de métodos e tecnologias que integrem a preservação física, lógica e conceitual dos documentos digitais, utilizando-se dos metadados como in-sumo primordial para o desenvolvimento dessas estratégias. O presente trabalho tem como objetivo responder a seguinte questão de pesquisa: quais são os metadados necessários para assegurar a preservação digital de prontuários eletrônicos do paciente, pelo tempo que for necessário, e como esses metadados podem ser organizados em uma ontologia? A partir de uma revisão de literatura foi definido um conjunto de metadados visando à preservação dos documentos (que pode ser aplicado tanto para os natos digitais quanto para os digitalizados) que compõem os PEPs, utilizando como modelo o Clinical Document Architecture (CDA) e os metadados do e-ARQ Brasil: Modelo de Requisitos para Sistemas Informatizados de Gestão Arquivística de Documentos. Uma ontologia foi proposta para formalizar esses conceitos e cenários hipotéticos foram elaborados para sua validação, representando os principais aspectos associados à definição de metadados para a preservação de documentos clínicos, buscando relacionar assim as áreas de Engenharia da Computação, de Arquivologia e da Saúde. Essa ontologia poderá ser utilizada por desenvolvedores para estabelecer e avaliar a presença de metadados e estratégias de preservação nos PEPs produzidos e gerenciados por sistemas de saúde. Além disso, poderá também orientar gestores e responsáveis pelo estabelecimento de políticas para a definição de normas e procedimentos específicos para a preservação de PEPs / Abstract: Electronic Health Records (EHR) are more than a repository of information and evidence related to health care, they are sources of information for research, for management and for the memory of society. Considered digital records, preservation of this information, produced and maintained by health institutions over time, is critical to ensure the quality of assistance and efficiency in diagnosis and treatment and patients' rights. Among the existing support for the preservation of documents in digital media over time technological mechanisms is the association of metadata from the time of its production until its final destination. It is vital that institutions produce and hold the digital archival records character consolidates determine strategies for digital preservation, given the adoption of methods and technologies that integrate the physical, logical and conceptual preservation of digital records, using metadata as a key for the development of these strategies. This paper aims to answer the following research question: what are the metadata required to ensure the digital preservation of electronic health records, for as long as necessary, and how these metadata can be organized into an ontology? From a literature review was defined a set of metadata aiming at the preservation of the documents (which can be applied to both born digital and digitized for) that make up the EHRs, using as a model the Clinical Document Architecture (CDA) and metadata of e-ARQ-Brasil: Model Requirements for Computerized Systems Archiving Document Management. An ontology is proposed to formalize these concepts and hypothetical scenarios were developed to validate it, representing the major aspects associated with the metadata definition for the preservation of clinical documents, seeking related the areas of Computer Engineering, Archivology and Health . This ontology can be used by developers to establish and evaluate the presence of metadata and preservation strategies for EHRs produced and managed by systems. It also can guide managers and responsible for establishing policies for the definition of specific rules and procedures for the preservation of EHRs / Mestrado / Engenharia de Computação / Mestra em Engenharia Elétrica
340

Restinformation i elektroniska textdokument / Surplus information in electronic text documents

Hagel, Maria January 2005 (has links)
Some word processing programs save information that not all users of the program are aware of. This information consists of a number of things. Example of that is who the writer of the document is, the time it took to write it and where on the computer the document is saved. Text that has been changed or removedcan also be saved. This information is not shown in the program and the user will therefore not be aware of its existence. If the document is opened in a text editor that only reads plain ASCII text, this information will be visible. If this information is confidential and also available to people it could become a security risk. In this thesis I will sort out what kind of information this is and in what way it could be a security risk. I will also discuss what measures that can be taken to minimize the risk. This is done partly by studying literature combined with some smaller test that I have performed.

Page generated in 0.0658 seconds