• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 1
  • Tagged with
  • 7
  • 7
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estratégias de computação para suportar interoperabilidade entre modelos processados por ferramentas de modelagem de distribuição de espécies. / Computational strategies to support interoperability between models processed by species distribution modeling tools.

Borba, Cleverton Ferreira 15 August 2017 (has links)
A área de pesquisa denominada Informática para Biodiversidade enfrenta o desafio de suprir a demanda por tecnologia de apoio à conservação da biodiversidade. Dentre as áreas da ecologia que se beneficiam de recursos tecnológicos, a modelagem de distribuição de espécies se destaca pelo número de ferramentas e de algoritmos desenvolvidos para os pesquisadores da área. No entanto, estudos demostram que a modelagem tem se tornado mais complexa, bem como, a necessidade por melhorias da aplicação de novas técnicas e soluções computacionais. A interoperabilidade computacional para os dados de biodiversidade, que incluem os modelos gerados pelas ferramentas de modelagem, é citada pelos autores e pesquisadores da área como uma preocupação que demanda estudos, definição de melhores práticas e soluções de computação. Cada tópico que envolve a modelagem como, algoritmos, parâmetros, dados de ocorrência, camadas ambientais, ferramentas e técnicas para a elaboração de modelos, além dos padrões de metadados e perfis de aplicação, são objetos de estudo para que seja possível a interoperabilidade nesse campo de pesquisa. Este trabalho apresenta, portanto, uma estratégia computacional para apoiar a interoperabilidade entre os modelos gerados pelas ferramentas de modelagem de distribuição de espécies, através do uso de padrões de metadados e pelo desenvolvimento de um perfil de aplicação que apoie essa interoperabilidade. São apresentados dois estudos de caso com o objetivo de validar essas estratégias e uma arquitetura computacional para apoiar comunidades de desenvolvimento de ferramentas de modelagem a buscarem essa interoperabilidade entre os dados fornecidos e processados por elas. As contribuições deste trabalho envolvem a disponibilização de um perfil de aplicação voltado para a área de modelagem de distribuição de espécies, um protótipo de software para processar os modelos gerados pelas ferramentas de modelagem, o incentivo e o uso do digital objetct identification para disponibilização dos dados, além do processo de pesquisa e da validação de metodologias que foram utilizadas para se alcançarem os resultados desta pesquisa. / The research area called Informatics for Biodiversity faces the challenge of meeting the demand for technology to support biodiversity conservation. Among the areas of ecology that benefit from technological resources, the modeling of species distribution is notable for the number of tools and algorithms developed to researchers in this area. However, studies have shown that modeling has become more complex, as well as the need for improvements in the application of new techniques and computational solutions. The computational interoperability for biodiversity data, which includes models generated by modeling tools, is cited by authors and researchers in the field as a concern that demands studies, definition of best practices and computing solutions. Each topic that involves modeling such as algorithms, parameters, occurrence data, environmental layers, tools, techniques for the elaboration of models, standards of metadata and application profiles are objects of study of this dissertation. This thesis presents a computational strategy to support the interoperability between the models generated by the modeling tools of species distribution, through the use of metadata standards and the development of an application profile that supports this interoperability. Two case studies are presented with the objective of validating these strategies and we also present a computational architecture to support communities to develop of modeling tools to seek this interoperability between the data supplied and processed by them. The contributions of this work involve the provision of an application profile for the area of species distribution modeling, a software prototype to process the models generated by the modeling tools, the incentive and use of the digital objetct identification to make data available, and in addition to the process of research and validation of methodologies that were used to summarize the results of this research.
2

Estratégias de computação para suportar interoperabilidade entre modelos processados por ferramentas de modelagem de distribuição de espécies. / Computational strategies to support interoperability between models processed by species distribution modeling tools.

Cleverton Ferreira Borba 15 August 2017 (has links)
A área de pesquisa denominada Informática para Biodiversidade enfrenta o desafio de suprir a demanda por tecnologia de apoio à conservação da biodiversidade. Dentre as áreas da ecologia que se beneficiam de recursos tecnológicos, a modelagem de distribuição de espécies se destaca pelo número de ferramentas e de algoritmos desenvolvidos para os pesquisadores da área. No entanto, estudos demostram que a modelagem tem se tornado mais complexa, bem como, a necessidade por melhorias da aplicação de novas técnicas e soluções computacionais. A interoperabilidade computacional para os dados de biodiversidade, que incluem os modelos gerados pelas ferramentas de modelagem, é citada pelos autores e pesquisadores da área como uma preocupação que demanda estudos, definição de melhores práticas e soluções de computação. Cada tópico que envolve a modelagem como, algoritmos, parâmetros, dados de ocorrência, camadas ambientais, ferramentas e técnicas para a elaboração de modelos, além dos padrões de metadados e perfis de aplicação, são objetos de estudo para que seja possível a interoperabilidade nesse campo de pesquisa. Este trabalho apresenta, portanto, uma estratégia computacional para apoiar a interoperabilidade entre os modelos gerados pelas ferramentas de modelagem de distribuição de espécies, através do uso de padrões de metadados e pelo desenvolvimento de um perfil de aplicação que apoie essa interoperabilidade. São apresentados dois estudos de caso com o objetivo de validar essas estratégias e uma arquitetura computacional para apoiar comunidades de desenvolvimento de ferramentas de modelagem a buscarem essa interoperabilidade entre os dados fornecidos e processados por elas. As contribuições deste trabalho envolvem a disponibilização de um perfil de aplicação voltado para a área de modelagem de distribuição de espécies, um protótipo de software para processar os modelos gerados pelas ferramentas de modelagem, o incentivo e o uso do digital objetct identification para disponibilização dos dados, além do processo de pesquisa e da validação de metodologias que foram utilizadas para se alcançarem os resultados desta pesquisa. / The research area called Informatics for Biodiversity faces the challenge of meeting the demand for technology to support biodiversity conservation. Among the areas of ecology that benefit from technological resources, the modeling of species distribution is notable for the number of tools and algorithms developed to researchers in this area. However, studies have shown that modeling has become more complex, as well as the need for improvements in the application of new techniques and computational solutions. The computational interoperability for biodiversity data, which includes models generated by modeling tools, is cited by authors and researchers in the field as a concern that demands studies, definition of best practices and computing solutions. Each topic that involves modeling such as algorithms, parameters, occurrence data, environmental layers, tools, techniques for the elaboration of models, standards of metadata and application profiles are objects of study of this dissertation. This thesis presents a computational strategy to support the interoperability between the models generated by the modeling tools of species distribution, through the use of metadata standards and the development of an application profile that supports this interoperability. Two case studies are presented with the objective of validating these strategies and we also present a computational architecture to support communities to develop of modeling tools to seek this interoperability between the data supplied and processed by them. The contributions of this work involve the provision of an application profile for the area of species distribution modeling, a software prototype to process the models generated by the modeling tools, the incentive and use of the digital objetct identification to make data available, and in addition to the process of research and validation of methodologies that were used to summarize the results of this research.
3

Rights Expression Languages in Libraries : Development of an Application Profile / Förvaltning av digitala rättigheter på bibliotek : Utvecklingen av en tillämpningsprofil

Hohmann, André January 2016 (has links)
The goal of the thesis is the development of an exemplary application profile for one institution guiding the use of Rights Expression Languages (REL) to include the rights information of digital documents in the metadata. Cultural heritage institutions face many challenges with regard to the growing number of digital documents. One challenge is the effective and efficient management, administration and presentation or publication of the documents according to their inherent rights. A basic issue is the inclusion of the rights information in the metadata file of the digital documents to enable automated administration of the documents. The application profile is supposed to show the REL’s potential for solving the challenge. Whether RELs can be applied practically in the cultural heritage sector is not in the scope of the thesis and must be examined in a large scale study. As applied research, the thesis does not follow a strict quantitative or qualitative research method but gathers, examines and evaluates data to develop an application profile. Due to the focus on technical issues, it aims at developers and not at end users. To reach the thesis’ goal, RELs are located in the area of digital rights. Four RELs are examined basi-cally by literature analysis. In addition, various representative licenses from one library are chosen which are “translated” into the most appro-priate REL. The findings flow into a prototype application profile which is evaluated in one iteration step by experts according to heuristic evaluation to identify technical and conceptual flaws. Based on the identified flaws, the prototype is revised. Finally, the exemplary application profile for the METS metadata schema is presented and recommendations for further elaborated appli-cation profiles are given.
4

Modelo de avaliação de conjuntos de dados cientí­ficos por meio da dimensão de veracidade dos dados. / Scientific datasets evaluation model based on the data veracity dimension.

André Filipe de Moraes Batista 06 November 2018 (has links)
A ciência é uma organização social: grupos de colaboração independentes trabalham para gerar conhecimento como um bem público. A credibilidade dos trabalhos científicos está enraizada nas evidências que os suportam, as quais incluem a metodologia aplicada, os dados adquiridos e os processos para execução dos experimentos, da análise de dados e da interpretação dos resultados obtidos. O dilúvio de dados sob o qual a atual ciência está inserida revoluciona a forma como as pesquisas são realizadas, resultando em um novo paradigma de ciência baseada em dados. Sob tal paradigma, novas atividades são inseridas no método científico de modo a organizar o processo de geração, curadoria e publicação de dados, beneficiando a comunidade científica com o reuso de conjuntos de dados científicos e a reprodutibilidade de experimentos. Nesse contexto, novas abordagens para a resolução de problemas estão sendo apresentadas, obtendo resultados que antes eram considerados de relevante dificuldade, bem como possibilitando a geração de novos conhecimentos. Diversos portais estão disponibilizando conjuntos de dados resultantes de pesquisas científicas. Todavia, tais portais pouco abordam o contexto sobre os quais os conjuntos de dados foram criados, dificultando a compreensão sobre os dados e abrindo espaço para o uso indevido ou uma interpretação errônea. Poucas são as literaturas que abordam essa problemática, deixando o foco para outros temas que lidam com o volume, a variedade e a velocidade dos dados. Essa pesquisa objetivou definir um modelo de avaliação de conjuntos de dados científicos, por meio da construção de um perfil de aplicação, o qual padroniza a descrição de conjuntos de dados científicos. Essa padronização da descrição é baseada no conceito de dimensão de Veracidade dos dados, definido ao longo da pesquisa, e permite o desenvolvimento de métricas que formam o índice de veracidade de conjuntos de dados científicos. Tal índice busca refletir o nível de detalhamento de um conjunto de dados, com base no uso dos elementos de descrição, que facilitarão o reuso dos dados e a reprodutibilidade dos experimentos científicos. O índice possui duas dimensões: a dimensão intrínseca aos dados, a qual pode ser utilizada como critério de admissão de conjunto de dados em portais de publicação de dados; e a dimensão social, mensurando a adequabilidade de um conjunto de dados para uso em uma área de pesquisa ou de aplicação, por meio da avaliação da comunidade científica. Para o modelo de avaliação proposto, um estudo de caso foi desenvolvido, descrevendo um conjunto de dados proveniente de um projeto científico internacional, o projeto GoAmazon, de modo a validar o modelo proposto entre os pares, demonstrando o potencial da solução no apoio ao reuso dos dados, podendo ser incorporado em portais de dados científicos. / Science is a social organization: independent collaboration groups work to generate knowledge as a public good. The credibility of the scientific work is entrenched in the evidence that supports it, which includes the applied methodology, the acquired data, the processes to execute the experiments, the data analysis, and the interpretation of the obtained results. The flood of data under which current science is embedded revolutionizes the way surveys are conducted, resulting in a new paradigm of data-driven science. Under such a paradigm, new activities are inserted into the scientific method to organize the process of generation, curation, and publication of data, benefiting the scientific community with the reuse and reproducibility of scientific datasets. In this context, new approaches to problem solving are being presented, obtaining results that previously were considered of relevant difficulty, as well as making possible the generation of new knowledge. Several portals are providing datasets resulting from scientific research. However, such portals do little to address the context upon which datasets are created, making it difficult to understand the data and opening up space for misuse or misinterpretation. In the Big Data area, the dimension that proposes to deal with this aspect is called Veracity. Few studies in the literature approach such a theme, focusing on other dimensions, such as volume, variety, and velocity of data. This research aimed to define a of scientific datasets, through the establishment of an application profile, which standardizes the description of scientific datasets. This standardization of the description is based on the veracity dimension concept, which is defined throughout the research and allows the development of metrics that form the Veracity Index of scientific datasets. This index seeks to reflect the level of detail of a dataset based on the use of the descriptive elements, which will facilitate the reuse and reproducibility of the data. The index is weighted by the evaluation of the scientific community in a collaborative sense, which assess the level of description, comprehension capacity, and suitability of the dataset for a given research or application area. For the proposed collaborative evaluation model, a case study was developed that described a dataset from an international scientific project, the GoAmazon project, in order to validate the proposed model among the peers, demonstrating the potential of the solution in the reuse and reproducibility of datasets, showing that such an index can be incorporated into scientific data portals.
5

Modelo de avaliação de conjuntos de dados cientí­ficos por meio da dimensão de veracidade dos dados. / Scientific datasets evaluation model based on the data veracity dimension.

Batista, André Filipe de Moraes 06 November 2018 (has links)
A ciência é uma organização social: grupos de colaboração independentes trabalham para gerar conhecimento como um bem público. A credibilidade dos trabalhos científicos está enraizada nas evidências que os suportam, as quais incluem a metodologia aplicada, os dados adquiridos e os processos para execução dos experimentos, da análise de dados e da interpretação dos resultados obtidos. O dilúvio de dados sob o qual a atual ciência está inserida revoluciona a forma como as pesquisas são realizadas, resultando em um novo paradigma de ciência baseada em dados. Sob tal paradigma, novas atividades são inseridas no método científico de modo a organizar o processo de geração, curadoria e publicação de dados, beneficiando a comunidade científica com o reuso de conjuntos de dados científicos e a reprodutibilidade de experimentos. Nesse contexto, novas abordagens para a resolução de problemas estão sendo apresentadas, obtendo resultados que antes eram considerados de relevante dificuldade, bem como possibilitando a geração de novos conhecimentos. Diversos portais estão disponibilizando conjuntos de dados resultantes de pesquisas científicas. Todavia, tais portais pouco abordam o contexto sobre os quais os conjuntos de dados foram criados, dificultando a compreensão sobre os dados e abrindo espaço para o uso indevido ou uma interpretação errônea. Poucas são as literaturas que abordam essa problemática, deixando o foco para outros temas que lidam com o volume, a variedade e a velocidade dos dados. Essa pesquisa objetivou definir um modelo de avaliação de conjuntos de dados científicos, por meio da construção de um perfil de aplicação, o qual padroniza a descrição de conjuntos de dados científicos. Essa padronização da descrição é baseada no conceito de dimensão de Veracidade dos dados, definido ao longo da pesquisa, e permite o desenvolvimento de métricas que formam o índice de veracidade de conjuntos de dados científicos. Tal índice busca refletir o nível de detalhamento de um conjunto de dados, com base no uso dos elementos de descrição, que facilitarão o reuso dos dados e a reprodutibilidade dos experimentos científicos. O índice possui duas dimensões: a dimensão intrínseca aos dados, a qual pode ser utilizada como critério de admissão de conjunto de dados em portais de publicação de dados; e a dimensão social, mensurando a adequabilidade de um conjunto de dados para uso em uma área de pesquisa ou de aplicação, por meio da avaliação da comunidade científica. Para o modelo de avaliação proposto, um estudo de caso foi desenvolvido, descrevendo um conjunto de dados proveniente de um projeto científico internacional, o projeto GoAmazon, de modo a validar o modelo proposto entre os pares, demonstrando o potencial da solução no apoio ao reuso dos dados, podendo ser incorporado em portais de dados científicos. / Science is a social organization: independent collaboration groups work to generate knowledge as a public good. The credibility of the scientific work is entrenched in the evidence that supports it, which includes the applied methodology, the acquired data, the processes to execute the experiments, the data analysis, and the interpretation of the obtained results. The flood of data under which current science is embedded revolutionizes the way surveys are conducted, resulting in a new paradigm of data-driven science. Under such a paradigm, new activities are inserted into the scientific method to organize the process of generation, curation, and publication of data, benefiting the scientific community with the reuse and reproducibility of scientific datasets. In this context, new approaches to problem solving are being presented, obtaining results that previously were considered of relevant difficulty, as well as making possible the generation of new knowledge. Several portals are providing datasets resulting from scientific research. However, such portals do little to address the context upon which datasets are created, making it difficult to understand the data and opening up space for misuse or misinterpretation. In the Big Data area, the dimension that proposes to deal with this aspect is called Veracity. Few studies in the literature approach such a theme, focusing on other dimensions, such as volume, variety, and velocity of data. This research aimed to define a of scientific datasets, through the establishment of an application profile, which standardizes the description of scientific datasets. This standardization of the description is based on the veracity dimension concept, which is defined throughout the research and allows the development of metrics that form the Veracity Index of scientific datasets. This index seeks to reflect the level of detail of a dataset based on the use of the descriptive elements, which will facilitate the reuse and reproducibility of the data. The index is weighted by the evaluation of the scientific community in a collaborative sense, which assess the level of description, comprehension capacity, and suitability of the dataset for a given research or application area. For the proposed collaborative evaluation model, a case study was developed that described a dataset from an international scientific project, the GoAmazon project, in order to validate the proposed model among the peers, demonstrating the potential of the solution in the reuse and reproducibility of datasets, showing that such an index can be incorporated into scientific data portals.
6

Building a Semantic Web of Comics: Publishing Linked Data in HTML/RDFa Using a Comic Book Ontology and Metadata Application Profiles

Petiya, Sean 01 December 2014 (has links)
No description available.
7

Digitalizace, popis pomocí metadat a jejich formáty / Digitalization, metadata description and metadata formats

Hutař, Jan January 2012 (has links)
(EN) This thesis is dedicated to the processes of digitization and metadata description, as well as the links that connect them. In recent years, another topic has been becoming relevant for both mentioned processes - the logical long-term preservation of digital objects. Long-term preservation is dependent on metadata and therefore on the processes of digitization, when some important metadata is created. The first introductory chapter of the thesis briefly describes, with an emphasis on metadata, digitization and theoretical and practical problems of long-term preservation of digital objects. The OAIS reference framework is also analysed, since it is the background for digital preservation and present preservation metadata standards. OAIS is also important for the shape and functionality of digital repositories. Metadata is also the topic of the next chapter of the thesis. General metadata use and its development are discussed, with emphasis on administrative, technical and preservation metadata. The following chapter focuses on the use of metadata in the National Library of the Czech Republic. It describes the evolution during two periods leading up to the present. This section includes comments on how long-term preservation has been reflected in used metadata standards. The second-to-last part...

Page generated in 0.1184 seconds