• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 174
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 187
  • 108
  • 61
  • 52
  • 28
  • 28
  • 27
  • 27
  • 26
  • 26
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Um modelo arquitetural para geração automática de interfaces web

Luiz Fernando Vasconcelos Azevedo 04 July 2013 (has links)
A duplicação de código é um mau que deve ser combatido a qualquer custo. Existem situações em que parece não haver alternativa, o ambiente de desenvolvimento parece requerer que a informação seja replicada, ou então simplesmente não se percebe que ela está sendo duplicada e isso pode afetar negativamente o desenvolvimento de software de diversas maneiras. A duplicação de código resulta no crescimento do código-fonte e de sua complexidade, prejudicando a manutenção do sistema. Mesmo se fosse possível encontrar e alterar todas as réplicas de um trecho de código, é impossível garantir que todas as mudanças foram realizadas consistentemente - que as regiões comuns permanecem idênticas e que as diferenças foram mantidas - sem comparar manualmente cada trecho de código replicado, palavra por palavra, na esperança de que nenhum detalhe tenha sido deixado de lado. Independente da razão, há meios de se evitar a replicação de código. A geração de código-fonte é uma ferramenta conhecida para evitar que um trecho de código seja espalhado para diversas regiões da aplicação. Em diversas linguagens, estruturas podem ser criadas a partir de uma fonte comum de metadados utilizando um gerador de código-fonte sempre que o código é compilado. Particularmente, se tratando de interfaces com o usuário, outra abordagem seria utilizar uma fonte de metadados para gerar código-fonte em tempo de execução. Esse trabalho apresenta o MAGIU (Modelo Arquitetural de Geração de Interfaces com o Usuário), um modelo conceitual para criação de geradores de código-fonte para o desenvolvimento de interfaces com o usuário.
62

A reference architecture for visually managing metadata-based components

José Roberto Campos Perillo 03 December 2014 (has links)
Developing component-based applications has always been a big challenge faced for software developers and architects. In the last 25 years, many metadata-based component models were proposed, and most of them include tools that allow controlling the lifecycle of components. However, it was not observed in the academy or in the industry an architecture or a model that can serve as abstraction for tools capable of visually managing metadata-based components and their relationships with other components. In this work, a reference architecture is proposed for such purpose. Tools based on it will provide developers, architects and systems administrators with better control over applications that make use of metadata-based components. For validation purposes, it is presented the Saturnus tool, which implements the proposed architecture and controls components of Spring DM-based applications. The "Management Application" is also presented as a proof of concept-it is a Spring DM-based application that was gradually evolved with Saturnus. After implementing both Saturnus and the "Management Application", it is possible to say that proposing such an architecture is feasible and that it is possible to visualize the organization of components in terms of graphs in tools that implement it, and also that these tools can effectively control metadata-based components and their relationships with each other, as well as their lifecycle. Consequently, it is now possible to have better control over the architecture of applications that make use of metadata-based components, tools able to control metadata-based components can now be created, metadata-based component models tend to be more used as other architectures or models able to support component-based development are proposed and now Spring DM-based applications can be better controlled with the help of Saturnus.
63

Arquitetura de sistemas orientada a serviços para análise de experimentos ambientais em Weblabs de abelhas. / System architecture service oriented for analisys with experiments at bee Weblabs.

Leite, Marcelo de Queiroz 04 August 2011 (has links)
O processo de elaboração, execução, coleta e análise de dados de experimentos ambientais com abelhas utilizando meios computacionais como suporte a pesquisa, é uma atividade complexa por exigir do pesquisador conhecimentos específicos aos quais ele não foi preparado para atuar. Laboratórios virtuais conhecidos como Weblabs são ferramentas de apoio a pesquisa, pois permitem a realização de experimentos sem a necessidade da presença física da equipe de pesquisadores. O modelo matemático utilizado junto com a sua interpretação são partes do experimento, porém não são tratados dessa maneira atualmente nos Weblabs. Este trabalho propõe a especificação de uma arquitetura de referência a ser empregada como modelo para permitir o desenvolvimento de componentes que disponibilizem serviços com a capacidade de efetuar a integração de dados coletados por meio de experimentos científicos executados com o auxílio dos Weblabs com ferramentas especialistas voltadas a experimentos ambientais e de biodiversidade. A especificação é baseada no paradigma de arquitetura orientada a serviços, permitindo o gerenciamento de análise de experimentos utilizando Weblabs e disponibilizando os serviços especificados para funcionamento em ambientes distribuídos. Este modelo é a base para um estudo de caso com a elaboração de uma prova de conceito, por meio do desenvolvimento de um componente que publique, disponibilize e integre os dados coletados em um Weblab com uma ferramenta especialista em análises ambientais. / The preparation, execution, collection and closing of an experiment using computational means to support the research, is a complex activity because it requires specific knowledge of the researcher to whom he was not prepared to act. WebLabs are known support tools to researchers, because they allow performing experiments without the physical presence of the research team. Among the activities undertaken by the researcher, after collecting data, performs the analysis of data, in which mathematical and statistical models are applied to interpret the data. In a Weblab experiments are performed through web in remote laboratories, and also needed to analyze the data obtained with the data collection. The mathematical model used along with their interpretation are events that are part of the experiment, but are not treated that way today in Weblabs. This paper proposes the specification of reference architecture to be used as a template to allow the development of components that provide services with the ability to make the integration of data collected through scientific experiments carried out with the help of weblabs with tools aimed at environmental and biodiversity experiments. The specification is based on the paradigm of service oriented architecture, allowing management analysis using Weblab experiments and providing the services specified for operation in distributed environments. This model is the basis for a case study with the development of a proof of concept, through development of a component that publishes and distributes and integrates the data collected in a Weblab with a special tool in environmental analysis.
64

Estratégias de computação para suportar interoperabilidade entre modelos processados por ferramentas de modelagem de distribuição de espécies. / Computational strategies to support interoperability between models processed by species distribution modeling tools.

Borba, Cleverton Ferreira 15 August 2017 (has links)
A área de pesquisa denominada Informática para Biodiversidade enfrenta o desafio de suprir a demanda por tecnologia de apoio à conservação da biodiversidade. Dentre as áreas da ecologia que se beneficiam de recursos tecnológicos, a modelagem de distribuição de espécies se destaca pelo número de ferramentas e de algoritmos desenvolvidos para os pesquisadores da área. No entanto, estudos demostram que a modelagem tem se tornado mais complexa, bem como, a necessidade por melhorias da aplicação de novas técnicas e soluções computacionais. A interoperabilidade computacional para os dados de biodiversidade, que incluem os modelos gerados pelas ferramentas de modelagem, é citada pelos autores e pesquisadores da área como uma preocupação que demanda estudos, definição de melhores práticas e soluções de computação. Cada tópico que envolve a modelagem como, algoritmos, parâmetros, dados de ocorrência, camadas ambientais, ferramentas e técnicas para a elaboração de modelos, além dos padrões de metadados e perfis de aplicação, são objetos de estudo para que seja possível a interoperabilidade nesse campo de pesquisa. Este trabalho apresenta, portanto, uma estratégia computacional para apoiar a interoperabilidade entre os modelos gerados pelas ferramentas de modelagem de distribuição de espécies, através do uso de padrões de metadados e pelo desenvolvimento de um perfil de aplicação que apoie essa interoperabilidade. São apresentados dois estudos de caso com o objetivo de validar essas estratégias e uma arquitetura computacional para apoiar comunidades de desenvolvimento de ferramentas de modelagem a buscarem essa interoperabilidade entre os dados fornecidos e processados por elas. As contribuições deste trabalho envolvem a disponibilização de um perfil de aplicação voltado para a área de modelagem de distribuição de espécies, um protótipo de software para processar os modelos gerados pelas ferramentas de modelagem, o incentivo e o uso do digital objetct identification para disponibilização dos dados, além do processo de pesquisa e da validação de metodologias que foram utilizadas para se alcançarem os resultados desta pesquisa. / The research area called Informatics for Biodiversity faces the challenge of meeting the demand for technology to support biodiversity conservation. Among the areas of ecology that benefit from technological resources, the modeling of species distribution is notable for the number of tools and algorithms developed to researchers in this area. However, studies have shown that modeling has become more complex, as well as the need for improvements in the application of new techniques and computational solutions. The computational interoperability for biodiversity data, which includes models generated by modeling tools, is cited by authors and researchers in the field as a concern that demands studies, definition of best practices and computing solutions. Each topic that involves modeling such as algorithms, parameters, occurrence data, environmental layers, tools, techniques for the elaboration of models, standards of metadata and application profiles are objects of study of this dissertation. This thesis presents a computational strategy to support the interoperability between the models generated by the modeling tools of species distribution, through the use of metadata standards and the development of an application profile that supports this interoperability. Two case studies are presented with the objective of validating these strategies and we also present a computational architecture to support communities to develop of modeling tools to seek this interoperability between the data supplied and processed by them. The contributions of this work involve the provision of an application profile for the area of species distribution modeling, a software prototype to process the models generated by the modeling tools, the incentive and use of the digital objetct identification to make data available, and in addition to the process of research and validation of methodologies that were used to summarize the results of this research.
65

Sistema LINNAEUS: apoio inteligente para a catalogação e edição de metadados de objetos de aprendizagem

Silveira, Ederson Luiz 21 October 2013 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-07-13T14:45:42Z No. of bitstreams: 1 Ederson Luiz Silveira.pdf: 2898339 bytes, checksum: 95165e769c65ef95ae0cfef8141a6d81 (MD5) / Made available in DSpace on 2015-07-13T14:45:42Z (GMT). No. of bitstreams: 1 Ederson Luiz Silveira.pdf: 2898339 bytes, checksum: 95165e769c65ef95ae0cfef8141a6d81 (MD5) Previous issue date: 2013-01-31 / UNISINOS - Universidade do Vale do Rio dos Sinos / A tecnologia de objetos de aprendizagem (OA) vêm tendo uma crescente utilização em contexto educacional, oferendo recursos digitais que estão cada vez mais presentes em salas de aula e na educação a distância. Em muitos casos, esta tecnologia está presente nos ambientes educacionais de forma implícita, sem que seja necessário saber que os materiais educacionais estão incorporados em objetos de aprendizagem. Como sua utilização cresce a cada ano, surge a necessidade de ferramentas que auxiliem o processo de catalogação e de edição dos metadados destes objetos, para tornar possível a sua recuperação, reutilização e alteração dos objetos. Para prover apoio a este processo de catalogação, a presente dissertação apresenta o sistema Linnaeus de suporte a catalogação de objetos de aprendizagem e edição de metadados, que através da junção das tecnologias de agentes inteligentes e da web semântica, na forma de wizards e de ontologias educacionais, se propõe a fornecer um apoio inteligente e pró-ativo, ajudando usuários sem conhecimentos técnicos sobre metadados ou padrões de objetos de aprendizagem a catalogar de forma correta seus objetos. / Learning objects (LO) are getting more importance in the education environment, providing digital resources that are increasingly common in both classrooms and e-learning teaching. Nowadays, these objects can be found in educational materials, without being explicitly defined as learning objects. During the latest years the use of learning objects is growing up, bringing with that the necessity of solutions for the cataloging and editing metadata information about these objects to make possible the recovery, reuse and even the change of these objects. To give support for this task, this dissertation proposes an intelligent learning object metadata editor, the Linnaeus system, which will provide help for the cataloging process of learning objects through the use of intelligent agents, and semantic web technologies, in the form of editing wizards and learning domain educational ontologies.
66

Descri??o e recupera??o de ontologias em l?ngua portuguesa : uma adapta??o do modelo ontology metadata vocabulary

Santos, Anderson Bestteti 15 March 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:23Z (GMT). No. of bitstreams: 1 423722.pdf: 1883295 bytes, checksum: c25b8a17cc6e712522af45ee69aa8495 (MD5) Previous issue date: 2010-03-15 / Este trabalho apresenta a adapta??o de um modelo de metadados de descri??o de ontologias. Essa adapta??o tem por objetivo enriquecer o modelo selecionado com novos dados para descri??o de ontologias, oferecendo aos pesquisadores da ?rea uma gama maior de informa??es para auxili?-los no processo de identifica??o e sele??o de ontologias em l?ngua portuguesa. O modelo resultante da adapta??o ? utilizado em uma aplica??o, cujo objetivo ? oferecer novos servi?os ao Portal OntoLP para descri??o e recupera??o de ontologias. Para avalia??o do prot?tipo proposto, foi realizada uma survey onde os participantes foram questionados sobre os servi?os de busca de ontologias do Portal.
67

Formaliza????o de servi??os internos em grandes corpora????es: proposta de ontologia para constru????o colaborativa de carta de servi??os

Bigio, Mauricio Telles 29 February 2016 (has links)
Submitted by Sara Ribeiro (sara.ribeiro@ucb.br) on 2018-03-21T21:24:26Z No. of bitstreams: 1 MauricioTellesBigioDissertacao2016.pdf: 4306959 bytes, checksum: bd1bca5a2405adda24198db052373c8f (MD5) / Approved for entry into archive by Sara Ribeiro (sara.ribeiro@ucb.br) on 2018-03-21T21:24:41Z (GMT) No. of bitstreams: 1 MauricioTellesBigioDissertacao2016.pdf: 4306959 bytes, checksum: bd1bca5a2405adda24198db052373c8f (MD5) / Made available in DSpace on 2018-03-21T21:24:41Z (GMT). No. of bitstreams: 1 MauricioTellesBigioDissertacao2016.pdf: 4306959 bytes, checksum: bd1bca5a2405adda24198db052373c8f (MD5) Previous issue date: 2016-02-29 / The quantity and diversity of present processes in large organizations are huge. Considering a context of high productivity and high turnover, cost of employees for the information and knowledge necessary to perform their tasks as well as the loss of knowledge, causes significant damage. However, Knowledge Management (KM) provides a horizon in this field and may represent a competitive advantage. The institutions that create new knowledge in a sustainable manner and spread throughout the organization have the capacity to innovate, improving processes and bypassing any crises. Internal services, demands between units of an institution, often represent bottlenecks in performance, caracterized for errors, delays and low quality / efficiency, among others, with a significant impact on the final product / service. A methodology that addresses these services can be a way for institutions such as governments meet the challenge of raising the standard of service to customers and citizens. Ontologies contribute to this optical in that create and conceptual relationships on the knowledge models. From them, inferences can be made both by humans and by machines, facilitating searches, maximizing disambiguations and establishing clear standards of communication. Thus, the present study had the vision to contribute to improving the efficiency and effectiveness in public administration, using the premises of the Service Charter with the main objective to describe these internal services in the form of an ontology. Was used as a research focus a representative public bank of the indirect administration and among the main findings, there was satisfactory use of a new methodology for creating ontologies, creating an ontology for the intended context (OntoCSI), the creation of application wiki pilot that showed the basic elements for collaborative construction of the Internal Services Charter template and the approval of this interface with experts and other stakeholders. / A quantidade e a diversidade de processos presentes nas grandes organiza????es s??o enormes. Considerando um contexto de alta produtividade e de alta rotatividade, o custo dos funcion??rios para obter a informa????o e o conhecimento necess??rios para a execu????o de suas tarefas, bem como a perda de conhecimento, origina preju??zo significativo. Entretanto, a Gest??o do Conhecimento (GC) fornece um horizonte neste campo e pode representar vantagem competitiva. As institui????es que criam novos conhecimentos de forma sustent??vel e os disseminam por toda a organiza????o possuem a capacidade de inovar, melhorando os processos e contornando eventuais crises. Os servi??os internos, demandas entre as unidades de uma institui????o, frequentemente representam gargalos em seu desempenho, tangibilizados por erros, atrasos e baixa qualidade/efici??ncia, entre outros, com reflexos significativos no produto/servi??o final. Uma metodologia que aborde estes servi??os pode ser uma via para institui????es, como os governos, cumprirem o desafio de elevar o padr??o dos servi??os prestados aos clientes e aos cidad??os. As ontologias contribuem para esta ??tica na medida em que criam modelos conceituais e de relacionamentos sobre o conhecimento. A partir delas, podem ser realizadas infer??ncias tanto por humanos quanto por m??quinas, facilitando buscas, maximizando desambigua????es e estabelecendo padr??es claros de comunica????o. Assim, a presente pesquisa teve a vis??o de contribuir com a melhoria da efici??ncia e da efic??cia na administra????o p??blica, utilizando as premissas da Carta de Servi??os com o objetivo principal de descrever estes servi??os internos sob a forma de uma ontologia. Utilizou-se como foco de pesquisa um banco p??blico representativo da administra????o indireta e, dentre os principais resultados, houve satisfat??ria utiliza????o de nova metodologia para a cria????o de ontologias, a cria????o de uma ontologia para o contexto pretendido (OntoCSI), a cria????o de aplica????o wiki piloto que mostrou os elementos b??sicos para constru????o colaborativa do modelo de Carta de Servi??os Interna e a aprova????o desta interface junto a especialistas e outras partes interessadas.
68

Estratégia computacional para apoiar a reprodutibilidade e reuso de dados científicos baseado em metadados de proveniência. / Computational strategy to support the reproducibility and reuse of scientific data based on provenance metadata.

Silva, Daniel Lins da 17 May 2017 (has links)
A ciência moderna, apoiada pela e-science, tem enfrentado desafios de lidar com o grande volume e variedade de dados, gerados principalmente pelos avanços tecnológicos nos processos de coleta e processamento dos dados científicos. Como consequência, houve também um aumento na complexidade dos processos de análise e experimentação. Estes processos atualmente envolvem múltiplas fontes de dados e diversas atividades realizadas por grupos de pesquisadores geograficamente distribuídos, que devem ser compreendidas, reutilizadas e reproduzíveis. No entanto, as iniciativas da comunidade científica que buscam disponibilizar ferramentas e conscientizar os pesquisadores a compartilharem seus dados e códigos-fonte, juntamente com as publicações científicas, são, em muitos casos, insuficientes para garantir a reprodutibilidade e o reuso das contribuições científicas. Esta pesquisa objetiva definir uma estratégia computacional para o apoio ao reuso e a reprodutibilidade dos dados científicos, por meio da gestão da proveniência dos dados durante o seu ciclo de vida. A estratégia proposta nesta pesquisa é apoiada em dois componentes principais, um perfil de aplicação, que define um modelo padronizado para a descrição da proveniência dos dados, e uma arquitetura computacional para a gestão dos metadados de proveniência, que permite a descrição, armazenamento e compartilhamento destes metadados em ambientes distribuídos e heterogêneos. Foi desenvolvido um protótipo funcional para a realização de dois estudos de caso que consideraram a gestão dos metadados de proveniência de experimentos de modelagem de distribuição de espécies. Estes estudos de caso possibilitaram a validação da estratégia computacional proposta na pesquisa, demonstrando o seu potencial no apoio à gestão de dados científicos. / Modern science, supported by e-science, has faced challenges in dealing with the large volume and variety of data generated primarily by technological advances in the processes of collecting and processing scientific data. Therefore, there was also an increase in the complexity of the analysis and experimentation processes. These processes currently involve multiple data sources and numerous activities performed by geographically distributed research groups, which must be understood, reused and reproducible. However, initiatives by the scientific community with the goal of developing tools and sensitize researchers to share their data and source codes related to their findings, along with scientific publications, are often insufficient to ensure the reproducibility and reuse of scientific results. This research aims to define a computational strategy to support the reuse and reproducibility of scientific data through data provenance management during its entire life cycle. Two principal components support our strategy in this research, an application profile that defines a standardized model for the description of provenance metadata, and a computational architecture for the management of the provenance metadata that enables the description, storage and sharing of these metadata in distributed and heterogeneous environments. We developed a functional prototype for the accomplishment of two case studies that considered the management of provenance metadata during the experiments of species distribution modeling. These case studies enabled the validation of the computational strategy proposed in the research, demonstrating the potential of this strategy in supporting the management of scientific data.
69

MARCXML : um padrão de descrição para recursos informacionais em Open Archives /

Flamino, Adriana Nascimento. January 2006 (has links)
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos / Banca: Silvana aparecida Borsetti Gregório Vidotti / Banca: José Fernando Modesto da Silva / Abstract: The scientific communication is suffering considerable alterations so much in its process as in its structure and philosophy. The open archives and open access initiatives are contributing significantly for the undoing of the traditional model of scientific communication and for the construction of a new disaggregated model and with interoperability, fairer and efficient to disseminate the research results and like this, the knowledge generated by the scientific communities. However, due to the progresses of the information and communication technologies, not only the structure and the flow of the scientific communication is suffering considerable alterations, as well as the own concept and support of the scientific documents. This has been generating the need of the development of tools to optimize the organization, description, exchange and information retrieval processes, besides the digital preservation, among others. Highlight that the MARC format it has been allowing per decades the description and the exchange of bibliographical and cataloging registrations to the institutions, favoring the access to the contents informacionais contained in several collections. However, with the exponential growth of information and of the documents generation (above all digital), this has been demanding larger flexibility and interoperability among the several information systems available. In this scenery, the XML markup language is presented as one of the current developments that has as purpose to facilitate and to optimize the administration, storage and transmission of contents through Internet, it being incorporate for several sections and areas of the knowledge for the handling easiness and operational flexibility. Front to that, an exploratory study of theoretical analysis was accomplished, identifying the adaptation of the MARCXML... (Complete abstract, click electronic address below) / Mestre
70

Metadados como elementos do processo de catalogação /

Alves, Rachel Cristina Vesu. January 2010 (has links)
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos / Banca: Silvana Aparecida Borsetti Gregório Vidotti / Banca: Ricardo César Gonçalves Santana / Banca: Marcos Luiz Mucheroni / Banca: Isa Maria Freire / Resumo: O início do século XXI vem sendo marcado por mudanças relacionadas à informação e à tecnologia, principalmente no que diz respeito à produção e ao uso da informação, nas tecnologias de informática e desenvolvimento das TICs (Tecnologias de Informação e Comunicação) utilizadas para difundir essas informações. Diante disso, a representação da informação passou a ser requisito em diversas áreas do conhecimento, e para atender a essa necessidade foram criados vários padrões de metadados, que variam desde estruturas simples, passando por um tipo de padrão intermediário, até padrões de estruturas mais complexas de descrição. Com a variedade de tipos de padrões, a área de Ciência da Informação se depara com o seguinte impasse que se constitui como problema de pesquisa: como construir representações adequadas e padronizadas que garantam a unicidade e recuperação eficiente dos recursos informacionais? Esta pesquisa, que pertence à linha Informação e Tecnologia, apresenta como tema a análise das Formas de Representação dos recursos informacionais, tendo em vista as mudanças causadas pelos avanços das TICs no tratamento descritivo da informação (TDI) com o surgimento dos metadados. O foco constitui-se na análise das teorias, dos princípios, dos fundamentos e dos instrumentos que norteiam a construção de representações padronizadas na área de Ciência da Informação. A tese levantada para esta pesquisa é de que a integração estratégica entre as tecnologias de informática e os métodos utilizados nos processos de tratamento descritivo da informação (TDI) da área de Ciência da Informação consolidam a construção padronizada e consistente de metadados, proporcionando uma representação que garanta a unicidade e a recuperação... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The 21 st century has been marked by related changes to information and technology, notably as regards the production and use of information in the computing technologies and in the development of information and communication technologies (ICTs) to disseminate them. Thus, the representation of information has become requirement in many areas of knowledge and to meet this need were developed metadata standards that diversify from simple structures, through a kind of intermediate standard to more complex structures description. The diversity of standards Information Science area is faced with the following impasse that constitutes a research problem: how to construct appropriate and standardized representations to ensure unity and efficient retrieval of information resources? This research which belongs to information and technology line has as theme the analysis of forms of representation of information resources, in view of the changes caused by advances in ICTs in the descriptive treatment of information (DTI) with the emergence of metadata. The focus is on analysis of the theories, principles, fundamentals and tools that guide of the standardized representations development in the Information Science field. The thesis hold for this research is that the strategic integration between computing technologies and methods used in descriptive treatment of information (DTI) processes of the Science Information field consolidate the consistent and standardized construction of metadata providing a representation which ensures the unity and resources retrieval in digital information environments different. Thus, the research hypothesis is that the theories, principles, fundamentals, methods and techniques of cataloging, which are currently going through technological changes, are methodologies that guide the standardized... (Complete abstract click electronic access below) / Doutor

Page generated in 0.0454 seconds