• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 2
  • 2
  • Tagged with
  • 35
  • 35
  • 23
  • 23
  • 15
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Using a provenance model and spatiotemporal information to integrate heterogeneous biodiversity semantic data. / Usando um modelo de proveniência e informações espaço-temporais para integrar dados semânticos heterogêneos sobre biodiversidade

Amanqui, Flor Karina Mamani 20 November 2017 (has links)
In the last few years, the Web of data is being rapidly populated with biodiversity data. However, when researchers need to retrieve, integrate, and visualize these data, they need to rely on semi-manual approaches. That is due to the fact that biodiversity repositories, such as GBIF, offer data as just strings in CSV format spreadsheets. There is no machine readable metadata that could add meaning (semantics) to data. Without this metadata, automatic solutions are impossible and labor intensive semi-manual approaches for data integration and visualization are unavoidable. To reduce this problem, we present a novel architecture, called STBioData, to automatically link spatiotemporal biodiversity data, from heterogeneous data sources, to enable easier searching, visualization and downloading of relevant data. It supports the generation of interactive maps and mapping between biodiversity data and ontologies describing them (such as Darwin Core, DBpedia, GeoSPARQL, Time and PROV-O). A new biodiversity provenance model (BioProv), extending the W3C PROV Data Model, was proposed. BioProv enables applications that deal with biodiversity data to incorporate provenance data in their information. A web based prototype, based on this architecture, was implemented. It supports biodiversity domain experts in tasks, such as identifying a species conservation status, by automating most of the necessary tasks. It uses collection data, from important Brazilian biodiversity research institutions, and species geographic distributions and conservation status, from the IUCN Red List of Threatened Species. These data are converted to linked data, enriched and saved as RDF Triples. Users can access the system, using a web interface, and search for collection and species distribution records based on species names, time ranges and geographic location. After a data set is recovered, it can be displayed in an interactive map. The records contents are also shown (including provenance data) together with links to the original records at GBIF and IUCN. Users can export datasets, as a CSV or RDF file, or get a print out in PDF (including the visualizations). Choosing different time ranges, users can, for instance, verify the evolution of a species distribution. The STBioData prototype was tested using use cases. For the tests, 46,211 collection records, from SpeciesLink, and 38,589 conservation status records (including maps), from IUCN, for marine mammal were converted to 2,233,782. RDF triples and linked using well known ontologies. 90% of biodiversity experts, using the tool to determine conservation status, were able to find information about dolphin species, with a satisfactory recovery time, and were able to understand the interactive map. In an information retrieval experiment, when compared with SpeciesLink keyword based search, the prototypes semantic based search performed, on average, 24% better in precision and 22% in recall tests. And that does not takes into account cases where only the prototype returned search results. These results demonstrate the value of having public available linked biodiversity data with semantics. / Nos últimos anos, a Web de dados está sendo rapidamente preenchida com dados de biodiversidade. No entanto, quando pesquisadores precisam recuperar, integrar e visualizar esses dados, eles precisam confiar em abordagens semi-manuais. Isso ocorre devido ao fato de que repositórios sobre biodiversidade, como GBIF, oferecem dados como cadeias de caracteres em planilhas no formato CSV. Não há nenhum metadado legível por máquinas que poderia acrescentar significado (semântico) aos dados. Sem os metadados, soluções automáticas são impossíveis, sendo necessário para visualização e integração dos dados, a utilização de abordagens semi-manuais. Para reduzir esse problema, apresentamos uma arquitetura chamada STBioData. Com ela é possível vincular automaticamente dados de biodiversidade, com informações espaço-temporais provenientes de fontes heterogêneas, tornando mais fácil a pesquisa, visualização e download dos dados relevantes. Ele suporta a geração de mapas interativos e o mapeamento entre dados de biodiversidade e ontologias que os descrevem (como Darwin Core, DBpedia, GeoSPARQL, Time e PROV-O). Foi proposto um novo modelo de proveniência para biodiversidade (BioProv), que estende o modelo de dados PROV W3C. BioProv permite que aplicativos que lidam com dados de biodiversidade incorporem os dados de proveniência em suas informações. Foi implementado um protótipo Web baseado nesta arquitetura. Ele oferece suporte aos especialistas do domínio de biodiversidade em tarefas como, identificação do status de conservação da espécie, além de automatizar a maioria das tarefas necessária. Foi utilizado coleções de dados de importantes pesquisas brasileiras sobre biodiversidade, juntamente com dados de distribuição geográfica das espécies e seu estado de conservação, provenientes da lista de espécies ameaçadas da IUCN (Red List). Esses dados são convertidos em dados conectados, enriquecidos e salvados como triplas RDF. Os usuários podem acessar o sistema, usando uma interface web que permite procurar, utilizando os nomes das espécies, intervalos de tempo e localização geográfica. Os dados recuperados podem ser visualizados no mapa interativo. O conteúdo de registros também é mostrado (incluindo dados de proveniência), juntamente com links para os registros originais no GBIF e IUCN. Os usuários podem exportar o conjunto de dados, como um arquivo CSV ou RDF, ou salvar em PDF (incluindo as visualizações). Escolhendo diferentes intervalos de tempo, os usuários podem por exemplo, verificar a evolução da distribuição das espécies. O protótipo STBioData foi testado usando casos de uso. Para esses testes, 46.211 registros de coleção do SpeciesLink e 38.589 registros de estado de conservação da IUCN (incluindo mapas), sobre mamíferos marinhos, foram convertidos em 2.233.782 triplas RDF. Essas triplas reutilizam ontologias representativas da área . 90% dos especialistas em biodiversidade, usaram a ferramenta para determinar o estado de conservação, eles foram capaz de encontrar as informações sobre determinada espécie de golfinho, com um tempo de recuperação satisfatório e também foram capaz de entender o mapa interativo gerado. Em um experimento sobre recuperação de informações, quando comparado com o sistema de busca por palavra-chave utilizado pela base SpeciesLink, a busca semântica realizada pelo protótipo STBioData, em média, é 24% melhor em testes de precisão e 22% melhor em testes de revocação. Não são considerados os casos onde o protótipo somente retornou o resultado da busca. Esses resultados demonstram o valor de ter dados conectados sobre biodiversidade disponíveis publicamente em um formato semântico.
2

Using a provenance model and spatiotemporal information to integrate heterogeneous biodiversity semantic data. / Usando um modelo de proveniência e informações espaço-temporais para integrar dados semânticos heterogêneos sobre biodiversidade

Flor Karina Mamani Amanqui 20 November 2017 (has links)
In the last few years, the Web of data is being rapidly populated with biodiversity data. However, when researchers need to retrieve, integrate, and visualize these data, they need to rely on semi-manual approaches. That is due to the fact that biodiversity repositories, such as GBIF, offer data as just strings in CSV format spreadsheets. There is no machine readable metadata that could add meaning (semantics) to data. Without this metadata, automatic solutions are impossible and labor intensive semi-manual approaches for data integration and visualization are unavoidable. To reduce this problem, we present a novel architecture, called STBioData, to automatically link spatiotemporal biodiversity data, from heterogeneous data sources, to enable easier searching, visualization and downloading of relevant data. It supports the generation of interactive maps and mapping between biodiversity data and ontologies describing them (such as Darwin Core, DBpedia, GeoSPARQL, Time and PROV-O). A new biodiversity provenance model (BioProv), extending the W3C PROV Data Model, was proposed. BioProv enables applications that deal with biodiversity data to incorporate provenance data in their information. A web based prototype, based on this architecture, was implemented. It supports biodiversity domain experts in tasks, such as identifying a species conservation status, by automating most of the necessary tasks. It uses collection data, from important Brazilian biodiversity research institutions, and species geographic distributions and conservation status, from the IUCN Red List of Threatened Species. These data are converted to linked data, enriched and saved as RDF Triples. Users can access the system, using a web interface, and search for collection and species distribution records based on species names, time ranges and geographic location. After a data set is recovered, it can be displayed in an interactive map. The records contents are also shown (including provenance data) together with links to the original records at GBIF and IUCN. Users can export datasets, as a CSV or RDF file, or get a print out in PDF (including the visualizations). Choosing different time ranges, users can, for instance, verify the evolution of a species distribution. The STBioData prototype was tested using use cases. For the tests, 46,211 collection records, from SpeciesLink, and 38,589 conservation status records (including maps), from IUCN, for marine mammal were converted to 2,233,782. RDF triples and linked using well known ontologies. 90% of biodiversity experts, using the tool to determine conservation status, were able to find information about dolphin species, with a satisfactory recovery time, and were able to understand the interactive map. In an information retrieval experiment, when compared with SpeciesLink keyword based search, the prototypes semantic based search performed, on average, 24% better in precision and 22% in recall tests. And that does not takes into account cases where only the prototype returned search results. These results demonstrate the value of having public available linked biodiversity data with semantics. / Nos últimos anos, a Web de dados está sendo rapidamente preenchida com dados de biodiversidade. No entanto, quando pesquisadores precisam recuperar, integrar e visualizar esses dados, eles precisam confiar em abordagens semi-manuais. Isso ocorre devido ao fato de que repositórios sobre biodiversidade, como GBIF, oferecem dados como cadeias de caracteres em planilhas no formato CSV. Não há nenhum metadado legível por máquinas que poderia acrescentar significado (semântico) aos dados. Sem os metadados, soluções automáticas são impossíveis, sendo necessário para visualização e integração dos dados, a utilização de abordagens semi-manuais. Para reduzir esse problema, apresentamos uma arquitetura chamada STBioData. Com ela é possível vincular automaticamente dados de biodiversidade, com informações espaço-temporais provenientes de fontes heterogêneas, tornando mais fácil a pesquisa, visualização e download dos dados relevantes. Ele suporta a geração de mapas interativos e o mapeamento entre dados de biodiversidade e ontologias que os descrevem (como Darwin Core, DBpedia, GeoSPARQL, Time e PROV-O). Foi proposto um novo modelo de proveniência para biodiversidade (BioProv), que estende o modelo de dados PROV W3C. BioProv permite que aplicativos que lidam com dados de biodiversidade incorporem os dados de proveniência em suas informações. Foi implementado um protótipo Web baseado nesta arquitetura. Ele oferece suporte aos especialistas do domínio de biodiversidade em tarefas como, identificação do status de conservação da espécie, além de automatizar a maioria das tarefas necessária. Foi utilizado coleções de dados de importantes pesquisas brasileiras sobre biodiversidade, juntamente com dados de distribuição geográfica das espécies e seu estado de conservação, provenientes da lista de espécies ameaçadas da IUCN (Red List). Esses dados são convertidos em dados conectados, enriquecidos e salvados como triplas RDF. Os usuários podem acessar o sistema, usando uma interface web que permite procurar, utilizando os nomes das espécies, intervalos de tempo e localização geográfica. Os dados recuperados podem ser visualizados no mapa interativo. O conteúdo de registros também é mostrado (incluindo dados de proveniência), juntamente com links para os registros originais no GBIF e IUCN. Os usuários podem exportar o conjunto de dados, como um arquivo CSV ou RDF, ou salvar em PDF (incluindo as visualizações). Escolhendo diferentes intervalos de tempo, os usuários podem por exemplo, verificar a evolução da distribuição das espécies. O protótipo STBioData foi testado usando casos de uso. Para esses testes, 46.211 registros de coleção do SpeciesLink e 38.589 registros de estado de conservação da IUCN (incluindo mapas), sobre mamíferos marinhos, foram convertidos em 2.233.782 triplas RDF. Essas triplas reutilizam ontologias representativas da área . 90% dos especialistas em biodiversidade, usaram a ferramenta para determinar o estado de conservação, eles foram capaz de encontrar as informações sobre determinada espécie de golfinho, com um tempo de recuperação satisfatório e também foram capaz de entender o mapa interativo gerado. Em um experimento sobre recuperação de informações, quando comparado com o sistema de busca por palavra-chave utilizado pela base SpeciesLink, a busca semântica realizada pelo protótipo STBioData, em média, é 24% melhor em testes de precisão e 22% melhor em testes de revocação. Não são considerados os casos onde o protótipo somente retornou o resultado da busca. Esses resultados demonstram o valor de ter dados conectados sobre biodiversidade disponíveis publicamente em um formato semântico.
3

Consequências da adoção de inovações : um modelo de análise além do viés pró-inovação

Oliveira, Leonardo Ferreira de 31 March 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Economia, Administração e Contabilidade, Programa de Pós-Graduação em Administração, 2015. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2015-07-06T17:26:19Z No. of bitstreams: 1 2015_LeonardoFerreiradeOliveira.pdf: 1859125 bytes, checksum: 16577720686ce5f50ca369f30a848c72 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2015-07-10T11:39:51Z (GMT) No. of bitstreams: 1 2015_LeonardoFerreiradeOliveira.pdf: 1859125 bytes, checksum: 16577720686ce5f50ca369f30a848c72 (MD5) / Made available in DSpace on 2015-07-10T11:39:51Z (GMT). No. of bitstreams: 1 2015_LeonardoFerreiradeOliveira.pdf: 1859125 bytes, checksum: 16577720686ce5f50ca369f30a848c72 (MD5) / Na literatura de inovação, já foi reconhecida e nomeada de viés pró-inovação a tendência de enxergar apenas os aspectos positivos das inovações. Tal perspectiva não abrange todas as características deste fenômeno (inovação), visto decorrerem dele tanto aspectos positivos quanto negativos. Com a utilização da Teoria da Difusão de Inovações e da Teoria dos Stakeholders, foi desenvolvido Modelo de Analise das Consequências da Adoção de Inovações, compreendendo as consequências Diretas, Indiretas, Previsíveis, Imprevisíveis, Desejáveis, Indesejáveis, Pretendidas e Não Pretendidas das inovações. O Modelo foi validado por meio de entrevistas com 9 Doutores especialistas na área e em seguida aplicado ao caso da adoção dos Dados Abertos pelo Governo do Distrito Federal. No estudo empírico foram realizadas mais 7 entrevistas, visando coletar a opinião dos Stakeholders da citada inovação, bem como foram categorizadas 95 consequências encontradas quanto aos seus efeitos, cuja síntese pode ser visualizada em uma única imagem, nomeada de Mapa de Consequências, o qual demonstra as consequências da adoção da inovação na percepção dos diferentes Stakeholders. / In the innovation literature, has already been recognized and named pro-innovation bias the tendency to see only the positive aspects of innovations. This perspective does not cover all the features of the innovation phenomenon, since it arise both positive and negative aspects. Using the Diffusion Innovation Theory and Stakeholder Theory, was developed a Model of Analysis of the Consequences Innovation Adoption, comprising the consequences Direct, Indirect, Anticipated, Unanticipated, Desirable, Undesirable, Intended and Unintended of innovations. The model was validated through interviews with 9 Phds specialists in the field and then applied to the case of the adoption of the Open Data for the Federal District. In the empirical study were performed 7 more interviews, seeking to gather the views of stakeholders of the said innovation. 95 consequences were found and categorized in their effects, the synthesis of which can be viewed in a single image, named Consequences Map, which shows the consequences of the adoption of innovation in the perception of different stakeholders.
4

Dados abertos: categorias e temas prioritários a serem disponibilizados pelas instituições federais de ensino superior (IFES) aos cidadãos

CAROSSI, Daniel Fernando 12 December 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-08-09T16:09:29Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação - Daniel Fernando Carossi.pdf: 2640822 bytes, checksum: 14199daf21e3a1ff6aa80c00a40a78e8 (MD5) / Made available in DSpace on 2017-08-09T16:09:29Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação - Daniel Fernando Carossi.pdf: 2640822 bytes, checksum: 14199daf21e3a1ff6aa80c00a40a78e8 (MD5) Previous issue date: 2016-12-12 / O conceito de Dados Abertos foi criado para referir-se a informações publicadas livremente, e, no âmbito governamental, busca fomentar a transparência e a inovação na gestão pública. No ano de 2011, o Brasil assumiu o compromisso de ampliar a transparência pública com a participação na Open Government Partnership (Parceria para Governo Aberto). Esse compromisso tem exigido que as instituições públicas disponibilizem informações de interesse da sociedade na perspectiva de dados abertos. Tendo em vista a importância do tema, dos recentes instrumentos normativos publicados no país regendo o assunto e a necessidade de disponibilizar dados relevantes à sociedade, o presente trabalho teve como objetivo realizar uma investigação em 104 Instituições Federais de Ensino Superior (IFES) em busca dos temas mais demandados pela sociedade, registrados no Sistema Eletrônico do Serviço de Informações ao Cidadão (e-SIC), entre maio de 2012 a abril de 2016. Utilizando-se da metodologia Grounded Theory (Teoria Fundamentada em Dados), a pesquisa identificou categorias e temas associados que indicam um conjunto de dados prioritários sujeitos a comporem os Planos de Dados Abertos (PDAs) das instituições, conforme as legislações em vigor. A identificação desse conjunto de dados pode contribuir para ampliar o rol mínimo de informações disponibilizadas e servir como referência das demandas para a construção de um PDA mais eficiente e eficaz para toda a sociedade. / The concept of Open Data was created to refer to information published freely and, in the governmental sphere, seeks to foster transparency and innovation in public management. In 2011, Brazil undertook to increase public transparency by participating in the Open Government Partnership. This commitment has required public institutions to make available information of interest to society from the perspective of open data. Considering the importance of the topic, the recent normative instruments published in the country governing the subject and the need to make relevant data available, the present study had the objective of conducting research in 104 Federal Institutions of Higher Education (IFES) in search the topics most demanded, registered in the Electronic System of the Citizen Information Service (e-SIC), between May 2012 and April 2016. Using the Grounded Theory methodology, the research identified categories and code associated that indicate a set of data priority subject to the Open Data Plans (PDAs) of the institutions, in accordance with the legislation in force. The identification of this set of data can contribute to broaden the minimum role of information available and serve as a reference of the demands for the construction of a more efficient and effective PDA for the whole society.
5

Dados abertos do governo brasileiro: entendendo as perspectivas de fornecedores de dados e desenvolvedores de aplica??es ao cidad?o / Open data from the brazilian government: understanding the perspectives of data suppliers and developers of applications to the citizens

Ara?jo, Narallynne Maciel de 21 February 2017 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-06-30T12:32:07Z No. of bitstreams: 1 NarallynneMacielDeAraujo_DISSERT.pdf: 7500902 bytes, checksum: 587ea9afc222fca330e6dc52dbb60765 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-06-30T12:40:06Z (GMT) No. of bitstreams: 1 NarallynneMacielDeAraujo_DISSERT.pdf: 7500902 bytes, checksum: 587ea9afc222fca330e6dc52dbb60765 (MD5) / Made available in DSpace on 2017-06-30T12:40:07Z (GMT). No. of bitstreams: 1 NarallynneMacielDeAraujo_DISSERT.pdf: 7500902 bytes, checksum: 587ea9afc222fca330e6dc52dbb60765 (MD5) Previous issue date: 2017-02-21 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico (CNPq) / Dados Abertos Governamentais (DAGs) s?o vistos como uma forma de promover transpar?ncia, bem como de fornecer informa??es para a popula??o por meio da abertura de dados relacionados a diversos setores governamentais. Cidad?os, ao fazerem uso de aplica??es desenvolvidas com esse tipo de dado, conseguem obter o conhecimento sobre determinada esfera p?blica; o governo, por sua vez, ? capaz de promover a transpar?ncia necess?ria e proporcionar melhorias dos seus ?rg?os por meio da intera??o com cidad?os que utilizam tais aplica??es. No entanto, a cria??o e o sucesso de projetos que usam DAGs certamente depende de desenvolvedores capazes de extrair, processar e analisar essas informa??es, como tamb?m da qualidade com que esses dados s?o disponibilizados pelos seus fornecedores. Esta pesquisa foi dividida em duas fases: a primeira fase, procurou investigar a perspectiva dos desenvolvedores que utilizam DAGs brasileiros para o desenvolvimento de aplica??es que objetivam promover maior transpar?ncia aos cidad?os; na segunda fase, foram investigadas as perspectivas de cidad?os respons?veis por publicar esses dados em portais de dados abertos, i.e. fornecedores de DAGs. Por meio de vinte e quatro entrevistas semiestruturadas com doze desenvolvedores e doze fornecedores, este trabalho reporta o que os motivam a trabalhar com DAGs, bem como as dificuldades enfrentadas por eles nesse processo. Os resultados indicam que ambos atores buscam promover transpar?ncia para a popula??o, mas esbarram na baixa qualidade dos DAGs, barreiras culturais, dentre outroes problemas. Neste trabalho, tais problemas s?o apresentados e caracterizados qualitativamente. Tamb?m s?o apresentadas recomenda??es, de acordo com as perspectivas de desenvolvedores e fornecedores de dados, com o objetivo de trazer benef?cios ao ecossistema de DAGs brasileiro e aos cidad?os.
6

Uma Abordagem Para Enriquecimento Semântico de Metadados Para Publicação de Dados Abertos

Lira, Márcio Angelo Bezerra de 02 September 2014 (has links)
Submitted by Lucelia Lucena (lucelia.lucena@ufpe.br) on 2015-03-09T19:45:29Z No. of bitstreams: 2 DISSERTAÇÃO Márcio Angelo Bezerra de Lira.pdf: 2325407 bytes, checksum: 0dfe2a2eee4108d58d6bd08c5a45a1e0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-09T19:45:29Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Márcio Angelo Bezerra de Lira.pdf: 2325407 bytes, checksum: 0dfe2a2eee4108d58d6bd08c5a45a1e0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-09-02 / A publicação de Dados Abertos vem alcançando cada vez mais adeptos, principalmente no domínio de dados governamentais. Um dos fatores do sucesso da publicação dos dados em formato aberto seria a disponibilização de metadados capazes de descrever os dados de forma satisfatória. Estes metadados oferecem meios para que usuários, desenvolvedores e sistemas automatizados possam compreender e processar os dados. Porém, apesar da sua importância, a ausência de metadados tem sido um problema comum no cenário atual de publicação de dados abertos. Além da ausência de metadados, outro fator crítico diz respeito ao reuso de metadados. Uma vez que os metadados são publicados, é importante que possam ser reutilizados, a fim de facilitar o processo de publicação de dados de maneira geral. Neste contexto, este trabalho propõe uma abordagem para o enriquecimento semântico de metadados para descrição de dados abertos. A abordagem proposta tem como objetivo facilitar tanto a publicação quanto o reuso de metadados. Para isso, são usadas anotações semânticas e vocabulários padrões. Dessa forma, espera-se que os metadados possam ser facilmente compreendidos e processados. Para avaliação da abordagem proposta, foi desenvolvido um protótipo e foram realizados alguns experimentos.
7

RECOBA: um ambiente para publicação e compartilhamento de objetos de aprendizagem no formato aberto e fragmentado.

JUNQUEIRA, Rossana de Paula 14 May 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2015-10-20T19:17:52Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação(Rossana) - Com capa.pdf: 2650766 bytes, checksum: c0e96b8ec48ebcad06897d91b1e91fc2 (MD5) / Made available in DSpace on 2015-10-20T19:17:52Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação(Rossana) - Com capa.pdf: 2650766 bytes, checksum: c0e96b8ec48ebcad06897d91b1e91fc2 (MD5) Previous issue date: 2015-05-14 / FACEPE / Os objetos de aprendizagem têm sido destacados pela literatura como uma solução eficiente para os problemas referentes à redução de custo no desenvolvimento de conteúdos educacionais. A reutilização do objeto de aprendizagem oferece uma forma eficiente de facilitar o ensino, pois ele pode ser readaptado para satisfazer diferentes tipos de usuários. Para isso, deve ser possível que um Objeto de Aprendizagem (OA) seja livremente utilizado, reutilizado e redistribuído por qualquer um. Infelizmente, grande parte dos OAs são disponibilizados de forma que não contribuem para a sua reutilização. Para promover o reúso dos OAs, eles precisam ser compartilhados em formatos abertos, ou seja, formatos estruturados e legíveis por máquinas, e que possam ser novamente usados de forma livre pela sociedade. Outro fator que contribuiria ainda mais para o seu reúso seria disponibilizá-lo de forma fragmentada, ou seja, dividido em pequenas partes. Uma vez criados os OAs, espera-se que eles sejam armazenados e disponibilizados em um local adequado, como os Repositórios de Objetos de Aprendizagem. Apesar da grande diversidade de Repositórios de Objetos de Aprendizagem atualmente disponíveis, diversos desafios ainda precisam ser enfrentados para a sua utilização de forma satisfatória e que contribua para o reúso dos OAs, entre eles podemos destacar: não ser de livre acesso, o formato escolhido para disponibilização do OA dificulta seu reúso, dificuldade em fazer buscar por um OA, além de não disponibilizar os OAs de forma fragmentada. Neste contexto, este trabalho propõe a criação de um repositório para publicação e compartilhamento de Objetos de Aprendizagem, utilizando formatos de dados abertos, e ainda sugerindo a fragmentação dos objetos, ou seja, a publicação do objeto em partes e não apenas como um todo. Após a criação do repositório, foi realizado um experimento a fim de verificar se a disponibilização do OA de forma fragmentada contribui para o reúso dos mesmos. Os resultados obtidos no experimento evidenciam a contribuição da proposta, tendo impacto positivo na reutilização dos OAs. O intuito é estimular a reutilização de Objetos de Aprendizagem, contribuindo, dessa forma, para o fortalecimento da aprendizagem, disseminação e aquisição de novos conhecimentos. / Learning objects have been highlighted in the literature as an efficient solution to the problems related to cost reduction in the development of educational content due to its reusability. For that purpose, a Learning Object (LO) must be freely used, reused and redistributed by anyone. Unfortunately, most of the LOs are available in a way that does not enable reuse. In order to promote the reuse of LOs, they must be shared in open formats, that is, structured and machine readable formats that can freely re-used by society. Another factor that would contribute to their reuse would be making it available in a fragmented way, i.e., divided into small parts. Once the LOs are created, it is necessary to define an adequate location for the storage of these objects - learning objects repositories. However, although there is a great diversity of Learning Objects Repositories now available, several challenges must be addressed for a satisfactory use that can contribute to the reuse of LOs, namely: lack of free access, format that undermines the reuse of the LO, difficulty in looking for a LO, lack of provision of LOs in a fragmented way. In this context, this work proposes the development of an environment for publishing and sharing learning objects, using the concept of Open Data, and suggesting the fragmentation of objects, i.e., the publication of the object in parts and not just as a whole. The aim is to encourage the reuse of learning objects, thus contributing to the strengthening of learning, dissemination and acquisition of new knowledge and enhancing learning.
8

“Web service RESTful para Manipulação, Catalogação, Publicação naWeb e Eventual Manutenção de Dados Abertos Governamentais”

MACIEL, Bruno Iran Ferreira 02 September 2014 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-06-13T13:43:00Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) master_dissertarion_bruno_iran_ferreira_maciel.pdf: 2195155 bytes, checksum: 6f06d9eb76d39f57330246b10f75bafe (MD5) / Made available in DSpace on 2016-06-13T13:43:00Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) master_dissertarion_bruno_iran_ferreira_maciel.pdf: 2195155 bytes, checksum: 6f06d9eb76d39f57330246b10f75bafe (MD5) Previous issue date: 2014-09-02 / FACEPE / Recentemente, diversas iniciativas surgiram com intuito de fortalecer a transparência da administração pública por meio da publicação de dados na Web, conhecida por Dados Abertos Governamentais. Esse tipo de iniciativa permite que os cidadãos permaneçam informados sobre a gestão do governo, permitindo acompanhar a administração pública, de modo a contribuir com o aumento do poder de fiscalização do cidadão. A publicação de Dados Abertos é geralmente realizada por meio de sistemas para catalogação de dados, tais como: a Plataforma Comprehensive Knowledge Archive Network (CKAN). Além dos catálogos de dados, as Application Programming Interface (APIs) e Web services também podem ser utilizados para facilitar o acesso aos dados. Apesar do grande número de iniciativas que visam fornecer dados na Web, ainda não há um consenso sobre a melhor maneira de cumprir esta tarefa. No entanto, independentemente da estratégia escolhida, é importante que os processos utilizados para publicar dados na Web e manutenção destes dados se realizem de forma automática e de modo que cada uma das suas atividades possam ser reproduzidas quando for necessário. Neste contexto, este trabalho propõe uma abordagem Restful API, com base em um conjunto de Web services para facilitar a publicação e o consumo de dados abertos. / Recently, several initiatives have emerged with the aim of strengthening the transparency of public administration by publishing data on the Web, known as Government Open Data. This type of initiative allows citizens to remain informed about the government’s management, allowing monitoring the public administration in order to contribute to the increase of citizen oversight power. Data Open Publication is generally carried out by means of systems for cataloging data such as: a Comprehensive Knowledge Archive Network Platform (CKAN). In addition to the data catalogs, Application Programming Interfaces (APIs) and Web services can also be used to facilitate access to the data. Despite the large number of initiatives aimed at providing data on the Web, there is still no consensus on the best way to accomplish this task. However, regardless of the chosen strategy, it is important that the processes used to publish data to the web and maintenance of these data are carried out automatically and so that each of its activities can be reproduced when necessary. In this context, this paper proposes a Restful API approach, based on a set of Web services to facilitate the publication and consumption of open data.
9

IDEO Integrador de dados da Execução Orçamentária Brasileira: um estudo de caso da integração de dados das receitas e despesas nas Esferas Federal, Estadual Governo de São Paulo, e Municipal Municípios do Estado de São Paulo / The integration of multi-source heterogeneous data: an open data case study for budgetary execution in Brazil.

José Rodolfo Beluzo 30 September 2015 (has links)
Este trabalho apresenta um grupo de processos para a integracao de dados e esquemas das receitas e despesas da execucao do orcamento publico brasileiro nas tres esferas governamentais: governo federal, estadual e municipios. Estes processos visam resolver problemas de heterogeneidade encontrados pelo cidadao ao buscar por informacoes publicas em diferentes entes. Estas informacoes atualmente sao disponibilizadas pelos portais de transparencia que seguem a obrigatoriedade definida pelo arcabouco legal brasileiro, no qual estes devem publicar, dentre outras informacoes, o registro de receitas, despesas, transferencias financeiras e processos licitatorios, de forma integra, primaria, autentica e atualizada. Porem, apesar das exigencias citadas por lei, nao existe um padrao para publicacao, alem de inconsistencias e ambiguidades de dados entre os diferentes portais. Assim, este trabalho visa resolver estes problemas de heterogeneidade enfrentados pelo cidadao. Para tal, como prova de conceito foram selecionados os dados de receitas e despesas do governo federal, do governo do estado de Sao Paulo e de 645 municipios do estado de Sao Paulo. Este trabalho padronizou um modelo conceitual de receitas e despesas baseado no manual tecnico do orcamento redigido pelo governo federal anualmente. A partir deste modelo criou-se esquemas de dados padronizados de acordo com os datasets que estao disponibilizados nos portais de transparencia de cada ente federativo, assim como um esquema integrado entre estes. Os dados de execucao orcamentaria do periodo de 2010 a 2014 dos governos citados foram extraidos dos portais, passando por um processo de transformacao e limpeza, e carregados no sistema integrador. Apos os dados carregados no sistema, a partir do prototipo foi possivel obter informacoes a respeito da execucao orcamentaria as quais nao eram possiveis de se realizar de forma direta acessando os portais de transparencia, ou, quando possivel o trabalho de compilacao da informacao seria muito elevado. Tambem foi possivel analisar e apontar possiveis falhas sistemicas nos portais de transparencia atraves dos resultados obtidos no processo, podendo contribuir com a melhoria destes. / This dissertation presents a process group for data integration and schemes of the Brazilian public budget s revenues and expenditures from all government level spheres (municipalities, states and nationwide). These process group aims to solve some heterogeneity problems to access public information provided by different government entities. Budget information is currently disclosed on e-gov portals, which must comply the requirements set by the Brazilian legal framework. Data about revenues, expenses, financial transfers and bidding processes must be published in a primary, authentic and updated way. However, there is no standards for publication, besides the poor data quality and inconsistencies found in the same data provided by different portals. Thus, this work aims to give some contributions to address these heterogeneity problems. To achieve this, we implemented a proof of concept that gathers revenue and expenditure data from the Brazilian federal government, the state government of Sao Paulo and 645 municipalities of Sao Paulo state. As a result, this work has standardized a conceptual model of revenues and expenses based on the technical manual of the budget. From this model, we created standardized data schemas according to the datasets that are available at the website of transparency of each government entity, as well as an integrated scheme between them. Data disclosed from 2010-2014 by all mentioned government were gathered, cleaned and loaded into the prototype. The resulting data warehouse allows queries about budget execution in Brazil that are not possible to perform directly accessing the transparency portals, or, when it is possible, this compilation work is very time consuming. During the validation phase was also possible to analyze and identify possible some failures in the e-gov portals and some recomendations try to give some contribution to their improvement.
10

IDEO Integrador de dados da Execução Orçamentária Brasileira: um estudo de caso da integração de dados das receitas e despesas nas Esferas Federal, Estadual Governo de São Paulo, e Municipal Municípios do Estado de São Paulo / The integration of multi-source heterogeneous data: an open data case study for budgetary execution in Brazil.

Beluzo, José Rodolfo 30 September 2015 (has links)
Este trabalho apresenta um grupo de processos para a integracao de dados e esquemas das receitas e despesas da execucao do orcamento publico brasileiro nas tres esferas governamentais: governo federal, estadual e municipios. Estes processos visam resolver problemas de heterogeneidade encontrados pelo cidadao ao buscar por informacoes publicas em diferentes entes. Estas informacoes atualmente sao disponibilizadas pelos portais de transparencia que seguem a obrigatoriedade definida pelo arcabouco legal brasileiro, no qual estes devem publicar, dentre outras informacoes, o registro de receitas, despesas, transferencias financeiras e processos licitatorios, de forma integra, primaria, autentica e atualizada. Porem, apesar das exigencias citadas por lei, nao existe um padrao para publicacao, alem de inconsistencias e ambiguidades de dados entre os diferentes portais. Assim, este trabalho visa resolver estes problemas de heterogeneidade enfrentados pelo cidadao. Para tal, como prova de conceito foram selecionados os dados de receitas e despesas do governo federal, do governo do estado de Sao Paulo e de 645 municipios do estado de Sao Paulo. Este trabalho padronizou um modelo conceitual de receitas e despesas baseado no manual tecnico do orcamento redigido pelo governo federal anualmente. A partir deste modelo criou-se esquemas de dados padronizados de acordo com os datasets que estao disponibilizados nos portais de transparencia de cada ente federativo, assim como um esquema integrado entre estes. Os dados de execucao orcamentaria do periodo de 2010 a 2014 dos governos citados foram extraidos dos portais, passando por um processo de transformacao e limpeza, e carregados no sistema integrador. Apos os dados carregados no sistema, a partir do prototipo foi possivel obter informacoes a respeito da execucao orcamentaria as quais nao eram possiveis de se realizar de forma direta acessando os portais de transparencia, ou, quando possivel o trabalho de compilacao da informacao seria muito elevado. Tambem foi possivel analisar e apontar possiveis falhas sistemicas nos portais de transparencia atraves dos resultados obtidos no processo, podendo contribuir com a melhoria destes. / This dissertation presents a process group for data integration and schemes of the Brazilian public budget s revenues and expenditures from all government level spheres (municipalities, states and nationwide). These process group aims to solve some heterogeneity problems to access public information provided by different government entities. Budget information is currently disclosed on e-gov portals, which must comply the requirements set by the Brazilian legal framework. Data about revenues, expenses, financial transfers and bidding processes must be published in a primary, authentic and updated way. However, there is no standards for publication, besides the poor data quality and inconsistencies found in the same data provided by different portals. Thus, this work aims to give some contributions to address these heterogeneity problems. To achieve this, we implemented a proof of concept that gathers revenue and expenditure data from the Brazilian federal government, the state government of Sao Paulo and 645 municipalities of Sao Paulo state. As a result, this work has standardized a conceptual model of revenues and expenses based on the technical manual of the budget. From this model, we created standardized data schemas according to the datasets that are available at the website of transparency of each government entity, as well as an integrated scheme between them. Data disclosed from 2010-2014 by all mentioned government were gathered, cleaned and loaded into the prototype. The resulting data warehouse allows queries about budget execution in Brazil that are not possible to perform directly accessing the transparency portals, or, when it is possible, this compilation work is very time consuming. During the validation phase was also possible to analyze and identify possible some failures in the e-gov portals and some recomendations try to give some contribution to their improvement.

Page generated in 0.0314 seconds