• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 16
  • 15
  • 15
  • 15
  • 14
  • 11
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 275
  • 275
  • 156
  • 98
  • 74
  • 65
  • 62
  • 51
  • 50
  • 49
  • 48
  • 38
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

ORGANIZAÇÃO E GERENCIAMENTO DE CONTEÚDOS JORNALÍSTICOS NA WEB SEMÂNTICA / ORGANIZATION AND MANAGEMENT OF JOURNALISTIC CONTENT ON THE SEMANTIC WEB

Marques, Iuri Lammel 03 December 2011 (has links)
Among the technologies that have modified the digital journalism since its inception, there are two that can be highlighted: 1) the World Wide Web (Web), a network of digital documents that has being used as a platform to the practice of journalism on the Internet and that determined the three generations of digital journalism; and 2) the databases aggregate to the Web, that have become the main technology behind the structuring of journalistic products in the transition between the third and fourth generation of digital journalism. In 2001, the scientist Tim Berners-Lee, inventor of the web, published a paper with a proposal of an extension to this network, which was called the Semantic Web. The paper proposed a change in the concept of the current web: from the traditional network made of documents to a network made of data, plus the technical ability to represent real concepts, such as people, places and objects. A great advantage of this proposal is that computers would be able to understand the data and identify their meanings. With a semantic network, the information could be organized and managed more efficiently and in an automated way, and the connections between the data would be richer than the current hyperlinks between documents. The concept of the Semantic Web is still maturing, but it is currently possible to find digital products that implement this concept. This research aims to analyze two real cases that apply the concept of the Semantic Web in digital journalism, specifically in the organization and management of the newspaper reports. For the theoretical background of research, we conducted a literature review on digital journalism, paradigm of the Digital Journalism on Databases (JDBD) and how the standard technologies of the Semantic Web work, such as RDF and ontologies. This is an exploratory research and it uses the case study as a method. The cases are the site 'World Cup 2010 BBC' and the site 'BBC Wildlife'. The analysis was performed using eight categories applicable to the study of JDBD. Among the results, it is found that the Semantic Web improve some of the characteristics of JDBD, mainly due to the automation on management tasks. Moreover, it identified that automated interoperability was the more advantageous benefit of Semantic Web to both digital journalism cases, and that it can become a potential rupture if the Semantic Web project come to succeed. / Entre as tecnologias que transformaram o jornalismo digital desde o seu surgimento, destacam-se duas: a World Wide Web (web), rede de documentos digitais que serviu como plataforma à prática jornalística na internet e determinou as três fases evolutivas do jornalismo digital; e as bases de dados, que, agregadas à web, se tornaram a principal tecnologia estruturante dos produtos jornalísticos na fase de transição entre a terceira e a quarta geração do jornalismo digital. No ano de 2001, o cientista Tim Berners-Lee, inventor da web, publicou um artigo com a proposta de uma expansão para esta rede, a qual foi denominada Web Semântica. O artigo propunha uma mudança no conceito da web: da tradicional rede de documentos para uma rede de dados, com capacidade para representar conceitos reais, como pessoas, lugares e objetos. Um grande diferencial desta proposta é que os computadores teriam capacidade para interpretar tais dados e identificar seus significados. Em uma rede semântica, as informações poderiam ser organizadas e gerenciadas de forma mais eficiente e automatizada, e as conexões entre dados seriam mais ricas do que através dos atuais links entre documentos. O conceito de Web Semântica ainda está em fase de amadurecimento, mas já é possível encontrar em funcionamento produtos digitais que aplicam tal conceito. A proposta desta pesquisa é analisar dois casos que aplicam o conceito da Web Semântica no jornalismo digital, mais especificamente na organização e no gerenciamento das informações jornalísticas. Para o embasamento teórico da investigação, foi realizada uma revisão bibliográfica sobre o jornalismo digital, sobre o paradigma do Jornalismo Digital em Base de Dados (JDBD) e sobre o funcionamento das tecnologias empregadas na Web Semântica, tais como o RDF e as ontologias. A pesquisa apresenta caráter exploratório e emprega como estratégia de investigação o estudo de caso, especificamente dos sites BBC World Cup 2010 e BBC Wildlife. A análise foi realizada a partir de oito categorias aplicáveis ao estudo do JDBD. Entre os resultados, é constatado que a Web Semântica potencializa algumas das características do JDBD, principalmente devido à automatização. Além disso, foi identificado nos casos estudados que a interoperabilidade automatizada foi o benefício mais vantajoso da Web Semântica em relação às tecnologias até então utilizadas no jornalismo digital, e que pode se tornar uma ruptura caso o projeto de Web Semântica obtenha êxito.
232

Recomendação semântica de conteúdo em ambientes de convergência digital

Vieira, Priscilla Kelly Machado 18 March 2013 (has links)
Submitted by Clebson Anjos (clebson.leandro54@gmail.com) on 2016-02-11T18:57:46Z No. of bitstreams: 1 arquivototal.pdf: 1637083 bytes, checksum: 23ef5059be1eb85b0ff5f8ccf73e60d0 (MD5) / Made available in DSpace on 2016-02-11T18:57:46Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1637083 bytes, checksum: 23ef5059be1eb85b0ff5f8ccf73e60d0 (MD5) Previous issue date: 2013-03-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The emerging scenario of interactive Digital TV (iDTV) is promoting the increase of interactivity in the communication process and also in audiovisual production, thus rising the number of channels and resources available to the user. This reality makes the task of finding the desired content becoming a costly and possibly ineffective action. The incorporation of recommender systems in the iDTV environment is emerging as a possible solution to this problem. This work aims to propose a hybrid approach to content recommendation in iDTV, based on data mining techniques, integrated the concepts of the Semantic Web, allowing structuring and standardization of data and consequent possibility of sharing information, providing semantics and automated reasoning. For the proposed service is considered the Brazilian Digital TV System and the middleware Ginga. A prototype has been developed and carried out experiments with NetFlix database using the measuring accuracy for evaluation. There was obtained an average accuracy of 30% using only mining technique. Including semantic rules obtained average accuracy of 35%. / Com o advento da TV Digital interativa (TVDi), nota-se o aumento de interatividade no processo de comunicação além do incremento das produções audiovisuais, elevando o número de canais e recursos disponíveis para o usuário. Esta realidade faz da tarefa de encontrar o conteúdo desejado uma ação onerosa e possivelmente ineficaz. A incorporação de sistemas de recomendação no ambiente TVDi emerge como uma possível solução para este problema. Este trabalho tem como objetivo propor uma abordagem híbrida para recomendação de conteúdo em TVDi, baseada em técnicas de Mineração de Dados, integradas a conceitos da Web Semântica, permitindo a estruturação e padronização dos dados e consequente possibilidade do compartilhamento de informações, provendo semântica e raciocínio automático. Para o serviço proposto é considerado o Sistema Brasileiro de TV Digital e o middleware Ginga. Foi desenvolvido um protótipo e realizado experimentos com a base de dados do NetFlix, utilizando a métrica de precisão para avaliação. Obteve-se uma precisão média de 30%, utilizando apenas a técnica de mineração. Acoplando-se com as regras semânticas obteve-se precisão média de 35%.
233

Modelo para a publicação de dados de autoridade como Linked Data / Model for publishing authority data as Linked Data

Assumpção, Fabrício Silva [UNESP] 05 February 2018 (has links)
Submitted by Fabrício Silva Assumpção null (assumpcao.f@gmail.com) on 2018-02-18T22:51:55Z No. of bitstreams: 1 modelo-para-publicacao-dados-de-autoridade-linked-data.pdf: 3758953 bytes, checksum: b931683bbc9f76cdbb096f52e63ef88f (MD5) / Approved for entry into archive by Satie Tagara (satie@marilia.unesp.br) on 2018-02-19T17:10:03Z (GMT) No. of bitstreams: 1 assumpcao_fs_dr_mar.pdf: 3758953 bytes, checksum: b931683bbc9f76cdbb096f52e63ef88f (MD5) / Made available in DSpace on 2018-02-19T17:10:03Z (GMT). No. of bitstreams: 1 assumpcao_fs_dr_mar.pdf: 3758953 bytes, checksum: b931683bbc9f76cdbb096f52e63ef88f (MD5) Previous issue date: 2018-02-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A Ciência da Informação tem entre suas preocupações o acesso à informação e aos recursos informacionais, sendo, portanto, objetos de seu interesse os instrumentos utilizados para esse acesso, tais como os catálogos, que incluem dados bibliográficos (representações de recursos informacionais) e dados de autoridade (representações das entidades associadas aos recursos informacionais, tais como pessoas, entidades coletivas e conceitos). A proposta de criação de uma Web Semântica, em que os dados sejam processados não somente por sua sintaxe, mas também por sua semântica, tem impulsionado o desenvolvimento de um conjunto de tecnologias para a representação de dados na Web, assim como para a consulta a esses dados e o raciocínio computadorizado a partir deles. O uso de algumas dessas tecnologias para a publicação e o relacionamento de dados levou ao surgimento do conceito de Linked Data, e o anseio por sua aplicação na Ciência da Informação deu origem a projetos para a publicação de dados de autoridade como Linked Data. No entanto, observa-se que esses projetos, ainda em estágios iniciais ou experimentais, carecem de um quadro teórico construído na Ciência da Informação que possa orientar quanto às políticas, aos procedimentos e às tecnologias empregadas na publicação desses dados. Assim, partindo do problema “como publicar dados de autoridade como Linked Data?” são delineados o objetivo geral – propor, a partir do conceito das funções dos dados de autoridade nos catálogos e de seus benefícios nos ambientes de Linked Data, um modelo de publicação de dados de autoridade como Linked Data compreendendo políticas, procedimentos e tecnologias – a tese e a hipótese desta pesquisa, de caráter bibliográfico, documental e metodológico. Para o alcance desse objetivo, primeiramente é conduzida uma revisão de literatura acerca do controle de autoridade e do desenvolvimento dos dados de autoridade nos catálogos em livros, em fichas e digitais, com destaque para os modelos conceituais FRAD e FRSAD que sintetizam as funções desempenhadas pelos dados de autoridade. Em seguida, são apresentados o conceito de Linked Data e as principais tecnologias da Web Semântica relacionadas a ele: URIs, RDF, RDFS e OWL, apresentação essa que serve de base para a descrição de três vocabulários que podem ser utilizados na publicação de dados de autoridade (SKOS, MADS/RDF e RDA Element Sets), de iniciativas para a publicação desses dados (LC Linked Data Service, datos.bne.es, data.bnf.fr, VIAF e AGROVOC) e dos potenciais benefícios da publicação dos dados de autoridade como Linked Data. A partir dos resultados dessa revisão de literatura, é proposto o modelo para a publicação de dados de autoridade como Linked Data, compreendendo as etapas de planejamento; modelagem e mapeamento; tratamento, relacionamento e conversão; publicação; e feedback e retroalimentação. Após a descrição de cada etapa do modelo, com suas políticas, procedimentos e tecnologias, são apresentadas considerações finais sobre os resultados alcançados e sobre o modelo proposto. / One of the issues that Information Science is concerned with is the access to information resources, therefore the studies in this area include the library catalogs, which comprise bibliographic data (representations of information resources) and authority data (representations of the entities related to the information resources, such as persons, corporate body and concepts). The proposal of a Semantic Web in which data are processed not just by their syntax but also by their semantics has led to the development of a set of technologies for publishing and linking data on the Web, as well as technologies for data querying and for the computerized reasoning. The use of a subset of these technologies for publishing and linking data has led to the Linked Data concept. The experiments with these technologies in Information Science have given rise to projects for publishing authority data as Linked Data. However, we observed that these projects, still in initial or experimental stages, are not based on a theoretical framework developed in Information Science that can guide them regarding to the policies, to the procedures and to the technologies used in the publication of these data. Thus, starting from the question “how to publish authority data as Linked Data?” we define the main goal – conceptualize the functions of authority data in the catalogs and their benefits in Linked Data environments in order to propose a model for authority data publishing, as well as highlighting its policies, procedures and technologies – the thesis and the hypothesis of this research. To achieve this goal, first we made a literature review about authority control and the development of authority data in books, cards and digital catalogs, remarking the FRAD and FRSAD conceptual models which synthesize the functions of authority data. Then, we present the Linked Data concept and the main Semantic Web technologies related to it: URIs, RDF, RDFS and OWL; starting from this introduction, we describe three vocabularies that can be used to publishing authority data (SKOS, MADS/RDF and RDA Element Sets), some initiatives (Library of Congress Linked Data Service, datos.bne.es, data.bnf.fr, VIAF and AGROVOC) and the advantages of authority data published as Linked Data. Based on the results of this literature review, we propose a model for publishing authority data as Linked Data, The model comprases the following stages: planning; modeling and mapping; processing, linking and conversion; publishing; and feedback. After describing each of these stages, with its policies, procedures and technologies, we present the conclusions about the results and about the proposed model.
234

Folkoncept: método de suporte à modelagem conceitual de ontologias a partir da aquisição de conhecimentos de folksonomias

Freddo, Ademir Roberto 01 October 2010 (has links)
Neste trabalho, apresenta-se um método para o desenvolvimento de ontologias a partir de folksonomias. O objetivo do método é auxiliar os atores envolvidos no processo de desenvolvimento na elicitação de termos a serem representados na ontologia e na tomada de decisão de como modelar tais termos. Busca-se, pela aplicação do método, reduzir o gargalo na aquisição de conhecimentos empregando-se técnicas de aprendizado de ontologias a partir de folksonomias. O método atinge três atividades do processo de desenvolvimento de ontologias: aquisição de conhecimentos, modelagem conceitual e avaliação das ontologias, sendo este último integrado à modelagem conceitual. Na aquisição de conhecimentos, o método trata da recuperação, representação e enriquecimento das etiquetas (termos) presentes nas folksonomias originadas de um processo social de etiquetagem realizado pelos atores envolvidos no desenvolvimento da ontologia. Na modelagem conceitual, auxilia o projetista a transformar as etiquetas das folksonomias em elementos da ontologia em desenvolvimento, ou seja, na modelagem de novos elementos. Na avaliação de ontologias, o método auxilia os projetistas na validação dos novos elementos que são sugeridos pelo método de aprendizado. Além disso, o método diminui a dificuldade em utilizar a metodologia OntoClean tornando sua aplicação transparente ao projetista. A avaliação do método foi realizada por meio de experimentos de desenvolvimento de ontologias em um ambiente controlado. Participaram dos experimentos equipes compostas por projetistas da área da computação, sendo que algumas equipes trabalharam com um protótipo que implementa o método e outras não. A avaliação foi realizada por meio de métricas que comprovaram que o sistema auxiliou os projetistas a desenvolverem ontologias mais descritivas e com número menor de erros de formalismo. / In this work, we present a method called Folkoncept for supporting conceptual modeling of ontologies starting with knowledge acquisition based on folksonomies. The method aims at helping actors enrolled in the development process in eliciting terms and in the modeling choice of how to represent these terms in the ontology. The objective of applying the Folkoncept method is to reduce the knowledge acquisition bottleneck through ontology learning techniques based on folksonomies. Folkoncept reaches three activities of the development process: knowledge acquisition, conceptual modeling, and evaluation, the latter being integrated into the conceptual modeling activity. With relation to the knowledge acquisition, Folkoncept deals with the retrieval, representation, and enrichment of terms (tags) coming from a folksonomy resulting from a social process of tagging performed by the actors involved in the ontology development process. In the conceptual modeling activity, Folkoncept helps the ontology designer to transform folksonomy’s tags into elements of the ontology being developed. In the ontology evaluation activity, the method helps ontology designers to validate the new elements that are suggested by the ontology learning method. In addition, the Folkoncept reduces the difficulty in using the OntoClean methodology making its use transparent to the ontology designer. Folkoncept was evaluated by means of ontology development experiments realized in a controlled environment by teams composed by ontology designers coming from the area of computing. Some teams worked with a prototype system that implements the Folkoncept. Results obtained by these teams were compared with the results from teams working without the system. The comparison was performed through metrics that show that the Folkoncept helped ontology designers to develop more descriptive ontologies with fewer errors with relation to the idealized taxonomies of OntoClean.
235

Folkoncept: método de suporte à modelagem conceitual de ontologias a partir da aquisição de conhecimentos de folksonomias

Freddo, Ademir Roberto 01 October 2010 (has links)
Neste trabalho, apresenta-se um método para o desenvolvimento de ontologias a partir de folksonomias. O objetivo do método é auxiliar os atores envolvidos no processo de desenvolvimento na elicitação de termos a serem representados na ontologia e na tomada de decisão de como modelar tais termos. Busca-se, pela aplicação do método, reduzir o gargalo na aquisição de conhecimentos empregando-se técnicas de aprendizado de ontologias a partir de folksonomias. O método atinge três atividades do processo de desenvolvimento de ontologias: aquisição de conhecimentos, modelagem conceitual e avaliação das ontologias, sendo este último integrado à modelagem conceitual. Na aquisição de conhecimentos, o método trata da recuperação, representação e enriquecimento das etiquetas (termos) presentes nas folksonomias originadas de um processo social de etiquetagem realizado pelos atores envolvidos no desenvolvimento da ontologia. Na modelagem conceitual, auxilia o projetista a transformar as etiquetas das folksonomias em elementos da ontologia em desenvolvimento, ou seja, na modelagem de novos elementos. Na avaliação de ontologias, o método auxilia os projetistas na validação dos novos elementos que são sugeridos pelo método de aprendizado. Além disso, o método diminui a dificuldade em utilizar a metodologia OntoClean tornando sua aplicação transparente ao projetista. A avaliação do método foi realizada por meio de experimentos de desenvolvimento de ontologias em um ambiente controlado. Participaram dos experimentos equipes compostas por projetistas da área da computação, sendo que algumas equipes trabalharam com um protótipo que implementa o método e outras não. A avaliação foi realizada por meio de métricas que comprovaram que o sistema auxiliou os projetistas a desenvolverem ontologias mais descritivas e com número menor de erros de formalismo. / In this work, we present a method called Folkoncept for supporting conceptual modeling of ontologies starting with knowledge acquisition based on folksonomies. The method aims at helping actors enrolled in the development process in eliciting terms and in the modeling choice of how to represent these terms in the ontology. The objective of applying the Folkoncept method is to reduce the knowledge acquisition bottleneck through ontology learning techniques based on folksonomies. Folkoncept reaches three activities of the development process: knowledge acquisition, conceptual modeling, and evaluation, the latter being integrated into the conceptual modeling activity. With relation to the knowledge acquisition, Folkoncept deals with the retrieval, representation, and enrichment of terms (tags) coming from a folksonomy resulting from a social process of tagging performed by the actors involved in the ontology development process. In the conceptual modeling activity, Folkoncept helps the ontology designer to transform folksonomy’s tags into elements of the ontology being developed. In the ontology evaluation activity, the method helps ontology designers to validate the new elements that are suggested by the ontology learning method. In addition, the Folkoncept reduces the difficulty in using the OntoClean methodology making its use transparent to the ontology designer. Folkoncept was evaluated by means of ontology development experiments realized in a controlled environment by teams composed by ontology designers coming from the area of computing. Some teams worked with a prototype system that implements the Folkoncept. Results obtained by these teams were compared with the results from teams working without the system. The comparison was performed through metrics that show that the Folkoncept helped ontology designers to develop more descriptive ontologies with fewer errors with relation to the idealized taxonomies of OntoClean.
236

Investigação e implementação de ferramentas computacionais para otimização de websites com ênfase na descrição de conteúdo

Garcia, Léo Manoel Lopes da Silva [UNESP] 03 August 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-08-03Bitstream added on 2014-06-13T20:59:57Z : No. of bitstreams: 1 garcia_lmls_me_sjrp.pdf: 6057674 bytes, checksum: a26fce0d239fd5ca19b1f04d3236faa6 (MD5) / Quando fala-se de evolução da Web, poderia realmente ser mais apropriado falar de design inteligente. Com a Web se tornando a principal opção para quem produz e dissemina conteúdo digital, cada vez mais, as pessoas tomam a atenção para esse valioso repositório de conhecimento. Neste ambiente, os mecanismos de busca configuram-se em aplicativos populares, tornando-se intermediários entre os usuários e a miríade de informações, serviços e recursos disponíveis na grande rede. Neste sentido, o Webdesigner pode atuar de forma decisiva, proporcionando uma melhor resposta na classificação dos mecanismos de busca. A correta representação do conhecimento é a chave para a recuperação e para a disseminação efetiva de dados, de informação e de conhecimentos. Este trabalho apresenta um estudo que pode trazer um progresso relevante aos usuários desta grande rede, buscando apresentar uma ferramenta de domínio público que apoie a aplicação de técnicas de descrição semântica de informação na Web. No decorrer da pesquisa investigamos técnicas e metodologias capazes de otimizar a indexação dos Websites pelos mecanismos de busca, enfatizando a descrição do conteúdo nele presente, melhorando sua classificação e consequentemente colaborando com a qualidade na recuperação de informações realizadas por meio de mecanismos de buscas. Tais técnicas foram testadas em alguns Websites, obtendo resultado satisfatório, a partir de então a ferramenta foi implementada e submetida a usuários para sua validação, o resultado desta validação é apresentado demonstrando a viabilidade da ferramenta e enumeração de novas funcionalidades para trabalhos futuros / When we speak of evolution of the Web, it might actually be more appropriate to speak of intelligent design. With the Web becoming the primary choice for those who produce and disseminate digital content , more people take attention to this valuable repository of knowledge. In this environment , search engines are configured in popular, becoming an intermediary between users and the myriad of information, service and resources available on the World Wide Web. In this sense, the Web designer can act decisively, providing a better response in the ranking of search engines. The correct representation of knowledge is the key to recovery and effective dissemination of data, information and knowledge. This paper presents a study that significant progress can bring a large network of users, seeking to present a public domain tool that supports the application of techniques for semantic description of Web information in the course of the research investigated techniques and methodologies that can optimize Website indexing by search engines, emphasizing the description of the content in it, improving your ranking and thus contributing to quality in information retrieval conducted through search engines. These techniques were tested on some websites, obtaining satisfactory results, since then the tool was implemented and submitted to users validation, the result of the validation is present demonstrating the feasibility of the tool and list of new features for future work
237

Uma infraestrutura semântica para economizar energia em rede de sensores sem fio

BISPO, Kalil Araujo 24 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-04-06T12:24:58Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Kalil Araujo Bispo - Versão Final da Tese para a Biblioteca.pdf: 2225128 bytes, checksum: 8010e027c8884242fe1de82687aef45f (MD5) / Made available in DSpace on 2016-04-06T12:24:58Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Kalil Araujo Bispo - Versão Final da Tese para a Biblioteca.pdf: 2225128 bytes, checksum: 8010e027c8884242fe1de82687aef45f (MD5) Previous issue date: 2015-08-24 / CAPEs / As Redes de Sensores Sem Fio (RSSFs) são redes com recursos limitados, como processamento, largura de banda, memória e, o mais importante, energia. Dessa forma, as aplicações para nós sensores devem criar condições de realizar suas operações de sensoriamento e processamento no maior tempo possível, como também mecanismos que possam ajudar na economia de energia, por exemplo, a utilização de melhores algoritmos, agregação de dados, mecanismos de auto-gerenciamento, dentre outros, respeitando as limitações de recursos das RSSF. Algumas pesquisas na área mostram que solucionar esse tipo de problema não é uma tarefa fácil de ser resolvida. Sendo assim, este trabalho propõe uma solução de economia de energia para RSSF e uma forma comum de compartilhamento de dados entre aplicações e redes diferentes, baseada em uma Infraestrutura Semântica para RSSF chamada SITRUS. Ela utiliza reconfiguração paramétrica nos nós sensores em tempo de execução, a partir de dados de sensoriamento processados fora da RSSF, utilizando ontologias desenvolvidas com esse propósito para o processamento desses dados. SITRUS é formada por duas partes importantes: o Middleware Ciente de Reconfiguração para Rede de Sensores Sem Fio (RAMSES), responsável pelo transporte de dados e gerenciamento de serviços das aplicações que são executadas nos nós sensores; e o Módulo de Processamento Semântico da Informação (SIP), que tem por finalidade categorizar os dados para a geração da base de dados semântica. Esta base de dados servirá para a tomada de decisões de reconfiguração dos nós sensores e para o processamento de consultas sobre as RSSFs. A escolha por esse modelo se deve ao fato de que o processamento referente à reconfiguração da RSSF não sofre intervenção humana. O processamento é determinado pelo SIP e executado pelo RAMSES. Dessa forma, segue-se um modelo baseado em semântica formal. Pretende-se também que a SITRUS favoreça a integração de diferentes aplicações pelo compartilhamento de dados relativos a um mesmo contexto. Os benefícios desta abordagem incluem o enriquecimento dos dados pela associação de seu significado, e não apenas pela sintaxe dos dados, facilitando assim o seu acesso e eliminando ambiguidades. Como forma de demonstrar a eficiência da SITRUS, uma avaliação experimental do consumo de energia com algumas aplicações e diferentes cenários foi realizada, mostrando em seus resultados que a SITRUS atende ao que foi proposto no que diz respeito ao gerenciamento do consumo de energia. / Wireless Sensor Networks (WSNs) are networks with limited resources such as processing, bandwidth, memory, and most importantly, energy. Thus, applications for sensor nodes must create conditions to perform their sensing and processing operations as long as possible, as well as mechanisms that can help to save energy, for example, such as the use of better algorithms, data aggregation, self-management mechanisms, among others, in compliance the resource limitations of WSN. Some research in the area show that solving this problem is not an easy task to be addressed. Thus, this paper proposes a power saving solution for WSN and a common way of sharing data between different applications and networks based on a Semantic Infrastructure for WSN called SITRUS. It uses parametric reconfiguration in sensor nodes at runtime, from sensing data processed outside the WSN using ontologies developed for this purpose for processing such data. SITRUS consists of two major parts: RAMSES, responsible for data transport and service management applications that run on the sensor nodes; and SIP, which is intended to categorize the data for generating the semantic database. This database will serve for decision making on the reconfiguration of sensor nodes and for query processing on WSNs. The choice for this model is due to the fact that the processing related to the reconfiguration of WSN does not suffer human intervention. Processing is determined by SIP and performed by RAMSES. Thus, it follows a model based on formal semantics. It is intended that the SITRUS encourages the integration of different applications by sharing data on a same context. The benefits of this approach include the enrichment of the data by the association of its meaning, and not only by the syntax of the data, thus facilitating their access and eliminating ambiguities. In order to demonstrate the effectiveness of SITRUS, an experimental evaluation of power consumption with some applications and different scenarios was performed, and the results shows that SITRUS serves to what has been proposed in regard to management of the energy consumption.
238

Organização em sistema caótico: uso das tags para classificação da informação pelos usuários da rede social Twitter

Sousa, Amanda Moura de 20 March 2012 (has links)
Made available in DSpace on 2015-10-19T11:50:25Z (GMT). No. of bitstreams: 1 sousa2012.pdf: 3705794 bytes, checksum: 6faef66238e62b646a9ccd8ce1cc6df9 (MD5) Previous issue date: 2012-03-20 / It discusses issues related to classification and knowledge organization, folksonomy, information retrieval and the theories of chaos and complexity in systems, in order to approach the concepts needed to conduct the investigation. Approaches classification since its innate character, through the philosophical studies started in antiquity, even to the scientific approach to design of bibliographic classifications, and the classifications that have been used for organizing information in the Web 2.0 era. The theoretical discussion is developed on the theories of chaos and complexity in systems and their relationship with social networking sites. In particular with the social network Twitter which is a network of messages posted by users of the system, limited to 140 characters, without forming user groups by communities or groups of interest, as it is common in other social networks. The exploratory and empirical research shows the use and purpose of hashtags in Twitter, highlighting the role of collaboration in the choice of terms. Concludes that collaboration is essential to make information retrieval more effective, as well as acting in the convergence of knowledge / Aborda temas relacionados à classificação e organização do conhecimento, folksonomia, recuperação da informação e às teorias do caos e da complexidade em sistemas, com o objetivo de constituir o campo conceitual necessário para conduzir a investigação. Trata a classificação desde o seu caráter inato, passando pelos estudos filosóficos iniciados na antiguidade, chegando até a abordagem científica da concepção das classificações bibliográficas e das classificações que vem sendo utilizadas para a organização da informação na era da Web 2.0. Num segundo momento, a discussão teórica se desenvolve nas teorias do caos e da complexidade em sistemas e suas relações com as redes sociais na Internet, em particular, com a rede social Twitter que é uma rede de mensagens postadas pelos usuários do sistema, limitadas a 140 caracteres, sem o agrupamento dos usuários por comunidades ou grupos de interesse, como é comum em outras redes sociais. A pesquisa exploratória e empírica evidencia o uso e as finalidades das hashtags no Twitter, destacando o papel da colaboração na escolha dos termos. Conclui que a colaboração é essencial para tornar a recuperação da informação mais efetiva, além de atuar na convergência de saberes
239

Ambiente colaborativo de ensino/aprendizagem para o ensino fundamental baseado nos princípios da web semântica / Semantic Web, Collaborative Environment, scripts for teaching / learning

Costa, Adriano Ferraz da 02 May 2014 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2014-10-29T10:51:03Z No. of bitstreams: 2 Dissertação - Adriano Ferraz da Costa - 2014.pdf: 2236830 bytes, checksum: 346658a05929b70aca0ac193dc990bc8 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-10-30T10:47:20Z (GMT) No. of bitstreams: 2 Dissertação - Adriano Ferraz da Costa - 2014.pdf: 2236830 bytes, checksum: 346658a05929b70aca0ac193dc990bc8 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-10-30T10:47:20Z (GMT). No. of bitstreams: 2 Dissertação - Adriano Ferraz da Costa - 2014.pdf: 2236830 bytes, checksum: 346658a05929b70aca0ac193dc990bc8 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-05-02 / The Semantic Web or Web 3.0 is a model proposed by Tim Berners-Lee concept. The Semantic Web is an extension of current a web that will enable computers and humans to work in cooperation. However, in order to Web 3.0 becomes a web reality it requires to implement applications that provide their data structured according to the Semantic Web standards. In this dissertation we developed a Collaborative Learning Environment that takes advantage of the Semantic Web, and it favors the process of teaching and learning. The Collaborative Environment is based on collaboration scripts and it is integrated into a framework for the creation of Virtual Communities of Practice that are semantically structured. / A Web Semântica ou Web 3.0 é um conceito proposto por Tim Berners-Lee. A Web Semântica é uma extensão da Web atual que permitirá aos computadores e humanos trabalharem em cooperação. Contudo para que a Web 3.0 se torne realidade é preciso implementação de aplicações que forneçam seus dados estruturados de acordo com os padrões daWeb Semântica. Nesta dissertação foi desenvolvido um Ambiente Colaborativo de aprendizagem que utiliza os recursos da Web Semântica, e que favorece o processo de ensino e aprendizagem. O Ambiente Colaborativo é baseado em scripts de colaboração e integrado a um framework de criação de Comunidades Virtuais de Prática estruturadas semânticamente.
240

Interpretação e disseminação de contexto: filtragem semântica, projeto arquitetural e estudo de caso em saúde / Context reasoning and dissemination: semantic filtering, architectural design and case study in health

Maranhão, Guilherme Melo e 06 May 2015 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2015-10-23T12:11:54Z No. of bitstreams: 2 Dissertação - Guilherme Melo e Maranhão - 2015.pdf: 2879073 bytes, checksum: 25e096adcb3251cd2153a4b4c5e41a3a (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-10-23T13:29:49Z (GMT) No. of bitstreams: 2 Dissertação - Guilherme Melo e Maranhão - 2015.pdf: 2879073 bytes, checksum: 25e096adcb3251cd2153a4b4c5e41a3a (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-10-23T13:29:49Z (GMT). No. of bitstreams: 2 Dissertação - Guilherme Melo e Maranhão - 2015.pdf: 2879073 bytes, checksum: 25e096adcb3251cd2153a4b4c5e41a3a (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-05-06 / Context-aware computing investigates how to seamlessly enable the interaction among computing devices and the environment, or context, in which they are located in. The literature has defined the life cycle of context data as composed of four phases: acquisition, modelling, reasoning and dissemination. These latter two phases have been strongly influenced by the heterogeneity of published data, as a consequence of the increasing deployment of sensors. A great challenge reported in the literature has been the development of mechanisms for handling and reasoning about sensor data, and also for notifying contextaware applications in an efficient and relevant manner. Aiming to solve this problem, this research focuses on a new approach for semantic context reasoning and filtering in accordance with design principles recommended by the literature. As a result of this work, the main contributions include an extensible and maintainable mechanism for semantic context filtering; the architectural model of a context reasoning component, called Hermes Interpreter (HI); the Hermes Base component, which exposes an API for accessing a publish-subscribe-based communication middleware; and HI’s functional validation and performance evaluation in a simulated scenario of vital signs monitoring in Intensive Care Units and wards. This research demonstrated the efficiency of the behaviour of the semantic filtering mechanism for end users applications. Besides, by increasing the number of subscribers, it was observed that the response time was acceptable in almost all experiments. Despite this, it was also verified the high cost of the semantic filtering processing in comparison with pure context reasoning activities. Regarding the HI component’s architectural design, this work recommends it as a reusable artifact for researches on the subject of context reasoning. / A computação sensível a contexto é a área da Ciência da Computação que estuda os meios para possibilitar a interação entre dispositivos computacionais e o ambiente, ou contexto, em que estão inseridos. Para promover essa interação, a literatura define quatro etapas para o ciclo de vida da informação de contexto: aquisição, modelagem, interpretação e disseminação. Dentre essas etapas, as de interpretação e disseminação têm sido fortemente impactadas pela heterogeneidade dos dados publicados, resultante da crescente implantação de sensores. Criar mecanismos para manipular e interpretar essas informações e depois notificá-las de maneira eficiente e com relevância para as aplicações sensíveis a contexto tem sido um desafio reportado pela ciência. Diante do problema apresentado, esse trabalho objetiva alinhar os princípios de projeto recomendados pela literatura com uma proposta de abordagem para interpretação e filtragem de contexto fundamentados em modelagem contextual semântica. Portanto, as principais contribuições deste trabalho incluem um mecanismo extensível e manutenível de filtragem semântica de contexto; o modelo arquitetural de um componente interpretador de contexto, denominado Hermes Interpreter, desenvolvido a partir de princípios de projeto defendidos da literatura; o componente Hermes Base, que expõe API de acesso para um middleware de comunicação, que opera sob o paradigma publish/subscribe; e por último, validações funcionais e de desempenho do Hermes Interpreter em cenário de simulação de monitoramento de sinais vitais de pacientes em UTIs e enfermarias. Por meio delas, comprovou-se a eficiência do mecanismo de filtragem para notificar de maneira precisa e eficiente os dados relevantes para os usuários. Além disso, observou-se que, devido a características de implementação, por maior que seja a quantidade de assinantes, o tempo de resposta foi aceitável em praticamente todos os experimentos. Apesar disso, constatou-se o alto custo do processamento de filtros em comparação às atividades puramente de interpretação de contexto. Por último, o projeto arquitetural do componente constitui um artefato reutilizável para pesquisas na área de intepretação de contexto.

Page generated in 0.0818 seconds