• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 16
  • 15
  • 15
  • 15
  • 14
  • 11
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 275
  • 275
  • 156
  • 98
  • 74
  • 65
  • 62
  • 51
  • 50
  • 49
  • 48
  • 38
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Um Modelo para recuperação e comunicação do conhecimento em documentos médicos

Andrade, Rafael 26 October 2012 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, Florianópolis, 2011 / Made available in DSpace on 2012-10-26T03:17:30Z (GMT). No. of bitstreams: 1 290706.pdf: 6175753 bytes, checksum: 41c6c7a0cb0d438e93a5150fd9d3578f (MD5) / O grande número de informações disponíveis, que estão em diferentes fontes de dados, exige cada vez mais processamento dos motores de busca. Recuperar informações que estão nessas bases de dados com a melhor precisão possível é um dos desafios a serem alcançados dentro do contexto desta tese. Os registros clínicos médicos contêm uma imensa gama de informações, normalmente escritas em forma de texto livre e sem um padrão linguístico. Os médicos não escrevem os diagnósticos e os laudos do paciente com o uso de elementos de estilo, o que dificulta o processamento e a recuperação da informação por parte dos sistemas computacionais. Consequentemente, obter o conhecimento a partir desses dados não é uma tarefa fácil para um motor de busca. Este trabalho apresenta o desenvolvimento de um modelo, que permite recuperar o conhecimento de informações textuais em documentos médicos. Técnicas de expansão de pesquisas, que utilizam detecção de ativos de conhecimento da ontologia DeCS e de dicionários linguísticos, são utilizadas. O objetivo é ampliar o universo de pesquisa do usuário e criar uma base de conhecimento para permitir o seu reúso. A proposta de tese aqui apresentada difere dos anteriores porque a intenção é retornar às pesquisas dos usuários uma série de documentos médicos muito mais eficazes do que nas tradicionais ferramentas de busca. Com o intuito de melhorar os resultados de uma pesquisa, anotações semânticas e detecção de expressões negativas serão utilizadas para processar os textos médicos. O estudo de caso apresentado no final mostra que, dos dez primeiros resultados do modelo ora proposto, alcançou-se uma média de 90% de precisão, enquanto que o modelo booleano limitou-se a 60%, e com o diferencial de que no modelo tradicional, o usuário teve que refazer suas consultas várias vezes até chegar a um resultado satisfatório, ao passo que no modelo semântico obteve êxito já na primeira consulta. Justamente porque o usuário não encontrou uma resposta nas primeiras pesquisas no modelo booleano, os tempos de resposta médios foram de 49 minutos, contra 0,6 segundos do novo modelo. Conclui-se, dessa forma, que o usuário não precisará despender muito tempo para encontrar a informação ou não precisará procurar em diferentes bases de dados a fim de encontrar a informação necessária.
112

O controle de autoridade no consórcio VIAF /

Romanetto, Luiza de Menezes. January 2017 (has links)
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos / Banca: Zaira Regina Zafalon / Banca: Raquel Cristina Vesú Alves / Resumo: O controle de autoridade garante consistência aos sistemas de informação. Adotado na catalogação, o tema recebeu maior visibilidade durante a década de 1980 com a automação dos catálogos. Desde então, surgiram projetos direcionados ao intercâmbio e compartilhamento de dados de autoridade. O Virtual International Authority File (VIAF) é um consórcio de cooperação internacional entre bibliotecas e agências nacionais que disponibiliza arquivos de autoridade no Linking Open Data. Este estudo foi desenvolvido com o intuito de responder ao problema de pesquisa: como o controle de autoridade no VIAF contribui para a efetivação da Web Semântica de modo a proporcionar maior qualidade aos sistemas de busca e recuperação da informação? Para isso, foram definidos os objetivos: 1) descrever sobre os princípios, técnicas e padrões que proporcionam o controle de autoridade na catalogação; 2) analisar o controle de autoridade de nomes para pessoas, instituições e geográfico; 3) apresentar o VIAF, sua origem, as tecnologias envolvidas em sua estrutura e sua perspectiva de contribuição para a Web Semântica. A metodologia compreende um estudo qualitativo, de natureza aplicada, com objetivos exploratórios. Os resultados obtidos apresentam a abrangência internacional do VIAF e a caracterização sobre as tecnologias e a forma pela qual são estabelecidos os registros de autoridade no consórcio. Os registros de autoridade estabelecidos no VIAF compreendem a agregação de vocabulários de valor estabele... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Authority control ensures consistency in information systems. Adopted in the cataloging, the theme received greater visibility from the automation of the catalogs, during the decade of 1980 with automation of catalogs. Since then emerged projects cooperation targeted to exchange and cooperation of authority data. The Virtual International Authority File (VIAF) is consortium of international cooperation between library and national agencies what provides authority file in the linking open data. This study was developed with intent to respond to research problem: how does the authority control in VIAF contributes to the effectiveness from the semantic web so provide higher quality to the search systems and information retrieval? For this were defined the objectives: 1) to describe about the principles, techniques and standards what provide authority control in cataloging; 2) to analyze authority control of names for people, institutions and geographical; 3) present the VIAF, your origin, the technologies involved in your structure and its perspective of contribution to the Semantic Web. The methodology comprises a qualitative study of an applied nature with exploratory objectives. The obtained results present the international scope of VIAF and characterization about the technologies and the way in which are established authority records in the consortium. The authority established the VIAF records comprise the vocabulary of aggregate value established by the main catalogers agencies in the world. What stands out to the importance relevance of the consortium to the international community. / Mestre
113

Um modelo de qualidade para caracterização e seleção de bancos de dados de biologia molecular / A quality model for characterizing and selecting molecular biology databases

Lichtnow, Daniel January 2012 (has links)
O número de banco de dados de biologia molecular presentes na Web vem aumentando significativamente nos últimos anos. A dificuldade de localizar estes bancos de dados na Web incentivou a criação de uma série de catálogos. Mesmo com estes catálogos, persiste o desafio de selecionar aqueles bancos de dados que possuem maior qualidade. Normalmente, a seleção é feita por usuários, que nem sempre possuem o conhecimento necessário e enfrentam problemas pela ausência de uma descrição mais rica dos bancos de dados nestes catálogos. Esta ausência de uma descrição mais rica dos bancos de dados gerou iniciativas recentes que visam identificar metadados relevantes para descrição dos bancos de dados de biologia molecular. No entanto, até o momento, como utilizar estes metadados na seleção dos bancos de dados presentes em um catálogo, relacionando estes às dimensões de qualidade de dados, é um tema pouco explorado. Da mesma forma, o uso de Web metrics, utilizadas na seleção de páginas Web, vem sendo quase ignorado na determinação da qualidade de bancos de dados de biologia molecular. Tendo em vista este cenário, nesta tese foi desenvolvido um modelo de qualidade que visa auxiliar na seleção de bancos de dados de biologia molecular presentes em catálogos na Web a partir da avaliação global de um banco de dados por meio de metadados e Web metrics. A definição deste modelo envolve adoção de metadados propostos em outros trabalhos, a proposição de novos metadados e a análise das dimensões de qualidade de dados. Experimentos são realizados de forma a avaliar a utilidade de alguns dos metadados e Web metrics na determinação da qualidade global de um banco de dados. A representação dos metadados, dimensões de qualidade, indicadores de qualidade e métricas usando recursos de Web Semântica é também discutida. O principal cenário de aplicação da abordagem é relacionado à necessidade que um usuário tem de escolher o melhor banco de dados para buscar informações relevantes para o seu trabalho dentre os existentes em um catálogo. Outro cenário está relacionado a sistemas que integram dados de fontes distintas e que necessitam, em muitos casos, reduzir o número de bancos de dados candidatos a um processo de integração. / The number of molecular biology databases has increased in the last years. The difficulty of identifying these databases on the Web is the motivation to create database catalogs. However, even using these catalogs, the challenge is how to identify the best databases within these sets of identified databases. In general, the selection process is done by users, who sometimes have little knowledge about databases related to a specific domain and will have difficulties to select the best databases. These difficulties are related to the absence of information about databases in these catalogs. This absence of information has generated some recent initiatives aiming to identify relevant metadata for describing molecular biology databases. However, at the present moment, how to use these metadata for selecting databases from a catalog, taking into account data quality dimensions, is underexplored. In a similar way, Web metrics used for selecting Web pages is almost ignored in the molecular biology databases evaluation process. In this scenario, this thesis defines a quality model, based on some identified data quality dimensions, aiming to help selecting a database from molecular biology database catalogs. This selection process is done by considering database metadata and Web metrics. The definition of this model involves the adoption of metadata from related works, the definition of new metadata and the analysis of data quality dimensions. A set of experiments evaluates the usefulness of metadata and Web metrics for evaluating the overall quality of databases. How to represent database metadata, quality dimensions, quality indicators and quality metrics using Semantic Web resources is also discussed. One application scenario relates to users who need to choose the best databases available in a catalog. Another application scenario is related to database integration systems in which it is necessary to determinate the overall quality of a database for reducing the number of databases to be integrated.
114

Integração de dados e processos disponíveis em portais web baseada em ontologias de domínio / Web portal data and processes integration based on domain ontologies

Mello, Marília Terra de January 2008 (has links)
A integração e a troca de informação na Web é uma necessidade reconhecida no mundo atual nos mais diversos domínios de aplicação. A Web constitui hoje o principal meio de acesso a informações, disponibilizando várias formas de acesso a esse conteúdo. No entanto, disponibilizar essa informação de forma integrada para o usuário ainda é um desafio. O Serviço Web Semântico é uma tecnologia de Inteligência Artificial promissora a qual pode contribuir significativamente com o processo de integração tanto de dados como de processos disponíveis em portais Web. O objetivo do presente trabalho é realizar a integração das diferentes funcionalidades oferecidas por portais disponibilizados na Web, fazendo uso de ontologias de domínio através de Serviços Web Semânticos. Para alcançar o objetivo proposto, um sistema de busca e integração, denominado W-KIS, foi projetado e desenvolvido, fornecendo uma visão unificada e transparente ao usuário de toda informação disponível em um determinado número de portais Web, contextualizados a um domínio de aplicação específico. Dois domínios de aplicação foram explorados neste trabalho através de dois estudos de caso: a Biomedicina e a Geologia, cada um fornecendo sua própria ontologia de domínio. Serviços Web Semânticos foram desenvolvidos para encapsular portais Web em ambos os domínios, permitindo ao sistema realizar a integração em cada domínio, separadamente. A aplicação proposta foi validada através da avaliação de sua atuação em ambos os domínios, além de testes com usuários finais e comparações com outras abordagens para integração na Web e motores de busca tradicionais. Através da utilização de Serviços Web Semânticos, W-KIS é capaz de localizar e executar os serviços de forma automática, além de lidar com a heterogeneidade semântica entre as fontes de informação por meio das ontologias de domínio. Desta forma, o sistema fornece apenas informação contextualizada ao interesse do usuário. / Integration and exchange of information across the Internet is a universally recognized need, in a wide variety of domains. Nowadays, the Web is the main source of information, providing many ways to access this content. However, making this information available to the user in an integrated way is still a challenge. New promising application fields such as Semantic Web Services can improve the integration process of data and processes available in Web portals. The goal of the present research is to accomplish the integration of the different functionalities offered by portals available in the Web, making use of domain ontologies through Semantic Web Services. In order to achieve the proposed goal, a search and integration system, named W-KIS, was designed and developed. The system provides the user with a unified and transparent view of the whole information available in a number of Web portals, related to a specific application domain. Two application domains were explored in this work through two case studies: the Biomedicine and the Geology, each one providing its own domain ontology. Semantic Web Services were designed to encapsulate Web portals in both domains, allowing the system to accomplish the integration in each domain, separately. The application proposed in this project was validated through the evaluation of its behavior in both domains, besides other tests with final users and comparisons with other approaches for integration in the Web, and traditional search engines. Making use of Semantic Web Services, W-KIS is able to find and execute the services in an automatic way, besides dealing with the semantic heterogeneity in the information sources by means of domain ontologies. This way, the system provides the user with information contextualized to its interest.
115

Web semântica e o governo eletrônico brasileiro: revisão histórica e teórico-conceitual da representação descritiva e estudo acerca da taxonomia e adoção de metadados na representação da informação

Menezes, Maria do Carmo Vianna de 16 January 2013 (has links)
Submitted by Duarte Zeny (zenydu@gmail.com) on 2013-01-16T14:35:16Z No. of bitstreams: 1 dissert_maria_do_carmo_vianna_de_menezes.pdf: 4070767 bytes, checksum: 7f760e9fe665fbfc648b53a8f8bd17e9 (MD5) / Made available in DSpace on 2013-01-16T14:35:16Z (GMT). No. of bitstreams: 1 dissert_maria_do_carmo_vianna_de_menezes.pdf: 4070767 bytes, checksum: 7f760e9fe665fbfc648b53a8f8bd17e9 (MD5) / A Web semântica e o Governo eletrônico brasileiro constituem a temática deste trabalho, que teve como objetivo analisar se a associação do padrão de metadados a ser adotado pelo Governo eletrônico brasileiro (e-PMG) à lista de assuntos do Governo (LAG/VCGE) – taxonomia para navegação – permitirá a representação dos recursos informacionais governamentais para a recuperação da informação. O estudo partiu de revisão histórica e conceitual acerca da classificação do conhecimento e das iniciativas de filósofos imbuídos na tarefa de organizar as áreas dos saberes. Nessa perspectiva, referencia a teoria da classificação facetada, listando produções de cânones responsáveis pela definição de princípios e postulados e pela aplicação do método de classificar o conhecimento a partir da organização, descrição, representação de conteúdo e indexação. A seguir, realizou-se pesquisa sobre a Web semântica e as tecnologias inovadoras, com destaque nos metadados, por se tratar de conjunto de elementos com semântica padronizada na descrição de informações eletrônicas. A investigação empírica se deu através de um estudo de caso, associado a um estudo documental, numa amostra composta pelo segmento organização e intercâmbio de informação, do Padrão de Interoperabilidade do Governo Eletrônico. Foi utilizada a análise documental de manuais técnicos, legislação e procedimentos, e a realização de entrevista com coordenador do segmento pesquisado. A análise de dados foi realizada a partir das abordagens qualitativas e quantitativas, de forma a analisar a estrutura da taxonomia para navegação e as relações de similaridade e complementaridade entre o e-PMG e o Dublin Core. Os resultados obtidos indicaram que a associação entre o e-PMG e a LAG/VCGE trará benefícios significativos para a descrição e representação da informação do portal do Governo eletrônico brasileiro para a localização e recuperação da informação, uma vez que o vocabulário controlado possibilitará a uniformização dos termos a serem utilizados do elemento assunto do e-PMG. Ainda como resultados, foi apontado que a estrutura hierárquica e a relação entre os termos da LAG/VCGE mantêm coerência com o referencial teórico adotado, no que se refere ao dinamismo de atualização dos termos, ao controle do vocabulário e ao estabelecimento das relações semânticas. Deduz-se que a associação do e-PMG à LAG/VCGE, possibilitará a descrição dos recursos informacionais com termos previamente definidos e de acordo com a área ou domínio específico da administração pública federal. E, mais ainda, através das relações de similaridade e complementaridade, com o DC, identificou-se os elementos específicos e-PMG e os qualificadores de refinamento e de padrões utilizados. Por fim, verificou-se que o e-PMG apresentou maior número de qualificadores e que a sua adoção possibilitará maior detalhamento e especificidade na descrição dos recursos informacionais do Governo, assim como também o aumento da forma significativa de representação da informação a partir do conteúdo. / Salvador
116

Um Modelo baseado em contexto para expansão de consultas semânticas em redes colaborativas de organizações

Tramontin Junior, Rui Jorge January 2011 (has links)
Tese(doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-26T08:14:17Z (GMT). No. of bitstreams: 1 300008.pdf: 3590503 bytes, checksum: 591cbe0df5e6023d57bb1842c0b7c3fb (MD5) / As novas tendências do mundo globalizado levaram organizações e profissionais a focarem em estratégias baseadas em trabalho colaborativo. Tais estratégias têm sido enquadradas no conceito mais geral de Rede Colaborativa (RC), onde organizações e indivíduos trabalham juntos para aumentar o acesso a novas oportunidades de negócio, compartilhar riscos, reduzir custos e atingir metas que seriam inalcançáveis individualmente. A implantação de RCs depende da existência de infraestruturas computacionais que provejam funcionalidades de suporte à colaboração, incluindo compartilhamento e busca de informações, integração de sistemas, gestão de segurança, entre outros. O foco desta tese está na funcionalidade relacionada à busca de informação, requisito fundamental considerando-se o fato de que os parceiros de tal rede compartilham informações que precisam ser recuperadas. Além disso, a busca de informação se justifica pelo seu uso potencial em diversas outras aplicações necessárias a RCs, tais como: suporte à gestão de conhecimento, seleção de indicadores, busca de parceiros, auxílio no suporte à decisão, entre outras. Nesse sentido, este trabalho propõe um arcabouço que define uma infraestrutura de serviços de suporte à busca de informação em RCs. A estratégia adotada neste trabalho foi dividida em dois passos: em primeiro lugar utilizou-se ontologias para o enriquecimento das fontes de informação, com base na definição de anotações semânticas. Ontologias foram também usadas como base para a definição de consultas semânticas. O segundo passo envolveu a utilização do contexto do usuário visando a melhoria dos resultados da busca. No âmbito de uma RC, o contexto pode ser definido por diversos elementos, incluindo processo, tarefa e papel desempenhado pelo usuário. A abordagem utilizada nessa etapa consistiu na definição de um modelo do contexto, que é associado à ontologia da RC, e de um conjunto de regras que, com base no contexto atual do usuário, efetuam uma expansão na consulta original. Em suma, a abordagem proposta usa o contexto do usuário para sugerir novos tópicos a serem buscados aplicando-se restrições à consulta definida pelo usuário. A avaliação deu-se a partir de experimentos com coleções de teste, onde medidas baseadas em precisão e cobertura foram utilizadas na comparação do modelo proposto com um sistema baseado em palavras-chave e com outro baseado em ontologias.
117

Uma contribuição para a integração do sistema legados da saúde pública do Brasil usando agentes de software / Dirceu Grein ; (orientador, João da Silva Dias ; co-orientador, Edson E. Scalabrin)

Grein, Dirceu January 2005 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2005 / Bibliografia: f. 131-146 / A distribuição física e segmentada das áreas de saúde, entre um grande número de organizações, caracteriza a Saúde Pública como um sistema distribuído com diversas fontes de informações. Este trabalho apresenta uma abordagem de agentes de software para in / The physical and segmented distribution of the areas of health, among a great number of organizations, it characterizes the public health as a system distributed with several sources of information. This work presents an approach of software agents to int
118

Uma abordagem para publicação de visões RDF de dados relacionais / One approach to publishing RDF views of relational data

Teixeira Neto, Luis Eufrasio January 2014 (has links)
TEIXEIRA NETO, Luis Eufrasio. Uma abordagem para publicação de visões RDF de dados relacionais. 2014. 97 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T18:31:26Z No. of bitstreams: 1 2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-20T11:55:57Z (GMT) No. of bitstreams: 1 2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Made available in DSpace on 2016-07-20T11:55:57Z (GMT). No. of bitstreams: 1 2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) Previous issue date: 2014 / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture – database, SQL views and RDF views – where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained. / A iniciativa Linked Data trouxe novas oportunidades para a construção da nova geração de aplicações Web. Entretanto, a utilização das melhores práticas estabelecidas por este padrão depende de mecanismos que facilitem a transformação dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propôs uma linguagem de mapeamento padrão, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulários RDF. No entanto, a geração de mapeamentos R2RML não é uma tarefa fácil. É imperativo, então, definir: (a) uma solução para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicação dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicação deste processo. Assertivas de correspondência são propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. Visões são usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definição de visões RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessário alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em três camadas – de dados, de visões SQL e de visões RDF – onde a camada de visões SQL mapeia os conceitos da camada de dados nos termos da camada de visões RDF. A criação desta camada intermediária de visões facilita a geração dos mapeamentos R2RML e evita que alterações na camada de dados impliquem em alterações destes mapeamentos. Adicionalmente, definimos um processo em três etapas para geração das visões RDF. Na primeira etapa, o usuário define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondência que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada é gerada automaticamente. O segundo passo produz um esquema de visões SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visões para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visões RDF são publicadas em um SPARQL endpoint. Neste trabalho são detalhados as assertivas de correspondência, a arquitetura, o processo, os algoritmos necessários, uma ferramenta que suporta o processo e um estudo de caso para validação dos resultados obtidos.
119

Integração de recursos da web semântica e mineração de uso para personalização de sites / Integrating semantic web resources and web usage mining for websites personalization

Rigo, Sandro Jose January 2008 (has links)
Um dos motivos para o crescente desenvolvimento da área de mineração de dados encontra-se no aumento da quantidade de documentos gerados e armazenados em formato digital, estruturados ou não. A Web contribui sobremaneira para este contexto e, de forma coerente com esta situação, observa-se o surgimento de técnicas específicas para utilização nesta área, como a mineração de estrutura, de conteúdo e de uso. Pode-se afirmar que esta crescente oferta de informação na Web cria o problema da sobrecarga cognitiva. A Hipermídia Adaptativa permite minorar este problema, com a adaptação de hiperdocumentos e hipermídia aos seus usuários segundo suas necessidades, preferências e objetivos. De forma resumida, esta adaptação é realizada relacionando-se informações sobre o domínio da aplicação com informações sobre o perfil de usuários. Um dos tópicos importantes de pesquisa em sistemas de Hipermídia Adaptativa encontra-se na geração e manutenção do perfil dos usuários. Dentre as abordagens conhecidas, existe um contínuo de opções, variando desde cadastros de informações preenchidos manualmente, entrevistas, até a aquisição automática de informações com acompanhamento do uso da Web. Outro ponto fundamental de pesquisa nesta área está ligado à construção das aplicações, sendo que recursos da Web Semântica, como ontologias de domínio ou anotações semânticas de conteúdo podem ser observados no desenvolvimento de sistemas de Hipermídia Adaptativa. Os principais motivos para tal podem ser associados com a inerente flexibilidade, capacidade de compartilhamento e possibilidades de extensão destes recursos. Este trabalho descreve uma arquitetura para a aquisição automática de perfis de classes de usuários, a partir da mineração do uso da Web e da aplicação de ontologias de domínio. O objetivo principal é a integração de informações semânticas, obtidas em uma ontologia de domínio descrevendo o site Web em questão, com as informações de acompanhamento do uso obtidas pela manipulação dos dados de sessões de usuários. Desta forma é possível identificar mais precisamente os interesses e necessidades de um usuário típico. Integra o trabalho a implementação de aplicação de Hipermídia Adaptativa a partir de conceitos de modelagem semântica de aplicações, com a utilização de recursos de serviços Web, para validação experimental da proposta. / One of the reasons for the increasing development observed in Data Mining area is the raising in the quantity of documents generated and stored in digital format, structured or not. The Web plays central role in this context and some specific techniques can be observed, as structure, content and usage mining. This increasing information offer in the Web brings the cognitive overload problem. The Adaptive Hypermedia permits a reduction of this problem, when the contents of selected documents are presented in accordance with the user needs, preferences and objectives. Briefly put, this adaptation is carried out on the basis of relationship between information concerning the application domain and information concerning the user profile. One of the important points in Adaptive Hypermedia systems research is to be found in the generation and maintenance of the user profiles. Some approaches seek to create the user profile from data obtained from registration, others incorporate the results of interviews, and some have the objective of automatic acquisition of information by following the usage. Another fundamental research point is related with the applications construction, where can be observed the use of Web semantic resources, such as semantic annotation and domain ontologies. This work describes the architecture for automatic user profile acquisition, using domain ontologies and Web usage mining. The main objective is the integration of usage data, obtained from user sessions, with semantic description, obtained from a domain ontology. This way it is possible to identify more precisely the interests and needs of a typical user. The implementation of an Adaptive Hypermedia application based on the concepts of semantic application modeling and the use of Web services resources that were integrated into the proposal permitted greater flexibility and experimentation possibilities.
120

A framework for event classification in Tweets based on hybrid semantic enrichment / Um framework para classificação de eventos em tweets baseado em enriquecimento semântico híbrido

Romero, Simone Aparecida Pinto January 2017 (has links)
As plataformas de Mídias Sociais se tornaram um meio essencial para a disponibilização de informações. Dentre elas, o Twitter tem se destacado, devido ao grande volume de mensagens que são compartilhadas todos os dias, principalmente mencionando eventos ao redor do mundo. Tais mensagens são uma importante fonte de informação e podem ser utilizadas em diversas aplicações. Contudo, a classificação de texto em tweets é uma tarefa não trivial. Além disso, não há um consenso quanto à quais tarefas devem ser executadas para Identificação e Classificação de Eventos em tweets, uma vez que as abordagens existentes trabalham com tipos específicos de eventos e determinadas suposições, que dificultam a reprodução e a comparação dessas abordagens em eventos de natureza distinta. Neste trabalho, nós elaboramos um framework para a classificação de eventos de natureza distinta. O framework possui os seguintes elementos chave: a) enriquecimento externo a partir da exploração de páginas web relacionadas, como uma forma de complementar a extração de features conceituais do conteúdo dos tweets; b) enriquecimento semântico utilizando recursos da Linked Open Data cloud para acrescentar features semânticas relacionadas; e c) técnica de poda para selecionar as features semânticas mais discriminativas Nós avaliamos o framework proposto através de um vasto conjunto de experimentos, que incluem: a) sete eventos alvos de natureza distinta; b) diferentes combinações das features conceituais propostas (i.e. entidades, vocabulário, e a combinação de ambos); c) estratégias distintas para a extração de features (i.e. a partir do conteúdo dos tweets e das páginas web); d) diferentes métodos para a seleção das features semânticas mais relevantes de acordo com o domínio (i.e. poda, seleção de features, e a combinação de ambos); e) dois algoritmos de classificação. Nós também comparamos o desempenho do framework em relação a outro método utilização para o enriquecimento contextual, o qual tem como base word embeddings. Os resultados mostraram as vantagens da utilização do framework proposto e que a nossa solução é factível e generalizável, dando suporte a classificação de diferentes tipos de eventos. / Social Media platforms have become key as a means of spreading information, opinions or awareness about real-world events. Twitter stands out due to the huge volume of messages about all sorts of topics posted every day. Such messages are an important source of useful information about events, presenting many useful applications (e.g. the detection of breaking news, real-time awareness, updates about events). However, text classification on Twitter is by no means a trivial task that can be handled by conventional Natural Language Processing techniques. In addition, there is no consensus about the definition of which kind of tasks are executed in the Event Identification and Classification in tweets, since existing approaches often focus on specific types of events, based on specific assumptions, which makes it difficult to reproduce and compare these approaches in events of distinct natures. In this work, we aim at building a unifying framework that is suitable for the classification of events of distinct natures. The framework has as key elements: a) external enrichment using related web pages for extending the conceptual features contained within the tweets; b) semantic enrichment using the Linked Open Data cloud to add related semantic features; and c) a pruning technique that selects the semantic features with discriminative potential We evaluated our proposed framework using a broad experimental setting, that includes: a) seven target events of different natures; b) different combinations of the conceptual features proposed (i.e. entities, vocabulary and their combination); c) distinct feature extraction strategies (i.e. from tweet text and web related documents); d) different methods for selecting the discriminative semantic features (i.e. pruning, feature selection, and their combination); and e) two classification algorithms. We also compared the proposed framework against another kind of contextual enrichment based on word embeddings. The results showed the advantages of using the proposed framework, and that our solution is a feasible and generalizable method to support the classification of distinct event types.

Page generated in 0.0741 seconds