• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 16
  • 15
  • 15
  • 15
  • 14
  • 11
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 275
  • 275
  • 156
  • 98
  • 74
  • 65
  • 62
  • 51
  • 50
  • 49
  • 48
  • 38
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Uma proposta de interdisciplinaridade entre arquitetura da informação e ciência da computação : linguagem “SOWL” para as ontologias da Web utilizando o formalismo dos grafos conceituais

Carvalho, Érica de Oliveira 16 December 2013 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Ciência da Informação, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-05-29T13:06:39Z No. of bitstreams: 1 2013_EricadeOliveiraCarvalho.pdf: 6085661 bytes, checksum: e490b995ffa2c6d3d1ff92590867c248 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-05-29T16:00:31Z (GMT) No. of bitstreams: 1 2013_EricadeOliveiraCarvalho.pdf: 6085661 bytes, checksum: e490b995ffa2c6d3d1ff92590867c248 (MD5) / Made available in DSpace on 2014-05-29T16:00:31Z (GMT). No. of bitstreams: 1 2013_EricadeOliveiraCarvalho.pdf: 6085661 bytes, checksum: e490b995ffa2c6d3d1ff92590867c248 (MD5) / A Web Semântica, sendo a nova visão proposta pelo World Wide Web Consortium (W3C) para a estrutura atual da Web, é destinada a aumentar as possibilidades que ela oferece e, dessa forma, tornar seus recursos mais acessíveis para as máquinas. Entretanto, as técnicas de raciocínio de inferência utilizadas atualmente sobre os conhecimentos descritos pelas linguagens de representação de semânticas Web se baseiam somente sobre as capacidades inferenciais do formalismo de lógicas de descrição e os da lógica de predicados, já largamente utilizados nos motores de inferências. Este fato introduz a importância das pesquisas que tratam da representação do conhecimento e das técnicas de raciocínio sobre as ontologias na ótica da Web Semântica. O presente trabalho se propõe a estudar a capacidade dos grafos conceituais para representar e operacionalizar as ontologias da Web, assim como as contribuições dessa abordagem, de um ponto de vista simbólico (poder e facilidade de representação e interpretação) e inferencial (tipos de inferência aplicáveis a esse formalismo). Sendo a Arquitetura da Informação uma disciplina indissociavelmente ligada às tecnologias da informação, o presente trabalho é uma proposta para a interdisciplinaridade entre esta e a Ciência da Computação. _______________________________________________________________________________________ ABSTRACT / The Semantic Web, being the new vision proposed by World Wide Web Consortium (W3C), to the current structure of the Web, is designed to increase the possibilities that it provides, and thereby, render its resources more accessible to machines. However, the techniques of inference on the knowledge described by representation languages of Semantic Web are based only on the inferential on formalism of description logics capabilities and formalisms of predicate logic, already widely used in the inferences engines. This fact introduces the importance of research that deals with the knowledge representation and reasoning techniques on ontologies from the perspective of the Semantic Web. The present work was geared towards the capacity of conceptual graphs to represent and operationalize the Web ontologies, as well as the contributions of this approach, as a symbolic viewpoint (power and representation, and interpretation facility) and inferential (inference types applicable to this formalism). Since the Information Architecture is one discipline inextricably linked to information tecnology, the present work is a proposal for the interdisciplinarity between this and Computer Science.
32

Integração de Dados Baseada em Ontologias e Raciocínio Automático: Estudo de Caso com Dados Públicos de Saúde

Fernandes, Roberta de Medeiros 10 September 2012 (has links)
Submitted by Pedro Henrique Rodrigues (pedro.henriquer@ufpe.br) on 2015-03-05T19:48:46Z No. of bitstreams: 2 dissertacao_roberta_fernandes.pdf: 3832636 bytes, checksum: 3fe55db8660c170527380e407865a71b (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-05T19:48:46Z (GMT). No. of bitstreams: 2 dissertacao_roberta_fernandes.pdf: 3832636 bytes, checksum: 3fe55db8660c170527380e407865a71b (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012-09-10 / No Brasil atualmente, quantidades consideráveis de dados úteis à vigilância epidemiológica encontram-se armazenados nos bancos de dados dos diversos sistemas de informações em saúde criados pelo Ministério da Saúde. Esse dados, dispostos em fontes de dados isoladas e de sintaxes heterogêneas, muitas vezes não podem ser comparados, pois representações tabulares não possuem uma semântica explícita. Além disso, as ferramentas utilizadas para a integração dessas bases de dados, preocupam-se apenas em listar os casos em comum presentes nas duas bases de dados, deixando a análise e extração das informações úteis à epidemiologia, a cargo dos profissionais treinados na ferramenta. Com base nesse cenário, esse estudo propõe uma solução de integração de dados baseada em ontologias. Pretende-se, com os dados epidemiológicos integrados através de ontologias e empregados através de ferramentas oriundas dos padrões da Web Semântica (WS), minimizar a intervenção humana no processo de análise dos dados, provendo assim maior agilidade ao acesso de informações advindas das fontes de dados de saúde. Para ilustrar a utilidade e complexidade de tal solução foi construído um estudo de caso real de integração semântica dos dados através do emprego de múltiplas ontologias com informações sobre a Classificação Estatística Internacional de Doenças e Problemas Relacionados à Saúde (CID-10), localização geográfica, doenças negligenciadas (Leishmaniose, Dengue, entre outras) e morbidade - com as fontes de dados do Ministério da Saúde (MS) citadas de forma a explorar os dados no contexto epidemiológico. Através dessa abordagem, em comparação a consultas relacionais em bancos de dados isolados, é ilustrado o enriquecimento das consultas complexas aos dados de saúde com a integração de conhecimento de diferentes naturezas (geográfico e de doenças) e utilizando raciocínio automático não-trivial.
33

Monk: proposta de um motor de inferência híbrido para a web semântica

Ribeiro Santana, Menandro 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:37Z (GMT). No. of bitstreams: 2 arquivo2957_1.pdf: 1211049 bytes, checksum: 7271cbf6edc1ea612933219d2dca57b6 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Devido às limitações da Web Atua iniciou-se o desenvolvimento de uma evolução da Web, denominada Web Semântica. Nesta nova Web, o conteúdo e a apresentação das informações devem estar separados e representados em uma notação adequada as novas necessidades da comunidade digital. Devido a isso, várias áreas de pesquisa, como por exemplo, a representação do conhecimento e o raciocínio automático, estão trabalhando com o intuito de tornar a Web Semântica uma realidade. Normalmente, o conhecimento é formado por várias partes e nem sempre é possível representá-lo, apropriadamente, utilizando um único formalismo de representação. Devido a isso, sistemas que lidam com representações diferentes podem ser de grande ajuda. O objetivo deste trabalho é estudar formalismos de representação de conhecimento e métodos de raciocínio automático, para propor um motor de inferência híbrido, chamado MONK, que possa ser utilizado na Web Semântica. Para a criação do MONK foi utilizado como base o projeto do sistema MANTRA. Foram mantidos os algoritmos de unificação (Martelli e Montanari) e inferência (t-entailment), pois são algoritmos decidíveis e eficientes, mas a arquitetura foi modificada para facilitar a inclusão futura de novos formalismos, como Frames, Redes Semânticas e Lógica de Descrições (usada na OWL, que é a linguagem padronizada para a Web Semântica). O MONK dá ênfase a Lógica de Primeira Ordem (baseada em uma Lógica de Quatro Valores), tornando-a seu formalismo padrão. Com isso, desde que algum formalismo possua um mapeamento para a Lógica de Primeira Ordem, ele poderá ser suportado pelo MONK sem que seja necessário implementar novos algoritmos de raciocínio
34

Uma aplicação da web semântica no suporte a teleconsultas

MOURA, Paulo Bittencourt 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:57:09Z (GMT). No. of bitstreams: 2 arquivo3145_1.pdf: 1882548 bytes, checksum: 53ccbdf2ab11952ee38813ea044d4987 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / A Web Semântica é uma extensão da Web atual onde é atribuído significado bem definido às informações, permitindo sua melhor manipulação pelos programas, que podem se encarregar de tarefas mais sofisticadas. Para viabilizar este cenário, é necessário que os programas tenham acesso a coleções de informações estruturadas e conjuntos de regras de inferência a partir das quais possam fazer raciocínio automatizado. Para que a Web Semântica possa se desenvolver, os sistemas de representação de conhecimento devem compartilhar as definições de conceitos comuns e isto pode ser alcançado aplicando-se ontologias. A publicação destas ontologias na Web torna seus conceitos globalmente acessíveis, permitindo que qualquer sistema, na rede, possa referenciar e buscar informações nelas. Informática Médica lida com armazenamento, recuperação e uso da informação, dados e conhecimento biomédicos. O registro eletrônico de informações de pacientes, apoio a tomada de decisões e a assistência remota estão entre as áreas em que a Informática Médica vem se desenvolvendo. Além disso, pela natureza da área, onde as informações dos pacientes ficam fragmentadas em diversos estabelecimentos de saúde, também existe um grande esforço para promover a interoperabilidade entre os sistemas utilizados em cada um destes estabelecimentos. Uma vez que estes sistemas lidam com um grande volume de dados e com necessidades constantes de integração e extração de informações, alguns dos maiores progressos no campo da Web Semântica vêm ocorrendo na área de saúde. Na Universidade Federal de Pernambuco, o Núcleo de Telesaúde atua no desenvolvimento e aplicação da Informática Médica, e disponibiliza o sistema Healthnet, pelo qual seus parceiros podem discutir casos clínicos na Internet. Uma nova versão deste sistema está sendo desenvolvida, e o objetivo deste trabalho é incluir nela tecnologias da Web Semântica, buscando prover apoio aos usuários na utilização do sistema. Para tanto, foi criada uma ontologia e definidos novos componentes na composição do sistema que viabilizem a criação de uma base de conhecimento e permitam seu acesso ao usuário. Foi, ainda, definido um método para guiar extensões da ontologia para possibilitar o apoio às pesquisas e processos de tomada de decisão executados pelos usuários do Healthnet. O rastreamento de pacientes com risco de desenvolver Doença Renal Crônica foi utilizado como estudo de caso, para verificar a viabilidade da solução
35

Aplicação de métodos de raciocínio baseado em casos de conhecimento intensivo para a web semântica: um estudo sobre o domínio biológico

SEGUNDO, Plácido das Chagas Soares 27 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-05-13T17:12:35Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO_UNIFICADO_DIGITAL_FINAL (1).pdf: 2573159 bytes, checksum: c26fd7c0936cb51a0aab37c9d1e1dd16 (MD5) / Made available in DSpace on 2016-05-13T17:12:35Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO_UNIFICADO_DIGITAL_FINAL (1).pdf: 2573159 bytes, checksum: c26fd7c0936cb51a0aab37c9d1e1dd16 (MD5) Previous issue date: 2015-08-27 / A literatura tem descrito soluções baseadas em web semântica e ontologias como uma estratégia para a implementação de consultas e integração entre fontes de dados, considerando que ontologias e fontes de dados podem apresentar conteúdo complementar em um mesmo domínio. A estratégia tradicional é baseada na execução de consultas em SPARQL (Query Language for RDF) para acesso aos dados de forma integrada a ontologias. Esta estratégia não apresenta expressividade suficiente para derivar novo conteúdo, pois não vai além da álgebra relacional. Uma alternativa à SPARQL é aplicar raciocínio por subsunção disponível para ontologias descritas com Description Logics (DL). No entanto DL por si só não é capaz de determinar o que significa uma instância (dado) sem a existência de uma descrição explícita (axioma). Nesse sentido, há limitações sobre os métodos disponíveis para a web semântica, pois não apresentam uma solução capaz de interpretar de forma automatizada o que significa uma instância (dado) sem a existência de axiomas os quais descrevam o comportamento do domínio. Neste trabalho, é levantada a hipótese de que é possível realizar o aperfeiçoamento nos mecanismos de raciocínio sobre os dados de forma que novos axiomas possam ser gerados segundo a demanda do usuário, e.g. a partir de consultas. Este processo é baseado na utilização da semântica inerente aos registros dos bancos de dados, e dos mapeamentos existentes entre as ontologias e os bancos. Para isso, além das técnicas de web semântica levantadas, são utilizados métodos de Knowledge-intensive Case Based Reasoning (KI-CBR) para a recuperação das informações que representem os melhores resultados. O presente trabalho tem como objetivo apresentar uma proposta de evolução aos métodos de KI-CBR existentes para permitir a recuperação e a geração de casos em ambientes heterogêneos, integrados por meio de várias ontologias e que incluam as restrições disponíveis nas ontologias no processo de definição de solução. O processo de definição de solução é relacionado à extração de novos axiomas a partir do arranjo dos dados e das consultas criadas pelo usuário. Como ponto de partida, será utilizada e modificada a metodologia de KI-CBR incluída na ferramenta jCOLIBRI2. Dados (UniProt/SwissProt, Ensembl e NCBI Taxonomy) e ontologias (Gene Ontology, Chemical Entities of Biological Interest, Protein Ontology e BioTopLite2) do domínio biológico serão utilizados para exemplificação devido a revisão manual, presença de anotações e nível de formalização do conhecimento. A nova ferramenta de CBR derivada do presente trabalho será chamada de IntegrativO CBR e será disponibilizada como um plugin para o editor de ontologias Protégé v.5. A contribuição desta pesquisa se reflete na implementação de uma ferramenta de auxílio para o desenvolvimento de soluções, baseadas em web semântica e ontologias, capaz de recuperar e gerar novos casos em ambientes heterogêneos mediados por ontologias. / The literature describes solutions based on semantic web and ontologies as a strategy integration of data sources. The traditional semantic integration strategy relies on running queries with SPARQL to access data, supported by an ontological representation. This strategy bears a limitation: it does not have enough expressiveness to derive new content due to limited expressiveness. An alternative to SPARQL is to apply reasoning subsumption available for ontologies described in Description Logics (DL). Even in this scenario, DL is not able to determine what an instance is (from data), without explicit statements (axioms). In this sense, there are limitations on the methods available for the semantic web, as it does not provide a solution to enable interpreting data from an ontological point of view. In this work, it is hypothesized that it is possible improve the reasoning mechanisms over the data so that new axioms can be generated according to user demand, e.g. from queries. This process is based on the inherent semantics of the databases, according to an ontological background. For this, along with the semantic web techniques, Knowledge-intensive Case Based Reasoning (CBR-KI) are used to support information retrieval based on similarity analysis to extract the most suitable results. In this sense, this study aims at presenting an evolution to existing KI-CBR methods in order to allow retrieval and generation of cases in heterogeneous environments, integrated through multiple ontologies. It also reuses axioms available in ontologies to define a suitable solution. The solution-making process is related to the extraction of new axioms from the data arrangement and user-created queries. The jCOLIBRI2 tool is used as a basis for the development, as it is delivered as a suite for developing new KI-CBR solutions. Data from biomedical databases (UniProt / SwissProt, Ensembl and NCBI Taxonomy) and biomedical ontologies (Gene Ontology, Chemical Entities of Biological Interest, Protein Ontology and BioTopLite2) are used for exemplification due to manual review of data, presence of data annotations, and level of ontological formalization. The new CBR tool derived from this work is called integrative CBR, and is available as a plugin for the ontology editor Protégé v.5. The contribution of this research is reflected in the implementation of a tool to support the development of solutions based on semantic web and ontologies, able to recover and generate new cases in heterogeneous environments mediated by ontologies.
36

Uma abordagem ontológica para modelagem de crimes contra o patrimônio

BARROS, Patrícia Vieira da Silva 28 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-25T18:31:02Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Patrícia Vieira da Silva Barros.pdf: 3244402 bytes, checksum: 0050725dc0dec4a0851eb82f87d61d1d (MD5) / Made available in DSpace on 2016-04-25T18:31:02Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Patrícia Vieira da Silva Barros.pdf: 3244402 bytes, checksum: 0050725dc0dec4a0851eb82f87d61d1d (MD5) Previous issue date: 2015-08-28 / CNPQ / O Código Penal Brasileiro, em seu Título II (arts. 155 a 183), define os crimes contra o patrimônio. O objetivo da Lei Penal é proteger o patrimônio da pessoa física e jurídica. Tanto o crime de furto, roubo, latrocínio, extorsão e a apropriação indébita estão inseridos no rol dos crimes contra o patrimônio. A diferença entre tais crimes será mostrada na OntoCrimePatrimonio, uma abordagem ontológica que utiliza uma linguagem controlada, a qual ajuda o usuário na tomada de decisão sem que este conheça os formalismos utilizados internamente pelo sistema onde serão realizadas inferências a partir da prova fornecida pelos raciocinadores, averiguando se tal diferenciação entre esses crimes estão ontologicamente e logicamente corretos. / The Brazilian Penal Code, in its Title II (Arts. 155-183) defines the crimes against property. The aim of the Criminal Law is to protect the assets of individuals and companies. Both the crime of theft, burglary, robbery, extortion and embezzlement are inserted in the list of crimes against property. The difference between such crimes will be shown in OntoCrimePatrimonio, an ontological approach that uses a controlled language, which helps the user in making a decision without it knows the formalities used internally by the system which will be held inferences from the evidence provided by reasoners, ascertaining whether such a differentiation between these crimes are ontologically and logically correct.
37

Composição automática de serviços web semânticos : uma abordagem com times assíncronos e operadores genéticos / Automatic composition of semantic web services : an approach with asynchronous teams and genetic operators

Tizzo, Neil Paiva 20 August 2018 (has links)
Orientadores: Eleri Cardozo, Juan Manuel Adán Coello / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-20T11:09:42Z (GMT). No. of bitstreams: 1 Tizzo_NeilPaiva_D.pdf: 4158360 bytes, checksum: 2da573ad2a127a6b19a4e75f6b8f2d76 (MD5) Previous issue date: 2012 / Resumo: A automação da composição de serviços Web é, na visão do autor, um dos problemas mais importantes da área de serviços Web. Além de outras características, destaca-se que somente a composição automática é capaz de lidar com ambientes mutáveis onde os serviços são permanentemente inseridos, removidos e modificados. Os métodos existentes para realizar a composição automática de serviços apresentam várias limitações. Alguns tratam de um número muito restrito de fluxos de controles e outros não consideram a marcação semântica dos serviços. Em adição, em muitos casos não há avaliações quantitativas do desempenho dos métodos. Desta forma, o objetivo desta tese é propor um método para realizar a composição automática de serviços Web semânticos que considera os cinco tipos básico de fluxo de controle identificados pela Workflow Management Coalition, a saber: sequencial, separação paralela, sincronização, escolha-exclusiva e união simples; bem como para o fluxo de controle em laço, considerado um fluxo do tipo estrutural. As regras que descrevem a composição entre os serviços são híbridas, baseadas em semântica e em técnicas de recuperação de informação. Os serviços são descritos em OWL-S, uma ontologia descrita em OWL que permite descrever semanticamente os atributos IOPE (parâmetros de entrada, de saída, pré-requisitos e efeitos) de um serviço, mas somente os parâmetros de entrada e saída foram levados em consideração neste trabalho. Para validar a abordagem foi implementado um protótipo que utilizou times assíncronos (A-Teams) com agentes baseados em algoritmos genéticos para realizar a composição segundo os padrões de fluxo sequencial, paralelo e sincronização. A avaliação experimental do algoritmo de composição foi realizada utilizando uma coleção de serviços Web semânticos pública composta de mais de 1000 descrições de serviços. As avaliações de desempenho, em vários cenários típicos, medidas em relação ao tempo de resposta médio e à quantidade de vezes em que a função de avaliação (função fitness) é calculada são igualmente apresentadas. Para os casos mais simples de composição, o algoritmo conseguiu reduzir o tempo de resposta em relação a uma busca cega em aproximadamente 97%. Esta redução aumenta à medida que a complexidade da composição também aumenta / Abstract: The automation of the composition of Web services is, in the view of the author, one of the most important problems in the area of Web services. Beyond other characteristics, only the automatic composition can deal with a changing environment where the services are permanently inserted, removed, and modified. Existing methods performing the automatic service composition have several limitations. Some deal with a very limited number of control flow patterns, while others do not consider the semantic markup of services. In addition, in many cases there is no quantitative evaluation of the method's performance. In such a way, the objective of this thesis is to propose a method to perform the automatic composition of semantic Web services considering the five basic types of control flow identified by the Workflow Management Coalition, namely: sequential, parallel split, synchronization, exclusive choice and simple merge; and for loop control flow, classified as a structural control flow pattern. The rules that describe the composition of the service are hybrid: based in semantics and in information retrieval techniques. Services are described in OWL-S, an ontology described in OWL that allows the semantically description of the IOPE attributes (input, output, prerequisite and effect) of a service, but only the input and output parameters were taken into consideration in this work. A prototype was implemented to validate the proposed rules. An asynchronous Team (A-Team) algorithm with genetic agents was used to carry out the composition according to the sequential, parallel and synchronization control flows. The experimental evaluation of the composition algorithm employed a public collection of semantic Web services composed of more than 1000 descriptions of services. An experimental performance evaluation showed that, for simple composition cases, the algorithm reduced the average response time in approximately 97%, when compared to blind search. This reduction increases as the composition complexity increases / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
38

Inteligência cibernética e uso de recursos semânticos na detecção de perfis falsos no contexto do Big Data /

Oliveira, José Antonio Maurilio Milagre de. January 2016 (has links)
Orientador: José Eduardo Santarem Segundo / Banca: Ricardo César Gonçalves Sant'Ana / Banca: Mário Furlaneto Neto / Resumo: O desenvolvimento da Internet transformou o mundo virtual em um repositório infindável de informações. Diariamente, na sociedade da informação, pessoas interagem, capturam e despejam dados nas mais diversas ferramentas de redes sociais e ambientes da Web. Estamos diante do Big Data, uma quantidade inacabável de dados com valor inestimável, porém de difícil tratamento. Não se tem dimensão da quantidade de informação capaz de ser extraída destes grandes repositórios de dados na Web. Um dos grandes desafios atuais na Internet do "Big Data" é lidar com falsidades e perfis falsos em ferramentas sociais, que causam alardes, comoções e danos financeiros significativos em todo o mundo. A inteligência cibernética e computação forense objetivam investigar eventos e constatar informações extraindo dados da rede. Por sua vez, a Ciência da Informação, preocupada com as questões envolvendo a recuperação, tratamento, interpretação e apresentação da informação, dispõe de elementos que quando aplicados neste contexto podem aprimorar processos de coleta e tratamento de grandes volumes de dados, na detecção de perfis falsos. Assim, por meio da presente pesquisa de revisão de literatura, documental e exploratória, buscou-se revisar os estudos internacionais envolvendo a detecção de perfis falsos em redes sociais, investigando técnicas e tecnologias aplicadas e principalmente, suas limitações. Igualmente, apresenta-se no presente trabalho contribuições de áreas da Ciência da Informação e critério... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The development of the Internet changed the virtual world in an endless repository of information. Every single day, in an information-society, people change, catch and turn out files in different tools of social network and Web surrounding. We are in front of "The Big Data", an endless amount of data with invaluable, but hard treating. It doesn't have some dimension of measure information to be able of extracting from these big Web data repositories. One of the most challenges nowadays on the Internet from the "Big Data" is to identify feelings, anticipating sceneries dealing with falsehood and false profiles social tools, which cause fanfare, upheavals and significant financial losses worldwide in front of our true scene. The cyber intelligence has by objective to look for events and finding information, subtracting dates from the Web. On the other hand, the Information Science, worried with the questions involving recovery, processing, interpretation and presentation of information that has important areas of study capable of being applied in this context hone the collection and treatment processes of large volumes of information (datas). Thus, through this research literature review, documentary and exploratory, the researcher aimed to review the International studies implicating the analysis of large volumes of data on social networking tools in falsehoods detection, investigating applied techniques and technologies and especially their limitations. Based on the identifi... (Complete abstract click electronic access below) / Mestre
39

IntegraWeb: uma proposta de arquitetura baseada em mapeamentos semânticos e técnicas de mineração de dados / IntegraWeb: an architectural proposal based on semantic mappings and data mining techniques

Pierin, Felipe Lombardi 05 December 2017 (has links)
Atualmente uma grande quantidade de conteúdo é produzida e publicada todos os dias na Internet. São documentos publicados por diferentes pessoas, por diversas organizações e em inúmeros formatos sem qualquer tipo de padronização. Por esse motivo, a informação relevante sobre um mesmo domínio de interesse acaba espalhada pela Web nos diversos portais, o que dificulta uma visão ampla, centralizada e objetiva sobre esta informação. Nesse contexto, a integração dos dados espalhados na rede torna-se um problema de pesquisa relevante, para permitir a realização de consultas mais inteligentes, de modo a obter resultados mais ricos de significado e mais próximos do interesse do usuário. No entanto, tal integração não é trivial, sendo por muitas vezes custosa devido à dependência do desenvolvimento de sistemas e mão de obra especializados, visto que são poucos os modelos reaproveitáveis e facilmente integráveis entre si. Assim, a existência de um modelo padronizado para a integração dos dados e para o acesso à informação produzida por essas diferentes entidades reduz o esforço na construção de sistemas específicos. Neste trabalho é proposta uma arquitetura baseada em ontologias para a integração de dados publicados na Internet. O seu uso é ilustrado através de casos de uso reais para a integração da informação na Internet, evidenciando como o uso de ontologias pode trazer resultados mais relevantes. / A lot of content is produced and published every day on the Internet. Those documents are published by different people, organizations and in many formats without any type of established standards. For this reason, relevant information about a domain of interest is spread through the Web in various portals, which hinders a broad, centralized and objective view of this information. In this context, the integration of the data scattered in the network becomes a relevant research problem, to enable smarter queries, in order to obtain richer results of meaning and closer to the user\'s interest. However, such integration is not trivial, and is often costly because of the reliance on the development of specialized systems by professionals, since there are few reusable and easily integrable models. Thus, the existence of a standardized model for data integration and access to the information produced by these different entities reduces the effort in the construction of specific systems. In this work we propose an architecture based on ontologies for the integration of data published on the Internet. Its use is illustrated through experimental cases for the integration of information on the Internet, showing how the use of ontologies can bring more relevant results.
40

Ativação de componentes de software com a utilização de uma ontologia de componentes / Component loading with utilization of a components ontology

Lorza, Augusto Carbol 16 July 2007 (has links)
Atualmente, existem muitos estudos para agregar mais valor às informações disponíveis na Web visando melhorar os resultados da interação dos usuários com a Web; uma das linhas de estudo é a Web Semântica, que propõe a adição de informação semântica à Web atual por meio de ontologias. A organização internacional que define os padrões para a Web (W3C) já propôs vários padrões para tornar a Web Semântica viável, porém, além de padrões, também é preciso criar ou adaptar ferramentas que explorem as suas potencialidades. Uma ferramenta que dá um suporte significativo para a Web atual e que pode ser adaptada para trabalhar com a Web Semântica é o Servidor de Aplicações. Com adição de informações semânticas, na forma de ontologias, tem-se um Servidor de Aplicações Baseado em Ontologias (OBAS). Neste trabalho foi desenvolvido um sistema protótipo para oferecer as características mínimas de um OBAS, e desta forma, foram investigadas as tecnologias para a Web Semântica que viabilizassem uma solução de acordo com os padrões recomendados pela W3C. Os componentes de software de um OBAS têm suas propriedades e comportamentos relacionados de forma semântica usando-se ontologias. Como uma ontologia é um modelo conceitual explícito, suas descrições dos componentes podem ser consultadas e inferidas, melhorando o desempenho do servidor através da combinação dos componentes mais apropriados a uma tarefa, da simplificação da programação, pois não é mais necessário saber todos os detalhes de um componente para ativá-lo / Many studies have been carried out to add more value to the available information in the Web with a view to improving the results of the users\' interaction with the Web. Semantic Web is one line of research with focus on this issue and proposes the insertion of semantic information to the current Web through ontologies. Several patterns have been proposed by W3C, the international organization that defines patterns to the Web as an attempt to make the Semantic Web viable. However, besides patterns, it is also necessary to create or adapt tools to explore their potentialities. Application Server is a tool which gives significant support to the current Web and could be adapted to work with the Semantic Web. By adding semantic information, in the ontology form, we have an Ontology-Based Application Server (OBAS). This study develops a protoptype system which aims to offer the minimum characteristics of an OBAS. We have therefore investigated the semantic web which could provide a solution according to the patterns recommended by W3C. Properties and behaviors of software components of OBAS are semantically related by means of ontologies. Given that ontology is an explicit conceptual model, its component descriptions can be consulted and inferred, and hence improve the performance of the server. This is done by applying the most appropriate components to a given task and simplifying programming since components can be activated with no need to know all their details

Page generated in 0.0825 seconds