Spelling suggestions: "subject:"ontologies"" "subject:"antologies""
481 |
Formalizing biomedical concepts from textual definitionsTsatsaronis, George, Ma, Yue, Petrova, Alina, Kissa, Maria, Distel, Felix, Baader , Franz, Schroeder, Michael 04 January 2016 (has links) (PDF)
Background
Ontologies play a major role in life sciences, enabling a number of applications, from new data integration to knowledge verification. SNOMED CT is a large medical ontology that is formally defined so that it ensures global consistency and support of complex reasoning tasks. Most biomedical ontologies and taxonomies on the other hand define concepts only textually, without the use of logic. Here, we investigate how to automatically generate formal concept definitions from textual ones. We develop a method that uses machine learning in combination with several types of lexical and semantic features and outputs formal definitions that follow the structure of SNOMED CT concept definitions.
Results
We evaluate our method on three benchmarks and test both the underlying relation extraction component as well as the overall quality of output concept definitions. In addition, we provide an analysis on the following aspects: (1) How do definitions mined from the Web and literature differ from the ones mined from manually created definitions, e.g., MeSH? (2) How do different feature representations, e.g., the restrictions of relations’ domain and range, impact on the generated definition quality?, (3) How do different machine learning algorithms compare to each other for the task of formal definition generation?, and, (4) What is the influence of the learning data size to the task? We discuss all of these settings in detail and show that the suggested approach can achieve success rates of over 90%. In addition, the results show that the choice of corpora, lexical features, learning algorithm and data size do not impact the performance as strongly as semantic types do. Semantic types limit the domain and range of a predicted relation, and as long as relations’ domain and range pairs do not overlap, this information is most valuable in formalizing textual definitions.
Conclusions
The analysis presented in this manuscript implies that automated methods can provide a valuable contribution to the formalization of biomedical knowledge, thus paving the way for future applications that go beyond retrieval and into complex reasoning. The method is implemented and accessible to the public from: https://github.com/alifahsyamsiyah/learningDL.
|
482 |
UMA ARQUITETURA PARA A UTILIZAÇÃO DE COMPUTAÇÃO NAS NUVENS NOS AMBIENTES DE COMPUTAÇÃO PERVASIVA / AN ARCHITECTURE FOR THE USE OF CLOUD COMPUTING IN PERVASIVE COMPUTING ENVIRONMENTSPereira, Henrique Gabriel Gularte 22 March 2012 (has links)
The modern world can be characterized by the quick proliferation of mobile devices and by
the intense use of computers on our daily lives. Both pervasive computing and cloud computing
have appeared as very promissing trends, but for pervasive computing to reach mainstream,
many paradigm changes are needed on the current computing environments. Some of the problems
found in pervasive camputing are not from a technical order, but due to a lack of standards
and models to allow devices to interoperate and the problems related to the creation of low cost
computing environments. Pervasive environments are marked by having sudden and frequent
changes, making it necessary to think of a way to manage context information. This work aims
at showing a solution that will allow the creation of pervasive computing environments using
resources available in the cloud computing paradigm and taking in consideration requisites like
the ability of mixing heterogenous computing devices running on the least possible amount of
resources and using ontologies for context information representation and management. In this
context, an architecture for the development of pervasive computing environments, an study
case in a residencial cenario and an analysis of the results obtained with the proposed architecture
are presented. / O mundo atual é caracterizado pela rápida proliferação de dispositivos móveis e pelo intenso
uso de computadores no nosso cotidiano. Tanto a computação pervasiva quanto a computação
em nuvem têm surgido como uma tendência muito promissora. Porém, para que a
computação pervasiva se consolide são necessárias algumas mudanças de paradigma nos ambientes
atuais da computação. Boa parte dos problemas encontrados hoje em dia na computação
pervasiva não são de ordem técnica, mas sim a falta de padrões e modelos para permitir a interoperabilidade
entre os dispositivos e a criação de ambientes computacionais de baixo custo.
Os ambientes de computação pervasiva são caracterizados por mudanças rápidas e frequentes,
sendo necessária a existência de alguma maneira para gerenciar essa informação de contexto.
Essa dissertação visa apresentar uma solução para permitir a criação de ambientes de computação
pervasiva utilizando serviços disponíveis no paradigma da computação em nuvem levando
em consideração requisitos como a capacidade de trabalhar com dispositivos computacionais
heterogêneos consumindo o mínimo possível de recursos e utilizando ontologias para a representação
de informação de contexto. Nesse contexto, são apresentadas uma proposta de arquitetura
para ambientes pervasivos, um estudo de caso em um cenário residencial e apresentados
resultados e conclusões sobre a arquitetura proposta. Os resultados alcançados no estudo de
caso permitiram a implementação de um ambiente pervasivo utilizando recursos computacionais
disponíveis na nuvem e atingind os objetivos propostos no trabalho.
|
483 |
GeOntoQuery - um mecanismo de busca em bancos de dados geogr?ficos baseado em ontologiasViegas, Renata Fernandes 13 July 2006 (has links)
Made available in DSpace on 2014-12-17T15:48:13Z (GMT). No. of bitstreams: 1
RenataFV.pdf: 2026641 bytes, checksum: d5edf169c543491b121577470ede0141 (MD5)
Previous issue date: 2006-07-13 / Geographic Information System (GIS) are computational tools used to capture, store, consult, manipulate, analyze and print geo-referenced data. A GIS is a multi-disciplinary system that can be used by different communities of users, each one having their own interest and knowledge. This way, different knowledge views about the same reality need to be combined, in such way to attend each community. This work presents a mechanism that allows different community users access the same geographic database without knowing its particular internal structure. We use geographic ontologies to support a common and shared understanding of a specific domain: the coral reefs. Using these ontologies' descriptions that represent the knowledge of the different communities, mechanisms are created to handle with such different concepts. We use equivalent classes mapping, and a semantic layer that interacts with the ontologies and the geographic database, and that gives to the user the answers about his/her queries, independently of the used terms / Sistemas de Informa??o Geogr?fica (SIG) s?o ferramentas computacionais usadas para capturar, armazenar, consultar, analisar e imprimir dados geo-referenciados. Os SIG s?o sistemas multidisciplinares, ou seja, podem ser utilizados por diferentes comunidades de usu?rios, cada uma com seus interesses e conhecimentos pr?prios, Desta forma, diferentes vis?es de conhecimento sobre uma mesma realidade precisam ser combinadas de modo a atender ?s necessidades de cada comunidade. Este trabalho apresenta um mecanismo que permite que diferentes comunidades de usu?rios acessem o mesmo banco de dados geogr?fico sem ter conhecimento de sua estrutura interna. Utilizamos ontologias geogr?ficas para permitir um conhecimento comum e compartilhado a estes diferentes usu?rios sobre um dom?nio espec?fico: os recifes de corais. Usando as descri??es das ontologias, que representam o conhecimento de diferentes comunidades, mecanismos s?o criados para tratar tais diferentes conceitos. Definimos uma camada sem?ntica que faz um mapeamento entre as classes equivalentes das antologias e interage com o banco de dados geogr?fico, retornando ao usu?rio as respostas ?s suas consultas, independente dos termos utilizados
|
484 |
Mapa conceitual de uma ontologia de domínio do patrimônio imaterial brasileiro: um percurso pelos caminhos de Peirce, Dahlberg e Novak.Martins, Gracy Kelli 10 March 2010 (has links)
Made available in DSpace on 2015-04-16T15:23:46Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 5792917 bytes, checksum: f2b6c446dbab56ec75fa24d66564c965 (MD5)
Previous issue date: 2010-03-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Research in the Graduate Program in Information Science UFPB around the construction of a conceptual map of a domain ontology. The mapping process relied on analysis of the domain, conducting surveys that involved issues ranging from determining the appropriate side view until the capture of terms and concepts contained in the sources of information about the analyzed field. The corpus of study selected is classified by the Instituto do Patrimônio Artístico Histórico Nacional IPHAN, as Intangible Heritage. Much more of a theoretical, research purposed to describe how the lifting of a given area must be driven from its aspect of knowledge representation and how is the establishment of relations between terms and concepts, preliminary step in the development of ontologies and domain central objective of this work. No attempt to develop an ontology in the context of artificial intelligence, computational logic through, and even develop a new methodology, but the rescue and application of methods has long worked for CI today and the technologies needed for representation and retrieval of information, focusing on the Core Principles for Domains Modeling (CAMPOS, 2004). Reasoned from the strong interdisciplinary character of CI, the proposal was to map the area within the cutout area of the Intangible Heritage, through methodological triangulation, identifying the representations of signs that exist in information processes and representational knowledge based on analysis Semiotics (PEIRCE , 1977), Theory of the Concept of Dahlberg (1976) and graphical representation of conceptual maps (Novak,1995). / Pesquisa realizada no Programa de Pós-Graduação em Ciência da Informação da UFPB, em torno da construção de um mapa conceitual de uma ontologia de domínio. O processo de mapeamento se apoiou na análise do domínio, realizando levantamentos que envolveram questões que vão desde a determinação do recorte adequado, até a captura dos termos e conceitos constantes nas fontes de informação sobre o domínio analisado. O corpus de estudo selecionado é classificado pelo Instituto de Patrimônio Artístico Histórico Nacional IPHAN, como Patrimônio Imaterial. Muito mais de caráter teórico, a pesquisa tencionou descrever como o levantamento de determinado domínio deve ser conduzido a partir do seu aspecto de representação do conhecimento e como se dá o estabelecimento das relações entre termos e conceitos, etapa preliminar no desenvolvimento de ontologias de domínio e objetivo central desse trabalho. Não se buscou desenvolver uma ontologia no âmbito da inteligência artificial, através da lógica computacional, e nem mesmo desenvolver uma nova metodologia, mas o resgate e aplicação de métodos há muito trabalhado pela CI e hoje necessários para as tecnologias de representação e recuperação da informação, tendo como foco os Princípios Fundamentais para Modelagem de Domínios (CAMPOS, 2004). Fundamentada a partir da forte característica interdisciplinar da CI, a proposta foi mapear o domínio dentro da área de recorte do Patrimônio Imaterial, através de uma triangulação metodológica, identificando as representações sígnicas existentes nos processos informacionais e representacionais do conhecimento com base na análise Semiótica (PEIRCE, 1977); Teoria do Conceito de Dahlberg (1976) e representação gráfica dos Mapas conceituais (NOVAK, 1995).
|
485 |
Uma arquitetura multiagentes para sistema educacional baseado na web semântica /De Rossi, Luís Henrique. January 2011 (has links)
Resumo: Nas últimas duas décadas, diversos sistemas de ensino para Web foram desenvolvidos e amplamente utilizados. Com o surgimento da Web Semântica, a qual integra os conceitos da Web e da área de Inteligência Artificial, foi possível conceber novos sistemas de ensino, os Sistemas de Ensino Baseados na Web Semântica (Semantic Web-based Educational Systems - SWBES). Os SWBES são caracterizados por representar o conteúdo e o conhecimento na forma de ontologias e contar com agentes inteligentes que permitem às máquinas entenderem o conteúdo publicado na Web. Neste trabalho são apresentados e discutidos os padrões arquiteturais utilizados para desenvolvimento dos sistemas baseados na Web Semântica, em especial os sistemas educacionais. Como resultado do estudo é proposta uma arquitetura para os SWBES. As arquiteturas dos SWBES que utilizam a abordagem multiagente, normalmente, são concebidas de forma empírica, ou seja, apenas com a experiência do seu desenvolvedor. Neste trabalho, para a concepção do modelo multiagentes adotado na arquitetura do SWBES, foi utilizada uma metodologia de desenvolvimento de sistemas multiagentes, o framework Tropos. São apresentadas as fases do framework Tropos para o projeto de um modelo multiagentes utilizado na arquitetura de um SWBES. Utilizando a arquitetura desenvolvida foi implementado um SWBES. Para estudo de caso dessa arquitetura, foi realizada uma implementação de um Sistema de Ensino de Rochas Carbonáticas. Para esse sistema foram definidas três ontologias: ontologia de Domínio de Rochas Carbonáticas, ontologia de Perfil e ontologia de Material de Aprendizagem. Os comportamentos dos agentes e as interações entre eles são detalhadas. Finalmente, é apresentado um estudo de casos da utilização do sistema no ensino do curso de Rochas Carbonáticas / Abstract: In the past two decades, several Web educational systems were designed and widely used. With the appearing of the Semantic Web, which integrates Web and Artificial Intelligence area concepts, it was possible to conceive new educational concepts, the Educational Systems Based on the Semantic Web (Semantic Web-based Educational Systems - SWBES). The SWBES represent the content and the knowledge in the form of ontology and count on intelligent agents that allow machines understand the content published on the web. In this work, architectural standards used to develop new systems based on the Semantic Web will be presented and discussed, especially the educational ones. As a result of this study, it is proposed the architecture for the SWBES. The architecture for the SWBES that use multi-agent approach generally is conceived empirically, that is, only with its developer experience. In this work, for the conception of the multi-agents model adopted in the architecture of the SWBES, a methodology of multi-agents systems development was used, the Tropos framework. The phases of Tropos framework for the project of a multi-agent model used in the architecture of SWBES are presented. A SWBES was implemented by using the architecture that was developed. For the study case of this architecture, it was held an implementation of the Educational System of Carbonate Rock. For this system, three ontologies were defined: Domain Ontology of Carbonate Rocks, Profile Ontology and Learning Material Ontology. The behavior of agents and interaction among them are detailed / Orientador: Ivan Rizzo Guilherme / Coorientador: Simone das Graças Domingues Prado / Banca: Hilda Carvalho de Oliveira / Banca: Flávia Linhalis Arantes / Mestre
|
486 |
[en] PATIENT-BUDDY-BUILD: CUSTOMIZED MOBILE MONITORING FOR PATIENTS WITH CHRONIC DISEASES / [pt] PATIENT-BUDDY-BUILD: ACOMPANHAMENTO REMOTO MÓVEL CUSTOMIZÁVEL DE PACIENTES COM DOENÇAS CRÔNICASVITOR PINHEIRO DE ALMEIDA 13 January 2017 (has links)
[pt] Este trabalho consiste do desenvolvimento de uma ferramenta para a geração de aplicativos móveis, que possibilita um monitoramento customizado, para o acompanhamento à distância de pacientes com doenças crônicas. A customização ocorre a partir de parâmetros e descrições formais, tais como: preferências do paciente, tipo da doença crônica, processo de acompanhamento desejado pelo seu médico, medicação prescrita e dados sobre o contexto (o entorno) do paciente, estes últimos obtidos de sensores. Com base nestes dados, o sistema irá determinar quais informações são mais relevantes para serem adquiridas do paciente através de questionários ou de sensores disponíveis no dispositivo móvel. Informações relevantes são informações que melhor ajudam a identificar possíveis alterações no processo de monitoramento de um paciente. Estas informações serão enviadas pelo dispositivo móvel, juntamente com os dados dos sensores, para o médico responsável. O processo de acompanhamento médico e a natureza da doença crônica definir ao o conjunto de informações que serão coletadas. É importante ressaltar que o objetivo não é realizar
diagnósticos, mas sim, prover informações atualizadas aos médicos sobre os seu pacientes, possibilitando assim, realizar um acompanhamento preventivo à distância. / [en] This thesis consists of the development of a tool for generating mobile applications that enables a customized form of remote monitoring of patients with chronic diseases. The customization is based on parameters and formal descriptions of patient preferences, the type of chronic disease, monitoring procedure required by the doctor, prescribed medication and information about the context (i.e. environment) of the patient, where the later is to be obtained from sensors. Bases on this data, the system will determine which information
are more relevant to be acquired from the patient through questionnaires and sensors embedded or connected to the smart phone. Relevant information are information that best helps to identify possible changes in the monitoring process of a patient. This set of information will be sent by the mobile
application to the responsible physician. The medical treatment and the kind of chronic disease will define the set of information to be collected. It should be stressed that the goal is not to support automatic diagnosis, but only to provide means for physicians to obtain updated information about their patients, so as to allow remote monitoring of patients.
|
487 |
Uma abordagem em paralelo para matching de grandes ontologias com balanceamento de carga. / A parallel approach for matching large ontologies with load balancing.ARAÚJO, Tiago Brasileiro. 01 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-01T19:28:54Z
No. of bitstreams: 1
TIAGO BRASILEIRO ARAÚJO - DISSERTAÇÃO PPGCC 2016..pdf: 18742851 bytes, checksum: 92b3eefe5e78ab27784255e850871df9 (MD5) / Made available in DSpace on 2018-08-01T19:28:54Z (GMT). No. of bitstreams: 1
TIAGO BRASILEIRO ARAÚJO - DISSERTAÇÃO PPGCC 2016..pdf: 18742851 bytes, checksum: 92b3eefe5e78ab27784255e850871df9 (MD5)
Previous issue date: 2016-03-07 / Atualmente, o uso de grandes ontologias em diversos domínios do conhecimento está aumentando. Uma vez que estas ontologias podem apresentar sobreposição de conteúdo, a identificação de correspondências entre seus conceitos se torna necessária. Esse processo é chamado de Matching de Ontologias (MO). Um dos maiores desafios do matching de grandes ontologias é o elevado tempo de execução e o excessivo consumo de recursos de computacionais. Assim, para melhorar a eficiência, técnicas de particionamento de ontologias e paralelismo podem ser empregadas no processo de MO. Este trabalho apresenta uma abordagem para o Matching de Ontologias baseado em Particionamento e Paralelismo (MOPP) que particiona as ontologias de entrada em subontologias e executa as comparações entre conceitos em paralelo, usando o framework MapReduce como solução programável. Embora as técnicas de paralelização possam melhorar a eficiência do processo de MO, essas técnicas apresentam problemas referentes ao desbalanceamento de carga. Por essa razão, o presente trabalho propõe ainda duas técnicas para balanceamento de carga (básica e refinada) para serem aplicadas junto à abordagem MOPP, a fim de orientar a distribuição uniforme das
comparações (carga de trabalho) entre os nós de uma infraestrutura computacional. O desempenho da abordagem proposta é avaliado em diferentes cenários (diferentes tamanhos de ontologias e graus de desbalanceamento de carga) utilizando uma infraestrutura computacional e ontologias reais e sintéticas. Os resultados experimentais indicam que a abordagem MOPP é escalável e capaz de reduzir o tempo de execução do processo de MO. No que diz respeito às técnicas de balanceamento de carga, os resultados obtidos mostram que a abordagem MOPP é robusta, mesmo em cenários com elevado grau de desbalanceamento de carga, com a utilização da técnica refinada de balanceamento de carga. / Currently, the use of large ontologies in various áreas of knowledge is increasing. Since,
these ontologies can present contents overlap, the identification of correspondences among their concepts is necessary. This process is called Ontologies Matching (OM). One of the major challenges of the large ontologies matching is the high execution time and the computational resources consumption. Therefore, to get the efficiency better, partition and parallel techniques can be employed in the MO process. This work presents a Partition-Parallelbased Ontology Matching (PPOM) approach which partitions the input ontologies in subontologies and executes the comparisons between concepts in parallel, using the framework MapReduce as a programmable solution. Although the parallel techniques can get the MO efficiency process better, these techniques present problems concerning to the load imbalancing. For that reason, our work has proposed two techniques to the load balancing - the basic and the fine-grained one - which are supposed to be applied together with the PPOM approach, in order to orientate the uniform distribution of the comparisons (workload) between the nodes of a computing infrastructure. The performance of the proposed approach is assessed in different settings (different sizes of ontologies and degrees of load imbalancing) using a computing infrastructure and real and synthetic ontologies. The experimental results have indicated that the PPOM approach is scalable and able to reduce the OM process execution time. Referring to the load balancing techniques, the obtained results have shown that the PPOM approach is robust, even in settings with a high load imbalancing, with the fine-grained load balancing technique.
|
488 |
[en] AUTOMATIC INTERPRETATION OF EQUIPMENT OPERATION REPORTS / [pt] INTERPRETAÇÃO AUTOMÁTICA DE RELATÓRIOS DE OPERAÇÃO DE EQUIPAMENTOSPEDRO HENRIQUE THOMPSON FURTADO 28 July 2017 (has links)
[pt] As unidades operacionais da área de Exploração e Produção (EeP) da PETROBRAS utilizam relatórios diários para o registro de situações e eventos em Unidades Estacionárias de Produção (UEPs), as conhecidas
plataformas de produção de petróleo. Um destes relatórios, o SITOP (Situação Operacional das Unidades Marítimas), é um documento diário em texto livre que apresenta informações numéricas (índices de produção, algumas vazões, etc.) e, principalmente, informações textuais. A parte textual, apesar de não estruturada, encerra uma valiosíssima base de dados de histórico de eventos no ambiente de produção, tais como: quebras de válvulas, falhas em equipamentos de processo, início e término de manutenções, manobras executadas, responsabilidades etc. O valor destes dados é alto, mas o custo da busca de informações também o é, pois se demanda a atenção de técnicos da empresa na leitura de uma enorme quantidade de documentos. O objetivo do presente trabalho é o desenvolvimento de um modelo de processamento de linguagem natural para a identificação, nos textos dos SITOPs, de entidades nomeadas e extração de relações entre estas entidades, descritas formalmente em uma ontologia de domínio aplicada a eventos em unidades de processamento de petróleo e gás em ambiente offshore. Ter-se-á, portanto, um método de estruturação automática da informação presente nestes relatórios operacionais. Os resultados obtidos demonstram que a metodologia é útil para este caso, ainda que passível de melhorias em diferentes frentes. A extração de relações apresenta melhores resultados que a identificação de entidades, o que pode ser explicado pela diferença entre o número de classes das duas tarefas. Verifica-se também que o aumento na quantidade de dados é um dos fatores mais importantes para a melhoria do aprendizado e da eficiência da metodologia como um todo. / [en] The operational units at the Exploration and Production (E and P) area at PETROBRAS make use of daily reports to register situations and events from their Stationary Production Units (SPUs), the well-known petroleum production platforms. One of these reports, called SITOP (the Portuguese acronym for Offshore Unities Operational Situation), is a daily document in free text format that presents numerical information and, mainly, textual information about operational situation of offshore units. The textual section, although unstructured, stores a valuable database with historical events in the production environment, such as: valve breakages, failures in processing equipment, beginning and end of maintenance activities, actions
executed, responsibilities, etc. The value of these data is high, as well as the costs of searching relevant information, consuming many hours of attention from technicians and engineers to read the large number of documents. The goal of this dissertation is to develop a model of natural language processing
to recognize named entities and extract relations among them, described formally as a domain ontology applied to events in offshore oil and gas processing units. After all, there will be a method for automatic structuring of the information from these operational reports. Our results show that this methodology is useful in SITOP s case, also indicating some possible enhancements. Relation extraction showed better results than named entity recognition, what can be explained by the difference in the amount of classes
in these tasks. We also verified that the increase in the amount of data was one of the most important factors for the improvement in learning and methodology efficiency as a whole.
|
489 |
Implementação computacional e verificação de ontologias para a modelagem da confiança em transações na webBicca, Edson Rodrigues January 2011 (has links)
O avanço da World Wide Web tem mudado a forma como os negócios são conduzidos entre as organizações. A Web Semântica é o próximo passo na evolução da web. Ela trata de agregar significado semântico ao seu conteúdo, tornando-o mais acessível a máquinas. Dentre os componentes da Web Semântica encontram-se as ontologias, que são representações do conhecimento comumente acordados em um determinado domínio na forma de classes, atributos e relações. O conhecimento presente na ontologia deve ser compartilhado e sua estrutura não é definitiva. Dentre as opções de uso das ontologias, encontra-se a avaliação de confiança nas transações comerciais na web. Assim, buscou-se um modelo teórico de ontologias de confiança, sobre o qual foi realizada uma implementação computacional e sua verificação. O modelo apresenta uma ontologia genérica de confiança, e três específicas: confiança nos agentes, confiança nos serviços e confiança nos produtos. Usou-se a ferramenta Protégé para implementar as classes, os atributos e as relações da ontologia genérica e das ontologias específicas. A verificação se deu pelo método de Baumeister e Seipel e pela realização de alguns exemplos, com adaptações. A partir dos experimentos computacionais conclui-se que o modelo de ontologias para confiança na web testado pode ser usado em um sistema de informação com restrições, uma vez que apresenta deficiências. / The advance of World Wide Web has changed the way businesses are conducted between organizations. Semantic Web is the next step in web evolution. It joins semantic meaning to its content, making it more accessible to machines. One of Semantic Web components are the ontologies. They are knowledge representation commonly agreed in a particular domain, in a form of classes, attributes and relations. The ontology knowledge must be shared and its structure is not definitive. One of the uses for ontologies is the trust evaluation in web businesses transactions. So one theoretical model of trust ontologies was used, it was computationally implemented, and verified. This model presents one generic trust ontology, and three specific ontologies: agent trust, service trust and product trust. Protégé tool was used to implement the classes, attributes and relations of generic ontology and of specific ontologies. Verification was performed using Baumeister and Seipel’s method by doing some examples, with adaptations. From the computational experiments it was concluded that the model of ontologies for web trust can be used in an information system with restrictions, since it has some deficiencies.
|
490 |
Análise de domínio na aquisição de conhecimentos: ontologias para sistemas computacionaisAlmeida, Reinaldo de Figueirêdo 17 March 2017 (has links)
Submitted by Reinaldo Almeida (reinaldo.almeida@ufba.br) on 2017-05-23T16:38:39Z
No. of bitstreams: 1
Análise de Domínio na Aquisição de Conhecimentos - Ontologias para Sistemas Computacionais.pdf: 4033106 bytes, checksum: 207a133d5a98f624185f2ffd87870a6c (MD5) / Approved for entry into archive by Maria Auxiliadora da Silva Lopes (silopes@ufba.br) on 2017-05-25T18:25:37Z (GMT) No. of bitstreams: 1
Análise de Domínio na Aquisição de Conhecimentos - Ontologias para Sistemas Computacionais.pdf: 4033106 bytes, checksum: 207a133d5a98f624185f2ffd87870a6c (MD5) / Made available in DSpace on 2017-05-25T18:25:37Z (GMT). No. of bitstreams: 1
Análise de Domínio na Aquisição de Conhecimentos - Ontologias para Sistemas Computacionais.pdf: 4033106 bytes, checksum: 207a133d5a98f624185f2ffd87870a6c (MD5) / A partir do alinhamento entre as Semióticas desenvolvidas pelos filósofos e pensadores, Charles Sanders Peirce, Gilles Deleuze e Félix Guattari, e da atualização teórica para a atividade de Análise de Domínio, baseada nos pressupostos defendidos pelos pesquisadores da Royal School of Library and Information Science, da Dinamarca, com destaque para Birger Hjørland e Torkild Thellefsen, esta Tese disserta sobre os aspectos de cognição a serem observados para determinar o significado num universo do discurso referente a fatos de um domínio, com o objetivo de aumentar o grau de aproximação entre as realidades, dos fatos, entendida e significada. Deste modo, é feito um aprofundamento no processo de aquisição do conhecimento, com a crítica à abordagem atomista e estruturalista, na qual, termos e relações do universo de discurso são especificados a partir de uma relação direta entre signo e significado, de uma concepção onde a expressão supera o conteúdo, e a dimensão espaço prevalece sobre a dimensão tempo no processo de significância. O ambiente de estudo usado é aquele referente às ontologias computacionais, bases de conhecimentos apoiadas sobre redes semânticas e semióticas de frames, concentrado nas fases que vão do entendimento da realidade de um domínio até aquela onde a significância dos termos e relações é tratada a fim de se obter os seus respectivos significados. A pesquisa, na sua fase experimental, dentro do referencial proposto, analisou as etapas de desenvolvimento da ontologia EDXL-RESCUER, contrapondo as hipóteses tratadas na Tese e o processo de desenvolvimento da ontologia, tendo como resultados, uma abordagem crítica e uma fundamentação teórica correspondente, complementada por uma metodologia para Análise de Domínio capaz de atuar numa dimensão pós-estruturalista. O método de pesquisa aplicado é qualitativo, exploratório, envolvendo atualização do estado da arte para os conceitos apresentados, a partir da análise de um projeto de construção de ontologia. / ABSTRACT
From the alignment between the Semiotics developed by the philosophers, Charles
Sanders Peirce, Gilles Deleuze and Felix Guattari, and the theoretical update for the
Domain Analysis activity, based on the assumptions defended by the researchers of
the Royal School of Library and Information Science, from Denmark, notably Birger
Hjørland and Torkild Thellefsen, this thesis discusses the aspects of cognition to be
observed to determine the signified in a universe of discourse concerning at facts of
a domain, with the aim of increasing the degree of approximation between the
realities, of the facts, understood and signified. In this way, a deepening of the
process of knowledge acquisition is made, with the criticism at the atomist and
structuralist approach, in which terms and relations of the universe of discourse are
specified from a direct relation between sign and signified, a conception where the
expression exceeds the content, and the space dimension prevails over the time
dimension in the process of significance. The study environment used is that
referring to computational ontologies, knowledge bases supported on semantic
networks and semiotic frames, focused on the phases that go from the understanding
of the reality of a domain to that where the significance of terms and relations is
treated in order to obtain their respective signified. The research, in its experimental
phase, within the proposed reference, analyzed the stages of development of the
EDXL-RESCUER ontology, opposing the hypotheses treated in the thesis and the
process of development of the ontology, resulting in a critical approach and a
corresponding theoretical foundation, complemented by a methodology for Domain
Analysis capable of acting in a post-structuralist dimension. The applied research
method is qualitative, exploratory, involving updating the state of the art to the
presented concepts, from the analysis of an ontology construction project
|
Page generated in 0.0585 seconds