• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 6
  • 1
  • Tagged with
  • 65
  • 65
  • 41
  • 40
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] A NEW APPROACH FOR MINING SOFTWARE REPOSITORIES USING SEMANTIC WEB TOOLS / [pt] UMA NOVA ABORDAGEM DE MINERAÇÃO DE REPOSITÓRIOS DE SOFTWARE UTILIZANDO FERRAMENTAS DA WEB SEMÂNTICA

FERNANDO DE FREITAS SILVA 15 July 2015 (has links)
[pt] A Mineração de Repositórios de Software é um campo de pesquisa que extrai e analisa informações disponíveis em repositórios de software, como sistemas de controle de versão e gerenciadores de issues. Atualmente, diversos trabalhos nesta área de pesquisa têm utilizado as ferramentas da Web Semântica durante o processo de extração a fim de superar algumas limitações que as abordagens tradicionais enfrentam. O objetivo deste trabalho é estender estas abordagens que utilizam a Web Semântica para minerar informações não consideradas atualmente. Uma destas informações é o relacionamento existente entre as revisões do controle de versão e as mudanças que ocorrem no Abstract Syntax Trees dos arquivos modificados por essas revisões. Adicionalmente, esta nova abordagem também permite modelar a interdependência entre os projetos de software, suas licenças e extrair informações dos builds gerados por ferramentas de integração contínua. A validação desta nova abordagem é demonstrada através de um conjunto de questões que são feitas por desenvolvedores e gerentes durante a execução de um projeto e que foram identificadas em vários trabalhos da literatura. Demonstramos como estas questões foram convertidas para consultas SPARQL e como este trabalho consegue responder às questões que não são respondidas ou são respondidas parcialmente em outras ferramentas. / [en] The Mining of Software Repositories is a field of research that extracts and analyzes information available in software repositories, such as version control systems and issue trackers. Currently, several research works in this area have used Semantic Web tools during the extraction process to overcome some limitations that traditional approaches face. The objective of this work is to extend the existing approaches that use Semantic Web tools to mine information not considered in these works. The objective of this work is to extend these approaches using the Semantic Web to mine information not currently considered. One of these information is the relationship between revisions of version control and the changes that occur in the Abstract Syntax Trees of files modified by these revisions. Additionally, this new approach also allows modeling the interdependence of software projects, their licenses and extracting information from builds generated by continuous integration tools. The validation of this approach is demonstrated through a set of questions that are asked by developers and managers during the execution of a project and have been identified in various works in the literature. We show how these questions were translated into SPARQL queries and how this work can answer the questions that are not answered or are partially answered in other tools.
22

[en] BUILDING RELATION EXTRACTORS THROUGH DISTANT SUPERVISION / [pt] CONSTRUÇÃO DE EXTRATORES DE RELAÇÕES POR SUPERVISIONAMENTO À DISTÂNCIA

THIAGO RIBEIRO NUNES 22 May 2013 (has links)
[pt] Um problema conhecido no processo de construção de extratores de relações semânticas supervisionados em textos em linguagem natural é a disponibilidade de uma quantidade suficiente de exemplos positivos para um conjunto amplo de relações-alvo. Este trabalho apresenta uma abordagem supervisionada a distância para construção de extratores de relações a um baixo custo combinando duas das maiores fontes de informação estruturada e não estruturada disponíveis na Web, o DBpedia e a Wikipedia. O método implementado mapeia relações da ontologia do DBpedia de volta para os textos da Wikipedia para montar um conjunto amplo de exemplos contendo mais de 100.000 sentenças descrevendo mais de 90 relações do DBpedia para os idiomas Inglês e Português. Inicialmente, são extraídas sentenças dos artigos da Wikipedia candidatas a expressar relações do DBpedia. Após isso, esses dados são pré-processados e normalizados através da filtragem de sentenças irrelevantes. Finalmente, extraem-se características dos exemplos para treinamento e avaliação de extratores de relações utilizando SVM. Os experimentos realizados nos idiomas Inglês e Português, através de linhas de base, mostram as melhorias alcançadas quando combinados diferentes tipos de características léxicas, sintáticas e semânticas. Para o idioma Inglês, o extrator construído foi treinado em um corpus constituído de 90 relações com 42.471 exemplos de treinamento, atingindo 81.08 por cento de medida F1 em um conjunto de testes contendo 28.773 instâncias. Para Português, o extrator foi treinado em um corpus de 50 relações com 200 exemplos por relação, resultando em um valor de 81.91 por cento de medida F1 em um conjunto de testes contendo 18.333 instâncias. Um processo de Extração de Relações (ER) é constituído de várias etapas, que vão desde o pré-processamento dos textos até o treinamento e a avaliação de detectores de relações supervisionados. Cada etapa pode admitir a implementação de uma ou várias técnicas distintas. Portanto, além da abordagem, este trabalho apresenta, também, detalhes da arquitetura de um framework para apoiar a implementação e a realização de experimentos em um processo de ER. / [en] A well known drawback in building machine learning semantic relation detectors for natural language is the availability of a large number of qualified training instances for the target relations. This work presents an automatic approach to build multilingual semantic relation detectors through distant supervision combining the two largest resources of structured and unstructured content available on the Web, the DBpedia and the Wikipedia resources. We map the DBpedia ontology back to the Wikipedia to extract more than 100.000 training instances for more than 90 DBpedia relations for English and Portuguese without human intervention. First, we mine the Wikipedia articles to find candidate instances for relations described at DBpedia ontology. Second, we preprocess and normalize the data filtering out irrelevant instances. Finally, we use the normalized data to construct SVM detectors. The experiments performed on the English and Portuguese baselines shows that the lexical and syntactic features extracted from Wikipedia texts combined with the semantic features extracted from DBpedia can significantly improve the performance of relation detectors. For English language, the SVM detector was trained in a corpus formed by 90 DBpedia relations and 42.471 training instances, achieving 81.08 per cent of F-Measure when applied to a test set formed by 28.773 instances. The Portuguese detector was trained with 50 DBpedia relations and 200 examples by relation, being evaluated in 81.91 per cent of F-Measure in a test set containing 18.333 instances. A Relation Extraction (RE) process has many distinct steps that usually begins with text pre-processing and finish with the training and the evaluation of relation detectors. Therefore, this works not only presents an RE approach but also an architecture of a framework that supports the implementation and the experiments of a RE process.
23

[pt] GESTÃO DO CONHECIMENTO NO GERENCIAMENTO DE SERVIÇOS DE TI: USO E AVALIAÇÃO / [en] KNOWLEDGE MANAGEMENT FOR IT SERVICE MANAGEMENT: USAGE AND EVALUATION

MATHEUS SALCEDO 07 June 2011 (has links)
[pt] Na atual economia, a vantagem competitiva das empresas pode ser diretamente ligada à sua capacidade de utilizar o conhecimento detido por seus membros. No entanto, para agregar valor a uma organização, este conhecimento precisa ser compartilhado. Desta forma, a capacidade da organização de integrar e aplicar os conhecimentos especializados de sua força de trabalho é fundamental para obter e manter uma vantagem competitiva organizacional. Os sistemas de gerenciamento de conhecimento auxiliam a criação, coleta, organização e disseminação de conhecimento. Entretanto, esses sistemas possuem limitações como, por exemplo, a grande dificuldade de integrar conhecimentos provenientes de diferentes fontes, geralmente em virtude da ausência de Semântica nas suas descrições. O principal objetivo desta dissertação é estudar as limitações tecnológicas dos sistemas de gerenciamento de conhecimento existentes e propor soluções através da adoção de formalismos da Web Semântica. Para atingir este objetivo é usado, como estudo de caso, um sistema de gerenciamento de conhecimento em produção de uma grande empresa brasileira que apóia a operação da sua infraestrutura de TIC. Neste estudo, demonstra-se que esta abordagem permite acrescentar Semântica adicional a dados já existentes, integrando bases anteriormente isoladas, gerando um melhor resultado operacional. / [en] In today s economy, the competitive advantage of companies can be directly linked to its ability to utilize the knowledge held by its members. However, to add value to an organization, this knowledge must be shared. Thus, the organization s ability to integrate and apply the expertise of its workforce is essential to achieve and maintain an organizational competitive advantage. The knowledge management systems help to create, collect, organize and disseminate knowledge. However, these systems have limitations, such as the difficulty of integrating knowledge from different sources, usually because of the lack of semantics in his descriptions. The main objective of this dissertation is to study the technological limitations of existing knowledge management systems and propose solutions through the adoption of Semantic Web formalisms. To achieve this goal, is used as a study case the knowledge management system in production of a large Brazilian company, which supports the operation of its IT infrastructure. This study demonstrates that this approach can add additional semantics to existing data, integrating previously isolated databases, creating a better operating result.
24

[pt] DESENVOLVIMENTO DE UMA APLICAÇÃO WEB PARA MODELAGEM COLABORATIVA / [en] DEVELOPMENT OF A WEB APPLICATION FOR COLLABORATIVE MODELING

RODRIGO LUCAS SOARES 26 April 2022 (has links)
[pt] Este trabalho apresenta uma estratégia de modelagem colaborativa na web através do protocolo de comunicação em rede WebSocket. Para compreender a relevância e identificar possíveis lacunas sobre o tema, foi realizada uma investigação acerca do estado da arte de aplicações web colaborativas por meio de uma revisão sistemática da literatura. Para demonstrar a estratégia proposta, foi desenvolvida uma prova de conceito utilizando as linguagens de programação JavaScript e Python. A prova de conceito possui uma arquitetura cliente-servidor, na qual o cliente se comunica com o servidor, sendo este responsável por hospedar a estrutura de dados topológica da aplicação permitindo a criação de modelos bidimensionais de elementos finitos. Devido o canal de comunicação bilateral fornecido pelo WebSocket, é possível a colaboração entre diversos usuários em salas virtuais que compartilham o mesmo modelo em tempo real. Ao final, é realizada uma avaliação da usabilidade da aplicação para verificar a estratégia proposta e encontrar possíveis limitações. / [en] This work presents a collaborative modeling strategy on the web through the WebSocket network communication protocol. To understand the relevance and identify possible gaps on the subject, an investigation was carried out on the state of the art of collaborative web applications through a systematic review of the literature. To demonstrate the proposed strategy, a proof of concept was developed using the JavaScript and Python programming languages. The proof of concept has a client-server architecture, in which the client communicates with the server, which is responsible for hosting the application s topological data structure, allowing the creation of two-dimensional finite element models. Due to the two-way communication channel provided by WebSocket, the collaboration between several users in virtual rooms that share the same model in real-time is possible. In the end, an evaluation of the usability of the application is carried out to verify the proposed strategy and find possible limitations.
25

[en] W. E. B. DU BOIS: A READING / [pt] W. E. B. DU BOIS: UMA LEITURA

ANA CAROLINA SANTOS DO NASCIMENTO 15 September 2020 (has links)
[pt] A proposta dessa pesquisa é a tratar de William Edward Burghardt Du Bois, um dos fundadores da Sociologia Moderna Americana, o primeiro homem negro a conseguir PhD pela Universidade de Harvard, em 1895 e pouco lido no Brasil. A obra desse autor é muito vasta e em sua maior parte se concentra em tratar as relações raciais e, dentro desse tema, fala também sobre colonialismo. Em 1903, Du Bois escreveu um de seus livros mais importantes e conhecidos The Souls of Black Folks, em que o autor se emprenha em explicar como foi constituída a subjetividade do negro norte-americano. Neste livro o autor desenvolve três conceitos sociológicos fundamentais: color line, veil e double counciousness. Além de sociólogo, historiador, novelista, poeta, Du Bois dedicou boa parte de sua vida como editor. The Crisis, a publicação oficial da NAACP (National Association for the Advencement of Colored People) foi onde passou um longo período, editou a revista entre 1910 e 1934. O objetivo desse trabalho é analisar, por meio de um exame descritivo/qualitativo, os post scripta de autoria do editor, das edições da The Crisis durante o ano de 1934 sob ótica do conceito de dupla consciência e entender de que maneira o autor constrói esse conceito em seus textos. / [en] The purpose of this research is to address William Edward Burghardt Du Bois, one of the founders of Modern American Sociology, the first black man to obtain a PhD from Harvard University in 1895 and little read in Brazil. The work of this author is very vast and most of it is focused on dealing with race relations and, within this theme, also talks about colonialism. In 1903, Du Bois wrote one of his most important and well-known books The Souls of Black Folks, in which the author uses to explain how was constituted the subjectivity of the Afro American. In this book the author develops three fundamental sociological concepts: color line, veil and double consciousness. In addition to sociologist, historian, novelist, poet, Du Bois devoted much of his life as an editor. The Crisis, an official publication of NAACP (National Association for the Advancement of Colored People) was where he spent a long time, edited a magazine between 1910 and 1934. The purpose of this work is analyzed, through a descriptive / qualitative exam, after the post scripta, authored by the editor in chief, of the editions of The Crisis during the year 1934, from the perspective of the concept of double consciousness and understanding how the author builds this concept in his texts.
26

[en] TEXT MINING AT THE INTELLIGENT WEB CRAWLING PROCESS / [pt] MINERAÇÃO DE TEXTOS NA COLETA INTELIGENTE DE DADOS NA WEB

FABIO DE AZEVEDO SOARES 31 March 2009 (has links)
[pt] Esta dissertação apresenta um estudo sobre a utilização de Mineração de Textos no processo de coleta inteligente de dados na Web. O método mais comum de obtenção de dados na Web consiste na utilização de web crawlers. Web crawlers são softwares que, uma vez alimentados por um conjunto inicial de URLs (sementes), iniciam o procedimento metódico de visitar um site, armazenálo em disco e extrair deste os hyperlinks que serão utilizados para as próximas visitas. Entretanto, buscar conteúdo desta forma na Web é uma tarefa exaustiva e custosa. Um processo de coleta inteligente de dados na Web, mais do que coletar e armazenar qualquer documento web acessível, analisa as opções de crawling disponíveis para encontrar links que, provavelmente, fornecerão conteúdo de alta relevância a um tópico definido a priori. Na abordagem de coleta de dados inteligente proposta neste trabalho, tópicos são definidos, não por palavras chaves, mas, pelo uso de documentos textuais como exemplos. Em seguida, técnicas de pré-processamento utilizadas em Mineração de Textos, entre elas o uso de um dicionário thesaurus, analisam semanticamente o documento apresentado como exemplo. Baseado nesta análise, o web crawler construído será guiado em busca do seu objetivo: recuperar informação relevante sobre o documento. A partir de sementes ou realizando uma consulta automática nas máquinas de buscas disponíveis, o crawler analisa, igualmente como na etapa anterior, todo documento recuperado na Web. Então, é executado um processo de comparação entre cada documento recuperado e o documento exemplo. Depois de obtido o nível de similaridade entre ambos, os hyperlinks do documento recuperado são analisados, empilhados e, futuramente, serão desempilhados de acordo seus respectivos e prováveis níveis de importância. Ao final do processo de coleta de dados, outra técnica de Mineração de Textos é aplicada, objetivando selecionar os documentos mais representativos daquela coleção de textos: a Clusterização de Documentos. A implementação de uma ferramenta que contempla as heurísticas pesquisadas permitiu obter resultados práticos, tornando possível avaliar o desempenho das técnicas desenvolvidas e comparar os resultados obtidos com outras formas de recuperação de dados na Web. Com este trabalho, mostrou-se que o emprego de Mineração de Textos é um caminho a ser explorado no processo de recuperação de informação relevante na Web. / [en] This dissertation presents a study about the application of Text Mining as part of the intelligent Web crawling process. The most usual way of gathering data in Web consists of the utilization of web crawlers. Web crawlers are softwares that, once provided with an initial set of URLs (seeds), start the methodical proceeding of visiting a site, store it in disk and extract its hyperlinks that will be used for the next visits. But seeking for content in this way is an expensive and exhausting task. An intelligent web crawling process, more than collecting and storing any web document available, analyses its available crawling possibilities for finding links that, probably, will provide high relevant content to a topic defined a priori. In the approach suggested in this work, topics are not defined by words, but rather by the employment of text documents as examples. Next, pre-processing techniques used in Text Mining, including the use of a Thesaurus, analyze semantically the document submitted as example. Based on this analysis, the web crawler thus constructed will be guided toward its objective: retrieve relevant information to the document. Starting from seeds or querying through available search engines, the crawler analyzes, exactly as in the previous step, every document retrieved in Web. the similarity level between them is obtained, the retrieved document`s hyperlinks are analysed, queued and, later, will be dequeued according to each one`s probable degree of importance. By the end of the gathering data process, another Text Mining technique is applied, with the propose of selecting the most representative document among the collected texts: Document Clustering. The implementation of a tool incorporating all the researched heuristics allowed to achieve results, making possible to evaluate the performance of the developed techniques and compare all obtained results with others means of retrieving data in Web. The present work shows that the use of Text Mining is a track worthy to be exploited in the process of retrieving relevant information in Web.
27

[en] ACCESSIBILITY IN GOVERNAMENTAL WEBSITES: A CASE STUDY ABOUT ELETROBRÁS SITE / [pt] A ACESSIBILIDADE NOS WEBSITES GOVERNAMENTAIS: UM ESTUDO DE CASO NO SITE DA ELETROBRÁS

TIMOTEO MOREIRA TANGARIFE 04 September 2007 (has links)
[pt] No Brasil, o acesso à informação é um direito de todo cidadão, assegurado pela Constituição. Em particular, o Decreto n° 5.296, de 2 de dezembro de 2004, trata do acesso à informação e à comunicação e prevê um prazo de 12 meses (a contar da data de sua publicação) para que as informações de portais e sítios da administração pública fiquem plenamente acessíveis às pessoas com deficiência visual. A observância de requisitos de acessibilidade tem impacto direto na qualidade da interação entre pessoas diferentes e sistemas computacionais. Para tornar a interação humano-computador viável a um público heterogêneo em vários aspectos, o design de interfaces tem exigido cada vez mais atenção a soluções que flexibilizem a interação e o acesso à informação como forma de atender as necessidades de seus diferentes usuários. Esta pesquisa está baseada em conceitos e práticas do design visando delinear um framework teórico-metodológico para abordar a acessibilidade, a usabilidade, o desenho universal e a interação humano- computador com o objetivo de identificar se as recomendações de acessibilidade, indicadas pelo Governo Federal em 2004, são suficientes para a adequação do conteúdo dos sítios governamentais para pessoas com deficiência visual. Foram conduzidas pesquisas de campo como questionário com desenvolvedores, avaliação de acessibilidade no sítio da Eletrobrás (estudo de caso), entrevistas com gestores da Eletrobrás, desenvolvido um protótipo e realizada uma avaliação cooperativa junto a usuários com deficiência visual testando o protótipo. A partir da tabulação e da análise dos dados obtidos foi possível confirmar a hipótese dessa pesquisa e definir que mesmo que as recomendações sejam suficientes para atender ao Decreto, elas não são eficazes para facilitar a utilização dos sítios pelos usuários com deficiência visual. No entanto, o Decreto 5.296/2004 foi um primeiro passo rumo a uma sociedade verdadeiramente inclusiva. / [en] In Brazil, the access to the information is a right of all citizen, assured for the Constitution. In particular, the Decree n° 5,296, dated 2 December 2004, determines the access to the information and the communication; and foresees a stated period of 12 months (to count of the date of its publication) to information of portals and public administration´s websites are fully accessible to the people with visual deficiency. The observance of accessibility requirements has direct impact in the quality of the interaction between different people and computational systems. To become the human-computer interaction viable to a heterogeneous public in some aspects, interfaces´ design has demanded each time more attention the solutions that can flexibly the interaction and the access to the information to take care the necessities of its different users. This research is based on design´s practical and concepts aiming to delineate a theory-methodological framework to approach the accessibility, the usability, the universal design and the human-computer interaction with the objective to identify if accessibility´s guidelines, indicated by the Brazilian Government in 2004, are enough for the adequacy of the governmental websites´ content for people with visual deficiency. Field research had been carried out using questionnaire with developers, accessibility evaluation in the Eletrobrás´ website (case study), interviews with Eletrobrás´ managers, development of a prototype and carried through a cooperative evaluation with blind people users testing the prototype. From the organization and analysis of the collected data it was possible to confirm the hypothesis of this research and to define that even the recommendations are enough to take care of to the Decree, they are not efficient to facilitate the websites´ use for the blind people users. However, Decree 5,296/2004 was a first step to a truly inclusive society.
28

[en] SWELL: A SEMANTIC WEB-SERVICES SELECTION ENVIRONMENT / [pt] SWELL: UM AMBIENTE PARA SELEÇÃO DE WEB-SERVICES SEMÂNTICOS

JOAO FELIPE SANTOS CONDACK 28 October 2004 (has links)
[pt] Inicialmente a Internet era um canal de comunicação e distribuição de conteúdo textual. Com o advento do comércio eletrônico e a maturação da própria Web, ela se tornou uma plataforma de implantação de sistemas. Paralelamente, o próprio desenvolvimento de software evoluiu, com aplicações de novos conceitos da engenharia de software, tais como componentes, reuso e design patterns. No intuito de desenvolver práticas e tecnologias que aperfeiçoem a construção de softwares decidiu-se, neste trabalho, por conciliar estas duas tendências evolutivas. Swell é um ambiente para o auxílio no desenvolvimento de Sistemas Baseados na Web (SBWs), tendo como ponto forte a seleção semântica de web services. Trata-se de uma ferramenta cujo objetivo é ajudar nas tarefas de design e construção de aplicações, visando atingir alto grau de reuso. Este auxílio se dá através da descrição, busca e escolha de serviços para composição de aplicações. O ambiente Swell foi pensado de modo a dar suporte à evolução das tecnologias de componentes para Web. Ele provê pontos de flexibilização permitindo adaptação a novas descrições de web services e refletindo estas mudanças no mecanismo de busca. / [en] Initially the Internet was a communication channel and a text-based content dissemination vehicle. With the advent of e-commerce and Web's unfolding, it became a systems deployment platform. At the same time, software development also evolved, through the use of new software engineering concepts, such as components, reuse and design patterns. This work aims at helping to develop practices and technologies that improve software development by conciliating these two evolution trends. Swell is an environment that helps Web Based Systems development, having as a cornerstone the semantic selection of web- services. It is a tool whose objective is to help in the application design and development tasks, aiming to reach a high degree of reuse. This is achieved through the support for the description, search and selection of web services for application composition. The Swell environment was conceived as a framework with support for the evolution of web components technologies. It provides hot spots that allow for adaptation of new web services descriptions and reflection of these changes in the search engine.
29

[en] A UNIFIED PROCESS FRAMEWORK OF ONTOLOGY ENGINEERING / [pt] UM PROCESSO UNIFICADO PARA ENGENHARIA DE ONTOLOGIAS

DANIEL ABADI ORLEAN 12 March 2004 (has links)
[pt] A Web Semântica já está deixando de ser uma visão de Tim Berners-Lee para virar uma realidade. Diversos projetos em todo mundo já exploram as potencialidades dessa segunda geração da Web para tornar seu conteúdo processável por máquinas. Infelizmente (ou felizmente!), os computadores não são capazes de desenvolver por livre e espontânea vontade uma linguagem consensual de comunicação. É nesta etapa que entram em cena as ontologias. Conhecida no ramo da filosofia como teorias sobre a natureza da existência, as ontologias têm sido encaradas de maneira consideravelmente diferente no universo computacional. Representam um entendimento comum e compartilhado sobre um domínio específico e têm como o objetivo principal permitir a comunicação entre organizações, pessoas e o uso de metodologias, processos e/ ou métodos bem definidos. Com o aumento de sua importância, o projeto e desenvolvimento de ontologias vêm deixando de ser uma arte para se transformar em um processo de engenharia. Diversas propostas já foram apresentadas para o problema de engenharia de ontologias, muitas delas apoiadas por estudos acadêmicos e industriais. No entanto, é importante notar que nenhuma dessas metodologias - que em muitos casos resumem-se apenas a heurísticas extraídas da experiência de seus autores ou a orientações sobre como alcançar bons resultados - atende por completo aos requisitos potenciais do projeto de uma ontologia. O que se propõe neste trabalho é a unificação de disciplinas e atividades oriundas de metodologias distintas em um framework de processos abrangente, entitulado KUP - Knowldge Unified Process, que permite um adequado projeto e desenvolvimento de ontologias e bases de conhecimento. Entende-se como um processo um conjunto de atividades e resultados associados a essas atividades com o objetivo de garantir a geração de um produto final, seja este produto um software, uma ontologia ou uma ontologia associada a sua base de conhecimento. A unificação deste processo segue as melhores práticas em engenharia de software existentes na indústria e é apoiada por um framework de avaliação de metodologias consolidado na academia. Foram realizados dois estudos de caso para este framework de processos, um envolvendo o desenvolvimento de uma solução de gestão de conhecimento em segurança da informação e outro envolvendo a integração de uma ferramenta de gestão de competências para ambientes de educação a distância. / [en] The Semantic Web is now a reality. Several projects all around the world are already using tools technologies developed to support the second generation of the Web to provide machine-processable content for software agents, web services and applications. However, computers can not agree on a consesual language by themselves. Ontologies can be used as a way to provide this shared conceptualization, making posssible the desired communication among organizations, people and apllications. Several proposals have been already presented regarding ontology engineering - many supported by academic and industrial case studies. However, none of them encompasses all the requirements identified for an ontology construction project. This work describes the unification of different features extracted from those methodologies to build a process framework named KUP - the Knowledge Unified Process. This unified process is based on several industry best practices and on a well accepted ontology methodology evaluation framework. Two case studies were developed so as to support and validate this process framework. The first was the development of a semantic web solution for security information knowledge management and the second one was the integration of a skill management tool to a learning management system, through ontologies.
30

[en] CLUSTERING AND DATASET INTERLINKING RECOMMENDATION IN THE LINKED OPEN DATA CLOUD / [pt] CLUSTERIZAÇÃO E RECOMENDAÇÃO DE INTERLIGAÇÃO DE CONJUNTO DE DADOS NA NUVEM DE DADOS ABERTOS CONECTADOS

ALEXANDER ARTURO MERA CARABALLO 24 July 2017 (has links)
[pt] O volume de dados RDF publicados na Web aumentou consideravelmente, o que ressaltou a importância de seguir os princípios de dados interligados para promover a interoperabilidade. Um dos princípios afirma que todo novo conjunto de dados deve ser interligado com outros conjuntos de dados publicados na Web. Esta tese contribui para abordar este princípio de duas maneiras. Em primeiro lugar, utiliza algoritmos de detecção de comunidades e técnicas de criação de perfis para a criação e análise automática de um diagrama da nuvem da LOD (Linked Open Data), o qual facilita a localização de conjuntos de dados na nuvem da LOD. Em segundo lugar, descreve três abordagens, apoiadas por ferramentas totalmente implementadas, para recomendar conjuntos de dados a serem interligados com um novo conjunto de dados, um problema conhecido como problema de recomendação de interligação de conjunto de dados. A primeira abordagem utiliza medidas de previsão de links para produzir recomendações de interconexão. A segunda abordagem emprega algoritmos de aprendizagem supervisionado, juntamente com medidas de previsão de links. A terceira abordagem usa algoritmos de agrupamento e técnicas de criação de perfil para produzir recomendações de interconexão. Essas abordagens são implementadas, respectivamente, pelas ferramentas TRT, TRTML e DRX. Por fim, a tese avalia extensivamente essas ferramentas, usando conjuntos de dados do mundo real. Os resultados mostram que estas ferramentas facilitam o processo de criação de links entre diferentes conjuntos de dados. / [en] The volume of RDF data published on the Web increased considerably, which stressed the importance of following the Linked Data principles to foster interoperability. One of the principles requires that a new dataset should be interlinked with other datasets published on the Web. This thesis contributes to addressing this principle in two ways. First, it uses community detection algorithms and profiling techniques for the automatic creation and analysis of a Linked Open Data (LOD) diagram, which facilitates locating datasets in the LOD cloud. Second, it describes three approaches, backed up by fully implemented tools, to recommend datasets to be interlinked with a new dataset, a problem known as the dataset interlinking recommendation problem. The first approach uses link prediction measures to provide a list of datasets recommendations for interlinking. The second approach employs supervised learning algorithms, jointly with link prediction measures. The third approach uses clustering algorithms and profiling techniques to produce dataset interlinking recommendations. These approaches are backed up, respectively, by the TRT, TRTML and DRX tools. Finally, the thesis extensively evaluates these tools, using real-world datasets, reporting results that show that they facilitate the process of creating links between disparate datasets.

Page generated in 0.0418 seconds