21 |
[en] A NEW APPROACH FOR MINING SOFTWARE REPOSITORIES USING SEMANTIC WEB TOOLS / [pt] UMA NOVA ABORDAGEM DE MINERAÇÃO DE REPOSITÓRIOS DE SOFTWARE UTILIZANDO FERRAMENTAS DA WEB SEMÂNTICAFERNANDO DE FREITAS SILVA 15 July 2015 (has links)
[pt] A Mineração de Repositórios de Software é um campo de pesquisa que extrai e analisa informações disponíveis em repositórios de software, como sistemas de controle de versão e gerenciadores de issues. Atualmente, diversos trabalhos nesta área de pesquisa têm utilizado as ferramentas da Web Semântica
durante o processo de extração a fim de superar algumas limitações que as abordagens tradicionais enfrentam. O objetivo deste trabalho é estender estas abordagens que utilizam a Web Semântica para minerar informações não consideradas atualmente. Uma destas informações é o relacionamento existente
entre as revisões do controle de versão e as mudanças que ocorrem no Abstract Syntax Trees dos arquivos modificados por essas revisões. Adicionalmente, esta nova abordagem também permite modelar a interdependência entre os projetos de software, suas licenças e extrair informações dos builds gerados por
ferramentas de integração contínua. A validação desta nova abordagem é demonstrada através de um conjunto de questões que são feitas por desenvolvedores e gerentes durante a execução de um projeto e que foram identificadas em vários trabalhos da literatura. Demonstramos como estas questões foram convertidas para consultas SPARQL e como este trabalho consegue responder às questões que não são respondidas ou são respondidas parcialmente em outras ferramentas. / [en] The Mining of Software Repositories is a field of research that extracts and analyzes information available in software repositories, such as version control systems and issue trackers. Currently, several research works in this area have used Semantic Web tools during the extraction process to overcome some limitations that traditional approaches face. The objective of this work is to extend the existing approaches that use Semantic Web tools to mine information not considered in these works. The objective of this work is to extend these
approaches using the Semantic Web to mine information not currently considered. One of these information is the relationship between revisions of version control and the changes that occur in the Abstract Syntax Trees of files modified by these revisions. Additionally, this new approach also allows modeling the interdependence of software projects, their licenses and extracting information from builds generated by continuous integration tools. The validation of this approach is demonstrated through a set of questions that are asked by developers and managers during the execution of a project and have been identified in various works in the literature. We show how these questions were translated into SPARQL queries and how this work can answer the questions that are not answered or are partially answered in other tools.
|
22 |
[en] BUILDING RELATION EXTRACTORS THROUGH DISTANT SUPERVISION / [pt] CONSTRUÇÃO DE EXTRATORES DE RELAÇÕES POR SUPERVISIONAMENTO À DISTÂNCIATHIAGO RIBEIRO NUNES 22 May 2013 (has links)
[pt] Um problema conhecido no processo de construção de extratores de relações semânticas supervisionados em textos em linguagem natural é a disponibilidade de uma quantidade suficiente de exemplos positivos para um conjunto amplo de relações-alvo. Este trabalho apresenta uma abordagem supervisionada a distância para construção de extratores de relações a um baixo custo combinando duas das maiores fontes de informação estruturada e não estruturada disponíveis na Web, o DBpedia e a Wikipedia. O método implementado mapeia relações da ontologia do DBpedia de volta para os textos da Wikipedia para montar um conjunto amplo de exemplos contendo mais de 100.000 sentenças descrevendo mais de 90 relações do DBpedia para os idiomas Inglês e Português. Inicialmente, são extraídas sentenças dos artigos da Wikipedia candidatas a expressar relações do DBpedia. Após isso, esses dados são pré-processados e normalizados através da filtragem de sentenças irrelevantes. Finalmente, extraem-se características dos exemplos para treinamento e avaliação de extratores de relações utilizando SVM. Os experimentos realizados nos idiomas Inglês e Português, através de linhas de base, mostram as melhorias alcançadas quando combinados diferentes tipos de características léxicas, sintáticas e semânticas. Para o idioma Inglês, o extrator construído foi treinado em um corpus constituído de 90 relações com 42.471 exemplos de treinamento, atingindo 81.08 por cento de medida F1 em um conjunto de testes contendo 28.773 instâncias. Para Português, o extrator foi treinado em um corpus de 50 relações com 200 exemplos por relação, resultando em um valor de 81.91 por cento de medida F1 em um conjunto de testes contendo 18.333 instâncias. Um processo de Extração de Relações (ER) é constituído de várias etapas, que vão desde o pré-processamento dos textos até o treinamento e a avaliação de detectores de relações supervisionados. Cada etapa pode admitir a implementação de uma ou várias técnicas distintas. Portanto, além da abordagem, este trabalho apresenta, também, detalhes da arquitetura de um framework para apoiar a implementação e a realização de experimentos em um processo de ER. / [en] A well known drawback in building machine learning semantic relation detectors for natural language is the availability of a large number of qualified training instances for the target relations. This work presents an automatic approach to build multilingual semantic relation detectors through distant supervision combining the two largest resources of structured and unstructured content available on the Web, the DBpedia and the Wikipedia resources. We map the DBpedia ontology back to the Wikipedia to extract more than 100.000 training instances for more than 90 DBpedia relations for English and Portuguese without human intervention. First, we mine the Wikipedia articles to find candidate instances for relations described at DBpedia ontology. Second, we preprocess and normalize the data filtering out irrelevant instances. Finally, we use the normalized data to construct SVM detectors. The experiments performed on the English and Portuguese baselines shows that the lexical and syntactic features extracted from Wikipedia texts combined with the semantic features extracted from DBpedia can significantly improve the performance of relation detectors. For English language, the SVM detector was trained in a corpus formed by 90 DBpedia relations and 42.471 training instances, achieving 81.08 per cent of F-Measure when applied to a test set formed by 28.773 instances. The Portuguese detector was trained with 50 DBpedia relations and 200 examples by relation, being evaluated in 81.91 per cent of F-Measure in a test set containing 18.333 instances. A Relation Extraction (RE) process has many distinct steps that usually begins with text pre-processing and finish with the training and the evaluation of relation detectors. Therefore, this works not only presents an RE approach but also an architecture of a framework that supports the implementation and the experiments of a RE process.
|
23 |
[pt] GESTÃO DO CONHECIMENTO NO GERENCIAMENTO DE SERVIÇOS DE TI: USO E AVALIAÇÃO / [en] KNOWLEDGE MANAGEMENT FOR IT SERVICE MANAGEMENT: USAGE AND EVALUATIONMATHEUS SALCEDO 07 June 2011 (has links)
[pt] Na atual economia, a vantagem competitiva das empresas pode ser
diretamente ligada à sua capacidade de utilizar o conhecimento detido por seus
membros. No entanto, para agregar valor a uma organização, este conhecimento
precisa ser compartilhado. Desta forma, a capacidade da organização de integrar e
aplicar os conhecimentos especializados de sua força de trabalho é fundamental
para obter e manter uma vantagem competitiva organizacional. Os sistemas de
gerenciamento de conhecimento auxiliam a criação, coleta, organização e
disseminação de conhecimento. Entretanto, esses sistemas possuem limitações
como, por exemplo, a grande dificuldade de integrar conhecimentos provenientes
de diferentes fontes, geralmente em virtude da ausência de Semântica nas suas
descrições. O principal objetivo desta dissertação é estudar as limitações
tecnológicas dos sistemas de gerenciamento de conhecimento existentes e propor
soluções através da adoção de formalismos da Web Semântica. Para atingir este
objetivo é usado, como estudo de caso, um sistema de gerenciamento de
conhecimento em produção de uma grande empresa brasileira que apóia a
operação da sua infraestrutura de TIC. Neste estudo, demonstra-se que esta
abordagem permite acrescentar Semântica adicional a dados já existentes,
integrando bases anteriormente isoladas, gerando um melhor resultado
operacional. / [en] In today s economy, the competitive advantage of companies can be directly
linked to its ability to utilize the knowledge held by its members. However, to add
value to an organization, this knowledge must be shared. Thus, the organization s
ability to integrate and apply the expertise of its workforce is essential to achieve
and maintain an organizational competitive advantage. The knowledge
management systems help to create, collect, organize and disseminate knowledge.
However, these systems have limitations, such as the difficulty of integrating
knowledge from different sources, usually because of the lack of semantics in his
descriptions. The main objective of this dissertation is to study the technological
limitations of existing knowledge management systems and propose solutions
through the adoption of Semantic Web formalisms. To achieve this goal, is used
as a study case the knowledge management system in production of a large
Brazilian company, which supports the operation of its IT infrastructure. This
study demonstrates that this approach can add additional semantics to existing
data, integrating previously isolated databases, creating a better operating result.
|
24 |
[pt] DESENVOLVIMENTO DE UMA APLICAÇÃO WEB PARA MODELAGEM COLABORATIVA / [en] DEVELOPMENT OF A WEB APPLICATION FOR COLLABORATIVE MODELINGRODRIGO LUCAS SOARES 26 April 2022 (has links)
[pt] Este trabalho apresenta uma estratégia de modelagem colaborativa na web
através do protocolo de comunicação em rede WebSocket. Para compreender a
relevância e identificar possíveis lacunas sobre o tema, foi realizada uma
investigação acerca do estado da arte de aplicações web colaborativas por meio de
uma revisão sistemática da literatura. Para demonstrar a estratégia proposta, foi
desenvolvida uma prova de conceito utilizando as linguagens de programação
JavaScript e Python. A prova de conceito possui uma arquitetura cliente-servidor,
na qual o cliente se comunica com o servidor, sendo este responsável por hospedar
a estrutura de dados topológica da aplicação permitindo a criação de modelos
bidimensionais de elementos finitos. Devido o canal de comunicação bilateral
fornecido pelo WebSocket, é possível a colaboração entre diversos usuários em
salas virtuais que compartilham o mesmo modelo em tempo real. Ao final, é
realizada uma avaliação da usabilidade da aplicação para verificar a estratégia
proposta e encontrar possíveis limitações. / [en] This work presents a collaborative modeling strategy on the web through
the WebSocket network communication protocol. To understand the relevance and
identify possible gaps on the subject, an investigation was carried out on the state
of the art of collaborative web applications through a systematic review of the
literature. To demonstrate the proposed strategy, a proof of concept was developed
using the JavaScript and Python programming languages. The proof of concept has
a client-server architecture, in which the client communicates with the server, which
is responsible for hosting the application s topological data structure, allowing the
creation of two-dimensional finite element models. Due to the two-way
communication channel provided by WebSocket, the collaboration between several
users in virtual rooms that share the same model in real-time is possible. In the end,
an evaluation of the usability of the application is carried out to verify the proposed
strategy and find possible limitations.
|
25 |
[en] W. E. B. DU BOIS: A READING / [pt] W. E. B. DU BOIS: UMA LEITURAANA CAROLINA SANTOS DO NASCIMENTO 15 September 2020 (has links)
[pt] A proposta dessa pesquisa é a tratar de William Edward Burghardt Du Bois, um dos fundadores da Sociologia Moderna Americana, o primeiro homem negro a conseguir PhD pela Universidade de Harvard, em 1895 e pouco lido no Brasil. A obra desse autor é muito vasta e em sua maior parte se concentra em tratar as relações raciais e, dentro desse tema, fala também sobre colonialismo. Em 1903, Du Bois escreveu um de seus livros mais importantes e conhecidos The Souls of Black Folks, em que o autor se emprenha em explicar como foi constituída a subjetividade do negro norte-americano. Neste livro o autor desenvolve três conceitos sociológicos fundamentais: color line, veil e double counciousness. Além de sociólogo, historiador, novelista, poeta, Du Bois dedicou boa parte de sua vida como editor. The Crisis, a publicação oficial da NAACP (National Association for the Advencement of Colored People) foi onde passou um longo período, editou a revista entre 1910 e 1934. O objetivo desse trabalho é analisar, por meio de um exame descritivo/qualitativo, os post scripta de autoria do editor, das edições da The Crisis durante o ano de 1934 sob ótica do conceito de dupla consciência e entender de que maneira o autor constrói esse conceito em seus textos. / [en] The purpose of this research is to address William Edward Burghardt Du Bois, one of the founders of Modern American Sociology, the first black man to obtain a PhD from Harvard University in 1895 and little read in Brazil. The work of this author is very vast and most of it is focused on dealing with race relations and, within this theme, also talks about colonialism. In 1903, Du Bois wrote one of his most important and well-known books The Souls of Black Folks, in which the author uses to explain how was constituted the subjectivity of the Afro American. In this book the author develops three fundamental sociological concepts: color line, veil and double consciousness. In addition to sociologist, historian, novelist, poet, Du Bois devoted much of his life as an editor. The Crisis, an official publication of NAACP (National Association for the Advancement of Colored People) was where he spent a long time, edited a magazine between 1910 and 1934. The purpose of this work is analyzed, through a descriptive / qualitative exam, after the post scripta, authored by the editor in chief, of the editions of The Crisis during the year 1934, from the perspective of the concept of double consciousness and understanding how the author builds this concept in his texts.
|
26 |
[en] TEXT MINING AT THE INTELLIGENT WEB CRAWLING PROCESS / [pt] MINERAÇÃO DE TEXTOS NA COLETA INTELIGENTE DE DADOS NA WEBFABIO DE AZEVEDO SOARES 31 March 2009 (has links)
[pt] Esta dissertação apresenta um estudo sobre a utilização de
Mineração de
Textos no processo de coleta inteligente de dados na Web. O
método mais comum
de obtenção de dados na Web consiste na utilização de web
crawlers. Web
crawlers são softwares que, uma vez alimentados por um
conjunto inicial de
URLs (sementes), iniciam o procedimento metódico de visitar
um site, armazenálo
em disco e extrair deste os hyperlinks que serão utilizados
para as próximas
visitas. Entretanto, buscar conteúdo desta forma na Web é
uma tarefa exaustiva e
custosa. Um processo de coleta inteligente de dados na Web,
mais do que coletar
e armazenar qualquer documento web acessível, analisa as
opções de crawling
disponíveis para encontrar links que, provavelmente,
fornecerão conteúdo de alta
relevância a um tópico definido a priori. Na abordagem de
coleta de dados
inteligente proposta neste trabalho, tópicos são definidos,
não por palavras chaves,
mas, pelo uso de documentos textuais como exemplos. Em
seguida, técnicas de
pré-processamento utilizadas em Mineração de Textos, entre
elas o uso de um
dicionário thesaurus, analisam semanticamente o documento
apresentado como
exemplo. Baseado nesta análise, o web crawler construído
será guiado em busca
do seu objetivo: recuperar informação relevante sobre o
documento. A partir de
sementes ou realizando uma consulta automática nas máquinas
de buscas
disponíveis, o crawler analisa, igualmente como na etapa
anterior, todo
documento recuperado na Web. Então, é executado um processo
de comparação
entre cada documento recuperado e o documento exemplo.
Depois de obtido o
nível de similaridade entre ambos, os hyperlinks do
documento recuperado são
analisados, empilhados e, futuramente, serão desempilhados
de acordo seus
respectivos e prováveis níveis de importância. Ao final do
processo de coleta de
dados, outra técnica de Mineração de Textos é aplicada,
objetivando selecionar os
documentos mais representativos daquela coleção de textos:
a Clusterização de
Documentos. A implementação de uma ferramenta que contempla
as heurísticas
pesquisadas permitiu obter resultados práticos, tornando
possível avaliar o
desempenho das técnicas desenvolvidas e comparar os
resultados obtidos com
outras formas de recuperação de dados na Web. Com este
trabalho, mostrou-se
que o emprego de Mineração de Textos é um caminho a ser
explorado no
processo de recuperação de informação relevante na Web. / [en] This dissertation presents a study about the application of
Text Mining as
part of the intelligent Web crawling process. The most
usual way of gathering
data in Web consists of the utilization of web crawlers.
Web crawlers are
softwares that, once provided with an initial set of URLs
(seeds), start the
methodical proceeding of visiting a site, store it in disk
and extract its hyperlinks
that will be used for the next visits. But seeking for
content in this way is an
expensive and exhausting task. An intelligent web crawling
process, more than
collecting and storing any web document available, analyses
its available crawling
possibilities for finding links that, probably, will
provide high relevant content to
a topic defined a priori. In the approach suggested in this
work, topics are not
defined by words, but rather by the employment of text
documents as examples.
Next, pre-processing techniques used in Text Mining,
including the use of a
Thesaurus, analyze semantically the document submitted as
example. Based on
this analysis, the web crawler thus constructed will be
guided toward its objective:
retrieve relevant information to the document. Starting
from seeds or querying
through available search engines, the crawler analyzes,
exactly as in the previous
step, every document retrieved in Web. the similarity level
between them is
obtained, the retrieved document`s hyperlinks are analysed,
queued and, later, will
be dequeued according to each one`s probable degree of
importance. By the end
of the gathering data process, another Text Mining
technique is applied, with the
propose of selecting the most representative document among
the collected texts:
Document Clustering. The implementation of a tool
incorporating all the
researched heuristics allowed to achieve results, making
possible to evaluate the
performance of the developed techniques and compare all
obtained results with
others means of retrieving data in Web. The present work
shows that the use of
Text Mining is a track worthy to be exploited in the
process of retrieving relevant
information in Web.
|
27 |
[en] SWELL: A SEMANTIC WEB-SERVICES SELECTION ENVIRONMENT / [pt] SWELL: UM AMBIENTE PARA SELEÇÃO DE WEB-SERVICES SEMÂNTICOSJOAO FELIPE SANTOS CONDACK 28 October 2004 (has links)
[pt] Inicialmente a Internet era um canal de comunicação e
distribuição de
conteúdo textual. Com o advento do comércio eletrônico e a
maturação da própria
Web, ela se tornou uma plataforma de implantação de
sistemas. Paralelamente, o
próprio desenvolvimento de software evoluiu, com aplicações
de novos conceitos
da engenharia de software, tais como componentes, reuso e
design patterns. No
intuito de desenvolver práticas e tecnologias que
aperfeiçoem a construção de
softwares decidiu-se, neste trabalho, por conciliar estas
duas tendências
evolutivas.
Swell é um ambiente para o auxílio no desenvolvimento de
Sistemas
Baseados na Web (SBWs), tendo como ponto forte a seleção
semântica de web services. Trata-se de uma ferramenta cujo
objetivo é ajudar nas tarefas de design e
construção de aplicações, visando atingir alto grau de
reuso. Este auxílio se dá
através da descrição, busca e escolha de serviços para
composição de aplicações.
O ambiente Swell foi pensado de modo a dar suporte à
evolução das tecnologias
de componentes para Web. Ele provê pontos de flexibilização
permitindo
adaptação a novas descrições de web services e refletindo
estas mudanças no
mecanismo de busca. / [en] Initially the Internet was a communication channel and a
text-based content
dissemination vehicle. With the advent of e-commerce and
Web's unfolding, it
became a systems deployment platform. At the same time,
software development
also evolved, through the use of new software engineering
concepts, such as
components, reuse and design patterns. This work aims at
helping to develop
practices and technologies that improve software
development by conciliating
these two evolution trends.
Swell is an environment that helps Web Based Systems
development,
having as a cornerstone the semantic selection of web-
services. It is a tool whose
objective is to help in the application design and
development tasks, aiming to
reach a high degree of reuse. This is achieved through the
support for the
description, search and selection of web services for
application composition. The
Swell environment was conceived as a framework with support
for the evolution
of web components technologies. It provides hot spots that
allow for adaptation of
new web services descriptions and reflection of these
changes in the search
engine.
|
28 |
[en] A UNIFIED PROCESS FRAMEWORK OF ONTOLOGY ENGINEERING / [pt] UM PROCESSO UNIFICADO PARA ENGENHARIA DE ONTOLOGIASDANIEL ABADI ORLEAN 12 March 2004 (has links)
[pt] A Web Semântica já está deixando de ser uma visão de Tim
Berners-Lee para virar uma realidade. Diversos projetos
em todo mundo já exploram as potencialidades dessa
segunda geração da Web para tornar seu conteúdo
processável por máquinas. Infelizmente (ou felizmente!),
os computadores não são capazes de desenvolver por livre
e espontânea vontade uma linguagem consensual de
comunicação. É nesta etapa que entram em cena as
ontologias. Conhecida no ramo da filosofia como teorias
sobre a natureza da existência, as ontologias têm sido
encaradas de maneira consideravelmente diferente no
universo computacional. Representam um entendimento comum
e compartilhado sobre um domínio específico e têm como o
objetivo principal permitir a comunicação entre
organizações, pessoas e o uso de metodologias, processos
e/ ou métodos bem definidos. Com o aumento de sua
importância, o projeto e desenvolvimento de ontologias
vêm deixando de ser uma arte para se transformar em um
processo de engenharia. Diversas propostas já foram
apresentadas para o problema de engenharia de ontologias,
muitas delas apoiadas por estudos acadêmicos e
industriais. No entanto, é importante notar que nenhuma
dessas metodologias - que em muitos casos resumem-se
apenas a heurísticas extraídas da experiência de seus
autores ou a orientações sobre como alcançar bons
resultados - atende por completo aos requisitos
potenciais do projeto de uma ontologia. O que se propõe
neste trabalho é a unificação de disciplinas e atividades
oriundas de metodologias distintas em um framework de
processos abrangente, entitulado KUP - Knowldge Unified
Process, que permite um adequado projeto e
desenvolvimento de ontologias e bases de conhecimento.
Entende-se como um processo um conjunto de atividades e
resultados associados a essas atividades com o objetivo
de garantir a geração de um produto final, seja este
produto um software, uma ontologia ou uma ontologia
associada a sua base de conhecimento. A unificação deste
processo segue as melhores práticas em engenharia de
software existentes na indústria e é apoiada por um
framework de avaliação de metodologias consolidado na
academia. Foram realizados dois estudos de caso para este
framework de processos, um envolvendo o desenvolvimento
de uma solução de gestão de conhecimento em segurança da
informação e outro envolvendo a integração de uma
ferramenta de gestão de competências para ambientes de
educação a distância. / [en] The Semantic Web is now a reality. Several projects all
around the world are already using tools technologies
developed to support the second generation of the Web to
provide machine-processable content for software agents,
web services and applications. However, computers can not
agree on a consesual language by themselves. Ontologies can
be used as a way to provide this shared conceptualization,
making posssible the desired communication among
organizations, people and apllications. Several proposals
have been already presented regarding ontology engineering -
many supported by academic and industrial case studies.
However, none of them encompasses all the requirements
identified for an ontology construction project. This work
describes the unification of different features extracted
from those methodologies to build a process framework
named KUP - the Knowledge Unified Process. This unified
process is based on several industry best practices and on
a well accepted ontology methodology evaluation framework.
Two case studies were developed so as to support and
validate this process framework. The first was the
development of a semantic web solution for security
information knowledge management and the second
one was the integration of a skill management tool to a
learning management system, through ontologies.
|
29 |
[en] CLUSTERING AND DATASET INTERLINKING RECOMMENDATION IN THE LINKED OPEN DATA CLOUD / [pt] CLUSTERIZAÇÃO E RECOMENDAÇÃO DE INTERLIGAÇÃO DE CONJUNTO DE DADOS NA NUVEM DE DADOS ABERTOS CONECTADOSALEXANDER ARTURO MERA CARABALLO 24 July 2017 (has links)
[pt] O volume de dados RDF publicados na Web aumentou consideravelmente, o que ressaltou a importância de seguir os princípios de dados interligados para promover a interoperabilidade. Um dos princípios afirma que todo novo conjunto de dados deve ser interligado com outros conjuntos de dados publicados na Web. Esta tese contribui para abordar este princípio de duas maneiras. Em primeiro lugar, utiliza algoritmos de detecção de comunidades e técnicas de criação de perfis para a criação e análise automática de um diagrama da nuvem da LOD (Linked Open Data), o qual facilita a localização de conjuntos de dados na nuvem da LOD. Em segundo lugar, descreve três abordagens, apoiadas por ferramentas totalmente implementadas, para recomendar conjuntos de dados a serem interligados com um novo conjunto de dados, um problema conhecido como problema de recomendação de interligação de conjunto de dados. A primeira abordagem utiliza medidas de previsão de links para produzir recomendações de interconexão. A segunda abordagem emprega algoritmos de aprendizagem supervisionado, juntamente com medidas de previsão de links. A terceira abordagem usa algoritmos de agrupamento e técnicas de criação de perfil para
produzir recomendações de interconexão. Essas abordagens são implementadas, respectivamente, pelas ferramentas TRT, TRTML e DRX. Por fim, a tese avalia extensivamente essas ferramentas, usando conjuntos de dados do mundo real. Os resultados mostram que estas ferramentas facilitam o processo de criação de links entre diferentes conjuntos de dados. / [en] The volume of RDF data published on the Web increased considerably,
which stressed the importance of following the Linked Data principles to foster
interoperability. One of the principles requires that a new dataset should be interlinked with other datasets published on the Web. This thesis contributes to addressing this principle in two ways. First, it uses community detection algorithms and profiling techniques for the automatic creation and analysis of a Linked Open Data (LOD) diagram, which facilitates locating datasets in the LOD cloud. Second, it describes three approaches, backed up by fully implemented tools, to recommend datasets to be interlinked with a new dataset, a problem known as the dataset interlinking recommendation problem. The first approach uses link prediction measures to provide a list of datasets recommendations for interlinking. The second approach employs supervised learning algorithms, jointly with link prediction measures. The third approach uses clustering algorithms and profiling techniques to produce dataset interlinking recommendations. These approaches are backed up, respectively, by the TRT, TRTML and DRX tools. Finally, the thesis extensively evaluates these tools, using real-world datasets, reporting results that show that they facilitate the process of creating links between disparate datasets.
|
30 |
[en] REPORTING THE EXPERIENCE OF DEPLOYMENT OF SOFTWARE ENGINEERING BEST PRACTICES IN A HETEROGENEOUS ENVIRONMENT / [pt] RELATO DE EXPERIÊNCIA DA IMPLANTAÇÃO DE BOAS PRÁTICAS DE ENGENHARIA DE SOFTWARE EM UM AMBIENTE HETEROGÊNEOKELLY AZEVEDO BORGES LEAL 31 January 2011 (has links)
[pt] Métodos Ágeis são estratégias recentes na Engenharia de Software
(começaram a se popularizar em 2001), que surgiram com a promessa de serem
flexíveis e adaptáveis - características muito importantes para lidar com
constantes mudanças de requisitos em projetos. O Scrum, método ágil estudado
neste trabalho, necessita de uma infraestrutura adequada para gerar benefícios ao
time que o utiliza. Neste estudo, implementou-se o Scrum, com o auxílio de uma
infraestrutura adequada de ferramentas e processos, em uma organização que não
utilizava qualquer tipo de gerenciamento de projetos. A partir do estabelecimento
de algumas metas com o apoio do modelo GQM, buscou-se a melhoria nas
métricas relacionadas e os resultados estão detalhados neste presente trabalho. / [en] Agile methodology is a recent Software Engineering strategy (it became
popular in 2001) that was created to be flexible and adaptable enough -
characteristic very import to deal with constant requirements changes during a
project lifecycle. Scrum, the agile methodology used during this study, requires an
adequate infrastructure in order to offer its benefits. This study implemented
Scrum and an adequate infrastructure of processes and tools to support it, inside a
organization that didn’t use any kind of project management before. With the
establishment of some goals using the GQM model, some improvements were
expected and the results are detailed in this study.
|
Page generated in 0.0595 seconds