1 |
[en] DESIGN RATIONALE IN THE TRIPLIFICATION OF RELATIONAL DATABASES / [pt] DESIGN RATIONALE NA TRIPLIFICAÇÃO DE BANCOS DE DADOS RELACIONAISRITA CRISTINA GALARRAGA BERARDI 02 August 2016 (has links)
[pt] Uma das estratégias mais populares para publicar dados estruturados na Web é
expor bases de dados relacionais (BDR) em formato RDF. Esse processo é
chamado BDR-para-RDF ou triplificação. Além disto, princípios de Linked Data
oferecem vários guias para dar suporte a este processo. Existem duas principais
abordagens para mapear bases de dados relacionais para RDF: (1) a abordagem de
mapeamento direto, onde o esquema das bases de dados é diretamente mapeado
para um esquema RDF, e (2) a abordagem de mapeamento customizado, onde o
esquema RDF pode ser significativamente diferente do esquema original da base
de dados relacional. Em ambas abordagens, existem vários desafios relacionados
tanto com a publicação quanto com o uso de dados em RDF originados de bases
de dados relacionais. Esta tese propõe a coleta de design rationale como uma
valiosa fonte de informação para minimizar os desafios do processo de
triplificação. Essencialmente, a coleta de design rationale melhora a consciência
sobre as ações feitas no mapeamento da base de dados relacional para um
conjunto de dados no formato RDF. As principais contribuições da tese são: (1)
um modelo de design rationale (DR) adequado para o processo de BDR-para-
RDF, independente da abordagem utilizada (direta ou customizada); (2) a
integração de um modelo de DR para um processo que segue a abordagem direta
de BDR-para-RDF e para um processo que segue a abordagem customizada
usando a linguagem R2RML; (3) o uso do DR coletado para melhorar
recomendações de reuso de vocabulários existentes através de algoritmos de
Ontology Matching. / [en] One of the most popular strategies to publish structured data on the Web is to
expose relational databases (RDB) in the RDF format. This process is called in
RDB-to-RDF or triplification. Furthermore, the Linked Data principles offer
useful guidelines for this process. Broadly stated, there are two main approaches
to map relational databases into RDF: (1) the direct mapping approach, where the
database schema is directly mapped to an RDF schema; and (2) the customized
mapping approach, where the RDF schema may significantly differ from the
original database schema. In both approaches, there are challenges related to the
publication and to the consumption of the published data. This thesis proposes the
capture of design rationale as a valuable source of information to minimize the
challenges in RDB-to-RDF processes. Essentially, the capture of design rationale
increases the awareness about the actions taken over the relational database to
map it as an RDF dataset. The main contributions of this thesis are: (1) a design
rationale (DR) model adequate to RDB-to-RDF processes, independently of the
approach (direct or customized) followed; (2) the integration of a DR model in an
RDB-to-RDF direct mapping process and in an RDB-to-RDF customized
mapping process using the R2RML language; (3) the use of the DR captured to
improve the recommendations for vocabularies to reuse.
|
2 |
[pt] MAPEAMENTO DE SUPERFÍCIE E VOLUME BASEADO EM RESTAURAÇÃO DE SEÇÕES GEOLÓGICAS / [en] MAPPING OF SURFACE AND VOLUME BASED ON GEOLOGICAL SECTION RESTORATION30 November 2021 (has links)
[pt] A restauração geológica busca reverter processos geológicos, partindo de
uma região com sua geometria atual para sua configuração original, prévia à
deformação. A restauração geológica de seções transversais é um dos principais
recursos da indústria de óleo e gás para auxiliar na interpretação e validação.
Em geral, processos geológicos acontecem de forma tridimensional. No entanto,
a restauração 3D é complexa e cara e não faz parte do fluxo de trabalho
tradicional que preza por soluções rápidas e eficientes como a restauração de
seções 2D. Este trabalho apresenta uma metodologia e o desenvolvimento de
ferramentas para mapear o movimento tridimensional baseado na restauração
de seções geológicas. Esta metodologia divide o problema em duas etapas. O
primeiro passo mapeia o movimento das seções para as superfícies do modelo
com o uso de um deformador de superfícies. Na sequência, o movimento das
seções junto do movimento das superfícies mapeiam o movimento do volume,
aqui discretizado em uma nuvem de pontos. A solução numérica do primeiro
passo realiza a movimentação das superfícies considerando pontos de controle,
restrições impostas pelo movimento das seções transversais em conjunto com a
minimização da função tri-harmônica a fim de produzir superfícies de variação
mínima. O segundo passo faz a movimentação do volume baseado em pontos
de controle dados pela movimentação das seções adicionadas ao movimento
das superfícies obtidas no primeiro passo. A base de desenvolvimento para
estes estudos é o Sistema Recon-MS, um sistema computacional desenvolvido
pela PETROBRAS em parceria com o Instituto Tecgraf/PUC-Rio, no qual,
dentre outros recursos, permite a restauração de modelos geológicos, através
de algoritmos geométricos e cinemáticos. / [en] Geological restoration aims to reverse geological processes, starting from
a region with its current geometry to its original configuration, prior to
deformation. The geological restoration of cross-section is one of the oil and
gas industry s key capabilities to aid interpretation and validation. In general,
geological processes occur in a three-dimensional way. However, 3D restoration
is complex and expensive and not part of the traditional workflow that
emphasizes fast and efficient solutions such as restoring 2D sections. This
work presents a methodology and the development of tools to map the threedimensional
movement based on the restoration of geological sections. This
methodology divides the problem into two steps. The first step maps the
movement of cross sections to model surfaces using a surface deformer. Next,
the movement of the sections together with the movement of the surfaces map
the movement of the volume, here discretized in a point cloud. The numerical
solution of the first step performs the movement of surfaces considering control
points, restrictions imposed by the movement of cross sections together with
the minimization of the tri-harmonic function in order to produce surfaces
with minimum variation. The second step is the movement of the volume
based on control points given by the movement of the sections added to the
movement of the surfaces obtained in the first step. The development basis
for these studies is the Recon-MS System, a computational system developed
by PETROBRAS in partnership with the Tecgraf/PUC-Rio Institute, which,
among other resources, allows the restoration of geological models, through of
geometric and kinematic algorithms.
|
3 |
[en] HISTORY-SENSITIVE RECOVERY OF FEATURES IN CODE OF EVOLVING PROGRAM FAMILIES / [pt] RECUPERAÇÃO SENSÍVEL A HISTÓRIA DE CARACTERÍSTICAS NO CÓDIGO DE FAMÍLIAS DE PROGRAMAS EVOLUTIVASCAMILA PATRICIA BAZILIO NUNES 19 January 2017 (has links)
[pt] Uma família de programas pode degenerar devido a mudanças não planejadas e, consequentemente, tendem a prejudicar a manutenção dos membros da família. Esta degeneração é frequentemente causada pelo código de uma característica (feature) da família que é modificada individualmente em cada membro sem considerar outros membros da família. Em casos extremos, o código da família é completamente ou parcialmente replicado e individualmente modificado por diversos membros em evolução. Assim, à medida que uma família evolui, pode não ser mais possível identificar e classificar os elementos de código implementando as características comuns e variáveis. Uma das atividades iminentes para resolver esses problemas é a recuperação sensível à história de características da família. Este processo de recuperação inclui a análise histórica de cada membro da família a fim de identificar e classificar os elementos de implementação (e.g. métodos, atributos) de acordo com a sua natureza de variabilidade. Os trabalhos existentes falham em analisar a evolução dos membros de uma família com o objetivo de recuperar os elementos de implementação das características. Além disso, as técnicas existentes para a análise de características não são efetivas, pois elas apenas levam em consideração a história de um único membro por vez. Em resumo, as contribuições desta tese são divididas em três partes: (i) um catálogo de incompatibilidades de mapeamento para guiar engenheiros de software na corretude e completude de seus mapeamentos de características. Este
catálogo é útil para garantir uma melhor eficácia do processo de recuperação durante a análise dos mapeamentos; (ii) um conjunto de cinco heurísticas para a expansão automática de mapeamentos de características ao longo do histórico da família de programas. Essas heurísticas são baseadas na análise histórica multi-dimensional da família e no catálogo de incompatibilidades de mapeamentos; e (iii) um conjunto de heurísticas sensíveis a história para classificar os elementos de implementação de cada característica da família de acordo com seu grau de variabilidade. / [en] A program family might degenerate due to unplanned changes in its implementation, thus hindering the maintenance of family members. This degeneration is often induced by feature code of the program family that is changed individually in each member without considering other family members. In extreme cases, the program family code is fully or partially replicated and individually changed across several evolving members. Hence, as a family evolves over time, it might no longer be possible to identify and classify the implementation elements realizing common and variable features. One of the imminent activities to address these problems is the history-sensitive recovery of program family s features. This recovery process encompasses the historical analysis of each family member in order to identify and classify the implementation elements (i.e. methods, attributes) according to their variability nature. Existing work fails to analyse the evolution of the family members with the goal of recovering features implementation elements. Additionally, existing techniques for feature analysis are not effective as they only take into consideration the history of a single member product. In summary, the contributions of this thesis are threefold: (i) a catalogue of mapping mismatches to guide software engineers in promoting the correctness and completeness of their feature mappings. This catalogue is useful to ensure a better effectiveness of the recovery process during the mapping analysis; (ii) a suite of five heuristics for the automatic expansion of feature mappings throughout the program family history. Those heuristics rely on both the multi-dimensional historical analysis of program families and the catalogue of mapping mismatches; and (iii) a suite of history-sensitive heuristics for classifying the implementation elements realizing each family feature according to their variability degree.
|
4 |
[en] PARTICIPATORY MAPPING OF RIO DE JANEIRO S FAVELAS: FROM CARTOGRAPHIC EMPTY TO INTEGRATION OF SPECTACLE / [pt] MAPEAMENTO PARTICIPATIVO DAS FAVELAS DO RIO DE JANEIRO: DO VAZIO CARTOGRÁFICO AO ESPETÁCULO DA INTEGRAÇÃONICOLI SANTOS FERRAZ 03 May 2018 (has links)
[pt] Partindo de uma percepção empírica acerca da crescente demanda por mapeamento em favelas do Rio de Janeiro, o trabalho se lança numa investigação do quando, como e por que ocorreram tais avanços na representação destes territórios. Para responder ao quando, revisitamos a história das favelas cariocas – e, consequentemente, da gradual conquista de direitos sociais adquiridos por seus moradores –, contrapondo-a com sua representação nos mapas históricos encontrados. Neste ponto, destacamos dois aspectos: o aumento exponencial do número de projetos de mapeamento em favela no contexto de preparação da cidade para os megaeventos, especialmente nas favelas dotadas de UPP; e a utilização recorrente do conceito de mapeamento participativo por grande parte dos projetos, que lançam mão da expertise dos moradores locais (das favelas). Desenvolvemos um método particular de análise dos projetos, por meio do qual foi possível concluir que, apesar de quase todos os projetos se venderam como participativos, em raros casos a população é convidada a pensar criticamente as ações de mapeamento e a elaboração do método, ou mesmo as implicações da ação, o registro da memória local etc. Assim, ao acompanhar de perto projetos de dois grandes agentes (Google e Prefeitura do Rio de Janeiro), a conclusão a que se chega é de que o que está no centro não é o conteúdo dos projetos em si nem a melhoria de vida da população das favelas, mas sim a promoção e o espetáculo da realização de tais ações. / [en] Based on an empirical perception of the growing demand for mapping the favelas of Rio de Janeiro, the present work launches an investigation about the when, how and why there have been such advancements on the representation of these areas. To respond to when, we revisited the history of Rio s favelas — and, consequently, the gradual achievement of social rights acquired by its residents — opposing this background to its representation in historical maps. At this point, we highlight two aspects: the exponential
increase of the number of favelas mapping projects, especially of the ones where there are Police Pacification Units (UPP), due to the city s preparation for the mega events (World Cup and Olympics); and the recurrent use of the participatory mapping concept in most of the projects that make use of local residents expertise. Based on this reflection, we have developed a particular method to analyse the projects, through which it was possible to conclude that, despite the fact that most of the projects sell themselves as participatory, there are some rare cases in which the population is actually invited to think critically about the mapping actions and the development of the method, or even about the implications of
these actions, the records of the local memory etc. Therefore, after close monitoring of two great agents projects (Google and City Hall of Rio de Janeiro), one can conclude that their core is not based on the content of the projects themselves, nor on the life improvement of the favelas population, but on the promotion and the spectacle of performing such actions.
|
5 |
[en] VALUATION OF INTANGIBLE ASSETS USING COMPUTATIONAL INTELLIGENCE: APPLICATION AT HUMAN CAPITAL. / [pt] VALORAÇÃODE DE ATIVOS INTANGÍVEIS COM USO DE INTELIGÊNCIA COMPUTACIONAL: APLICAÇÃO EM CAPITAL HUMANONELSON RODRIGUES DE ALBUQUERQUE 13 May 2013 (has links)
[pt] Esta tese apresenta uma nova metodologia para valoração dinâmica do Capital
Intelectual, aplicada ao Capital Humano. Trata-se de oferecer, ao tomador de decisão,
uma ferramenta capaz de calcular e comparar o retorno do investimento
em ativos intangíveis, como ocorre com outros ativos tangíveis. Através da metodologia
proposta, denominada KVA-ACHE, é possível estimar a quantidade
potencial de conhecimento humano, utilizado na geração do resultado financeiro
da empresa. Essa metodologia também permite medir variações de desempenho
nos processos-chave que compõem a cadeia de valor da empresa e o impacto do
investimento em educação em um determinado processo. O método KVA-ACHE
é composto de cinco módulos, que são executados em três fases. Na primeira
fase se avalia a empresa de forma agregada, segundo seu modelo estratégico e,
na segunda fase, avalia-se a quantidade de conhecimento potencial e disponível,
associado a cada processo-chave. A terceira fase é aplicado o método KVA e
obtido o indicador de desempenho ROI. Ao final da sua aplicação, essa metodologia
permite: identificar os processos que estão drenando resultado da empresa,
através da observação de indicador financeiro adaptado, como o ROIK (Return
on Investment on Knowledg), identificar a necessidade individualizada de treinamento
para se atingir o máximo de desempenho em um determinado processochave;
analisar o impacto percebido em termos percentuais do investimento em
educação, realizado em determinado processo-chave; e, finalmente, dar uma visão
sobre os recursos de conhecimentos e habilidades disponíveis na equipe de
colaboradores, os quais poderão ser aproveitados na avaliação de novos negócios
e desafios para empresa. A principal inovação dessa metodologia está no fato de
se utilizar a Teoria dos Conjuntos Fuzzy e de Sistemas de Inferência Fuzzy - SIF
para transformar conceitos relacionados à disponibilidade e ao uso de conhecimento
humano em valores que, dessa forma, permitem a comparação de ativos
intangíveis com ativos tangíveis. / [en] This thesis presents a new methodology for dynamic valuation of Intellectual
Capital, applied to the Human Capital. It offers, to the decision-maker, a computational
tool able to quote and compare the return on investment in intangible
assets, as with tangible assets. Through the proposed methodology, called KVAACHE,
it is possible to estimate the potential amount of human knowledge, used
in generating the company’s financial results. This approach also allows the measurement
of variations in performance in the key processes that make up the
value chain of the company and the impact of investment in education in a given
process. The method KVA-ACHE is composed of five modules, which are executed
in three phases. The first phase evaluates the company on an aggregate basis,
according to its strategic model, and, in the second phase, the amount of potential
and available knowledge, associated with each key process, is evaluated. The
third phase applies KVA method. This methodology allows: the identification of
the processes that are draining the company’s income by looking at the adapted
financial indicators, such as ROIK (Return on Investment on Knowledge);
the individualized need for training to achieve maximum performance in a particular
key process; the analysis of the impact noticed in terms of percentage of
the investment in education, held in a certain key process; and finally, an insight
into the resources of knowledge and skills available in the team of collaborators,
which may be used in the assessment of new challenges and business to the enterprise.
The main innovation of this methodology lies in the use of Fuzzy Set Theory and Fuzzy Inference Systems - FIS to transform concepts related to the
availability and use of human knowledge into values, and thus allow the comparison
of intangible assets with tangible assets.
|
6 |
[en] DEVELOPMENT OF A TRANSIENT MATHEMATICAL MODEL FOR THE PREDICTION OF PLANAR LANDSLIDES IN NATURAL SLOPES / [pt] DESENVOLVIMENTO DE UM MODELO MATEMÁTICO TRANSIENTE PARA PREVISÃO DE ESCORREGAMENTOS PLANARES EM ENCOSTASALEXANDRE CONTI 04 September 2018 (has links)
[pt] Esse trabalho tem como objetivo desenvolver um modelo determinístico transiente de previsão de escorregamentos planares em encostas, para escalas em nível de bacia hidrográfica (1:2000 a 1:5000). No modelo são aplicadas as teorias de Green-Ampt (1934) e de O Loughlin (1986), essa última utilizada no programa SHALSTAB (MONTGOMERY e DIETRICH, 1994), além da teoria talude infinito 2D e 3D. Também são considerados nas análises a não saturação do solo e os efeitos da vegetação. O evento estudado para aplicação e teste do modelo refere-se ao ocorrido em 1996, nas bacias do Quitite e Papagaio em Jacarepaguá, Zona Oeste do Rio de Janeiro. Além do mapeamento do fator de segurança nas bacias, também são gerados mapas com o escoamento superficial acumulado, e tenta-se correlacionar ambos com as cicatrizes que ocorreram no caso de estudo. / [en] The aim of this work is to develop a physically-based transient model for the prediction of planar landslides in natural slopes. The application scale of the model is for a hydrographic basin (1:2000 to 1:5000). The theories of Green-Ampt (1934) and O Loughlin (1986), the second one used in the SHALSTAB program (MONTGOMERY e DIETRICH, 1994), and the infinite slope 2D and 3D are used in the model. The effect of the unsaturation and the vegetation is also considered in the analysis. The case study for the test of the model is the 1996 event that took place in the Quitite and Papagaio basins, in Jacarepaguá, Zona Oeste of Rio de Janeiro. Besides mapping the safety factor in the basins, maps of the accumulated runoff were also generated. This work also tries to correlate the runoff as another factor that caused the landslides.
|
7 |
[en] REAL-TIME SHADOW MAPPING TECHNIQUES FOR CAD MODELS / [pt] GERAÇÃO DE SOMBRAS EM TEMPO REAL PARA MODELOS CADVITOR BARATA RIBEIRO BLANCO BARROSO 21 May 2007 (has links)
[pt] O mapeamento de sombras é uma técnica de renderização
amplamente
utilizada para a geração de sombras de superfícies
arbitrárias em tempo real. No
entanto, devido a sua natureza amostrada, apresenta dois
problemas de difícil
resolução: o aspecto chamuscado de objetos e a aparência
serrilhada das
bordas das sombras. Em particular, o sombreamento de
modelos CAD
(Computer-Aided Design) apresenta desafios ainda maiores,
devido à existência
de objetos estreitos com silhuetas complexas e o elevado
grau de complexidade
em profundidade. Neste trabalho, fazemos uma análise
detalhada dos problemas
de chamuscamento e serrilhamento, revisando e completando
trabalhos de
diferentes autores. Apresentamos ainda algumas propostas
para melhoria de
algoritmos existentes: o alinhamento de amostras
independente de programas de
vértice, um parâmetro generalizado para o LiSPSM (Light-
Space Perspective
Shadow Map), e um esquema de particionamento adaptativo em
profundidade.
Em seguida, investigamos a eficácia de diferentes
algoritmos quando aplicados
a modelos CAD, avaliando-os em critérios como facilidade
de implementação,
qualidade visual e eficiência computacional. / [en] Shadow mapping is a widely used rendering technique for
shadow
generation on arbitrary surfaces. However, because of the
limited resolution
available for sampling the scene, the algorithm presents
two difficult problems
to be solved: the incorrect self-shadowing of objects and
the jagged appearance
of shadow borders, also known as aliasing. Generating
shadows for CAD
(Computer-Aided Design) models presents additional
challenges, due to the
existence of many thin complex-silhouette objects and the
high depth
complexity. In this work, we present a detailed analysis
of self-shadowing and
aliasing by reviewing and building on works from different
authors. We also
propose some impromevents to existing algorithms: sample
alignment without
vertex shaders, a generalized parameter for the LiSPSM
(Light-Space
Perspective Shadow Map) algorithm, and an adaptive z-
partitioning scheme.
Finally, we investigate the effectiveness of different
algorithms when applied to
CAD models, considering ease of implementation, visual
quality and
computational efficiency.
|
8 |
[en] CONSTRUCTION OF PERCEPTUALLY UNIFORM EUCLIDEAN COLOR SPACES BASED ON THE CIEDE2000 FORMULA / [pt] CONSTRUÇÃO DE ESPAÇOS DE COR EUCLIDIANOS E PERCEPTUALMENTE UNIFORMES COM BASE NA FÓRMULA CIEDE2000LORENZO FRANCESCO GIOVANNI GINO MARIA RIDOLFI 08 January 2014 (has links)
[pt] Nos últimos anos, diversas fórmulas de diferença de cores foram desenvolvidas
para o espaço CIELAB, tais como CMC, CIE94 e CIEDE2000. Embora
essas fórmulas obtenham maior precisão na medida perceptual entre
cores, muitas aplicações não podem usufruir desta maior precisão, pois as
distâncias euclidianas no CIELAB não são isométricas de acordo com essas
novas fórmulas. Com isso, aplicações como gamut mapping e interpolação de cores precisam de um espaço de cores que seja isométrico em relação
as fórmulas mais recentes de medição de diferenças de cores. Esse trabalho
estuda o mapeamento do espaço CIELAB, em particular do plano ab deste
espaço, sob a métrica da fórmula CIEDE2000, por meio de técnicas de
escalonamento multidimensional, ou Multidimensional Scaling (MDS), tais
como o ISOMAP e uma otimizaçãobaseada em Sammon Mapping. / [en] In recent years, various color difference formulas were developed for
the CIELAB space, such as CMC, CIE94 and CIEDE2000. Although
these formulas have achieved greater accuracy in perceptual measurement
between colors, many applications cannot take advantage of this greater
precision, because the Euclidean distances in CIELAB are not isometric
in accordance with these new formulas. Thus, applications such as gamut
mapping and color interpolation need a color space that is isometric in relation
to the latest color difference formulas. This paper studies the mapping
of the CIELAB space, particularly the ab plane of this space according to
the metrics of the CIEDE2000 formula, through multidimensional scaling
(MDS) techniques, more specifically ISOMAP and an optimization based
on Sammon Mapping.
|
9 |
[pt] APLICAÇÃO DE BUSINESS ANALYTICS PARA SELEÇÃO DE INDICADORES E IDENTIFICAÇÃO DE SEUS RELACIONAMENTOS EM UM SISTEMA DE MENSURAÇÃO DE DESEMPENHO / [en] APPLICATION OF BUSINESS ANALYTICS TO SELECT INDICATORS AND IDENTIFY THEIR RELATIONSHIPS IN A PERFORMANCE MEASUREMENT SYSTEM.10 September 2020 (has links)
[pt] Os sistemas de mensuração de desempenho buscam acompanhar o alcance dos objetivos estratégicos a partir de um conjunto de indicadores que suportem os processos de tomada de decisão. Várias iniciativas, entretanto, têm se mostrado ineficazes devido à subjetividade no desdobramento desses objetivos em indicadores. Métodos de business analytics vêm sendo utilizados para auxiliar esse desdobramento via análise de dados, com maior geração de valor para as organizações. O presente trabalho apresenta a aplicação das técnicas de Random Forest e Bayesian Belief Network para, respectivamente, selecionar indicadores e mapear suas relações em um estudo prático numa empresa do setor de transporte ferroviário de cargas, com foco no suporte ao indicador de disponibilidade de locomotivas. Para o processo de seleção de variáveis, observou-se que o algoritmo Variable Selection Using Random Forest obteve o melhor desempenho em acurácia e tempo de processamento. Na elaboração do mapa estratégico, a combinação do algoritmo Tabu Search com o critério estatístico Bayesian Information Criteria levou à escolha de um arranjo parcimonioso em suas relações, aderente à expectativa inicial associada ao critério estatístico utilizado. Foi observado um significativo vínculo entre a disponibilidade de locomotivas e indicadores operacionais da empresa em estudo, revelando o potencial de influência do modelo operacional nos resultados da disponibilidade. Verifica-se a oportunidade de emprego de técnicas de séries temporais para a previsão de desempenho a partir dos relacionamentos entre indicadores, bem como para aperfeiçoar a fase de seleção de variáveis, com a identificação de possíveis defasagens existentes nesses relacionamentos. / [en] Performance measurement systems seek to monitor the achievement of strategic objectives through a set of indicators that support decision-making processes. Several initiatives, however, have been shown to be ineffective due to the subjectivity in the unfolding of these objectives into indicators. Business analytics methods have been used to assist this deployment via data analysis, with greater value generation for organizations. The present work presents the application of Random Forest and Bayesian Belief Network techniques to, respectively, select indicators and map their relationships in a practical study in a company in the rail freight sector, with a focus on supporting the locomotive availability indicator. For the variable selection process, it was observed that the Variable Selection Using Random Forest algorithm obtained the best performance in accuracy and computation time. In the preparation of the strategic map, the combination of the Tabu Search algorithm with the Bayesian Information Criteria statistical criterion led to the choice of a parsimonious arrangement in its relations, adhering to the initial expectation associated with the statistical criterion used. A significant link was observed between the locomotive availability and operational indicators of the company under study, revealing the potential influence of the operational model on the availability results. There is an opportunity to use time series techniques to predict performance based on the relationships between indicators, as well as to improve the variable selection phase, with the identification of possible lags in these relationships
|
10 |
[pt] COMPLETUDE DE REFATORAÇÕES COMPOSTAS DE CÓDIGO-FONTE PARA A REMOÇÃO BENÉFICA DE ANOMALIAS DE CÓDIGO / [en] ON THE COMPLETENESS OF COMPOSITE CODE REFACTORINGS FOR BENEFICIAL SMELL REMOVAANA CARLA GOMES BIBIANO 22 June 2023 (has links)
[pt] A refatoração de código é uma transformação de código que visa aprimorar
a estrutura interna do código. Uma refatoração isolada raramente é
suficiente para remover completamente uma estrutura de código ruim, como
uma anomalia de código. Os desenvolvedores então aplicam refatorações
compostas para remover totalmente uma anomalia de código. Uma refatoração
composta consiste em duas ou mais refatorações inter-relacionadas. Um
refatoração composta é considerada completa quando elimina totalmente
a anomalia de código alvo. Estudos relatam que os desenvolvedores geralmente
falham em remover completamente as anomalias de código alvo por
meio de refatorações compostas. Refatorações compostas concluídas podem
não ser totalmente benéficas para a estrutura do código. Pois, estas podem
induzir efeitos colaterais, como a introdução de anomalias de código ou a
propagação de anomalias existentes. Há uma compreensão limitada sobre
a completude das refatorações compostas e seus possíveis efeitos colaterais.
Esta tese investiga como as refatorações compostas removem totalmente
as anomalias de código sem induzir efeitos colaterais. Descobrimos que 64 por cento
das refatorações compostas completas são formadas por tipos de refatoração
não recomendados anteriormente. Dessa forma, derivamos um catálogo de
recomendações para apoiar os desenvolvedores na aplicação de refatorações
compostas. Na avaliação do catálogo, 85 por cento de 21 desenvolvedores relataram
que usariam as recomendações do catálogo e que suas próprias soluções
de refatoração teriam induzido efeitos colaterais. Também avaliamos qualitativamente
três abordagens existentes para recomendar automaticamente
refatorações compostas. Nesse estudo, a maioria (80 por cento) dos 10 desenvolvedores
relatou que as abordagens existentes frequentemente induzem efeitos
colaterais. No geral, as descobertas e o catálogo proposto podem ajudar os
desenvolvedores a realizar refatorações compostas completas. / [en] Code refactoring is a code transformation that aims to enhance the
internal code structure. A single refactoring is rarely sufficient to achieve the
full removal of a poor code structure, such as a code smell. Developers then
apply composite refactorings to fully remove a code smell. A composite
refactoring (or, simply, composite) consists of two or more interrelated
single refactorings. A composite is considered complete when it fully
eliminates the target smell. However, studies report that developers often
fail in completely removing target code smells through composites. Even
when composite refactorings are complete they may still not be entirely
beneficial to the code structure. They may induce side effects, such as the
introduction of new smells or the propagation of existing ones. There is a
limited understanding of the completeness of composite refactorings and
their possible effects on structural quality. This thesis investigates whether
and how composite refactorings fully remove smells without inducing side
effects. We found that 64 per cent of complete composites in several software
projects are formed of refactoring types not previously recommended in the
literature. Based on this study, we derived a catalog of recommendations
for supporting developers in applying composite refactorings. Out of twenty
one developers evaluating our catalog, 85 per cent reported that they would use
the catalog recommendations and that their own refactoring solutions
would have induced side effects. We also qualitatively evaluated three
existing approaches to automatically recommend composite refactorings.
In our study with ten developers, most (80 per cent) developers reported that
existing approaches frequently induce side effects. Overall, the findings and
the proposed catalog can help developers to perform complete composite
refactorings with better awareness of possible side effects.
|
Page generated in 0.2952 seconds