41 |
[en] W-RAY: AN APPROACH TO THE DEEP WEB DATA PUBLICATION / [pt] W-RAY: UMA ABORDAGEM PARA PUBLICAÇÃO DE DADOS DA DEEP WEBHELENA SERRAO PICCININI 29 September 2014 (has links)
[pt] Deep Web é composta por dados armazenados em bases de dados, páginas dinâmicas, páginas com scripts e dados multimídia, dentre outros tipos de objetos. Os bancos de dados da Deep Web são geralmente sub-representados pelos motores de busca, devido aos desafios técnicos de localizar, acessar e indexar seus dados. A utilização de hyperlinks pelos motores de busca não é suficente para alcançar todos os dados da Deep Web, exigindo interação com interfaces de consultas complexas. Esta tese apresenta uma abordagem, denominada W-Ray, capaz de fornecer visibilidade aos dados da Deep Web. A abordagem baseia-se na descrição dos dados relevantes através de sentenças bem estruturadas, e na publicação dessas sentenças em páginas estáticas da Web. As sentenças podem ser geradas com RDFa embutido, mantendo a semântica do banco de dados. As páginas da Web assim geradas são passíveis de ser indexadas pelos motores de coleta de dados tradicionais e por motores mais sofisticados que suportam busca semântica. É apresentada também uma ferramenta que apóia a abordagem W-Ray. A abordagem foi implementada com sucesso para diferentes bancos de dados reais. / [en] The Deep Web comprises data stored in databases, dynamic pages, scripted pages and multimedia data, among other types of objects. The databases of the Deep Web are generally underrepresented by the search engines due to the technical challenges of locating, accessing and indexing them. The use of hyperlinks by search engines is not sufficient to achieve all the Deep Web data, requiring interaction with complex queries interfaces. This thesis presents an approach, called W-Ray, that provides visibility to Deep Web data. The approach relies on describing the relevant data through well-structured sentences, and on publishing the sentences as static Web pages. The sentences can be generated with embedded RDFa, keeping the semantics of the database. The Web pages thus generated are indexed by traditional Web crawlers and sophisticated crawlers that support semantic search. It is also presented a tool that supports the W-Ray approach. The approach has been successfully implemented for some real databases.
|
42 |
[en] CATALOGUE OF LINKED DATA CUBE DESCRIPTIONS / [pt] CATÁLOGO DE DESCRIÇÕES DE CUBOS DE DADOS INTERLIGADOSSOFIA RIBEIRO MANSO DE ABREU E SILVA 06 November 2014 (has links)
[pt] Dados estatísticos são considerados uma das principais fontes de informação e são essenciais em muitos campos, uma vez que podem funcionar como indicadores sociais e econômicos. Um conjunto de dados estatísticos compreende um conjunto de observações feitas em determinados pontos de um espaço lógico e é muitas vezes organizado como o que se chama de cubo de dados. A definição correta dos cubos de dados, especialmente das suas dimensões, ajuda a processar as observações e, mais importante, ajuda a combinar as observações de diferentes cubos de dados. Neste contexto, os princípios de Linked Data podem ser proveitosamente aplicados à definição de cubos de dados, no sentido de que os princípios oferecem uma estratégia para proporcionar a semântica ausentes das suas dimensões, incluindo os seus valores. Esta dissertação descreve inicialmente uma arquitetura de mediação para ajudar a descrever e consumir dados estatísticos, expostos como triplas RDF, mas armazenados em bancos de dados relacionais. Uma das características desta mediação é o Catálogo de Descrições de Cubos de Dados Interligados, que vai ser descrito em detalhes na dissertação. Este catálogo contém uma descrição padronizada em RDF para cada cubo de dados, que está realmente armazenado em cada banco de dados (relacional). Portanto, a principal discussão nesta dissertação é sobre a forma de representar em RDF cubos representando dados estatísticos e armazenados em bancos de dados relacionais, ou seja, como mapear os conceitos de banco de dados para RDF de uma forma em que seja fácil consultar, analisar e reutilizar dados estatísticos no formato RDF. / [en] Statistical Data are considered one of the major sources of information and are essential in many fields as they can work as social and economic indicators. A statistical data set comprises a colletion of observations made at some points of a logical space and is often organized as what is called a data cube. The proper definition of the data cubes, especially of theis dimensions, helps processing the observations and, more importantly, helps combining observations from different data cubes. In this contexto, the Linked Data principles can be profitably applied to the definition of data cubes, in the sense that the principles offer a strategy to provide the missing semantics of the dimensions, including their values.
This dissertion first describes a mediation architecture to help describing and consuming statistical data, exposed as RDFtriples, but stored in relational databases. One of the features of this architesture is the Catalogue of Linked Data Cube Descriptions, which is described in detail in the dissertation. This catalogue has a standardized description in RDF of each data cube actually stored in statistical (relational) databases. Therefore, the main discussion in this dissertation is how to represent the data cubes in RDF, i.e., how to map the database concepts to RDF in a way that makes it easy to query, analyze and reuse statistical data in the RDF format.
|
43 |
[en] STARTUP FLOW OF GELLED CRUDES AFTER A SHUTDOWN: COMPARISON BETWEEN SIMULATIONS AND EXPERIMENTAL DATA / [pt] REINÍCIO DE ESCOAMENTO DE ÓLEOS GELIFICADOS APÓS PARADA DE PRODUÇÃO: COMPARAÇÃO ENTRE SIMULAÇÕES E DADOS EXPERIMENTAISDENISE DINIZ SOUTO LIMA 14 May 2019 (has links)
[pt] Uma preocupação constante referente às operações de reinício de escoamento em poços produtores de óleo é a previsibilidade da mínima pressão necessária para iniciar o fluxo após uma parada de produção. Tal pressão se refere àquela que promove tensões de cisalhamento junto à parede do duto que superam o valor da tensão limite de escoamento do referido fluido. A necessidade de desenvolvimento de diferentes tipos de campos de petróleo ao redor do mundo tem promovido discussões sobre importantes aspectos de garantia de escoamento dos fluidos, especialmente em cenários de produção em águas ultra-profundas. Nesses casos, quando o fluido apresenta valores elevados para a temperatura mínima de aparecimento de cristais (TIAC) ou ainda para a tensão limite de escoamento, o procedimento de repartida de poço após uma parada de produção pode representar um problema. Em geral, os modelos tixotrópicos utilizados na avaliação de reinício do escoamento são definidos por uma equação constitutiva baseada no modelo de Bingham, na qual a tensão de cisalhamento depende do grau de estruturação do fluido no interior do duto, representado por um parâmetro adimensional positivo (lambda). A evolução deste parâmetro no tempo é governada por uma equação constitutiva que considera um termo de construção e um termo de quebra do gel. Este trabalho tem como principal objetivo avaliar o comportamento do reinício da produção através da variação destes parâmetros/termos segundo modelos tixotrópicos específicos (Houska e SMT) e a representatividade dos resultados de simulação quando comparados aos dados experimentais. / [en] The main concern regarding to the restart operations for production wells in oil and gas systems is the forecast of minimum pressure needed to overcome the gel strength, i.e. the pressure which generates a wall stress higher than the yield stress of the gelled oil. The petroleum accumulations around the world have raised big issues regarding flow assurance aspects, especially in some ultra-deep water scenarios. In these cases, when the oil presents unusual high values for the Wax Appearance Temperature (WAT) and even for the yield stress, the flow restart procedure can be an issue, after shutdown times of the oil production. Usually, the thixotropic models applied for start-up flow are defined by a Bingham-like stress equation whose yield stress depends on a structure parameter (lambda), following Houska assumptions. This parameter is a non-negative scalar number that represents the structuring level of the material inside the pipeline. The structure parameter is governed by an evolution equation that considers a build-up term and a breakdown term. The main objective of this work is to evaluate the relationship between the parameters of the constitutive equations for Houska and SMT models (dimensionless coefficients of the evolution equations for the structure parameter) and the representativeness of the simulation results obtained by these models, regarding times for the production stabilization after a restart, delay times and yield stresses, when compared to experimental data.
|
44 |
[en] VOLUME VISUALIZATION OF HORIZONS IN 3-D SEISMIC DATA / [pt] VISUALIZAÇÃO VOLUMÉTRICA DE HORIZONTES EM DADOS SÍSMICOS 3DPEDRO MARIO CRUZ E SILVA 10 January 2005 (has links)
[pt] Neste trabalho apresentamos os aspectos da visualização
volumétrica de horizontes em dados sísmicos 3D.
Consideramos as abordagens de visualização volumétrica
direta e indireta. Na abordagem direta investigamos o
problema da seleção de horizontes usando funções de
transferência. Apresentamos a técnica de opacidade 2D, que
busca aumentar a capacidade de seleção dos horizontes para
visualização. Comparamos a utilização dos atributos de
fase instantânea, fase ajustada e fase desenrolada como
segunda dimensão, enquanto a primeira é a amplitude
sísmica. Ainda na abordagem direta, mostramos que o
gradiente da amplitude sísmica não aproxima bem os vetores
normais nos horizontes sísmicos. Sugerimos o gradiente da
fase instantânea como solução para este problema. Na
abordagem de visualização volumétrica indireta
introduzimos uma modelagem de otimização para o problema
de rastreamento de horizontes. Sugerimos um método
heurístico baseado em uma estratégia gulosa para encontrar
soluções que são boas aproximações para os horizontes
mesmo na presença de estruturas geológicas complexas. / [en] This work presents aspects of volume visualization of
seismic horizons in 3-D seismic data. We consider both the
direct and indirect approaches of volume visualization. In
the direct approach we investigate the problem of selecting
horizons using transfer functions. We present the 2-D
opacity technique, which seeks to increase the ability to
select horizons for visualization. We compare the use of
instantaneous phase, adjusted phase and unwrapped phase as
the second dimension, while seismic amplitude is the first
dimension. Also in the direct approach, we show that the
seismic amplitude gradient is not a good approximation for
the normal vectors in seismic horizons. We suggest the
gradient of instantaneous phase as a solution to this
problem. In the indirect volume visualization approach we
introduce a new optimization model to overcome the seismic
horizon tracking problem. We present a heuristic method
based on a greedy strategy to find solutions that are good
approximations of the horizon of interest, even for
complex geological structures.
|
45 |
[en] AN APPROACH TO THE CONNECTIVITY PROBLEM IN MULTILATERAL IOT PLATFORMS / [pt] UMA ABORDAGEM PARA O PROBLEMA DE CONECTIVIDADE EM PLATAFORMAS MULTILATERAIS DE IOTLUIZ GUILHERME DE OLIVEIRA PITTA 31 July 2018 (has links)
[pt] A popularização da Internet das Coisas (IoT) abriu uma série de oportuni-dades para a geração de novas aplicações que não eram possíveis anteriormente. No cenário atual de IoT existem marketplaces que vendem soluções completas para os clientes com objetos inteligentes, gateways para a transmissão dos dados e provedores que analisam estes por uma taxa de assinatura. Partimos da visão de que no futuro deverá ocorrer uma uberização de IoT, onde cada pessoa poderá oferecer dados de sensores e acesso a atuadores para outra e que eles estarão categorizados com base no QoS dos objetos que os fornecem, similarmente como são classificadas commodities hoje. Além disso, haverá plataformas multilaterais onde essas informações poderão ser negociadas em combinação com provedores de conectividade, para transmitir os dados, e de análise. Uma plataforma que fornece esse serviço deve garantir que o fluxo de dados (e do estado) de objetos seja contínuo, sem expor para o cliente algum problema de conectividade entre eles e os provedores. Ou seja, ela deve ter mecanismos para detectá-los e rapidamente selecionar novos provedores, isso dentro de um cenário de intensa troca de dados. Este trabalho apresenta como contribuições um mecanismo de detecção contínuo de problemas de conectividade que utiliza o paradigma Publish-Subscribe para o envio de mensagens de identificação de problemas e uma solução arquitetural de uma plataforma baseada em conceitos de marketplaces para IoT, que inclui os serviços de comoditização dos provedores de serviço e o matchmaking para selecionar uma combinação destes para prestar serviços para o cliente. Um estudo de caso no domínio de marketplaces é conduzido, com a análise dos serviços da plataforma em vários cenários de testes e a avaliação do mecanismo de detecção de problemas de conectividade, com a simulação de diferentes falhas na conexão. / [en] The popularization of the Internet of Things (IoT) opened up a series of opportunities for the generation of new applications that were not previously possible. In the current scenario of IoT there are marketplaces that sell complete solutions for users with smart objects, gateways for data transmission and providers that analyze these for a subscription fee. We start from the view that in the future an uberization of IoT should occur, where each person can offer sensor data and access to actuators to another and that they will be categorized based on the QoS of the objects that provide them, similarly as commodities are classified today. In addition, there will be multilateral platforms where this information can be negotiated in combination with connectivity providers, to transmit data, and analytics. A platform that provides this service must ensure that the data (and state) flow of objects is continuous, without exposing to the user any connectivity problems between them and the providers. That is, it must have mechanisms to detect problems and quickly select new providers, all this in a scenario of intense data exchange. This work presents as contributions a continuous connectivity problem detection mechanism that uses a Publish-Subscribe paradigm to send problem identification messages and an architectural solution of a platform based on marketplaces concepts for IoT, which includes the commoditization of service providers and a matchmaking service to select a combination of these to provide services to the customer. A case study in the domain of marketplaces is conducted, with the analysis of the services of the platform with several tests scenarios and the evaluation of the mechanism of detection of connectivity problems, with the simulation of different connection failures.
|
46 |
[en] DCD TOOL: A TOOLKIT FOR THE DISCOVERY AND TRIPLIFICATION OF STATISTICAL DATA CUBES / [pt] DCD TOOL: UM CONJUNTO DE FERRAMENTAS PARA DESCOBERTA E TRIPLIFICAÇÃO DE CUBOS DE DADOS ESTATÍSTICOSSERGIO RICARDO BATULI MAYNOLDI ORTIGA 07 July 2015 (has links)
[pt] A produção de indicadores sociais e sua disponibilização na Web é uma importante iniciativa de democratização e transparência que os governos em todo mundo vêm realizando nas últimas duas décadas. No Brasil diversas instituições governamentais ou ligadas ao governo publicam indicadores relevantes para acompanhamento do desempenho do governo nas áreas de saúde, educação, meio ambiente entre outras. O acesso, a consulta e a correlação destes dados demanda grande esforço, principalmente, em um cenário que envolve diferentes organizações. Assim, o desenvolvimento de ferramentas com foco na integração e disponibilização das informações de tais bases, torna-se um esforço relevante. Outro aspecto que se destaca no caso particular do Brasil é a dificuldade em se identificar dados estatísticos dentre outros tipos de dados armazenados no mesmo banco de dados. Esta dissertação propõe um arcabouço de software que cobre a identificação das bases de dados estatísticas no banco de dados de origem e o enriquecimento de seus metadados utilizando ontologias padronizadas pelo W3C, como base para o processo de triplificação. / [en] The production of social indicators and their availability on the Web is an important initiative for the democratization and transparency that governments have been doing in the last two decades. In Brazil, several government or government-linked institutions publish relevant indicators to help assess the government performance in the areas of health, education, environment and others. The access, query and correlation of these data demand substantial effort, especially in a scenario involving different organizations. Thus, the development of tools, with a focus on the integration and availability of information stored in such bases, becomes a significant effort. Another aspect that requires attention, in the case of Brazil, is the difficulty in identifying statistical databases among others type of data that share the same database. This dissertation proposes a software framework which covers the identification of statistical data in the database of origin and the enrichment of their metadata using W3C standardized ontologies, as a basis for the triplification process.
|
47 |
[en] DISTRIBUTIONS OF RETURNS, VOLATILITIES AND CORRELATIONS IN THE BRAZILIAN STOCK MARKET / [pt] DISTRIBUIÇÕES DE RETORNOS, VOLATILIDADES E CORRELAÇÕES NO MERCADO ACIONÁRIO BRASILEIROMARCO AURELIO SIMAO FREIRE 24 February 2005 (has links)
[pt] A hipótese de normalidade é comumente utilizada na área de
análise de risco para descrever as distribuições dos
retornos padronizados pelas volatilidades. No entanto,
utilizando cinco dos ativos mais líquidos na Bovespa, este
trabalho mostra que tal hipótese não é compatível com
medidas de volatilidades estimadas pela metodologia EWMA ou
modelos GARCH. Em contraposição, ao extrair a informação
contida em cotações intradiárias, a metodologia de
volatilidade realizada origina retornos padronizados
normais, potencializando ganhos no cálculo de medidas de
Valor em Risco. Além disso, são caracterizadas as
distribuições de volatilidades e correlações de ativos
brasileiros e, em especial, mostra-se que as distribuições
das volatilidades são aproximadamente lognormais, enquanto
as distribuições das correlações são aproximadamente
normais. A análise é feita tanto de um ponto de vista
univariado quanto multivariado e fornece subsídio para a
melhor modelagem de variâncias e correlações em um contexto
de grande dimensionalidade. / [en] The normality assumption is commonly used in the risk
management area to describe the distributions of returns
standardized by volatilities. However, using five of the
most actively traded stocks in Bovespa, this paper shows
that this assumption is not compatible with volatilities
estimated by EWMA or GARCH models. In sharp contrast, when
we use the information contained in high frequency data to
construct the realized volatilies measures, we attain the
normality of the standardized returns, giving promise of
improvements in Value at Risk statistics. We also describe
the distributions of volatilities and correlations of the
brazilian stocks, showing that the distributions of
volatilities are nearly lognormal and the distribuitions of
correlations are nearly Gaussian. All analysis is traced
both in a univariate and a multivariate framework and
provides background for improved high-dimensional
volatility and correlation modelling in the brazilian stock
market.
|
48 |
[en] CLUSTERING AND VISUALIZATION OF SEISMIC DATA USING VECTOR QUANTIZATION / [pt] AGRUPAMENTO E VISUALIZAÇÃO DE DADOS SÍSMICOS ATRAVÉS DE QUANTIZAÇÃO VETORIALERNESTO MARCHIONI FLECK 28 April 2005 (has links)
[pt] Nesta tese é proposto um novo método de agrupamento de
dados sísmicos
para a visualização em mapas sísmicos. Os dados sísmicos
(sinal + ruído) têm
distribuições assimétricas. A classificação dos dados
sísmicos é, atualmente,
realizada através de métodos que induzem as referências dos
grupos propostos às
suas médias. No entanto, a média é sensível aos ruídos e
aos outliers e as
classificações com este estimador estão sujeitas a
distorções nos resultados.
Embora outros trabalhos sugiram o uso da mediana nos casos
em que as
distribuições são assimétricas - devido ao fato deste
estimador ser robusto aos
ruídos e aos outliers - em nenhum foi encontrado um método
que induza as
referências dos grupos propostos às medianas no tratamento
dos dados sísmicos.
O método proposto incluí um algoritmo que induz as
referências dos grupos
propostos às suas medianas. O tratamento iterativo dos
dados sísmicos através da
aplicação de uma função não linear adequada ao gradiente
descendente gera
resultados cujos erros médios quadráticos são inferiores
aos dos resultados dos
métodos que induzem à média. Um parâmetro existente no
algoritmo, a constante
de não linearidade, determina a maneira como os dados são
induzidos, a partir da
média, na direção da mediana. A convergência aos resultados
requer poucas
iterações no método proposto. O método proposto é uma
ferramenta para o
dimensionamento de reservatórios de petróleo e serve para a
determinação de
diferenças entre as propriedades de estruturas geológicas
similares. / [en] This thesis suggests the use of a new method of seismic
data clustering that
can aid in the visualization of seismic maps. Seismic data
are primarily made of
signal and noise and, due to its dual composition, have
asymmetric distributions.
Seismic data are traditionally classified by methods that
lead the proposed groups`
references to their mean values. The mean value is,
however, sensitive to noise
and outliers and the classification methods that make use
of this estimator are,
consequently, subjected to generating distorted results.
Although other works
have suggested the use of the median in cases where the
distributions are
asymmetric - due to the fact that the estimator is robust
with respect to noise and
outliers - none have proposed a method that would lead the
groups` references to
the median while treating seismic data. The method proposed
in this work
includes, therefore, an algorithm that leads the groups`
references to their
medians. The iterative treatment of seismic data through
the use of a non-linear
function that is adequate for the gradient descent
generates results with meansquare
errors inferior to those of results generated by the use of
the mean value.
The algorithm`s non- linearity constant determines how the
seismic data are led
from the mean value towards the median. The proposed method
requires little
iteration for the results to converge. The proposed method
can, therefore, be used
as a tool in the sizing of petroleum reservoirs and can
also be used to determine
the differences between similar geological structures.
|
49 |
[en] OLAP2DATACUBE: AN ON-DEMAND TRANSFORMATION FRAMEWORK FROM OLAP TO RDF DATA CUBES / [pt] OLAP2DATACUBE: UM FRAMEWORK PARA TRANSFORMAÇÕES EM TEMPO DE EXECUÇÃO DE OLAP PARA CUBOS DE DADOS EM RDFPERCY ENRIQUE RIVERA SALAS 13 April 2016 (has links)
[pt] Dados estatísticos são uma das mais importantes fontes de informações,
relevantes para um grande número de partes interessadas nos domínios governamentais, científicos e de negócios. Um conjunto de dados estatísticos compreende uma coleção de observações feitas em alguns pontos através de um espaço lógico e muitas vezes é organizado como cubos de dados. A definição
adequada de cubos de dados, especialmente das suas dimensões, ajuda a processar
as observações e, mais importante, ajuda a combinar observações de
diferentes cubos de dados. Neste contexto, os princípios de Linked Data podem
ser proveitosamente aplicados na definição de cubos de dados, no sentido de
que os princípios oferecem uma estratégia para fornecer a semântica ausentes
nas dimensões, incluindo os seus valores. Nesta tese, descrevemos o processo e
a implementação de uma arquitetura de mediação, chamada OLAP2DataCube
On Demand Framework, que ajuda a descrever e consumir dados estatísticos,
expostos como triplas RDF, mas armazenados em bancos de dados relacionais.
O Framework possui um catálogo de descrições de Linked Data Cubes, criado
de acordo com os princípios de Linked Data. O catálogo tem uma descrição
padronizada para cada cubo de dados armazenado em bancos de dados (relacionais)
estatísticos conhecidos pelo Framework. O Framework oferece uma interface
para navegar pelas descrições dos Linked Data Cubes e para exportar os
cubos de dados como triplas RDF geradas por demanda a partir das fontes de
dados subjacentes. Também discutimos a implementação de operações sofisticadas
de busca de metadados, operações OLAP em cubo de dados, tais como
slice e dice, e operações de mashup sofisticadas de cubo de dados que criam
novos cubos através da combinação de outros cubos. / [en] Statistical data is one of the most important sources of information,
relevant to a large number of stakeholders in the governmental, scientific
and business domains alike. A statistical data set comprises a collection of
observations made at some points across a logical space and is often organized
as what is called a data cube. The proper definition of the data cubes,
especially of their dimensions, helps processing the observations and, more
importantly, helps combining observations from different data cubes. In this
context, the Linked Data principles can be profitably applied to the definition
of data cubes, in the sense that the principles offer a strategy to provide the
missing semantics of the dimensions, including their values. In this thesis we
describe the process and the implementation of a mediation architecture, called
OLAP2DataCube On Demand, which helps describe and consume statistical
data, exposed as RDF triples, but stored in relational databases. The tool
features a catalogue of Linked Data Cube descriptions, created according to the
Linked Data principles. The catalogue has a standardized description for each
data cube actually stored in each statistical (relational) database known to the
tool. The tool offers an interface to browse the linked data cube descriptions
and to export the data cubes as RDF triples, generated on demand from the
underlying data sources. We also discuss the implementation of sophisticated
metadata search operations, OLAP data cube operations, such as slice and
dice, and data cube mashup operations that create new cubes by combining
other cubes.
|
50 |
[pt] ANÁLISE DE MATURIDADE EM BUSINESS INTELLIGENCE COMO FATOR DE CRIAÇÃO DE VANTAGEM COMPETITIVA E MELHORIA DE PERFORMANCE: ESTUDO DE CASO EM UMA EMPRESA DO SETOR FARMACÊUTICO / [en] MATURITY ANALYSIS IN BUSINESS INTELLIGENCE AS A FACTOR CREATING COMPETITIVE ADVANTAGE AND PERFORMANCE IMPROVEMENT: CASE STUDY IN A COMPANY IN THE PHARMACEUTICAL SECTORGABRIEL LOURENCO S DOS SANTOS 25 May 2023 (has links)
[pt] O presente trabalho tem como objetivo analisar a percepção de uma amostra
de funcionários, de diferentes departamentos e cargos, sobre o estágio de
maturidade em Business Intelligence de uma empresa do setor farmacêutico.
Posteriormente, pretende-se entender a relação entre a percepção de maturidade, e
a percepção do potencial de criação de vantagem competitiva e melhoria na
performance da empresa que a adoção de Business Intelligence pode trazer. Para
atingir ao objetivo foram realizadas uma pesquisa via survey com 32 respondentes,
para coletar sua percepção de maturidade da empresa em cinco dimensões de
maturidade: Organização, Infraestrutura, Gestão de Dados, Análise e Governance a
fim de enquadrar a empresa dentro de um estágio. Além disso, foram incluídas nos
questionários perguntas relacionadas a percepção de criação de vantagem
competitiva e melhoria de performance. A fim de entender melhor os resultados
para posteriormente criar uma proposta de plano de melhoria para que a empresa
avançasse no modelo, foram realizadas entrevistas em profundidade com quatro
respondentes e uma análise de regressão com o objetivo de entender melhor a
relação entre as variáveis. O trabalho delimitou-se em estudar a empresa no
momento atual sem que fosse feito um acompanhamento da evolução ao longo do
tempo, pesquisou apenas uma empresa do setor farmacêutico baseada no Brasil
limitando comparações com benchmarkings entre países e setores. Além disso, o
fato de o pesquisador conhecer e ser funcionário da mesma empresa dos
respondentes pode ter gerado desconforto em parte deles, gerando possíveis vieses
nas respostas. Com os resultados da pesquisa somados as melhores práticas de BI
trazidas no referencial teórico, foi traçada uma proposta com um plano de melhoria
que se implementado, acredita-se, que pode levar a empresa a avançar no estágio
de maturidade. / [en] The objective of this work is to analyze the perception of a sample of
employees, from different departments and positions, about the stage of maturity in
Business Intelligence of a company in the pharmaceutical sector. Subsequently, we
intend to understand the relationship between the perception of maturity and the
perception of the potential for creating competitive advantage and improving the
company s performance that the adoption of Business Intelligence can trace. To
achieve the objective, a survey was carried out with 32 respondents, to collect their
perception of the company s maturity in five dimensions of maturity: Organization,
Infrastructure, Data Management, Analysis and Governance to frame the company
within a stage. In addition, the questionnaires included questions related to the
perception of creating competitive advantage and improving performance. In order
to better understand the results to later create a better plan proposal for the company
to move forward in the model, we conducted in-depth interviews with four
respondents and a regression analysis in order to better understand the relationship
between the variables. The work is limited to studying the company today without
having followed the evolution over time, researching only one company in the
pharmaceutical sector based in Brazil, limiting comparisons with benchmarking
between countries and sectors. Also, the fact that the researcher knows and is an
employee of the same company two interviewees could cause discomfort on their
part, generating the possibility of viewing the answers. With the research results
added to the best BI practices developed without theoretical reference, a proposal
was elaborated with a better plan that has been imple mented, it is proven,
that can lead the company to advance in its maturity stage.
|
Page generated in 1.4138 seconds