• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 20
  • Tagged with
  • 56
  • 56
  • 55
  • 13
  • 10
  • 10
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

[en] W-RAY: AN APPROACH TO THE DEEP WEB DATA PUBLICATION / [pt] W-RAY: UMA ABORDAGEM PARA PUBLICAÇÃO DE DADOS DA DEEP WEB

HELENA SERRAO PICCININI 29 September 2014 (has links)
[pt] Deep Web é composta por dados armazenados em bases de dados, páginas dinâmicas, páginas com scripts e dados multimídia, dentre outros tipos de objetos. Os bancos de dados da Deep Web são geralmente sub-representados pelos motores de busca, devido aos desafios técnicos de localizar, acessar e indexar seus dados. A utilização de hyperlinks pelos motores de busca não é suficente para alcançar todos os dados da Deep Web, exigindo interação com interfaces de consultas complexas. Esta tese apresenta uma abordagem, denominada W-Ray, capaz de fornecer visibilidade aos dados da Deep Web. A abordagem baseia-se na descrição dos dados relevantes através de sentenças bem estruturadas, e na publicação dessas sentenças em páginas estáticas da Web. As sentenças podem ser geradas com RDFa embutido, mantendo a semântica do banco de dados. As páginas da Web assim geradas são passíveis de ser indexadas pelos motores de coleta de dados tradicionais e por motores mais sofisticados que suportam busca semântica. É apresentada também uma ferramenta que apóia a abordagem W-Ray. A abordagem foi implementada com sucesso para diferentes bancos de dados reais. / [en] The Deep Web comprises data stored in databases, dynamic pages, scripted pages and multimedia data, among other types of objects. The databases of the Deep Web are generally underrepresented by the search engines due to the technical challenges of locating, accessing and indexing them. The use of hyperlinks by search engines is not sufficient to achieve all the Deep Web data, requiring interaction with complex queries interfaces. This thesis presents an approach, called W-Ray, that provides visibility to Deep Web data. The approach relies on describing the relevant data through well-structured sentences, and on publishing the sentences as static Web pages. The sentences can be generated with embedded RDFa, keeping the semantics of the database. The Web pages thus generated are indexed by traditional Web crawlers and sophisticated crawlers that support semantic search. It is also presented a tool that supports the W-Ray approach. The approach has been successfully implemented for some real databases.
42

[en] CATALOGUE OF LINKED DATA CUBE DESCRIPTIONS / [pt] CATÁLOGO DE DESCRIÇÕES DE CUBOS DE DADOS INTERLIGADOS

SOFIA RIBEIRO MANSO DE ABREU E SILVA 06 November 2014 (has links)
[pt] Dados estatísticos são considerados uma das principais fontes de informação e são essenciais em muitos campos, uma vez que podem funcionar como indicadores sociais e econômicos. Um conjunto de dados estatísticos compreende um conjunto de observações feitas em determinados pontos de um espaço lógico e é muitas vezes organizado como o que se chama de cubo de dados. A definição correta dos cubos de dados, especialmente das suas dimensões, ajuda a processar as observações e, mais importante, ajuda a combinar as observações de diferentes cubos de dados. Neste contexto, os princípios de Linked Data podem ser proveitosamente aplicados à definição de cubos de dados, no sentido de que os princípios oferecem uma estratégia para proporcionar a semântica ausentes das suas dimensões, incluindo os seus valores. Esta dissertação descreve inicialmente uma arquitetura de mediação para ajudar a descrever e consumir dados estatísticos, expostos como triplas RDF, mas armazenados em bancos de dados relacionais. Uma das características desta mediação é o Catálogo de Descrições de Cubos de Dados Interligados, que vai ser descrito em detalhes na dissertação. Este catálogo contém uma descrição padronizada em RDF para cada cubo de dados, que está realmente armazenado em cada banco de dados (relacional). Portanto, a principal discussão nesta dissertação é sobre a forma de representar em RDF cubos representando dados estatísticos e armazenados em bancos de dados relacionais, ou seja, como mapear os conceitos de banco de dados para RDF de uma forma em que seja fácil consultar, analisar e reutilizar dados estatísticos no formato RDF. / [en] Statistical Data are considered one of the major sources of information and are essential in many fields as they can work as social and economic indicators. A statistical data set comprises a colletion of observations made at some points of a logical space and is often organized as what is called a data cube. The proper definition of the data cubes, especially of theis dimensions, helps processing the observations and, more importantly, helps combining observations from different data cubes. In this contexto, the Linked Data principles can be profitably applied to the definition of data cubes, in the sense that the principles offer a strategy to provide the missing semantics of the dimensions, including their values. This dissertion first describes a mediation architecture to help describing and consuming statistical data, exposed as RDFtriples, but stored in relational databases. One of the features of this architesture is the Catalogue of Linked Data Cube Descriptions, which is described in detail in the dissertation. This catalogue has a standardized description in RDF of each data cube actually stored in statistical (relational) databases. Therefore, the main discussion in this dissertation is how to represent the data cubes in RDF, i.e., how to map the database concepts to RDF in a way that makes it easy to query, analyze and reuse statistical data in the RDF format.
43

[en] STARTUP FLOW OF GELLED CRUDES AFTER A SHUTDOWN: COMPARISON BETWEEN SIMULATIONS AND EXPERIMENTAL DATA / [pt] REINÍCIO DE ESCOAMENTO DE ÓLEOS GELIFICADOS APÓS PARADA DE PRODUÇÃO: COMPARAÇÃO ENTRE SIMULAÇÕES E DADOS EXPERIMENTAIS

DENISE DINIZ SOUTO LIMA 14 May 2019 (has links)
[pt] Uma preocupação constante referente às operações de reinício de escoamento em poços produtores de óleo é a previsibilidade da mínima pressão necessária para iniciar o fluxo após uma parada de produção. Tal pressão se refere àquela que promove tensões de cisalhamento junto à parede do duto que superam o valor da tensão limite de escoamento do referido fluido. A necessidade de desenvolvimento de diferentes tipos de campos de petróleo ao redor do mundo tem promovido discussões sobre importantes aspectos de garantia de escoamento dos fluidos, especialmente em cenários de produção em águas ultra-profundas. Nesses casos, quando o fluido apresenta valores elevados para a temperatura mínima de aparecimento de cristais (TIAC) ou ainda para a tensão limite de escoamento, o procedimento de repartida de poço após uma parada de produção pode representar um problema. Em geral, os modelos tixotrópicos utilizados na avaliação de reinício do escoamento são definidos por uma equação constitutiva baseada no modelo de Bingham, na qual a tensão de cisalhamento depende do grau de estruturação do fluido no interior do duto, representado por um parâmetro adimensional positivo (lambda). A evolução deste parâmetro no tempo é governada por uma equação constitutiva que considera um termo de construção e um termo de quebra do gel. Este trabalho tem como principal objetivo avaliar o comportamento do reinício da produção através da variação destes parâmetros/termos segundo modelos tixotrópicos específicos (Houska e SMT) e a representatividade dos resultados de simulação quando comparados aos dados experimentais. / [en] The main concern regarding to the restart operations for production wells in oil and gas systems is the forecast of minimum pressure needed to overcome the gel strength, i.e. the pressure which generates a wall stress higher than the yield stress of the gelled oil. The petroleum accumulations around the world have raised big issues regarding flow assurance aspects, especially in some ultra-deep water scenarios. In these cases, when the oil presents unusual high values for the Wax Appearance Temperature (WAT) and even for the yield stress, the flow restart procedure can be an issue, after shutdown times of the oil production. Usually, the thixotropic models applied for start-up flow are defined by a Bingham-like stress equation whose yield stress depends on a structure parameter (lambda), following Houska assumptions. This parameter is a non-negative scalar number that represents the structuring level of the material inside the pipeline. The structure parameter is governed by an evolution equation that considers a build-up term and a breakdown term. The main objective of this work is to evaluate the relationship between the parameters of the constitutive equations for Houska and SMT models (dimensionless coefficients of the evolution equations for the structure parameter) and the representativeness of the simulation results obtained by these models, regarding times for the production stabilization after a restart, delay times and yield stresses, when compared to experimental data.
44

[en] VOLUME VISUALIZATION OF HORIZONS IN 3-D SEISMIC DATA / [pt] VISUALIZAÇÃO VOLUMÉTRICA DE HORIZONTES EM DADOS SÍSMICOS 3D

PEDRO MARIO CRUZ E SILVA 10 January 2005 (has links)
[pt] Neste trabalho apresentamos os aspectos da visualização volumétrica de horizontes em dados sísmicos 3D. Consideramos as abordagens de visualização volumétrica direta e indireta. Na abordagem direta investigamos o problema da seleção de horizontes usando funções de transferência. Apresentamos a técnica de opacidade 2D, que busca aumentar a capacidade de seleção dos horizontes para visualização. Comparamos a utilização dos atributos de fase instantânea, fase ajustada e fase desenrolada como segunda dimensão, enquanto a primeira é a amplitude sísmica. Ainda na abordagem direta, mostramos que o gradiente da amplitude sísmica não aproxima bem os vetores normais nos horizontes sísmicos. Sugerimos o gradiente da fase instantânea como solução para este problema. Na abordagem de visualização volumétrica indireta introduzimos uma modelagem de otimização para o problema de rastreamento de horizontes. Sugerimos um método heurístico baseado em uma estratégia gulosa para encontrar soluções que são boas aproximações para os horizontes mesmo na presença de estruturas geológicas complexas. / [en] This work presents aspects of volume visualization of seismic horizons in 3-D seismic data. We consider both the direct and indirect approaches of volume visualization. In the direct approach we investigate the problem of selecting horizons using transfer functions. We present the 2-D opacity technique, which seeks to increase the ability to select horizons for visualization. We compare the use of instantaneous phase, adjusted phase and unwrapped phase as the second dimension, while seismic amplitude is the first dimension. Also in the direct approach, we show that the seismic amplitude gradient is not a good approximation for the normal vectors in seismic horizons. We suggest the gradient of instantaneous phase as a solution to this problem. In the indirect volume visualization approach we introduce a new optimization model to overcome the seismic horizon tracking problem. We present a heuristic method based on a greedy strategy to find solutions that are good approximations of the horizon of interest, even for complex geological structures.
45

[en] AN APPROACH TO THE CONNECTIVITY PROBLEM IN MULTILATERAL IOT PLATFORMS / [pt] UMA ABORDAGEM PARA O PROBLEMA DE CONECTIVIDADE EM PLATAFORMAS MULTILATERAIS DE IOT

LUIZ GUILHERME DE OLIVEIRA PITTA 31 July 2018 (has links)
[pt] A popularização da Internet das Coisas (IoT) abriu uma série de oportuni-dades para a geração de novas aplicações que não eram possíveis anteriormente. No cenário atual de IoT existem marketplaces que vendem soluções completas para os clientes com objetos inteligentes, gateways para a transmissão dos dados e provedores que analisam estes por uma taxa de assinatura. Partimos da visão de que no futuro deverá ocorrer uma uberização de IoT, onde cada pessoa poderá oferecer dados de sensores e acesso a atuadores para outra e que eles estarão categorizados com base no QoS dos objetos que os fornecem, similarmente como são classificadas commodities hoje. Além disso, haverá plataformas multilaterais onde essas informações poderão ser negociadas em combinação com provedores de conectividade, para transmitir os dados, e de análise. Uma plataforma que fornece esse serviço deve garantir que o fluxo de dados (e do estado) de objetos seja contínuo, sem expor para o cliente algum problema de conectividade entre eles e os provedores. Ou seja, ela deve ter mecanismos para detectá-los e rapidamente selecionar novos provedores, isso dentro de um cenário de intensa troca de dados. Este trabalho apresenta como contribuições um mecanismo de detecção contínuo de problemas de conectividade que utiliza o paradigma Publish-Subscribe para o envio de mensagens de identificação de problemas e uma solução arquitetural de uma plataforma baseada em conceitos de marketplaces para IoT, que inclui os serviços de comoditização dos provedores de serviço e o matchmaking para selecionar uma combinação destes para prestar serviços para o cliente. Um estudo de caso no domínio de marketplaces é conduzido, com a análise dos serviços da plataforma em vários cenários de testes e a avaliação do mecanismo de detecção de problemas de conectividade, com a simulação de diferentes falhas na conexão. / [en] The popularization of the Internet of Things (IoT) opened up a series of opportunities for the generation of new applications that were not previously possible. In the current scenario of IoT there are marketplaces that sell complete solutions for users with smart objects, gateways for data transmission and providers that analyze these for a subscription fee. We start from the view that in the future an uberization of IoT should occur, where each person can offer sensor data and access to actuators to another and that they will be categorized based on the QoS of the objects that provide them, similarly as commodities are classified today. In addition, there will be multilateral platforms where this information can be negotiated in combination with connectivity providers, to transmit data, and analytics. A platform that provides this service must ensure that the data (and state) flow of objects is continuous, without exposing to the user any connectivity problems between them and the providers. That is, it must have mechanisms to detect problems and quickly select new providers, all this in a scenario of intense data exchange. This work presents as contributions a continuous connectivity problem detection mechanism that uses a Publish-Subscribe paradigm to send problem identification messages and an architectural solution of a platform based on marketplaces concepts for IoT, which includes the commoditization of service providers and a matchmaking service to select a combination of these to provide services to the customer. A case study in the domain of marketplaces is conducted, with the analysis of the services of the platform with several tests scenarios and the evaluation of the mechanism of detection of connectivity problems, with the simulation of different connection failures.
46

[en] DCD TOOL: A TOOLKIT FOR THE DISCOVERY AND TRIPLIFICATION OF STATISTICAL DATA CUBES / [pt] DCD TOOL: UM CONJUNTO DE FERRAMENTAS PARA DESCOBERTA E TRIPLIFICAÇÃO DE CUBOS DE DADOS ESTATÍSTICOS

SERGIO RICARDO BATULI MAYNOLDI ORTIGA 07 July 2015 (has links)
[pt] A produção de indicadores sociais e sua disponibilização na Web é uma importante iniciativa de democratização e transparência que os governos em todo mundo vêm realizando nas últimas duas décadas. No Brasil diversas instituições governamentais ou ligadas ao governo publicam indicadores relevantes para acompanhamento do desempenho do governo nas áreas de saúde, educação, meio ambiente entre outras. O acesso, a consulta e a correlação destes dados demanda grande esforço, principalmente, em um cenário que envolve diferentes organizações. Assim, o desenvolvimento de ferramentas com foco na integração e disponibilização das informações de tais bases, torna-se um esforço relevante. Outro aspecto que se destaca no caso particular do Brasil é a dificuldade em se identificar dados estatísticos dentre outros tipos de dados armazenados no mesmo banco de dados. Esta dissertação propõe um arcabouço de software que cobre a identificação das bases de dados estatísticas no banco de dados de origem e o enriquecimento de seus metadados utilizando ontologias padronizadas pelo W3C, como base para o processo de triplificação. / [en] The production of social indicators and their availability on the Web is an important initiative for the democratization and transparency that governments have been doing in the last two decades. In Brazil, several government or government-linked institutions publish relevant indicators to help assess the government performance in the areas of health, education, environment and others. The access, query and correlation of these data demand substantial effort, especially in a scenario involving different organizations. Thus, the development of tools, with a focus on the integration and availability of information stored in such bases, becomes a significant effort. Another aspect that requires attention, in the case of Brazil, is the difficulty in identifying statistical databases among others type of data that share the same database. This dissertation proposes a software framework which covers the identification of statistical data in the database of origin and the enrichment of their metadata using W3C standardized ontologies, as a basis for the triplification process.
47

[en] DISTRIBUTIONS OF RETURNS, VOLATILITIES AND CORRELATIONS IN THE BRAZILIAN STOCK MARKET / [pt] DISTRIBUIÇÕES DE RETORNOS, VOLATILIDADES E CORRELAÇÕES NO MERCADO ACIONÁRIO BRASILEIRO

MARCO AURELIO SIMAO FREIRE 24 February 2005 (has links)
[pt] A hipótese de normalidade é comumente utilizada na área de análise de risco para descrever as distribuições dos retornos padronizados pelas volatilidades. No entanto, utilizando cinco dos ativos mais líquidos na Bovespa, este trabalho mostra que tal hipótese não é compatível com medidas de volatilidades estimadas pela metodologia EWMA ou modelos GARCH. Em contraposição, ao extrair a informação contida em cotações intradiárias, a metodologia de volatilidade realizada origina retornos padronizados normais, potencializando ganhos no cálculo de medidas de Valor em Risco. Além disso, são caracterizadas as distribuições de volatilidades e correlações de ativos brasileiros e, em especial, mostra-se que as distribuições das volatilidades são aproximadamente lognormais, enquanto as distribuições das correlações são aproximadamente normais. A análise é feita tanto de um ponto de vista univariado quanto multivariado e fornece subsídio para a melhor modelagem de variâncias e correlações em um contexto de grande dimensionalidade. / [en] The normality assumption is commonly used in the risk management area to describe the distributions of returns standardized by volatilities. However, using five of the most actively traded stocks in Bovespa, this paper shows that this assumption is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when we use the information contained in high frequency data to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities and correlations of the brazilian stocks, showing that the distributions of volatilities are nearly lognormal and the distribuitions of correlations are nearly Gaussian. All analysis is traced both in a univariate and a multivariate framework and provides background for improved high-dimensional volatility and correlation modelling in the brazilian stock market.
48

[en] CLUSTERING AND VISUALIZATION OF SEISMIC DATA USING VECTOR QUANTIZATION / [pt] AGRUPAMENTO E VISUALIZAÇÃO DE DADOS SÍSMICOS ATRAVÉS DE QUANTIZAÇÃO VETORIAL

ERNESTO MARCHIONI FLECK 28 April 2005 (has links)
[pt] Nesta tese é proposto um novo método de agrupamento de dados sísmicos para a visualização em mapas sísmicos. Os dados sísmicos (sinal + ruído) têm distribuições assimétricas. A classificação dos dados sísmicos é, atualmente, realizada através de métodos que induzem as referências dos grupos propostos às suas médias. No entanto, a média é sensível aos ruídos e aos outliers e as classificações com este estimador estão sujeitas a distorções nos resultados. Embora outros trabalhos sugiram o uso da mediana nos casos em que as distribuições são assimétricas - devido ao fato deste estimador ser robusto aos ruídos e aos outliers - em nenhum foi encontrado um método que induza as referências dos grupos propostos às medianas no tratamento dos dados sísmicos. O método proposto incluí um algoritmo que induz as referências dos grupos propostos às suas medianas. O tratamento iterativo dos dados sísmicos através da aplicação de uma função não linear adequada ao gradiente descendente gera resultados cujos erros médios quadráticos são inferiores aos dos resultados dos métodos que induzem à média. Um parâmetro existente no algoritmo, a constante de não linearidade, determina a maneira como os dados são induzidos, a partir da média, na direção da mediana. A convergência aos resultados requer poucas iterações no método proposto. O método proposto é uma ferramenta para o dimensionamento de reservatórios de petróleo e serve para a determinação de diferenças entre as propriedades de estruturas geológicas similares. / [en] This thesis suggests the use of a new method of seismic data clustering that can aid in the visualization of seismic maps. Seismic data are primarily made of signal and noise and, due to its dual composition, have asymmetric distributions. Seismic data are traditionally classified by methods that lead the proposed groups` references to their mean values. The mean value is, however, sensitive to noise and outliers and the classification methods that make use of this estimator are, consequently, subjected to generating distorted results. Although other works have suggested the use of the median in cases where the distributions are asymmetric - due to the fact that the estimator is robust with respect to noise and outliers - none have proposed a method that would lead the groups` references to the median while treating seismic data. The method proposed in this work includes, therefore, an algorithm that leads the groups` references to their medians. The iterative treatment of seismic data through the use of a non-linear function that is adequate for the gradient descent generates results with meansquare errors inferior to those of results generated by the use of the mean value. The algorithm`s non- linearity constant determines how the seismic data are led from the mean value towards the median. The proposed method requires little iteration for the results to converge. The proposed method can, therefore, be used as a tool in the sizing of petroleum reservoirs and can also be used to determine the differences between similar geological structures.
49

[en] OLAP2DATACUBE: AN ON-DEMAND TRANSFORMATION FRAMEWORK FROM OLAP TO RDF DATA CUBES / [pt] OLAP2DATACUBE: UM FRAMEWORK PARA TRANSFORMAÇÕES EM TEMPO DE EXECUÇÃO DE OLAP PARA CUBOS DE DADOS EM RDF

PERCY ENRIQUE RIVERA SALAS 13 April 2016 (has links)
[pt] Dados estatísticos são uma das mais importantes fontes de informações, relevantes para um grande número de partes interessadas nos domínios governamentais, científicos e de negócios. Um conjunto de dados estatísticos compreende uma coleção de observações feitas em alguns pontos através de um espaço lógico e muitas vezes é organizado como cubos de dados. A definição adequada de cubos de dados, especialmente das suas dimensões, ajuda a processar as observações e, mais importante, ajuda a combinar observações de diferentes cubos de dados. Neste contexto, os princípios de Linked Data podem ser proveitosamente aplicados na definição de cubos de dados, no sentido de que os princípios oferecem uma estratégia para fornecer a semântica ausentes nas dimensões, incluindo os seus valores. Nesta tese, descrevemos o processo e a implementação de uma arquitetura de mediação, chamada OLAP2DataCube On Demand Framework, que ajuda a descrever e consumir dados estatísticos, expostos como triplas RDF, mas armazenados em bancos de dados relacionais. O Framework possui um catálogo de descrições de Linked Data Cubes, criado de acordo com os princípios de Linked Data. O catálogo tem uma descrição padronizada para cada cubo de dados armazenado em bancos de dados (relacionais) estatísticos conhecidos pelo Framework. O Framework oferece uma interface para navegar pelas descrições dos Linked Data Cubes e para exportar os cubos de dados como triplas RDF geradas por demanda a partir das fontes de dados subjacentes. Também discutimos a implementação de operações sofisticadas de busca de metadados, operações OLAP em cubo de dados, tais como slice e dice, e operações de mashup sofisticadas de cubo de dados que criam novos cubos através da combinação de outros cubos. / [en] Statistical data is one of the most important sources of information, relevant to a large number of stakeholders in the governmental, scientific and business domains alike. A statistical data set comprises a collection of observations made at some points across a logical space and is often organized as what is called a data cube. The proper definition of the data cubes, especially of their dimensions, helps processing the observations and, more importantly, helps combining observations from different data cubes. In this context, the Linked Data principles can be profitably applied to the definition of data cubes, in the sense that the principles offer a strategy to provide the missing semantics of the dimensions, including their values. In this thesis we describe the process and the implementation of a mediation architecture, called OLAP2DataCube On Demand, which helps describe and consume statistical data, exposed as RDF triples, but stored in relational databases. The tool features a catalogue of Linked Data Cube descriptions, created according to the Linked Data principles. The catalogue has a standardized description for each data cube actually stored in each statistical (relational) database known to the tool. The tool offers an interface to browse the linked data cube descriptions and to export the data cubes as RDF triples, generated on demand from the underlying data sources. We also discuss the implementation of sophisticated metadata search operations, OLAP data cube operations, such as slice and dice, and data cube mashup operations that create new cubes by combining other cubes.
50

[pt] ANÁLISE DE MATURIDADE EM BUSINESS INTELLIGENCE COMO FATOR DE CRIAÇÃO DE VANTAGEM COMPETITIVA E MELHORIA DE PERFORMANCE: ESTUDO DE CASO EM UMA EMPRESA DO SETOR FARMACÊUTICO / [en] MATURITY ANALYSIS IN BUSINESS INTELLIGENCE AS A FACTOR CREATING COMPETITIVE ADVANTAGE AND PERFORMANCE IMPROVEMENT: CASE STUDY IN A COMPANY IN THE PHARMACEUTICAL SECTOR

GABRIEL LOURENCO S DOS SANTOS 25 May 2023 (has links)
[pt] O presente trabalho tem como objetivo analisar a percepção de uma amostra de funcionários, de diferentes departamentos e cargos, sobre o estágio de maturidade em Business Intelligence de uma empresa do setor farmacêutico. Posteriormente, pretende-se entender a relação entre a percepção de maturidade, e a percepção do potencial de criação de vantagem competitiva e melhoria na performance da empresa que a adoção de Business Intelligence pode trazer. Para atingir ao objetivo foram realizadas uma pesquisa via survey com 32 respondentes, para coletar sua percepção de maturidade da empresa em cinco dimensões de maturidade: Organização, Infraestrutura, Gestão de Dados, Análise e Governance a fim de enquadrar a empresa dentro de um estágio. Além disso, foram incluídas nos questionários perguntas relacionadas a percepção de criação de vantagem competitiva e melhoria de performance. A fim de entender melhor os resultados para posteriormente criar uma proposta de plano de melhoria para que a empresa avançasse no modelo, foram realizadas entrevistas em profundidade com quatro respondentes e uma análise de regressão com o objetivo de entender melhor a relação entre as variáveis. O trabalho delimitou-se em estudar a empresa no momento atual sem que fosse feito um acompanhamento da evolução ao longo do tempo, pesquisou apenas uma empresa do setor farmacêutico baseada no Brasil limitando comparações com benchmarkings entre países e setores. Além disso, o fato de o pesquisador conhecer e ser funcionário da mesma empresa dos respondentes pode ter gerado desconforto em parte deles, gerando possíveis vieses nas respostas. Com os resultados da pesquisa somados as melhores práticas de BI trazidas no referencial teórico, foi traçada uma proposta com um plano de melhoria que se implementado, acredita-se, que pode levar a empresa a avançar no estágio de maturidade. / [en] The objective of this work is to analyze the perception of a sample of employees, from different departments and positions, about the stage of maturity in Business Intelligence of a company in the pharmaceutical sector. Subsequently, we intend to understand the relationship between the perception of maturity and the perception of the potential for creating competitive advantage and improving the company s performance that the adoption of Business Intelligence can trace. To achieve the objective, a survey was carried out with 32 respondents, to collect their perception of the company s maturity in five dimensions of maturity: Organization, Infrastructure, Data Management, Analysis and Governance to frame the company within a stage. In addition, the questionnaires included questions related to the perception of creating competitive advantage and improving performance. In order to better understand the results to later create a better plan proposal for the company to move forward in the model, we conducted in-depth interviews with four respondents and a regression analysis in order to better understand the relationship between the variables. The work is limited to studying the company today without having followed the evolution over time, researching only one company in the pharmaceutical sector based in Brazil, limiting comparisons with benchmarking between countries and sectors. Also, the fact that the researcher knows and is an employee of the same company two interviewees could cause discomfort on their part, generating the possibility of viewing the answers. With the research results added to the best BI practices developed without theoretical reference, a proposal was elaborated with a better plan that has been imple mented, it is proven, that can lead the company to advance in its maturity stage.

Page generated in 0.0325 seconds