1 |
[en] ENLIDA: ENRICHMENT OF LINKED DATA CUBE DESCRIPTIONS / [pt] ENLIDA: ENRIQUECIMENTO DAS DESCRIÇÕES DE LINKED DATA CUBESXIMENA ALEXANDRA CABRERA TAPIA 12 January 2015 (has links)
[pt] O termo dados interligados refere-se a conjuntos de triplas RDF
organizados segundo certos princípios que facilitam a publicação e o acesso a
dados por meio da infraestrutura da Web. Os princípios para organização de dados
interligados são de grande importância pois oferecem uma forma de minimizar o
problema de interoperabilidade entre bancos de dados expostos na Web. Este
trabalho propõe enriquecer um banco de dados que contém descrições em RDF de
cubos de dados, interligando seus componentes com entidades definidas em fontes
de dados externas através de triplas owl:sameAs. O trabalho propõe uma
arquitetura composta por dois componentes principais, o enriquecedor automático
e o enriquecedor manual. O primeiro componente gera triplas owl:sameAs
automaticamente enquanto que o segundo componente permite ao usuário definir
manualmente as ligações. Em conjunto, estes componentes facilitam a definição
de cubos de dados de acordo com os princípios de dados interligados / [en] The term Linked Data refers to a set of RDF triples organized according to
certain principles that facilitate the publishing and consumption of data using the
Web infrastructure. The importance of the Linked Data principles stems from the
fact that they offer a way to minimize the interoperability problem between
databases exposed on the Web. This dissertation proposes to enrich a database
that contains Linked Data cube descriptions by interconnecting the components of
the data cubes with entities defined in external data sources, using owl:sameAs
triples. The dissertation proposes an architecture consisting of two major
components, the automatic enriching component and the manual enriching
component. The first component automatically generates owl:sameAs triples,
while the second component helps the user manually define owl:sameAs triples
that the automatic component was not able to uncover. Together, these
components therefore facilitate the definition of data cubes according to the
Linked Data principles.
|
2 |
[en] VERTICAL INTEGRATION IN THE OIL INDUSTRY: STILL THE BEST OPTION? / [pt] INTEGRAÇÃO VERTICAL NA INDÚSTRIA DE PETRÓLEO: AINDA A MELHOR OPÇÃO?ARMANDO PINTO ANTUNES 20 October 2014 (has links)
[pt] A integração vertical, tradicionalmente, sempre foi a estratégia mais adotada pelas maiores empresas da indústria de petróleo, visando capturar lucros extraordinários ao longo da cadeia petrolífera. Várias seriam as razões para a integração vertical, entre elas estariam, a redução dos custos de transação, a discriminação de preços, aumentar o poder de mercado e a criação de barreira à entrada a novos concorrentes. No entanto, duas grandes petrolíferas norteamericanas decidiram pela desintegração de suas atividades, Marathon em 2010 e Conoco em 2011, criando, cada uma, duas empresas independentes, uma de upstream e outra de downstream. Isso veio a por em dúvida se a integração vertical ainda seria a alternativa mais eficiente para essa indústria. Diversos analistas passaram a explicar quais seriam os motivos e vantagens a favor da desintegração, e como se comportariam outras empresas importantes no negócio de petróleo. Assim, esse trabalho objetiva analisar os principais motivos que levam empresas a se integrarem, bem como a utilização de um modelo com dados de 339 empresas de 48 países para checar se a integração ainda seria a melhor opção para empresas da indústria de petróleo. Esse trabalho tem como inspiração o estudo de Barrera-Rey (1995), com algumas alterações. Embora não apresentem a robustez estatística desejada, os resultados apontariam que a integração não mais seria a melhor das opções, embora essa decisão tenha um caráter mais individual para cada empresa do que uma solução para a indústria como um todo. / [en] Vertical integration has traditionally always been the most adopted strategy for the biggest companies in the oil industry, aiming to capture extraordinary profits along the oil supply chain. Several are the reasons for vertical integration, such as the reduction of transaction costs, price discrimination, increased marketpower and creation of barriers to entry of new competitors. However, two major american oil companies decided for the disintegration of their activities, Marathonin 2010 and Conoco in 2011, creating, each, two independent companies, one for the upstream business and another for the downstream business. This brings into question whether vertical integration is still the most efficient strategy for thisindustry. Several analysts began to explain which would be the reasons and advantages in favor of disintegration, and how other leading oil companies wouldbehave in the future. Thus, this paper aims to analyze the main reasons that lead companies to integrate, using a model with data from 339 companies in 48 countries to check if the integration would still be the best option for companies in the oil industry. This work is inspired by the study of Barrera-Rey (1995) with some modifications. While not having the desired statistical robustness, the results indicate that integration is no longer the best option, although that decision would have a more individual character to each company than a solution to the industry as a whole.
|
3 |
[en] REORGANIZATION AND COMPRESSION OF SEISMIC DATA / [pt] REORGANIZAÇÃO E COMPRESSÃO DE DADOS SÍSMICOSFLAVIA MEDEIROS DOS ANJOS 19 February 2008 (has links)
[pt] Dados sísmicos, utilizados principalmente na indústria de
petróleo,
costumam apresentar dimensões de dezenas de gigabytes e em
alguns casos,
centenas. Este trabalho apresenta propostas de manipulação
destes dados que
ajudem a contornar problemas enfrentados por aplicativos
de processamento e
interpretação sísmica ao trabalhar com arquivos deste
porte. As propostas se
baseiam em reorganização e compressão. O conhecimento do
formato de
utilização dos dados permite reestruturar seu
armazenamento diminuindo o
tempo gasto com a transferência entre o disco e a memória
em até 90%. A
compressão é utilizada para diminuir o espaço necessário
para armazenamento.
Para dados desta natureza os melhores resultados, em taxa
de redução, são das
técnicas de compressão com perda, entre elas as
compressões por
agrupamento. Neste trabalho apresentamos um algoritmo que
minimiza o erro
médio do agrupamento uma vez que o número de grupos tenha
sido
determinado. Em qualquer método desta categoria o grau de
erro e a taxa de
compressão obtidos dependem do número de grupos. Os dados
sísmicos
possuem uma coerência espacial que pode ser aproveitada
para melhorar a
compressão dos mesmos. Combinando-se agrupamento e o
aproveitamento da
coerência espacial conseguimos comprimir os dados com
taxas variando de 7%
a 25% dependendo do erro associado. Um novo formato é
proposto utilizando a
reorganização e a compressão em conjunto. / [en] Seismic data, used mainly in the petroleum industry,
commonly present
sizes of tens of gigabyte, and, in some cases, hundreds.
This work presents
propositions for manipulating these data in order to help
overcoming the
problems that application for seismic processing and
interpretation face while
dealing with file of such magnitude. The propositions are
based on reorganization
and compression. The knowledge of the format in which the
data will
be used allows us to restructure storage reducing disc-
memory transference time
up to 90%. Compression is used to save storage space. For
data of such nature,
best results in terms of compression rates come from
techniques associated to
information loss, being clustering one of them. In this
work we present an
algorithm for minimizing the cost of clustering a set of
data for a pre-determined
number of clusters. Seismic data have space coherence that
can be used to
improve their compression. Combining clustering with the
use of space
coherence we were able to compress sets of data with rates
from 7% to 25%
depending on the error associated. A new file format is
proposed using reorganization
and compression together.
|
4 |
[en] MONETARY POLICY AND INVESTMENT IN BRAZIL / [pt] POLÍTICA MONETÁRIA E INVESTIMENTO NO BRASILMARCOS VINICIUS RODRIGUES VIVACQUA 13 September 2007 (has links)
[pt] O bom funcionamento do sistema de metas de inflação
baseado na
utilização da taxa de juros como instrumento de política
monetária depende
fundamentalmente da compreensão por parte do banco
central, dos mecanismos
pelos quais seu instrumento afeta a economia. No
entanto, nossa compreensão dos
canais de transmissão da política monetária ainda
precisa avançar. Este trabalho
tem como objetivo estudar o impacto da política
monetária sobre o investimento
privado no Brasil através de um experimento empírico com
base em dados no
nível da firma. O resultado obtido nos leva à conclusão
de que o investimento
privado no Brasil é sim afetado negativamente pelos
juros. Há indícios que o
BNDES amenize este efeito com a sua política de
financiamentos ao setor
privado. / [en] The objective of monetary policy under the inflation
target regime is to
keep inflation and output at levels that foster a stable
economic environment. To
reach its objective, the monetary authority uses a policy
instrument (such as the
overnight interest rate) to achieve the inflation and
output targets through the
transmission mechanism. However, the transmission
mechanisms of monetary
policy are not deeply known. In this paper we try to
estimate the effects that
interest rates fluctuations have on private investment in
Brazil. Using firm-level
data we use econometrics for panel data and find evidence
that monetary
contractions have significant negative impacts over the
private corporate
investment in Brazil. We also tried to estimate how the
National Development
credit policy interfere in this transmission channel but
find little evidence that it
does.
|
5 |
[en] THE USE OF SOCIOECONOMICS DATA BY BUSINESS ADMINISTRATION RESEARCHERS: AN EXPLORATORY STUDY / [pt] COMO PESQUISADORES DA ÁREA DE ADMINISTRAÇÃO UTILIZAM DADOS SOCIECONÔMICOS: UM ESTUDO EXPLORATÓRIOCAMILA ERMIDA PINTO 03 January 2012 (has links)
[pt] O estudo pretendeu investigar a utilização de informações socioeconômicas na produção acadêmica brasileira, com atenção especial para estudos da área de Administração publicados no período de 2004 a 2010. O método bibliométrico foi empregado para analisar 4.687 artigos, publicados em 24 distintas fontes bibliográficas relevantes na área de Administração, 22 periódicos e anais de dois eventos científicos. Buscou-se analisar o que é publicado no Encontro da Associação Nacional de Pós-Graduação e Pesquisa em Administração (EnANPAD), no Encontro de Marketing (EMA) e nas principais revistas brasileiras de Administração, classificadas como A2, B1, B2 e B3 pela CAPES. O levantamento inicial resultou na seleção de 196 artigos, que foram submetidos à avaliação de conteúdo, considerando determinadas variáveis de relevância. Em seguida, os resultados foram quantificados por frequência e apresentados em tabelas. Na segunda etapa do estudo, foram realizadas entrevistas em profundidade com alguns autores dos artigos selecionados no levantamento bibliométrico, para conhecer impressões e experiências desses acadêmicos em relação ao acesso e utilização dos dados para o desenvolvimento de seus estudos. Os resultados da pesquisa bibliométrica sugerem uma subutilização das informações oriundas de fontes públicas. Entre os periódicos analisados, a Revista de Administração Pública (RAP) foi o veículo que mais publicou artigos baseados em estatísticas públicas. Entretanto, nos anais dos eventos encontravam-se 31 por cento do total de artigos identificados. A maioria dos trabalhos foram escritos por dois autores e abordavam questões acerca do Comportamento do Consumidor. Nas entrevistas foi possível observar que os pesquisadores se sentem seguros em usar dados públicos, em função de sua qualidade percebida, e que a facilidade de acesso gratuito aos dados confere rapidez e segurança aos estudos. Também foi manifestada pelos autores a impressão de que a formação em métodos quantitativos oferecida nos cursos de pós-graduação stricto sensu é precária, favorecendo a preferência pela condução de estudos de natureza qualitativa, especialmente estudos de caso. Já as dificuldades incluem: necessidade de maior clareza na forma de trabalhar das instituições produtoras de dados; demora no atendimento prestado aos usuários das informações; suporte ineficiente; dificuldade para encontrar os dados nos sites dos órgãos; necessidade de programas específicos e conhecimentos aprofundados de estatística, e descontinuidade na produção de determinadas informações. A escassez de recursos destinados à pesquisa no Brasil, o desconhecimento da existência e até certa precariedade dos dados também podem estar desestimulando o uso das estatísticas socioeconômicas produzidas por órgãos públicos. / [en] The study aims to investigate the use of socioeconomic information on the brazilian academic production, with special attention to studies in the area of Business Administration published between 2004 to 2010. The bibliometric method was used to analyze 4,687 articles published in 24 different bibliographic sources relevant to the administration area, 22 journals and proceedings of two scientific events. We tried to analyze what is published in the National Association of Graduate Studies and Research in Administration (EnANPAD), in the Marketing Meeting (EMA) and in major business administration brazilian journals, classified as A2, B1, B2 and B3 by CAPES. The initial selection resulted in 196 articles, which were evaluated for content, considering certain variables of relevance. Then the results were quantified by frequency and presented in tables. In the second stage of the study were conducted in-depth interviews with some authors of selected articles in the bibliometric research, to get to know their views and experiences in relation to access and use of data for the development of their studies. The results of bibliometric research suggest an underutilization of the information produced by public sources. Among the reviewed journals, the Journal of Public Administration (RAP) was the vehicle that published most articles based on government statistics. However, in the annals of events were identified 31 per cent of articles. Most papers were written by two authors and addressed issues related to consumer behavior. In the interviews it was observed that the researchers feel safe using public data, based on their perceived quality, and that the facility of free access to data provides immediate and safe information to their studies. It was also expressed by the authors the impression that training in quantitative methods offered by post-graduate courses is precarious, favoring the preference by conducting qualitative studies, especially case studies. Nevertheless, there are some difficulties: the need for greater clarity in the way of working of the institutions that produce data, delays in services provided to users of the information, inefficient support, difficulty to find data at the websites of the agencies, the need for specific programs and in-depth knowledge of statistical and discontinuity in the production of certain information. The scarcity of resources devoted to research in Brazil, the lack of existence and even somewhat precarious data may also discourage the use of socioeconomic statistics produced by government agencies.
|
6 |
[en] A HIGH-FREQUENCY ANALYSIS OF THE EFFECTS OF CENTRAL BANK COMMUNICATION ON THE TERM-STRUCTURE OF INTEREST RATES IN BRAZIL / [pt] UMA ANÁLISE EM ALTA FREQUÊNCIA DOS EFEITOS DA COMUNICAÇÃO DO BANCO CENTRAL NA ESTRUTURA A TERMO DA TAXA DE JUROS NO BRASILTHIAGO DE ANDRADE MACHADO 27 November 2015 (has links)
[pt] Este trabalho constrói índices de semântica, utilizando o Google e o Factiva Dow Jones, empregando a metodologia de Lucca e Trebbi (2011), na tentativa de quantificar o conteúdo do comunicado do Copom que o Banco Central do Brasil emite logo após a divulgação da decisão da taxa de juros e o designando uma orientação semântica restritiva ou expansionista. Utilizando dados diários e intradiários de contratos de swap e contratos futuros de DI, respectivamente, vemos que o comunicado afeta a curva de juros somente no período pré-Tombini. Ademais, vemos que a surpresa de política monetária tem um efeito de um para um, algumas vezes maior, nas taxas de juros para o período Tombini até mesmo para taxas longas, o que não ocorre no período pré-Tombini, com a surpresa afetando apenas as taxas entre o curto e médio prazo. Além disso, percebemos que há uma dinâmica intradiária no efeito do conteúdo do comunicado na curva de juros no período Tombini, o que evidencia uma demora na sua assimilação por parte dos agentes econômicos, diferentemente do que é observado no período anterior. Vemos que a surpresa de política monetária afeta a estrutura a termo da taxa de juros durante todo o tempo de funcionamento do mercado para os dois períodos analisados. / [en] This work builds semantic scores using the Google and the Factiva Dow Jones database, based on Lucca and Trebbi s (2011) methodology, in order to quantify the content of the COPOM s statements released by the Central Bank of Brazil shortly after the interest rate s decision and attributing to it a semantic orientation, hawkish or dovish . Using daily and intraday data of swap contracts and DI1 futures contracts, respectively, we find that the content of the BCB s statement affects the yield curve only in the period prior to Tombini s tenure. In addition, we find that the yields respond one-to-one to the interest rate surprise, sometimes more, in the pre-Tombini period even for long term maturities, which we do not see in the period prior to Tombini, where the interest rate surprises affect only the short-to-medium rates. Furthermore, we see an intraday dynamic in the yield responses to the content of the statement in the Tombini period, which give evidence to a delay in its interpretation, differently from what we observe in the previous period. We also find that the interest rate surprises induce changes in the yield curve during the whole time that the market is open for both periods analyzed.
|
7 |
[en] TEMISC: A HYBRID TECHNIQUE FOR LAYER REPLACEMENT / [pt] TEMISC: UMA TÉCNICA MISTA PARA SUBSTITUIÇÃO DE CAMADASWENCESLAU PERES GOUVEIA JUNIOR 23 January 2007 (has links)
[pt] O efeito causado por interfaces de topografias irregulares
próximas à superfície nas reflexões de interesse
provenientes de camadas mais profundas é um problema bem
conhecido no processamento digital de dados sísmicos.
Devido ao forte contraste de velocidades imposto por tais
interfaces, estas reflexões perdem sua característica
hiperbólica. Em conseqüência, o empilhamento CMP que
possui como premissa básica reflexões aproximadamente
hiperbólicas no sinal registrado, falha em seus objetivos
de aumentar a razão sinal ruído da seção sísmica. Visando
solucionar este problema, técnicas de pré-processamento se
fazem necessárias de modo a recuperar completa ou
parcialmente, o padrão hiperbólico destas reflexões.
Neste contexto, este trabalho é dividido em duas partes.
Na primeira, três algoritmos conhecidos para este fim, de
diferentes níveis de precisão e de demanda computacional,
são discutidos. A seguir um novo método, onde técnicas de
traçamento de raios são integradas à mecanismos precisos
de extrapolação do campo de ondas, é proposto. O seu
desempenho é verificado no processamento de grupos de tiro
comum e ponto médio comum sintéticos.
Finalmente, estes resultados são comparados com outros
obtidos de um dos algoritmos apresentados anteriormente,
de forma a evidenciar as vantagens e limitações da técnica
proposta. / [en] The effect of near surface interfaces with irregular
topography on the target reflections from deeper layers is
a well known problem in digital seismic data processing.
Due to strong contrast of velocities imposed by such
interfaces, theses reflections lose their hyperbolic
characteristic. As a consequence, the CMP stack procedure,
which main assumption is the hyperbolic shaped
reflections, fails in its attempt to improve the signal to
noise ratio of the seismic section. To overcome this
difficulty, a preprocessing technique which recovers fully
or partially the hyperbolic pattern of these reflections
is necessary. In this context, this work is divided in two
parts. First, three known different algorithms used for
the solution of this problem, with distinct levels of
precision and computational cost, are discussed. Following
that, a new algorithm which integrates accurate wave field
extrapolation mechanisms with ray tracing techniques, is
proposed. The performance of the new method is
demonstrated on synthetic common mid point gathers and
common shot gathers. Finally, these results are then
compared with those obtained from one of the algorithms
previously described, in order to assess the limitations
and advantages of the proposed technique.
|
8 |
[en] LOGLINEAR MODEL ESTIMATION WITH MISSING DATA: AN APPLICATION TO SAEB/99. / [pt] ESTIMAÇÃO DE MODELOS LOGLINEARES COM DADOS FALTANTES: UMA APLICAÇÃO AO SAEB 99DENIS PAULO DOS SANTOS 27 March 2002 (has links)
[pt] Geralmente, em análises estatísticas, dados faltantes em ao menos uma variável resulta da completa eliminação da unidade respondente. Esta estratégia, padrão na maioria dos pacotes estatísticos, não produz resultados livres de viés, a não ser que os dados faltantes sejam Missing Completly At
Random (MCAR). A tese mostra a classificação usada para o mecanismo gerador de dados faltantes e a modelagem de dados categóricos levando em conta os dados faltantes. Para isto, utiliza-se o modelo loglinear em combinação com o algoritmo EM (Expectation-Maximization). Esta combinação produz
o algoritmo conhecido como ECM (Expectation-Conditional Maximization). A aplicação do método é feita com os dados do SAEB (Sistema Nacional de Avaliação da Educação Básica) para o ano de 1999, investigando a relação entre o responsável pelo desenvolvimento do projeto pedagógico na escola e o impacto na proficiência média da escola. / [en] Generally, in statiscal analysis, missing value in one variable at least, implies the elimination of the
respondent unit. That strategy, default in the most of statistical softwares, don´t produce results free from
bias, unless the missing data are Missing Completly At Random (MCAR). This dissertation shows the classification about the mechanisms that lead to missing data and the modeling of categorical data dealing with missing data. To do that we combine loglinear model and the EM (Expectation-Maximization)algorithm. This combination produce the agorithm called ECM (Expectation-Conditional Maximization)
algorithm. The method is applied to SAEB educational data. The objective is to investigate the relationship between responsable for developing the pedagogic project and the impact on the mean proficiency of school.
|
9 |
[en] REGISTRATION OF 3D SEISMIC TO WELL DATA / [pt] REGISTRO DE SÍSMICA 3D A DADOS DE POÇOSRODRIGO COSTA FERNANDES 08 March 2010 (has links)
[pt] A confiabilidade dos dados coletados diretamente ao longo do caminho de
poços de petróleo é maior que a confiabilidade de dados sísmicos e, por
isto, os primeiros podem ser utilizados para ajustar o volume de aquisição
sísmica. Este trabalho propõe um ajuste dos volumes de amplitudes sísmicas
através de uma algoritmo de três passos. O primeiro passo é a identificação
de feições comuns através de um algoritmo de reconhecimento de padrões. O
segundo passo consiste em gerar e otimizar uma malha alinhada às feições
de interesse do dado sísmico voluméletrico através de um novo algoritmo
baseado em processamento de imagens e inteligência computacional. E o
terceiro e último passo é a realização de uma deformação volumétrica pontoa-
ponto usando interpolação por funções de base radial para registrar o
volume sísmico aos poços. A dissertação apresenta ainda resultados de
implementações 2D e 3D dos algoritmos propostos de forma a permitir
algumas conclusões e sugestões para trabalhos futuros. / [en] Data acquired directly from borehole are more reliable than seismic data,
and then, the first can be used to adjust the second. This work proposes
the correction of a volume of seismic amplitudes through a three step
algorithm. The first step is the identification of common features in both
sets using a pattern recognition algorithm. The second step consists of the
generation and the optimization of a mesh aligned with the features in
the volumetric data using a new algorithm based on image processing and
computational intelligence. The last step is the seismic-to-well registration
using a point-to-point volumetric deformation achieved by a radial basis
function interpolation. The dissertation also presents some results from 2D
and 3D implementations allowing conclusions and suggestions for future
work.
|
10 |
[en] LDC MEDIATOR: A MEDIATOR FOR LINKED DATA CUBES / [pt] MEDIADOR LDC: UM MEDIADOR DE CUBOS DE DADOS INTERLIGADOSLIVIA COUTO RUBACK RODRIGUES 06 July 2015 (has links)
[pt] Um banco de dados estatístico consiste de um conjunto de observações
feitas em pontos de um espaço lógico, e, muitas vezes, são organizados como
cubos de dados. A definição adequada de cubos de dados, em especial de suas
dimensões, ajuda a processar as suas observações e, mais importante, ajuda a
combinar observações de cubos de dados diferentes. Neste contexto, os princípios
de dados interligados podem ser proveitosamente aplicados à definição de cubos
de dados, oferecendo uma estratégia para fornecer a semântica das dimensões,
incluindo seus valores. Este trabalho introduz uma arquitetura de mediação para
auxiliar no consumo de cubos de dados, expostos como triplas RDF e
armazenados em bancos de dados relacionais. Os cubos de dados são descritos em
um catálogo usando vocabulários padronizados e são acessados por métodos
HTTP usando os princípios de REST. Portanto, este trabalho busca tirar proveito
tanto dos princípios de dados interligados quanto dos princípios de REST para
descrever e consumir os cubos de dados interligados de forma simples e eficiente. / [en] A statistical data set comprises a collection of observations made at some
points across a logical space and is often organized as what is called a data cube.
The proper definition of the data cubes, especially of their dimensions, helps to
process the observations and, more importantly, helps to combine observations
from different data cubes. In this context, the Linked Data Principles can be
profitably applied to the definition of data cubes, in the sense that the principles
offer a strategy to provide the missing semantics of the dimensions, including
their values. This work introduces a mediation architecture to help consume
linked data cubes, exposed as RDF triples, but stored in relational databases. The
data cubes are described in a catalogue using standardized vocabularies and are
accessed by HTTP methods using REST principles. Therefore, this work aims at
taking advantage of both Linked Data and REST principles in order to describe
and consume linked data cubes in a simple but efficient way.
|
Page generated in 0.0531 seconds