• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 20
  • Tagged with
  • 56
  • 56
  • 55
  • 13
  • 10
  • 10
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] ENLIDA: ENRICHMENT OF LINKED DATA CUBE DESCRIPTIONS / [pt] ENLIDA: ENRIQUECIMENTO DAS DESCRIÇÕES DE LINKED DATA CUBES

XIMENA ALEXANDRA CABRERA TAPIA 12 January 2015 (has links)
[pt] O termo dados interligados refere-se a conjuntos de triplas RDF organizados segundo certos princípios que facilitam a publicação e o acesso a dados por meio da infraestrutura da Web. Os princípios para organização de dados interligados são de grande importância pois oferecem uma forma de minimizar o problema de interoperabilidade entre bancos de dados expostos na Web. Este trabalho propõe enriquecer um banco de dados que contém descrições em RDF de cubos de dados, interligando seus componentes com entidades definidas em fontes de dados externas através de triplas owl:sameAs. O trabalho propõe uma arquitetura composta por dois componentes principais, o enriquecedor automático e o enriquecedor manual. O primeiro componente gera triplas owl:sameAs automaticamente enquanto que o segundo componente permite ao usuário definir manualmente as ligações. Em conjunto, estes componentes facilitam a definição de cubos de dados de acordo com os princípios de dados interligados / [en] The term Linked Data refers to a set of RDF triples organized according to certain principles that facilitate the publishing and consumption of data using the Web infrastructure. The importance of the Linked Data principles stems from the fact that they offer a way to minimize the interoperability problem between databases exposed on the Web. This dissertation proposes to enrich a database that contains Linked Data cube descriptions by interconnecting the components of the data cubes with entities defined in external data sources, using owl:sameAs triples. The dissertation proposes an architecture consisting of two major components, the automatic enriching component and the manual enriching component. The first component automatically generates owl:sameAs triples, while the second component helps the user manually define owl:sameAs triples that the automatic component was not able to uncover. Together, these components therefore facilitate the definition of data cubes according to the Linked Data principles.
2

[en] VERTICAL INTEGRATION IN THE OIL INDUSTRY: STILL THE BEST OPTION? / [pt] INTEGRAÇÃO VERTICAL NA INDÚSTRIA DE PETRÓLEO: AINDA A MELHOR OPÇÃO?

ARMANDO PINTO ANTUNES 20 October 2014 (has links)
[pt] A integração vertical, tradicionalmente, sempre foi a estratégia mais adotada pelas maiores empresas da indústria de petróleo, visando capturar lucros extraordinários ao longo da cadeia petrolífera. Várias seriam as razões para a integração vertical, entre elas estariam, a redução dos custos de transação, a discriminação de preços, aumentar o poder de mercado e a criação de barreira à entrada a novos concorrentes. No entanto, duas grandes petrolíferas norteamericanas decidiram pela desintegração de suas atividades, Marathon em 2010 e Conoco em 2011, criando, cada uma, duas empresas independentes, uma de upstream e outra de downstream. Isso veio a por em dúvida se a integração vertical ainda seria a alternativa mais eficiente para essa indústria. Diversos analistas passaram a explicar quais seriam os motivos e vantagens a favor da desintegração, e como se comportariam outras empresas importantes no negócio de petróleo. Assim, esse trabalho objetiva analisar os principais motivos que levam empresas a se integrarem, bem como a utilização de um modelo com dados de 339 empresas de 48 países para checar se a integração ainda seria a melhor opção para empresas da indústria de petróleo. Esse trabalho tem como inspiração o estudo de Barrera-Rey (1995), com algumas alterações. Embora não apresentem a robustez estatística desejada, os resultados apontariam que a integração não mais seria a melhor das opções, embora essa decisão tenha um caráter mais individual para cada empresa do que uma solução para a indústria como um todo. / [en] Vertical integration has traditionally always been the most adopted strategy for the biggest companies in the oil industry, aiming to capture extraordinary profits along the oil supply chain. Several are the reasons for vertical integration, such as the reduction of transaction costs, price discrimination, increased marketpower and creation of barriers to entry of new competitors. However, two major american oil companies decided for the disintegration of their activities, Marathonin 2010 and Conoco in 2011, creating, each, two independent companies, one for the upstream business and another for the downstream business. This brings into question whether vertical integration is still the most efficient strategy for thisindustry. Several analysts began to explain which would be the reasons and advantages in favor of disintegration, and how other leading oil companies wouldbehave in the future. Thus, this paper aims to analyze the main reasons that lead companies to integrate, using a model with data from 339 companies in 48 countries to check if the integration would still be the best option for companies in the oil industry. This work is inspired by the study of Barrera-Rey (1995) with some modifications. While not having the desired statistical robustness, the results indicate that integration is no longer the best option, although that decision would have a more individual character to each company than a solution to the industry as a whole.
3

[en] REORGANIZATION AND COMPRESSION OF SEISMIC DATA / [pt] REORGANIZAÇÃO E COMPRESSÃO DE DADOS SÍSMICOS

FLAVIA MEDEIROS DOS ANJOS 19 February 2008 (has links)
[pt] Dados sísmicos, utilizados principalmente na indústria de petróleo, costumam apresentar dimensões de dezenas de gigabytes e em alguns casos, centenas. Este trabalho apresenta propostas de manipulação destes dados que ajudem a contornar problemas enfrentados por aplicativos de processamento e interpretação sísmica ao trabalhar com arquivos deste porte. As propostas se baseiam em reorganização e compressão. O conhecimento do formato de utilização dos dados permite reestruturar seu armazenamento diminuindo o tempo gasto com a transferência entre o disco e a memória em até 90%. A compressão é utilizada para diminuir o espaço necessário para armazenamento. Para dados desta natureza os melhores resultados, em taxa de redução, são das técnicas de compressão com perda, entre elas as compressões por agrupamento. Neste trabalho apresentamos um algoritmo que minimiza o erro médio do agrupamento uma vez que o número de grupos tenha sido determinado. Em qualquer método desta categoria o grau de erro e a taxa de compressão obtidos dependem do número de grupos. Os dados sísmicos possuem uma coerência espacial que pode ser aproveitada para melhorar a compressão dos mesmos. Combinando-se agrupamento e o aproveitamento da coerência espacial conseguimos comprimir os dados com taxas variando de 7% a 25% dependendo do erro associado. Um novo formato é proposto utilizando a reorganização e a compressão em conjunto. / [en] Seismic data, used mainly in the petroleum industry, commonly present sizes of tens of gigabyte, and, in some cases, hundreds. This work presents propositions for manipulating these data in order to help overcoming the problems that application for seismic processing and interpretation face while dealing with file of such magnitude. The propositions are based on reorganization and compression. The knowledge of the format in which the data will be used allows us to restructure storage reducing disc- memory transference time up to 90%. Compression is used to save storage space. For data of such nature, best results in terms of compression rates come from techniques associated to information loss, being clustering one of them. In this work we present an algorithm for minimizing the cost of clustering a set of data for a pre-determined number of clusters. Seismic data have space coherence that can be used to improve their compression. Combining clustering with the use of space coherence we were able to compress sets of data with rates from 7% to 25% depending on the error associated. A new file format is proposed using reorganization and compression together.
4

[en] MONETARY POLICY AND INVESTMENT IN BRAZIL / [pt] POLÍTICA MONETÁRIA E INVESTIMENTO NO BRASIL

MARCOS VINICIUS RODRIGUES VIVACQUA 13 September 2007 (has links)
[pt] O bom funcionamento do sistema de metas de inflação baseado na utilização da taxa de juros como instrumento de política monetária depende fundamentalmente da compreensão por parte do banco central, dos mecanismos pelos quais seu instrumento afeta a economia. No entanto, nossa compreensão dos canais de transmissão da política monetária ainda precisa avançar. Este trabalho tem como objetivo estudar o impacto da política monetária sobre o investimento privado no Brasil através de um experimento empírico com base em dados no nível da firma. O resultado obtido nos leva à conclusão de que o investimento privado no Brasil é sim afetado negativamente pelos juros. Há indícios que o BNDES amenize este efeito com a sua política de financiamentos ao setor privado. / [en] The objective of monetary policy under the inflation target regime is to keep inflation and output at levels that foster a stable economic environment. To reach its objective, the monetary authority uses a policy instrument (such as the overnight interest rate) to achieve the inflation and output targets through the transmission mechanism. However, the transmission mechanisms of monetary policy are not deeply known. In this paper we try to estimate the effects that interest rates fluctuations have on private investment in Brazil. Using firm-level data we use econometrics for panel data and find evidence that monetary contractions have significant negative impacts over the private corporate investment in Brazil. We also tried to estimate how the National Development credit policy interfere in this transmission channel but find little evidence that it does.
5

[en] THE USE OF SOCIOECONOMICS DATA BY BUSINESS ADMINISTRATION RESEARCHERS: AN EXPLORATORY STUDY / [pt] COMO PESQUISADORES DA ÁREA DE ADMINISTRAÇÃO UTILIZAM DADOS SOCIECONÔMICOS: UM ESTUDO EXPLORATÓRIO

CAMILA ERMIDA PINTO 03 January 2012 (has links)
[pt] O estudo pretendeu investigar a utilização de informações socioeconômicas na produção acadêmica brasileira, com atenção especial para estudos da área de Administração publicados no período de 2004 a 2010. O método bibliométrico foi empregado para analisar 4.687 artigos, publicados em 24 distintas fontes bibliográficas relevantes na área de Administração, 22 periódicos e anais de dois eventos científicos. Buscou-se analisar o que é publicado no Encontro da Associação Nacional de Pós-Graduação e Pesquisa em Administração (EnANPAD), no Encontro de Marketing (EMA) e nas principais revistas brasileiras de Administração, classificadas como A2, B1, B2 e B3 pela CAPES. O levantamento inicial resultou na seleção de 196 artigos, que foram submetidos à avaliação de conteúdo, considerando determinadas variáveis de relevância. Em seguida, os resultados foram quantificados por frequência e apresentados em tabelas. Na segunda etapa do estudo, foram realizadas entrevistas em profundidade com alguns autores dos artigos selecionados no levantamento bibliométrico, para conhecer impressões e experiências desses acadêmicos em relação ao acesso e utilização dos dados para o desenvolvimento de seus estudos. Os resultados da pesquisa bibliométrica sugerem uma subutilização das informações oriundas de fontes públicas. Entre os periódicos analisados, a Revista de Administração Pública (RAP) foi o veículo que mais publicou artigos baseados em estatísticas públicas. Entretanto, nos anais dos eventos encontravam-se 31 por cento do total de artigos identificados. A maioria dos trabalhos foram escritos por dois autores e abordavam questões acerca do Comportamento do Consumidor. Nas entrevistas foi possível observar que os pesquisadores se sentem seguros em usar dados públicos, em função de sua qualidade percebida, e que a facilidade de acesso gratuito aos dados confere rapidez e segurança aos estudos. Também foi manifestada pelos autores a impressão de que a formação em métodos quantitativos oferecida nos cursos de pós-graduação stricto sensu é precária, favorecendo a preferência pela condução de estudos de natureza qualitativa, especialmente estudos de caso. Já as dificuldades incluem: necessidade de maior clareza na forma de trabalhar das instituições produtoras de dados; demora no atendimento prestado aos usuários das informações; suporte ineficiente; dificuldade para encontrar os dados nos sites dos órgãos; necessidade de programas específicos e conhecimentos aprofundados de estatística, e descontinuidade na produção de determinadas informações. A escassez de recursos destinados à pesquisa no Brasil, o desconhecimento da existência e até certa precariedade dos dados também podem estar desestimulando o uso das estatísticas socioeconômicas produzidas por órgãos públicos. / [en] The study aims to investigate the use of socioeconomic information on the brazilian academic production, with special attention to studies in the area of Business Administration published between 2004 to 2010. The bibliometric method was used to analyze 4,687 articles published in 24 different bibliographic sources relevant to the administration area, 22 journals and proceedings of two scientific events. We tried to analyze what is published in the National Association of Graduate Studies and Research in Administration (EnANPAD), in the Marketing Meeting (EMA) and in major business administration brazilian journals, classified as A2, B1, B2 and B3 by CAPES. The initial selection resulted in 196 articles, which were evaluated for content, considering certain variables of relevance. Then the results were quantified by frequency and presented in tables. In the second stage of the study were conducted in-depth interviews with some authors of selected articles in the bibliometric research, to get to know their views and experiences in relation to access and use of data for the development of their studies. The results of bibliometric research suggest an underutilization of the information produced by public sources. Among the reviewed journals, the Journal of Public Administration (RAP) was the vehicle that published most articles based on government statistics. However, in the annals of events were identified 31 per cent of articles. Most papers were written by two authors and addressed issues related to consumer behavior. In the interviews it was observed that the researchers feel safe using public data, based on their perceived quality, and that the facility of free access to data provides immediate and safe information to their studies. It was also expressed by the authors the impression that training in quantitative methods offered by post-graduate courses is precarious, favoring the preference by conducting qualitative studies, especially case studies. Nevertheless, there are some difficulties: the need for greater clarity in the way of working of the institutions that produce data, delays in services provided to users of the information, inefficient support, difficulty to find data at the websites of the agencies, the need for specific programs and in-depth knowledge of statistical and discontinuity in the production of certain information. The scarcity of resources devoted to research in Brazil, the lack of existence and even somewhat precarious data may also discourage the use of socioeconomic statistics produced by government agencies.
6

[en] A HIGH-FREQUENCY ANALYSIS OF THE EFFECTS OF CENTRAL BANK COMMUNICATION ON THE TERM-STRUCTURE OF INTEREST RATES IN BRAZIL / [pt] UMA ANÁLISE EM ALTA FREQUÊNCIA DOS EFEITOS DA COMUNICAÇÃO DO BANCO CENTRAL NA ESTRUTURA A TERMO DA TAXA DE JUROS NO BRASIL

THIAGO DE ANDRADE MACHADO 27 November 2015 (has links)
[pt] Este trabalho constrói índices de semântica, utilizando o Google e o Factiva Dow Jones, empregando a metodologia de Lucca e Trebbi (2011), na tentativa de quantificar o conteúdo do comunicado do Copom que o Banco Central do Brasil emite logo após a divulgação da decisão da taxa de juros e o designando uma orientação semântica restritiva ou expansionista. Utilizando dados diários e intradiários de contratos de swap e contratos futuros de DI, respectivamente, vemos que o comunicado afeta a curva de juros somente no período pré-Tombini. Ademais, vemos que a surpresa de política monetária tem um efeito de um para um, algumas vezes maior, nas taxas de juros para o período Tombini até mesmo para taxas longas, o que não ocorre no período pré-Tombini, com a surpresa afetando apenas as taxas entre o curto e médio prazo. Além disso, percebemos que há uma dinâmica intradiária no efeito do conteúdo do comunicado na curva de juros no período Tombini, o que evidencia uma demora na sua assimilação por parte dos agentes econômicos, diferentemente do que é observado no período anterior. Vemos que a surpresa de política monetária afeta a estrutura a termo da taxa de juros durante todo o tempo de funcionamento do mercado para os dois períodos analisados. / [en] This work builds semantic scores using the Google and the Factiva Dow Jones database, based on Lucca and Trebbi s (2011) methodology, in order to quantify the content of the COPOM s statements released by the Central Bank of Brazil shortly after the interest rate s decision and attributing to it a semantic orientation, hawkish or dovish . Using daily and intraday data of swap contracts and DI1 futures contracts, respectively, we find that the content of the BCB s statement affects the yield curve only in the period prior to Tombini s tenure. In addition, we find that the yields respond one-to-one to the interest rate surprise, sometimes more, in the pre-Tombini period even for long term maturities, which we do not see in the period prior to Tombini, where the interest rate surprises affect only the short-to-medium rates. Furthermore, we see an intraday dynamic in the yield responses to the content of the statement in the Tombini period, which give evidence to a delay in its interpretation, differently from what we observe in the previous period. We also find that the interest rate surprises induce changes in the yield curve during the whole time that the market is open for both periods analyzed.
7

[en] TEMISC: A HYBRID TECHNIQUE FOR LAYER REPLACEMENT / [pt] TEMISC: UMA TÉCNICA MISTA PARA SUBSTITUIÇÃO DE CAMADAS

WENCESLAU PERES GOUVEIA JUNIOR 23 January 2007 (has links)
[pt] O efeito causado por interfaces de topografias irregulares próximas à superfície nas reflexões de interesse provenientes de camadas mais profundas é um problema bem conhecido no processamento digital de dados sísmicos. Devido ao forte contraste de velocidades imposto por tais interfaces, estas reflexões perdem sua característica hiperbólica. Em conseqüência, o empilhamento CMP que possui como premissa básica reflexões aproximadamente hiperbólicas no sinal registrado, falha em seus objetivos de aumentar a razão sinal ruído da seção sísmica. Visando solucionar este problema, técnicas de pré-processamento se fazem necessárias de modo a recuperar completa ou parcialmente, o padrão hiperbólico destas reflexões. Neste contexto, este trabalho é dividido em duas partes. Na primeira, três algoritmos conhecidos para este fim, de diferentes níveis de precisão e de demanda computacional, são discutidos. A seguir um novo método, onde técnicas de traçamento de raios são integradas à mecanismos precisos de extrapolação do campo de ondas, é proposto. O seu desempenho é verificado no processamento de grupos de tiro comum e ponto médio comum sintéticos. Finalmente, estes resultados são comparados com outros obtidos de um dos algoritmos apresentados anteriormente, de forma a evidenciar as vantagens e limitações da técnica proposta. / [en] The effect of near surface interfaces with irregular topography on the target reflections from deeper layers is a well known problem in digital seismic data processing. Due to strong contrast of velocities imposed by such interfaces, theses reflections lose their hyperbolic characteristic. As a consequence, the CMP stack procedure, which main assumption is the hyperbolic shaped reflections, fails in its attempt to improve the signal to noise ratio of the seismic section. To overcome this difficulty, a preprocessing technique which recovers fully or partially the hyperbolic pattern of these reflections is necessary. In this context, this work is divided in two parts. First, three known different algorithms used for the solution of this problem, with distinct levels of precision and computational cost, are discussed. Following that, a new algorithm which integrates accurate wave field extrapolation mechanisms with ray tracing techniques, is proposed. The performance of the new method is demonstrated on synthetic common mid point gathers and common shot gathers. Finally, these results are then compared with those obtained from one of the algorithms previously described, in order to assess the limitations and advantages of the proposed technique.
8

[en] LOGLINEAR MODEL ESTIMATION WITH MISSING DATA: AN APPLICATION TO SAEB/99. / [pt] ESTIMAÇÃO DE MODELOS LOGLINEARES COM DADOS FALTANTES: UMA APLICAÇÃO AO SAEB 99

DENIS PAULO DOS SANTOS 27 March 2002 (has links)
[pt] Geralmente, em análises estatísticas, dados faltantes em ao menos uma variável resulta da completa eliminação da unidade respondente. Esta estratégia, padrão na maioria dos pacotes estatísticos, não produz resultados livres de viés, a não ser que os dados faltantes sejam Missing Completly At Random (MCAR). A tese mostra a classificação usada para o mecanismo gerador de dados faltantes e a modelagem de dados categóricos levando em conta os dados faltantes. Para isto, utiliza-se o modelo loglinear em combinação com o algoritmo EM (Expectation-Maximization). Esta combinação produz o algoritmo conhecido como ECM (Expectation-Conditional Maximization). A aplicação do método é feita com os dados do SAEB (Sistema Nacional de Avaliação da Educação Básica) para o ano de 1999, investigando a relação entre o responsável pelo desenvolvimento do projeto pedagógico na escola e o impacto na proficiência média da escola. / [en] Generally, in statiscal analysis, missing value in one variable at least, implies the elimination of the respondent unit. That strategy, default in the most of statistical softwares, don´t produce results free from bias, unless the missing data are Missing Completly At Random (MCAR). This dissertation shows the classification about the mechanisms that lead to missing data and the modeling of categorical data dealing with missing data. To do that we combine loglinear model and the EM (Expectation-Maximization)algorithm. This combination produce the agorithm called ECM (Expectation-Conditional Maximization) algorithm. The method is applied to SAEB educational data. The objective is to investigate the relationship between responsable for developing the pedagogic project and the impact on the mean proficiency of school.
9

[en] REGISTRATION OF 3D SEISMIC TO WELL DATA / [pt] REGISTRO DE SÍSMICA 3D A DADOS DE POÇOS

RODRIGO COSTA FERNANDES 08 March 2010 (has links)
[pt] A confiabilidade dos dados coletados diretamente ao longo do caminho de poços de petróleo é maior que a confiabilidade de dados sísmicos e, por isto, os primeiros podem ser utilizados para ajustar o volume de aquisição sísmica. Este trabalho propõe um ajuste dos volumes de amplitudes sísmicas através de uma algoritmo de três passos. O primeiro passo é a identificação de feições comuns através de um algoritmo de reconhecimento de padrões. O segundo passo consiste em gerar e otimizar uma malha alinhada às feições de interesse do dado sísmico voluméletrico através de um novo algoritmo baseado em processamento de imagens e inteligência computacional. E o terceiro e último passo é a realização de uma deformação volumétrica pontoa- ponto usando interpolação por funções de base radial para registrar o volume sísmico aos poços. A dissertação apresenta ainda resultados de implementações 2D e 3D dos algoritmos propostos de forma a permitir algumas conclusões e sugestões para trabalhos futuros. / [en] Data acquired directly from borehole are more reliable than seismic data, and then, the first can be used to adjust the second. This work proposes the correction of a volume of seismic amplitudes through a three step algorithm. The first step is the identification of common features in both sets using a pattern recognition algorithm. The second step consists of the generation and the optimization of a mesh aligned with the features in the volumetric data using a new algorithm based on image processing and computational intelligence. The last step is the seismic-to-well registration using a point-to-point volumetric deformation achieved by a radial basis function interpolation. The dissertation also presents some results from 2D and 3D implementations allowing conclusions and suggestions for future work.
10

[en] LDC MEDIATOR: A MEDIATOR FOR LINKED DATA CUBES / [pt] MEDIADOR LDC: UM MEDIADOR DE CUBOS DE DADOS INTERLIGADOS

LIVIA COUTO RUBACK RODRIGUES 06 July 2015 (has links)
[pt] Um banco de dados estatístico consiste de um conjunto de observações feitas em pontos de um espaço lógico, e, muitas vezes, são organizados como cubos de dados. A definição adequada de cubos de dados, em especial de suas dimensões, ajuda a processar as suas observações e, mais importante, ajuda a combinar observações de cubos de dados diferentes. Neste contexto, os princípios de dados interligados podem ser proveitosamente aplicados à definição de cubos de dados, oferecendo uma estratégia para fornecer a semântica das dimensões, incluindo seus valores. Este trabalho introduz uma arquitetura de mediação para auxiliar no consumo de cubos de dados, expostos como triplas RDF e armazenados em bancos de dados relacionais. Os cubos de dados são descritos em um catálogo usando vocabulários padronizados e são acessados por métodos HTTP usando os princípios de REST. Portanto, este trabalho busca tirar proveito tanto dos princípios de dados interligados quanto dos princípios de REST para descrever e consumir os cubos de dados interligados de forma simples e eficiente. / [en] A statistical data set comprises a collection of observations made at some points across a logical space and is often organized as what is called a data cube. The proper definition of the data cubes, especially of their dimensions, helps to process the observations and, more importantly, helps to combine observations from different data cubes. In this context, the Linked Data Principles can be profitably applied to the definition of data cubes, in the sense that the principles offer a strategy to provide the missing semantics of the dimensions, including their values. This work introduces a mediation architecture to help consume linked data cubes, exposed as RDF triples, but stored in relational databases. The data cubes are described in a catalogue using standardized vocabularies and are accessed by HTTP methods using REST principles. Therefore, this work aims at taking advantage of both Linked Data and REST principles in order to describe and consume linked data cubes in a simple but efficient way.

Page generated in 0.0391 seconds