1 |
[en] THE CYGNUS SYSTEM - A BASIC CONFIGURATION / [pt] SISTEMA CYGNUS - A CONFIGURAÇÃO BÁSICADILZA MERCANTE DE MATTOS 27 October 2009 (has links)
[pt] O uso de múltiplos microprocessadores constitui solução apropriada para diversos sistemas que necessitam de grande capacidade computacional. Este trabalho descreve a configuração básica do sistema multiprocessador CYGNUS formada por um módulo processador de 16 bits, com unidade de gerenciamento de memória integrada, e um controlador inteligente de discos flexíveis. A comunicação entre os módulos se dá pelo método de memória comum, sendo prevista a expansão do sistema com a introdução de processadores adicionais, de 16 ou 32 bits. / [en] The use of multiple microprocessors can provide the appropriate solution to systems demanding high computing power. This essay describes the basic configuration of the CYGNUS multiprocessor system composed of a 16 bits processor module, with integrated memory management unit, and an inteligent floppy disk controller. Communication between modules is carried out through a common memory structure. System is allowed with the introduction of 16 bit or 32 bit processors.
|
2 |
[en] INITIAL PUBLIC OFFERING IN THE BRAZILIAN MARKET: A VALUATION OF THE OPERATIONS IN THE PERIOD BETWEEN 2004 AND 2008, USING RELATIVE VALUATION AND COST OF EQUITY / [pt] OFERTA PUBLICA INICIAL NO MERCADO BRASILEIRO: UMA AVALIAÇÃO DAS OPERAÇÕES NO PERÍODO ENTRE 2004 E 2008, ATRAVÉS DA AVALIAÇÃO RELATIVA E DO CUSTO DE CAPITAL PRÓPRIOMARCELO GAZINEU CEZAR DE ANDRADE 07 December 2012 (has links)
[pt] A Oferta Publica Inicial de Ações (IPO) tem sido objeto de estudo em
diversos países, em função da importância destas operações, principalmente em
mercados desenvolvidos. Especialmente no Brasil, este ainda é um assunto
relativamente novo, com crescimento no volume de operações nos últimos anos.
Este trabalho busca avaliar as operações através da metodologia de Múltiplos,
verificando se as empresas foram superavaliadas, ou tiveram seu valor
subestimado. Em seguida, foi estimado o custo de capital próprio das empresas,
com base nas informações disponíveis no momento da operação e comparado ao
retorno observado após o lançamento. Da mesma forma, foi estimado o beta, com
base na média de cada setor e comparado ao realizado nos meses seguintes,
buscando testar a assertividade das estimativas utilizadas para o cálculo do Custo
de Capital. O presente trabalho teve como ponto de partida o estudo realizado por
Felipe Casotti (2007), analisando as operações entre 2004 e 2006, tendo agora
uma amostra maior e um histórico mais longo de dados, possibilitando análises
mais robustas e resultados mais conclusivos. É possível constatar que as
precificações das emissões não foram superestimadas, pois apesar das altas
valorizações no curto prazo, os retornos de longo prazo ficaram abaixo do médio
do mercado e em linha com o Custo de Capital estimado. / [en] Initial Public Offerings (IPO) have been the subject of studies in many
countries due to its importance, mainly in developed markets. Especially in Brazil,
it is still a new topic, as the number of operations has grown over the last years.
This research intends to evaluate these operations, using the Relative Valuation
Methodology, to verify if the companies were overpriced or underpriced.
Following that, the Cost of Equity for these companies was estimated, based on
the information available at the time of the offer and then compared to the return
observed after the shares issue. Besides that, the beta was estimated based on the
average for each industry, and then compared to the actual observed on the
following months, aiming at testing the accuracy of the estimate used in the Cost
of Capital calculation. This research was based on a previous study, undertaken by
Felipe Casotti (2007), which analyzed the operations between 2004 and 2006,
with the added benefit of now having a larger sample and a longer record of actual
data, enabling more robust analyses and more conclusive results. It is possible to
observe that the price of IPOs were not overestimated, as despite the high upsides
in the short term, the returns in the long run performed below market average and
were very close to the estimated Cost of Capital.
|
3 |
[en] INITIAL PUBLIC OFFERING IN BRAZIL (2004-2006): A VALUATION APPROACH USING MULTIPLES AND COST OF EQUITY / [pt] OFERTA PÚBLICA INICIAL NO BRASIL (2004-2006): UMA ABORDAGEM DA AVALIAÇÃO ATRAVÉS DE MÚLTIPLOS E DO CUSTO DE CAPITAL PRÓPRIOFELIPE PRETTI CASOTTI 30 May 2008 (has links)
[pt] A precificação das ações emitidas em ofertas públicas
iniciais tem sido alvo
de estudos em diversos países. Abordando o conceito de
avaliação por múltiplos,
este trabalho busca verificar se as ações das empresas
estavam sub-avaliadas ou
super-avaliadas no momento das suas Ofertas Públicas
Iniciais (Initial Public
Offerings). Posteriormente, são determinados os custos de
capital próprio
adotados na emissão, verificando-se a diferença entre
betas
utilizados no modelo
CAPM, no momento da IPO, e os betas dos 12 meses após a
oferta inicial. Para
tal, foi utilizada uma amostra composta por empresas que
abriram capital entre
2004 e 2006. Observou-se que as ações não foram sub-
avaliadas, mesmo após
serem observados elevados retornos iniciais. No entanto,
não há evidências
estatísticas de que foram super-avaliadas. Por fim,
verificou-se que os betas de 12
meses são significativamente maiores do que os betas
utilizados no momento da
precificação. Como esperado, o modelo CAPM determinou
retornos abaixo dos
retornos ocorridos após a emissão. / [en] The pricing of assets issued in initial public offerings
has been the subject
of many studies in several countries. Using the concept of
relative valuation,
this study intends to verify if the shares of selected
companies were undervalued
or not at the time of their IPOs (Initial Public Offering).
Later, the cost
of equity is determined and betas used in the CAPM model,
at the time of the
IPO, and the betas verified 12 months after the initial
issue are compared. The
sample is composed of companies with IPOs during the period
2004-2006. The
results show that the shares were undervalued, although
high initial returns
were observed. However, there is no statistical evidence
that they are overvalued.
Finally, it was found that the betas after 12 months are
significantly higher
than the ones used at the time of the pricing. As expected,
the CAPM model
determined returns below the returns that occurred.
|
4 |
[en] RISK MANAGEMENT IN PROGRAMS: A STRUCTURED APPROACH WITH FOCUS ON THE ANALYSIS AND TREATMENT OF RISKS / [pt] GERENCIAMENTO DE RISCOS EM PROGRAMAS: UMA ABORDAGEM ESTRUTURADA COM FOCO NA ANÁLISE E TRATAMENTO DO RISCOBRUNO RAFAEL DIAS DE LUCENA 05 March 2013 (has links)
[pt] Esta tese tem por objetivo estabelecer bases teóricas e propor um método para estruturar o gerenciamento de riscos em programas. Sua motivação é o número crescente de organizações que, por meio de programas, buscam descentralizar ações gerenciais e aumentar a eficácia de projetos concentrando o foco em seus objetivos estratégicos. A despeito de sua importância, a literatura não apresenta orientações bem fundamentadas para a prática do gerenciamento de riscos em programas. Tal carência parece ter origem em conceitos mal formados sobre vários aspectos. A pesquisa procurou preencher tais lacunas conceituais por meio de uma revisão bibliográfica crítica e de um levantamento feito junto a profissionais familiarizados com a gerência de programas. Uma classificação de riscos e diagramas de influência são os elementos básicos do método proposto para estruturar o gerenciamento de riscos. O levantamento indicou que alguns aspectos mais críticos do método proposto são bem aceitos pelos profissionais especializados. / [en] This dissertation seeks to establish a theoretical basis, and a method, for structuring risk management programs. It was motivated by the increasing number of organizations that resort to programs as means to decentralize managerial actions and increase the effectiveness of projects focusing on their strategic objectives. Despite its importance, the literature does not provide well-grounded guidelines for the practice of program risk-management. Such deficiency appears to stem from malformed concepts on various aspects of program management. The research sought to fill such conceptual gaps through a critical literature review and a survey with professionals familiar with program management. A risk classification and influence diagrams are the basic elements of the method proposed for structuring risk management. The survey indicated that some of the most critical aspects of the proposed method are well accepted by professionals.
|
5 |
[en] MULTI-PROJECT MANAGEMENT THROUGH THE CRITICAL CHAIN METHODOLOGY: EFFECTS OF CAPACITY BUFFER AND OF THE CRITERIA TO PRIORITIZE ACTIVITIES / [pt] GESTÃO DE MÚLTIPLOS PROJETOS POR MEIO DA METODOLOGIA DA CADEIA CRÍTICA: EFEITOS DO BUFFER DE CAPACIDADE E DOS CRITÉRIOS PARA PRIORIZAR ATIVIDADESNICOLE SUCLLA FERNANDEZ 05 May 2009 (has links)
[pt] Este trabalho trata da gestão de múltiplos projetos mediante a metodologia
da Cadeia Crítica e Gestão de Buffers (Critical Chain and Buffer Management
CC/BM). Concentra-se na análise e entendimento dos efeitos que as abordagens
mais usuais para dimensionamento dos buffers de capacidade (Capacity Buffers
BC) e definição dos critérios de priorização de atividades têm sobre os objetivos
da empresa e dos próprios projetos. O estudo baseia-se num problema-exemplo
apresentado por Pritsker B. et al. (1969.). Para facilitar a análise, esse exemplo se
caracteriza por uma estrutura simples, mas que apresenta interdependências
relevantes para o estudo dos conflitos de compartilhamento de recursos entre
projetos. Analisam-se as abordagens de todos juntos, projetos sucessivos e do
recurso gargalo, propostas por Newbold (1998) para planejamento conjunto de
projetos simultâneos. Tais abordagens são implementadas através das ferramentas
de programação de projetos Prochain & Pipeline. A partir dos programas
(schedules) resultantes, analisam-se as características e deficiências de cada
abordagem. Ademais, tais resultados permitem identificar certas condições e
efeitos conflitantes no dimensionamento dos BC e no critério de priorização de
atividades utilizado nas implementações típicas da metodologia. Tais observações
criaram a necessidade de complementar a análise mediante a simulação
probabilística da etapa de execução dos projetos. A pesquisa explica a diferença
entre os efeitos dos critérios de priorização dinâmica e estática, esclarece a
interação entre os buffers de capacidade e buffers de projeto. Ela ainda analisa os
efeitos de dimensionar os BCs, para todos os projetos, como uma mesma
porcentagem da carga do recurso e ilustra os trade-offs entre estabilidade do
sistema e o makespan dos projetos. / [en] This research addresses the management of multiple simultaneous projects
through the application of the Critical Chain and Buffers Management (CC/BM)
methodology. The focus is on the analysis and interpretation of the effects that
the more usual approaches for Capacity Buffers (CB) sizing and criteria to
prioritize activities have on the companys and on the projects own objectives.
The study is based on the problem-example presented by Pritsker B. et al. (1969.)
For simplifying the analysis, this example is characterized by a simple structure
that, nevertheless, presents interdependences significant for the study of conflicts
created by sharing resources between simultaneous projects. The approaches for
simultaneous projects management, presented by Newbold (1998) are analyzed,
namely: the all together, the successive projects and the strategic resource.
Their implementations are made using the Prochain & Pipeline multi-project
management tools. From the resulting schedules, the characteristics and
deficiencies of each approach are analyzed. Furthermore, these results allow the
identification of certain conditions and conflicting effects in the BC sizing and in
the criteria used to prioritize activities in the typical methodology
implementations. Such observations led to the necessity of complementing the
analysis with the aid of probabilistic simulation of the projects execution stage.
The research explains the differences between the effects of dynamic and static
prioritization, elucidates the interaction between the capacity and the project
buffers. It also examines the effects of using the same percentage of the resource
load for sizing the BCs for all the projects, and illustrates the trade-offs between
the system stability and the projects makespan.
|
6 |
[en] SELECTION OF PORTFOLIOS OF OIL AND GAS PRODUCTION BY GENETIC ALGORITHMS / [pt] SELEÇÃO DE CARTEIRAS DE PROJETOS DE PRODUÇÃO DE PETRÓLEO E GÁS POR ALGORITMOS GENÉTICOSKARIN YANET SUPO GAVANCHO 27 November 2002 (has links)
[pt] Esta dissertação investiga um sistema de apoio à decisão
baseado em Algoritmos Genéticos e Simulação Monte Carlo
para a formação de carteiras de projetos de petróleo e
gás.
O objetivo do trabalho é avaliar o desempenho de
Algoritmos
Genéticos -AG- para selecionar projetos que formarão a
carteira. A construção de carteiras de projetos é um
problema de múltiplos objetivos, onde se deseja escolher
um
conjunto de projetos com perspectivas de lucro para
formar
uma carteira. O sistema emprega o Algoritmo Genético para
formação de carteiras de projetos. Em seguida, a
Simulação
de Monte Carlo é utilizada para obter a função de
distribuição do Valor Presente Líquido -VPL- da carteira
baseado nas distribuições dos projetos escolhidos. Por
último, avalia-se a carteira usando-se o método de
minimização de energia que busca o equilibro dos três
objetivos considerados. O problema consiste, basicamente,
em maximizar a média do VPL, que representa o retorno
esperado, minimizando-se o Desvio Padrão, que é a medida
de
risco, e maximizando-se o Percentil 90 -P90-, que
significa
a possibilidade de obter um maior lucro. Nos estudos de
casos são apresentados os resultados da aplicação do
sistema
para diferentes grupos de projetos, constituídos por 16,
18, 20 e 26 projetos, onde cada um deles tem
distribuições
teóricas do VPL definidas por funções: F, Normal e
Logarítmica, formadas por 500 dados. Os resultados
obtidos
mostram a eficiência do AG com a técnica de múltiplos
objetivos, na utilização para a otimização de carteiras
de projetos de investimento em petróleo e gás. / [en] This thesis investigates a system of support to the
decision based on Genetic Algorithms and Monte Carlo
Simulation for the creation of portfolio projects of oil
and gas. The objective of this work is to evaluate the
performance of Genetic Algorithms -GA- to select projects
that will form the portfolio. The portfolio construction of
projects is a problem of objective multiples, where it is
wishes to choose a set of projects with profit perspectives
to form a portfolio. The system uses the Genetic Algorithm
to create the portfolio formation of projects. After that,
the Monte Carlo Simulation is used to get the function of
distribution of the Net Present Value -NPV- of the
portfolio based on the distributions of the chosen projects.
Finally, the portfolio is evaluated portfolio by using
itself the method of minimizes energy for the three
considered objectives. The problem consists, basically, in
maximizing the average of the NPV which represents the
return expected, minimizing the Standard of Deviation,
which is the measure of the risk, and maximizing the
Percentile 90 -P90-, which means the possibility to get a
bigger profit. In the study of cases, it is presented the
results of the application of the system for different
groups of projects, consisting in 16, 18, 20 and 26
projects, where each project has theoretical distributions
of the NPV defined by functions: F, Normal and
Logarithmic, formed for 500 data. The gotten results show
the efficiency of the GA with the technique of objective
multiples, in the use of the optimization of the
portfolio projects oil and gas investment.
|
7 |
[en] ROBUST TEXT-INDEPENDENT SPEAKER IDENTIFICATION USING MULTIPLE CLASSIFIERS IN SUB-BANDS / [pt] IDENTIFICAÇÃO DE LOCUTOR ROBUSTA E INDEPENDENTE DO TEXTO USANDO MÚLTIPLOS CLASSIFICADORES EM SUB-BANDASEDUARDO ESTEVES VALE 07 April 2011 (has links)
[pt] Esta tese destina-se ao desenvolvimento de novas técnicas de combinação
de classificadores aplicados em sub-bandas visando melhorar a identificação de
locutor robusta e independente do texto. As vantagens observadas nas pesquisas
utilizando múltiplos classificadores em sub-bandas para o reconhecimento de
locutor robusto motivaram o desenvolvimento de técnicas de combinação desses
algoritmos. Nessa tese foram propostas novas abordagens para a combinação das
respostas dos classificadores nas sub-bandas. O principal objetivo é melhorar a
taxa de acerto em situações onde nada se sabe sobre o tipo de ruído que pode estar
corrompendo os sinais de voz usados no teste do sistema. As diferentes propostas
consistem no emprego de pesos não-uniformes, espaço nulo, treinamento em
múltiplas condições, atributos dinâmicos e coeficientes de autocorrelação –
MFCC. A aplicação das novas propostas contribui significativamente para a
melhoria da taxa de acerto do sistema de reconhecimento. Obteve-se, por
exemplo, um aumento na taxa de reconhecimento, em relação à técnica de
combinação Soma apresentada na literatura, de aproximadamente 47% em testes
com ruído branco, e de 32% em testes com ruído não-branco em 15 segundos de
fala e 10 dB de RSR (Relação Sinal Ruído), apenas utilizando uma nova estratégia
que emprega o espaço nulo na combinação de classificadores em sub-bandas.
Resultados mais significativos foram obtidos empregando-se as demais propostas
apresentadas no presente trabalho. / [en] This Thesis aims to develop new classifier combination techniques applied
in sub-bands in order to improve the robustness of text-independent speaker
identification systems. The advantages observed in previous experiments using
multiple classifiers in sub-bands for robust speaker recognition motivated the
development of combination techniques for these algorithms. New strategies to
combine the classifiers responses are proposed in this Thesis. The main purpose is
to increase the recognition performance in situations when there is no knowledge
about the type of noise that corrupts the testing speech signal. The different
proposals consist in applying non-uniform weights, null space, multicondition
training, dynamic features and autocorrelation based MFCC features. The
employment of the new strategies significantly contribute to increase the
recognition performance. It was obtained an increase, for instance, compared to
the Sum combination technique shown in the literature, of about 47% in tests with
white noise, and 32% with non-white noise in 15 seconds of speech in 10 dB of
SNR (Signal-to-noise ratio), just using a new strategy which employ the null
space to combine the sub-band classifiers. Even better results were obtained by
using the other proposals.
|
8 |
[en] SHORT TERM LOAD FORECASTING MODELS / [pt] MODELOS DE PREVISÃO DE CARGA DE CURTO PRAZOGHEISA ROBERTA TELLES ESTEVES 10 July 2003 (has links)
[pt] Aplicação de duas metodologias, para prever e modelar o
comportamento de uma serie temporal de carga de energia
elétrica, a serie histórica de carga elétrica horária de
uma das concessionárias de energia elétrica do sudeste
brasileiro, a ESCELSA.
Foram aplicadas as metodologias de amortecimento direto, e
uma metodologia recente, o método de Holt-Winters com
múltiplos ciclos. Ambas as metodologias são utilizadas para
fazer previsão horária de carga de energia elétrica,
portanto, é feita, previsão 24 passos a frente. / [en] Application of two diferent metodologies, in order to model
and forecast the behavior of time series of hourly
electrical loads generated by ESCELSA.
Was applied to the time series studied the metodology of
the direct smoothing, and also a recent metodology, the
Holt-Winters with multiple sazonalities. In both of them it
has been done the hourly forecast (24 hours load
forecasting).
|
9 |
[en] INTELLIGENT STRATEGY FOR WATER HEATING BY SOLAR ENERGY / [pt] ESTRATÉGIA INTELIGENTE DE AQUECIMENTO POR ENERGIA SOLARPEDRO MARCONDES MONTALEONE 23 November 2018 (has links)
[pt] Esta dissertação analisa aspectos da utilização da energia solar para aquecimento de água. Dois são os aspectos abordados: O primeiro é quanto à utilização de valores médios mensais ou diários de temperatura e insolação utilizados por diversos métodos de dimensionamento ou simulação de sistemas de aquecimento solar, e o segundo é a utilização de múltiplos tanques de armazenamento de água quente ao invés de um único reservatório de maior volume. Assim, este estudo tem como objetivo formular, simular e analisar diferentes cenários de configurações de sistemas de aquecimento solar de água, variando-se o número de reservatórios térmicos para um mesmo volume total do sistema. Tem-se por finalidade atender um mesmo padrão de consumo de água quente, condicionado a um mesmo perfil climático, visando otimizar a contribuição da energia solar ao sistema e consequentemente minimizar o consumo de energia auxiliar elétrica. / [en] This dissertation examines aspects of the use of solar energy for water heating. Two aspects are handled: The first is regarding the use of average monthly or daily values of temperature and insolation used by different scaling methods or simulation of solar water heating systems, and the second is the use of multiple hot water storage tanks instead of a single larger volume reservoir of water. Thus, this study aims to formulate, simulate and analyze different configurations of solar water heating systems scenarios, varying the number of thermal reservoirs for the same total volume of the system. It intends to satisfy the same standard of hot water consumption, under same climatic conditions to optimize the contribution of solar energy to the system and consequently minimize the consumption of electric auxiliary energy.
|
10 |
[en] MANY-CORE FRAGMENTATION SIMULATION / [pt] IMPLEMENTAÇÃO DE SIMULAÇÃO DE FRAGMENTAÇÃO EM ARQUITETURA DE MULTIPROCESSADORESANDREI ALHADEFF MONTEIRO 24 January 2017 (has links)
[pt] Apresentamos um método computacional na GPU que lida com eventos de fragmentação dinâmica, simulados por meio de elementos de zona coesiva. O trabalho é dividido em duas partes. Na primeira parte, tratamos o pré-processamento de informações e a verificação de corretude e eficácia da inserção dinâmica de elementos coesivos em malhas grandes. Para tal, apresentamos uma simples estrutura de dados topológica composta de triângulos. Na segunda parte, o código explícito de dinâmica é apresentado, que implementa a formulação extrínsica de zona coesiva, onde os elementos são inseridos dinamicamente quando e onde forem necessários. O principal desafio da implementação na GPU, usando a formulação de zona coesiva extrínsica, é ser capaz de adaptar dinamicamente a malha de uma forma consistente, inserindo elementos coesivos nas facetas fraturadas. Para isso, a estrutura de dados convencional usada no código de elementos finitos (baseado na incidência de elementos) é estendida, armazenando, para cada elemento, referências para elementos adjacentes. Para evitar concorrência ao acessar entidades compartilhadas, uma estratégia convencional de coloração de grafos é adotada. Na fase de pré-processamento, cada nó do grafo (elementos na malha) é associado a uma cor diferente das cores de seus nós adjacentes. Desta maneira, elementos da mesma cor podem ser processados em paralelo sem concorrência. Todos os procedimentos necessários para a inserção de elementos coesivos nas facetas fraturadas e para computar propriedades de nós são feitas por threads associados a triângulos, invocando um kernel por cor. Computações em elementos coesivos existentes também são feitas baseadas nos elementos adjacentes. / [en] A GPU-based computational framework is presented to deal with dynamic failure events simulated by means of cohesive zone elements. The work is divided into two parts. In the first part, we deal with pre-processing of the information and verify the effectiveness of dynamic insertion of cohesive elements in large meshes. To this effect, we employ a simplified topological data structured specialized for triangles. In the second part, we present an explicit dynamics code that implements an extrinsic cohesive zone formulation where the elements are inserted on-the-fly, when needed and where needed. The main challenge for implementing a GPU-based computational framework using extrinsic cohesive zone formulation resides on being able to dynamically adapt the mesh in a consistent way, inserting cohesive elements on fractured facets. In order to handle that, we extend the conventional data structure used in finite element code (based on element incidence) and store, for each element, references to the adjacent elements. To avoid concurrency on accessing shared entities, we employ the conventional strategy of graph coloring. In a pre-processing phase, each node of the dual graph (bulk element of the mesh) is assigned a color different to the colors assigned to adjacent nodes. In that way, elements of a same color can be processed in parallel without concurrency. All the procedures needed for the insertion of cohesive elements along fracture facets and for computing node properties are performed by threads assigned to triangles, invoking one kernel per color. Computations on existing cohesive elements are also performed based on adjacent bulk elements.
|
Page generated in 0.0377 seconds