391 |
Uso da análise discriminante regularizada (RDA) no reconhecimento de padrões em imagens digitais hiperespectral de sensoriamento remotoErbert, Mauro January 2001 (has links)
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas. / The remote sensing analysis of natural scenes has been relying primarily on data collected by sensors that provide a relatively small number of spectral bands. In most of the cases, this low dimensional image data has proved capable of performing image data classification in an acceptable way. There are some cases, however, in which some or all of the classes involved are spectrally very similar, i.e., their mean vectors are nearly identical. In these cases, the low dimensional image data yield a very low classification accuracy. This problem may be solved by using high dimensional image data. It is well known that high dimensional image data allows for the separation of classes that are spectrally very similar , provided that their covariance matrices differ significantly. One problem with high dimensional data, however, is related to the estimation of the required parameters, specially the class covariance matrices. As the data dimension increases, so does the number of parameters to be estimated. In real world conditions, however, the sample size normally available for parameter estimation is limited, resulting in poor estimates for the parameters. This problem becomes apparent when one compares the classification accuracy against the data dimensionality. Initially the accuracy of the classifier tends to increase as the number of spectral bands increase, i.e., as the data dimensionality becomes larger. Eventually the accuracy peaks and as the data dimensionality continues to increase the classification accuracy tends to decrease. This pattern, known as the "Hughes Phenomenon" is caused by the gradual deterioration of the parameters estimation as the data dimensionality keeps increasing while the number of available training samples remains constant. One possible way to mitigate this problem consists in the procedure known as regularization of the covariance matrix. This procedure can be performed in two steps: (1) replacing the class covariance matrix by a linear combination of the class covariance matrix and the common covariance matrix for all classes involved in the process and (2) scaling the class covariance matrices to counter the bias that tend to estimate the small eigenvalues too small and the large eigenvalues too large. This bias occur whenever the number of training samples is too small compared with the data dimensionality. This study is concerned with the applications of the regularization techniques to remote sensing high dimensional image data such as the data provided by the AVIRIS sensor system. Methods using the conventional quadratic classifier (QDA) and the classifier implementing the regularized covariance matrices (RDA) are tested and compared. The experiments have shown that the regularization techniques were very efficient in mitigating the Hughes phenomenon. In some experiments, the maximum accuracy was obtained using the conventional quadratic classifier (QDA), with a smaller number of spectral bands. In other cases the regularized procedure (RDA) produced more accurate results at higher dimensionality having mitigated the Hughes phenomenon. The investigation of the behavior of the regularization procedure (RDA) in remote sensing image data constitutes the main contribution of this study. The regularization procedure, originally proposed by Friedman is shown to perform well in remote sensing digital image classification. The regularization procedure (RDA) seems to be capable of improving the accuracy of the classification procedure when high dimensional image data is used.
|
392 |
PairClassif - Um Método para Classificação de Sentimentos Baseado em ParesSILVA, Nelson Gutemberg Rocha da 28 January 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-09T13:49:25Z
No. of bitstreams: 2
dissertacao_nelson.pdf: 1959923 bytes, checksum: ebe6bba80aefc9ee445580dddc4e9fd1 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-09T13:49:25Z (GMT). No. of bitstreams: 2
dissertacao_nelson.pdf: 1959923 bytes, checksum: ebe6bba80aefc9ee445580dddc4e9fd1 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-01-28 / Na última década, a Internet tem crescido de forma surpreendente, tornando-se uma das maiores bases de informações do mundo. Com o surgimento e o rápido cresci-mento de Blogs, Fóruns e Redes Sociais, milhões de usuários tornam públicas suas opi-niões sobre os mais diversos assuntos.
Esse tipo de informação é de grande auxílio para pessoas e empresas na hora de tomar uma decisão. Contudo, toda essa informação está dispersa na Web, em formato livre, tornando impraticável a análise manual dessas opiniões com o objetivo de se obter o “sentimento geral” acerca de um produto ou serviço. Automatizar essa tarefa é a me-lhor alternativa. Porém, interpretar textos em formato livre não é uma tarefa trivial para o computador, devido às irregularidades e à ambiguidade inerentes às línguas naturais.
Nesse contexto, estão surgindo sistemas que tratam as opiniões de forma auto-mática utilizando-se dos conceitos da área de Análise de Sentimentos (AS), também conhecido por Mineração de Opinião. A AS se preocupa em classificar opiniões expres-sas em textos, com respeito a um determinado produto ou serviço, como positivas ou negativas.
Muitos trabalhos foram propostos na área de Análise Sentimentos, porém, a maioria destes provê uma avaliação global para o sentimento expresso no texto. O Tra-balho aqui proposto busca realizar uma análise mais refinada, que é conhecida como Classificação em Nível de Característica. Nesse nível busca-se classificar a polaridade das opiniões sobre cada característica do objeto sendo monitorado.
O processo proposto classifica pares (característica, palavra opinativa), uma vez que alguns adjetivos mudam de polaridade a depender do substantivo que eles qua-lificam (e.g., “cerveja quente”, “pizza quente”). Utilizamos aqui técnicas baseadas em Estatística e Linguística, com apoio da ferramenta SentiWordNet [ESULI & SEBASTI-ANI, 2006]. Resultados experimentais mostraram que o processo tem alta eficácia, su-perando outros métodos existentes.
|
393 |
Teste de razão de verossimilhanças Bootstrap e técnicas de diagnóstico em modelos em séries de potências não-lineares generalizadosFORERO, Sébastien Lozano 25 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-16T17:11:02Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
SébastienLozano_Mestrad.pdf: 855650 bytes, checksum: c3ce2f2482d9450aef7d2e6264b3f0e3 (MD5) / Made available in DSpace on 2016-02-16T17:11:02Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
SébastienLozano_Mestrad.pdf: 855650 bytes, checksum: c3ce2f2482d9450aef7d2e6264b3f0e3 (MD5)
Previous issue date: 2015-06-25 / FACEPE / Os Modelos em Série de Potência não-Lineares Generalizados (MSPNLGs), introduzidos
em Cordeiro et al. (2009), são apresentados como uma alternativa para a análise de regressão
de dados de contagem, generalizando os modelos tradicionais, como o Consul, Poisson
generalizada, binomial negativa generalizada, entre outros. Nesta dissertação, versões modificadas
(via Bartlett (1937) e Rocke (1989)) das estatísticas da razão de verosimilhanças e
razão de verossimilhanças bootstrap, respectivamente, são apresentadas para testes de hipóteses
nesta classe de modelos. Simulações de Monte Carlo mostram que os testes baseados nas
versões modificadas das estatísticas da razão de verossimilhanças e razão de verossimilhanças
bootstrap exibem melhores desempenhos em amostras finitas, superando os testes originais
(sem correção). Além disso, técnicas de diagnóstico são propostas para os MSPNLGs, a saber:
resíduos, alavancagem generalizada, influência global, e influência local. Finalmente, um
conjunto de dados reais é utilizando para avaliar as metodologias desenvolvidas tanto em
técnicas de diagnóstico como em aperfeiçoamento de testes. / The Power Series Generalized nonlinear Models (PSGNLMs), introduced in Cordeiro et al.
(2009), are presented as a prominent option to deal with counting regression models, generalizing
well known models as the Consul, the generalized Poisson and the generalized negative
binomial, among others. In this work, modified versions (via Bartlett (1937) and Rocke (1989))
of the likelihood ratio and bootstrap likelihood ratio test statistics, respectively, are presented
for hypothesis testing in this class of models. Monte Carlo simulations show that tests
based on modified versions of the likelihood test statistic exhibit better performance in finite
samples, exceeding the original tests (uncorrected). Furthermore, diagnostic techniques are
proposed for the MSPNLGs, namely: residuals, generalized leverage, global influence, and
local influence. Finally, a real data set is used in order to assess the developed techniques in
both areas, influence diagnostic and hypothesis testing.
|
394 |
Regressão simplex não linear: inferência e diagnósticoSILVA, Alisson de Oliveira 25 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-19T18:18:56Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
DISSERTAÇÃO Alisson de Oliveira Silva.pdf: 1538683 bytes, checksum: e382c50b9af1c32b274b080f54fc0d61 (MD5) / Made available in DSpace on 2016-02-19T18:18:56Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
DISSERTAÇÃO Alisson de Oliveira Silva.pdf: 1538683 bytes, checksum: e382c50b9af1c32b274b080f54fc0d61 (MD5)
Previous issue date: 2015-02-25 / CMPQ / Em diversas situações práticas, sejam experimentais ou observacionais, há o interesse
em investigar como um conjunto de variáveis se relaciona com percentagens, taxas ou razões.
Dados restritos ao intervalo contínuo (0,1), em geral, exibem assimetria e possuem um padrão
específico de heteroscedasticidade, tornando o modelo normal linear inadequado. Nesse sentido,
uma classe de modelos de regressão beta foi proposta por Ferrari e Cribari–Neto (2004), em que
a média da variável resposta está relacionada com um preditor linear, através de uma função de
ligação, e o preditor linear envolve covariáveis e parâmetros desconhecidos. Uma alternativa
competitiva à distribuição beta é o modelo simplex proposto por Barndorff–Nielsen e Jorgensen
(1991). A distribuição simplex faz parte dos modelos de dispersão definidos por Jorgensen (1997)
que estendem os modelos lineares generalizados. Nesta dissertação, propomos uma extensão
do modelo de regressão simplex (Miyashiro, 2008), em que tanto a média da variável resposta
quanto o parâmetro de precisão estão relacionados às covariáveis por meio de preditores não
lineares. Apresentamos expressões em forma fechada para o vetor escore, matriz de informação
de Fisher e sua inversa. Desenvolvemos técnicas de diagnósticos para o modelo de regressão
simplex não linear baseadas no método de influência local (Cook, 1986), sob cinco esquemas
de perturbação. Além disso, propomos um resíduo para o modelo através do processo iterativo
escore de Fisher, e obtemos uma expressão matricial para a alavanca generalizada com base na
definição geral apresentada por Wei et al. (1998). Aplicações a dados reais e dados simulados
são apresentadas para ilustrar a teoria desenvolvida. / In many practical situations, whether experimental or observational, there is interest
in investigating how a set of variables relates to percentages, rates or fractions. Restricted
data to continuous interval (0.1), in general, exhibit asymmetry and have a specific pattern
of heteroscedasticity, making the normal linear model inappropriate. In this sense, a class of
beta regression models was proposed by Ferrari and Cribari–Neto (2004), in which the mean
response is related to a linear predictor through a link function, and the linear predictor includes
regressors and regression parameters. A useful alternative to the beta distribution is the simplex
model proposed by Barndorff–Nielsen and Jorgensen (1991). Simplex distribution is part of the
dispersion models defined by Jorgensen (1997) that extend generalized linear models. In this
paper, we propose an extension of the simplex regression model (Miyashiro, 2008), in which
both the mean response as the precision are related to covariates via non-linear predictors. We
provide closed-form expressions for the score function, for Fisher’s information matrix and its
inverse. Some diagnostic measures are introduced. We propose a new residual obtained using
Fisher’s scoring iterative scheme for the estimation of the parameters that index the regression
non-linear predictor to the mean response and numerically evaluate its behaviour. We also derive
the appropriate matrices for assessing local influence on the parameter estimates under diferent
perturbation schemes and provide closed-form to generalized leverage matrix proposed by Wei,
Hu and Fung (1998). Finally, applications using real and simulated data are presented and
discussed.
|
395 |
Análise de desempenho de TCP sobre GPRS em um ambiente fim a fimPereira de Oliveira, Jeísa January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:56Z (GMT). No. of bitstreams: 2
arquivo4784_1.pdf: 1130231 bytes, checksum: d522c1b7bacb28e4fac11275ecf335b5 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2004 / O GPRS (General Packet Radio Service) é uma extensão do GSM (Global System for Mobile communications) para a transmissão de dados baseada em pacotes e surgiu com o objetivo de atender à demanda por acesso sem fio à Internet. Por aproveitar toda a estrutura da rede GSM, tecnologia mais utilizada na área de comunicação celular, o GPRS vem sendo bastante adotado pelas operadoras celulares, inclusive no Brasil. Redes sem fio apresentam grandes taxas de perdas de pacotes devido a erros na sua interface aérea. Esta característica causa problemas de desempenho para o protocolo TCP (Transmission Control Protocol), que é utilizado pela maioria dos serviços de aplicação oferecidos atualmente na Internet. A perda de pacotes consiste em uma notificação implícita de congestionamento na rede para o transmissor TCP, que diminui sua taxa de transmissão. Em uma rede sem fio, como GPRS, o TCP não possui informação suficiente para distinguir entre perdas de pacote devido a erros na interface aérea e perdas causadas por descartes nas filas dos roteadores. Assim, é necessário que o seu comportamento sobre o GPRS seja cuidadosamente analisado. Alguns estudos têm sido realizados nos últimos anos sobre esse assunto, entretanto todos possuem um escopo bastante limitado. Este trabalho apresenta uma análise mais abrangente do desempenho do TCP sobre GPRS, baseada em simulação. Vários cenários distintos são avaliados, incluindo diferentes taxas de erros no meio físico de transmissão, tamanhos de pacotes e quantidades de usuários e de timeslots utilizados por usuário no sentido downlink. Além disso, um aspecto inovador é analisado: o uso de um modelo adaptativo para configurar dinamicamente os cenários de codificação (CS) do GPRS.
Dentre as contribuições deste trabalho, destacam-se ainda os vários ajustes e acréscimos ao código do simulador utilizado visando tornar os resultados mais confiáveis.
Palavras-chave: GPRS, TCP, análise de desempenho
|
396 |
Análise estátistica das variavéis aleatórias: RTT (Round-Trip Time), tempo de processamento no Stub e tempo de processamento no Skeleton do Middleware CORBACARBONE, Thiago Sávio January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:03Z (GMT). No. of bitstreams: 2
arquivo7149_1.pdf: 450097 bytes, checksum: 66f4c98834d738979f5d31da7764af6a (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2005 / O paradigma cliente-servidor tem sido usado na construção de aplicações para sistemas distribuídos. Adicionalmente, como os componentes implementados, usando-se de diferentes tecnologias, precisam interagir de forma colaborativa, isto torna os sistemas cliente-servidor heterogêneos; cabe então ao middleware prover, eficientemente, a interoperabilidade em tais sistemas. Este fato originou o surgimento de trabalhos de pesquisa na busca de uma modelagem matemática para analisar o comportamento de variáveis aleatórias presentes na comunicação cliente-servidor. Este trabalho apresenta, inicialmente, a análise estatística das variáveis RTT, T1 (tempo de processamento no stub) e T3 (tempo de processamento no skeleton). A seguir também é estudada a variável RTT utilizando o tipo primitivo char. Os resultados obtidos com o experimento mostraram que (i) o número de clientes e RTT são grandezas diretamente proporcionais, isto é, a medida que o número de clientes aumenta RTT também aumenta; (ii) a maior parte do tempo de processamento de RTT é gasto no tempo de processamento no stub. Constatou-se então que RTT e o tempo de processamento no stub são estatisticamente os mesmos; (iii) as variações do número de requisições (N) influenciam em RTT; (iv) RTT aumentou significativamente quando o tipo primitivo foi apenas char variando o tamanho da requisição
|
397 |
Design de componentes educacionais síncronosALVES, Enoque Calvino Melo January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:10Z (GMT). No. of bitstreams: 2
arquivo7171_1.pdf: 2257765 bytes, checksum: a7bdaaafadc2ed751bde88c9d07af1c4 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2005 / Aprendizado Colaborativo Apoiado por Computador tem se firmado
como um paradigma de ensino. Neste articulam-se diferentes conceitos de
aprendizagem e interação em grupo. Os ambientes colaborativos síncronos visam
facilitar a construção de conhecimento e o desenvolvimento de competências
entre participantes de um grupo.
Componentes síncronos de aprendizagem (também chamados de
sistemas de groupware) podem ser caracterizados por prover um conjunto de
objetos virtuais compartilhados. Estes são manipuláveis por ferramentas e
constituem-se num espaço compartilhado de interação entre usuários.
O problema que estamos focando consiste levantar, a partir da
interação entre usuários, requisitos que colaborem com a definição de uma
arquitetura de componentes colaborativos síncronos que resolva problemas de
comunicação, consciência de colaboração, manutenção do espaço compartilhado,
controle de acesso ao espaço compartilhado, definição de papéis e percepção
(awareness).
Este trabalho utilizou técnicas de design para usabilidade com o intuito
de resolver problemas relativos à interação mediada por componentes síncronos
de aprendizagem, propondo um conjunto de requisitos para construção de novos
sistemas que favoreçam a interação em grupo através de análises centradas nas
necessidades dos usuários
|
398 |
Análise de desvios dos resultados financeiros de projetos de transmissão de rede básica : caso CHESF / Jeanne Medeiros Jarde Medeiros Jar, Jeanne January 2005 (has links)
Made available in DSpace on 2014-06-12T17:20:59Z (GMT). No. of bitstreams: 2
arquivo5966_1.pdf: 562706 bytes, checksum: 5fb25694879a1eaa8feeddf8f8063b34 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2005 / As empresas precisam ser cada vez mais competitivas, por esta razão mais do que nunca
os seus custos devem ser minimizados, e devidamente acompanhados. Por isso, este
trabalho tem como objetivo principal acompanhar os investimentos dos projetos de
transmissão de rede básica na Companhia Hidro Elétrica do São Francisco (CHESF),
avaliando os desvios existentes no decorrer de todo o processo, ou seja, desde a
aprovação do projeto pela Agência Nacional de Energia Elétrica ANEEL, até a
conclusão do mesmo. Além da adoção de providências no sentido de tornar o processo
ágil e seguro com a definição procedimentos a serem adotados pela empresa, haja vista
a reestruturação do setor elétrico brasileiro. Foram analisadas 24 (vinte e quatro) obras
de investimento / empreendimentos que fazem parte da rede básica autorizados e
aprovados pela Agencia Nacional de Energia Elétrica (ANEEL).Verificou-se que a
maioria dos projetos atrasam pelo menos um ano e meio e que a diferença entre a taxa
de retorno da CHESF e da ANEEL é em média 5 %, isto significa que novos
cronogramas devem ser estabelecidos e que os cálculos devem ser melhor especificados
pela CHESF ou ANEEL.Constatou-se, também, que as normas em vigor não são
suficientes para um acompanhamento total do processo. Foi concluído que, por se tratar
de um processo complexo que envolve desde Ministério de Minas e Energia até
múltiplos órgãos da CHESF, faz-se necessário mapear todo o processo objeto do estudo
e por fim, sugere-se que seja implantado um sistema informatizado que consiga rastrear
as informações desde o orçamento do investimento até conclusão da obra
|
399 |
Microcrédito na região metropolitana do Recife : experiência empreendedora do CEAPESILVEIRA FILHO, Jaime Albuquerque January 2005 (has links)
Made available in DSpace on 2014-06-12T17:21:00Z (GMT). No. of bitstreams: 2
arquivo5967_1.pdf: 1475646 bytes, checksum: 802257d8dc0c0ecc81400e48b4cf472e (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2005 / As empresas precisam ser cada vez mais competitivas, por esta razão mais do que nunca
os seus custos devem ser minimizados, e devidamente acompanhados. Por isso, este
trabalho tem como objetivo principal acompanhar os investimentos dos projetos de
transmissão de rede básica na Companhia Hidro Elétrica do São Francisco (CHESF),
avaliando os desvios existentes no decorrer de todo o processo, ou seja, desde a
aprovação do projeto pela Agência Nacional de Energia Elétrica ANEEL, até a
conclusão do mesmo. Além da adoção de providências no sentido de tornar o processo
ágil e seguro com a definição procedimentos a serem adotados pela empresa, haja vista
a reestruturação do setor elétrico brasileiro. Foram analisadas 24 (vinte e quatro) obras
de investimento / empreendimentos que fazem parte da rede básica autorizados e
aprovados pela Agencia Nacional de Energia Elétrica (ANEEL).Verificou-se que a
maioria dos projetos atrasam pelo menos um ano e meio e que a diferença entre a taxa
de retorno da CHESF e da ANEEL é em média 5 %, isto significa que novos
cronogramas devem ser estabelecidos e que os cálculos devem ser melhor especificados
pela CHESF ou ANEEL.Constatou-se, também, que as normas em vigor não são
suficientes para um acompanhamento total do processo. Foi concluído que, por se tratar
de um processo complexo que envolve desde Ministério de Minas e Energia até
múltiplos órgãos da CHESF, faz-se necessário mapear todo o processo objeto do estudo
e por fim, sugere-se que seja implantado um sistema informatizado que consiga rastrear
as informações desde o orçamento do investimento até conclusão da obra
|
400 |
Análise da viabilidade econômica da energia elétrica gerada através das microalgasHolanda, Laryssa Ramos de 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T17:35:09Z (GMT). No. of bitstreams: 2
arquivo2619_1.pdf: 1976981 bytes, checksum: 5d58ce6fe441042293fb6ae2cda6443f (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho analisa a viabilidade econômica de um processo de produção de microalgas para geração de eletricidade, considerado como uma atividade conjunta com o etanol, tomando como foco o estado de Pernambuco, de modo a suprir a elevação da demanda prevista de energia ocasionada pelo crescimento econômico do estado. A produção dessa fonte de energia alternativa em conjunto com uma usina de etanol maximiza os ganhos de ambas, além de trazer benefícios ao meio ambiente, com as microalgas captando o dióxido de carbono emitido pela usina de etanol. Através de estimativas de custo e produção, uma análise de investimento do projeto de produção de energia a partir de microalgas é feita de acordo com os critérios do valor presente líquido (VPL), da taxa interna de retorno (TIR) e da razão benefício/custo. O resultado obtido com a aplicação dos três critérios para um horizonte de 8 anos e à uma taxa de juros de 12% ao ano, é um valor presente líquido de R$ 35 milhões, uma taxa interna de retorno de 265% ao ano e um indicador benefício/custo de 10,55, ou seja, a confirmação da viabilidade econômica do processo produtivo de microalgas para geração de bioeletricidade em Pernambuco
|
Page generated in 0.0301 seconds