• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23130
  • 423
  • 415
  • 405
  • 405
  • 386
  • 328
  • 209
  • 76
  • 61
  • 61
  • 28
  • 24
  • 23
  • 20
  • Tagged with
  • 24163
  • 11799
  • 4048
  • 2447
  • 2315
  • 1918
  • 1766
  • 1223
  • 1019
  • 993
  • 969
  • 957
  • 922
  • 901
  • 884
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Uso da análise discriminante regularizada (RDA) no reconhecimento de padrões em imagens digitais hiperespectral de sensoriamento remoto

Erbert, Mauro January 2001 (has links)
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas. / The remote sensing analysis of natural scenes has been relying primarily on data collected by sensors that provide a relatively small number of spectral bands. In most of the cases, this low dimensional image data has proved capable of performing image data classification in an acceptable way. There are some cases, however, in which some or all of the classes involved are spectrally very similar, i.e., their mean vectors are nearly identical. In these cases, the low dimensional image data yield a very low classification accuracy. This problem may be solved by using high dimensional image data. It is well known that high dimensional image data allows for the separation of classes that are spectrally very similar , provided that their covariance matrices differ significantly. One problem with high dimensional data, however, is related to the estimation of the required parameters, specially the class covariance matrices. As the data dimension increases, so does the number of parameters to be estimated. In real world conditions, however, the sample size normally available for parameter estimation is limited, resulting in poor estimates for the parameters. This problem becomes apparent when one compares the classification accuracy against the data dimensionality. Initially the accuracy of the classifier tends to increase as the number of spectral bands increase, i.e., as the data dimensionality becomes larger. Eventually the accuracy peaks and as the data dimensionality continues to increase the classification accuracy tends to decrease. This pattern, known as the "Hughes Phenomenon" is caused by the gradual deterioration of the parameters estimation as the data dimensionality keeps increasing while the number of available training samples remains constant. One possible way to mitigate this problem consists in the procedure known as regularization of the covariance matrix. This procedure can be performed in two steps: (1) replacing the class covariance matrix by a linear combination of the class covariance matrix and the common covariance matrix for all classes involved in the process and (2) scaling the class covariance matrices to counter the bias that tend to estimate the small eigenvalues too small and the large eigenvalues too large. This bias occur whenever the number of training samples is too small compared with the data dimensionality. This study is concerned with the applications of the regularization techniques to remote sensing high dimensional image data such as the data provided by the AVIRIS sensor system. Methods using the conventional quadratic classifier (QDA) and the classifier implementing the regularized covariance matrices (RDA) are tested and compared. The experiments have shown that the regularization techniques were very efficient in mitigating the Hughes phenomenon. In some experiments, the maximum accuracy was obtained using the conventional quadratic classifier (QDA), with a smaller number of spectral bands. In other cases the regularized procedure (RDA) produced more accurate results at higher dimensionality having mitigated the Hughes phenomenon. The investigation of the behavior of the regularization procedure (RDA) in remote sensing image data constitutes the main contribution of this study. The regularization procedure, originally proposed by Friedman is shown to perform well in remote sensing digital image classification. The regularization procedure (RDA) seems to be capable of improving the accuracy of the classification procedure when high dimensional image data is used.
392

PairClassif - Um Método para Classificação de Sentimentos Baseado em Pares

SILVA, Nelson Gutemberg Rocha da 28 January 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-09T13:49:25Z No. of bitstreams: 2 dissertacao_nelson.pdf: 1959923 bytes, checksum: ebe6bba80aefc9ee445580dddc4e9fd1 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-09T13:49:25Z (GMT). No. of bitstreams: 2 dissertacao_nelson.pdf: 1959923 bytes, checksum: ebe6bba80aefc9ee445580dddc4e9fd1 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-01-28 / Na última década, a Internet tem crescido de forma surpreendente, tornando-se uma das maiores bases de informações do mundo. Com o surgimento e o rápido cresci-mento de Blogs, Fóruns e Redes Sociais, milhões de usuários tornam públicas suas opi-niões sobre os mais diversos assuntos. Esse tipo de informação é de grande auxílio para pessoas e empresas na hora de tomar uma decisão. Contudo, toda essa informação está dispersa na Web, em formato livre, tornando impraticável a análise manual dessas opiniões com o objetivo de se obter o “sentimento geral” acerca de um produto ou serviço. Automatizar essa tarefa é a me-lhor alternativa. Porém, interpretar textos em formato livre não é uma tarefa trivial para o computador, devido às irregularidades e à ambiguidade inerentes às línguas naturais. Nesse contexto, estão surgindo sistemas que tratam as opiniões de forma auto-mática utilizando-se dos conceitos da área de Análise de Sentimentos (AS), também conhecido por Mineração de Opinião. A AS se preocupa em classificar opiniões expres-sas em textos, com respeito a um determinado produto ou serviço, como positivas ou negativas. Muitos trabalhos foram propostos na área de Análise Sentimentos, porém, a maioria destes provê uma avaliação global para o sentimento expresso no texto. O Tra-balho aqui proposto busca realizar uma análise mais refinada, que é conhecida como Classificação em Nível de Característica. Nesse nível busca-se classificar a polaridade das opiniões sobre cada característica do objeto sendo monitorado. O processo proposto classifica pares (característica, palavra opinativa), uma vez que alguns adjetivos mudam de polaridade a depender do substantivo que eles qua-lificam (e.g., “cerveja quente”, “pizza quente”). Utilizamos aqui técnicas baseadas em Estatística e Linguística, com apoio da ferramenta SentiWordNet [ESULI & SEBASTI-ANI, 2006]. Resultados experimentais mostraram que o processo tem alta eficácia, su-perando outros métodos existentes.
393

Teste de razão de verossimilhanças Bootstrap e técnicas de diagnóstico em modelos em séries de potências não-lineares generalizados

FORERO, Sébastien Lozano 25 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-16T17:11:02Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) SébastienLozano_Mestrad.pdf: 855650 bytes, checksum: c3ce2f2482d9450aef7d2e6264b3f0e3 (MD5) / Made available in DSpace on 2016-02-16T17:11:02Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) SébastienLozano_Mestrad.pdf: 855650 bytes, checksum: c3ce2f2482d9450aef7d2e6264b3f0e3 (MD5) Previous issue date: 2015-06-25 / FACEPE / Os Modelos em Série de Potência não-Lineares Generalizados (MSPNLGs), introduzidos em Cordeiro et al. (2009), são apresentados como uma alternativa para a análise de regressão de dados de contagem, generalizando os modelos tradicionais, como o Consul, Poisson generalizada, binomial negativa generalizada, entre outros. Nesta dissertação, versões modificadas (via Bartlett (1937) e Rocke (1989)) das estatísticas da razão de verosimilhanças e razão de verossimilhanças bootstrap, respectivamente, são apresentadas para testes de hipóteses nesta classe de modelos. Simulações de Monte Carlo mostram que os testes baseados nas versões modificadas das estatísticas da razão de verossimilhanças e razão de verossimilhanças bootstrap exibem melhores desempenhos em amostras finitas, superando os testes originais (sem correção). Além disso, técnicas de diagnóstico são propostas para os MSPNLGs, a saber: resíduos, alavancagem generalizada, influência global, e influência local. Finalmente, um conjunto de dados reais é utilizando para avaliar as metodologias desenvolvidas tanto em técnicas de diagnóstico como em aperfeiçoamento de testes. / The Power Series Generalized nonlinear Models (PSGNLMs), introduced in Cordeiro et al. (2009), are presented as a prominent option to deal with counting regression models, generalizing well known models as the Consul, the generalized Poisson and the generalized negative binomial, among others. In this work, modified versions (via Bartlett (1937) and Rocke (1989)) of the likelihood ratio and bootstrap likelihood ratio test statistics, respectively, are presented for hypothesis testing in this class of models. Monte Carlo simulations show that tests based on modified versions of the likelihood test statistic exhibit better performance in finite samples, exceeding the original tests (uncorrected). Furthermore, diagnostic techniques are proposed for the MSPNLGs, namely: residuals, generalized leverage, global influence, and local influence. Finally, a real data set is used in order to assess the developed techniques in both areas, influence diagnostic and hypothesis testing.
394

Regressão simplex não linear: inferência e diagnóstico

SILVA, Alisson de Oliveira 25 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-19T18:18:56Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Alisson de Oliveira Silva.pdf: 1538683 bytes, checksum: e382c50b9af1c32b274b080f54fc0d61 (MD5) / Made available in DSpace on 2016-02-19T18:18:56Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Alisson de Oliveira Silva.pdf: 1538683 bytes, checksum: e382c50b9af1c32b274b080f54fc0d61 (MD5) Previous issue date: 2015-02-25 / CMPQ / Em diversas situações práticas, sejam experimentais ou observacionais, há o interesse em investigar como um conjunto de variáveis se relaciona com percentagens, taxas ou razões. Dados restritos ao intervalo contínuo (0,1), em geral, exibem assimetria e possuem um padrão específico de heteroscedasticidade, tornando o modelo normal linear inadequado. Nesse sentido, uma classe de modelos de regressão beta foi proposta por Ferrari e Cribari–Neto (2004), em que a média da variável resposta está relacionada com um preditor linear, através de uma função de ligação, e o preditor linear envolve covariáveis e parâmetros desconhecidos. Uma alternativa competitiva à distribuição beta é o modelo simplex proposto por Barndorff–Nielsen e Jorgensen (1991). A distribuição simplex faz parte dos modelos de dispersão definidos por Jorgensen (1997) que estendem os modelos lineares generalizados. Nesta dissertação, propomos uma extensão do modelo de regressão simplex (Miyashiro, 2008), em que tanto a média da variável resposta quanto o parâmetro de precisão estão relacionados às covariáveis por meio de preditores não lineares. Apresentamos expressões em forma fechada para o vetor escore, matriz de informação de Fisher e sua inversa. Desenvolvemos técnicas de diagnósticos para o modelo de regressão simplex não linear baseadas no método de influência local (Cook, 1986), sob cinco esquemas de perturbação. Além disso, propomos um resíduo para o modelo através do processo iterativo escore de Fisher, e obtemos uma expressão matricial para a alavanca generalizada com base na definição geral apresentada por Wei et al. (1998). Aplicações a dados reais e dados simulados são apresentadas para ilustrar a teoria desenvolvida. / In many practical situations, whether experimental or observational, there is interest in investigating how a set of variables relates to percentages, rates or fractions. Restricted data to continuous interval (0.1), in general, exhibit asymmetry and have a specific pattern of heteroscedasticity, making the normal linear model inappropriate. In this sense, a class of beta regression models was proposed by Ferrari and Cribari–Neto (2004), in which the mean response is related to a linear predictor through a link function, and the linear predictor includes regressors and regression parameters. A useful alternative to the beta distribution is the simplex model proposed by Barndorff–Nielsen and Jorgensen (1991). Simplex distribution is part of the dispersion models defined by Jorgensen (1997) that extend generalized linear models. In this paper, we propose an extension of the simplex regression model (Miyashiro, 2008), in which both the mean response as the precision are related to covariates via non-linear predictors. We provide closed-form expressions for the score function, for Fisher’s information matrix and its inverse. Some diagnostic measures are introduced. We propose a new residual obtained using Fisher’s scoring iterative scheme for the estimation of the parameters that index the regression non-linear predictor to the mean response and numerically evaluate its behaviour. We also derive the appropriate matrices for assessing local influence on the parameter estimates under diferent perturbation schemes and provide closed-form to generalized leverage matrix proposed by Wei, Hu and Fung (1998). Finally, applications using real and simulated data are presented and discussed.
395

Análise de desempenho de TCP sobre GPRS em um ambiente fim a fim

Pereira de Oliveira, Jeísa January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:56Z (GMT). No. of bitstreams: 2 arquivo4784_1.pdf: 1130231 bytes, checksum: d522c1b7bacb28e4fac11275ecf335b5 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / O GPRS (General Packet Radio Service) é uma extensão do GSM (Global System for Mobile communications) para a transmissão de dados baseada em pacotes e surgiu com o objetivo de atender à demanda por acesso sem fio à Internet. Por aproveitar toda a estrutura da rede GSM, tecnologia mais utilizada na área de comunicação celular, o GPRS vem sendo bastante adotado pelas operadoras celulares, inclusive no Brasil. Redes sem fio apresentam grandes taxas de perdas de pacotes devido a erros na sua interface aérea. Esta característica causa problemas de desempenho para o protocolo TCP (Transmission Control Protocol), que é utilizado pela maioria dos serviços de aplicação oferecidos atualmente na Internet. A perda de pacotes consiste em uma notificação implícita de congestionamento na rede para o transmissor TCP, que diminui sua taxa de transmissão. Em uma rede sem fio, como GPRS, o TCP não possui informação suficiente para distinguir entre perdas de pacote devido a erros na interface aérea e perdas causadas por descartes nas filas dos roteadores. Assim, é necessário que o seu comportamento sobre o GPRS seja cuidadosamente analisado. Alguns estudos têm sido realizados nos últimos anos sobre esse assunto, entretanto todos possuem um escopo bastante limitado. Este trabalho apresenta uma análise mais abrangente do desempenho do TCP sobre GPRS, baseada em simulação. Vários cenários distintos são avaliados, incluindo diferentes taxas de erros no meio físico de transmissão, tamanhos de pacotes e quantidades de usuários e de timeslots utilizados por usuário no sentido downlink. Além disso, um aspecto inovador é analisado: o uso de um modelo adaptativo para configurar dinamicamente os cenários de codificação (CS) do GPRS. Dentre as contribuições deste trabalho, destacam-se ainda os vários ajustes e acréscimos ao código do simulador utilizado visando tornar os resultados mais confiáveis. Palavras-chave: GPRS, TCP, análise de desempenho
396

Análise estátistica das variavéis aleatórias: RTT (Round-Trip Time), tempo de processamento no Stub e tempo de processamento no Skeleton do Middleware CORBA

CARBONE, Thiago Sávio January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:03Z (GMT). No. of bitstreams: 2 arquivo7149_1.pdf: 450097 bytes, checksum: 66f4c98834d738979f5d31da7764af6a (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / O paradigma cliente-servidor tem sido usado na construção de aplicações para sistemas distribuídos. Adicionalmente, como os componentes implementados, usando-se de diferentes tecnologias, precisam interagir de forma colaborativa, isto torna os sistemas cliente-servidor heterogêneos; cabe então ao middleware prover, eficientemente, a interoperabilidade em tais sistemas. Este fato originou o surgimento de trabalhos de pesquisa na busca de uma modelagem matemática para analisar o comportamento de variáveis aleatórias presentes na comunicação cliente-servidor. Este trabalho apresenta, inicialmente, a análise estatística das variáveis RTT, T1 (tempo de processamento no stub) e T3 (tempo de processamento no skeleton). A seguir também é estudada a variável RTT utilizando o tipo primitivo char. Os resultados obtidos com o experimento mostraram que (i) o número de clientes e RTT são grandezas diretamente proporcionais, isto é, a medida que o número de clientes aumenta RTT também aumenta; (ii) a maior parte do tempo de processamento de RTT é gasto no tempo de processamento no stub. Constatou-se então que RTT e o tempo de processamento no stub são estatisticamente os mesmos; (iii) as variações do número de requisições (N) influenciam em RTT; (iv) RTT aumentou significativamente quando o tipo primitivo foi apenas char variando o tamanho da requisição
397

Design de componentes educacionais síncronos

ALVES, Enoque Calvino Melo January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:10Z (GMT). No. of bitstreams: 2 arquivo7171_1.pdf: 2257765 bytes, checksum: a7bdaaafadc2ed751bde88c9d07af1c4 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Aprendizado Colaborativo Apoiado por Computador tem se firmado como um paradigma de ensino. Neste articulam-se diferentes conceitos de aprendizagem e interação em grupo. Os ambientes colaborativos síncronos visam facilitar a construção de conhecimento e o desenvolvimento de competências entre participantes de um grupo. Componentes síncronos de aprendizagem (também chamados de sistemas de groupware) podem ser caracterizados por prover um conjunto de objetos virtuais compartilhados. Estes são manipuláveis por ferramentas e constituem-se num espaço compartilhado de interação entre usuários. O problema que estamos focando consiste levantar, a partir da interação entre usuários, requisitos que colaborem com a definição de uma arquitetura de componentes colaborativos síncronos que resolva problemas de comunicação, consciência de colaboração, manutenção do espaço compartilhado, controle de acesso ao espaço compartilhado, definição de papéis e percepção (awareness). Este trabalho utilizou técnicas de design para usabilidade com o intuito de resolver problemas relativos à interação mediada por componentes síncronos de aprendizagem, propondo um conjunto de requisitos para construção de novos sistemas que favoreçam a interação em grupo através de análises centradas nas necessidades dos usuários
398

Análise de desvios dos resultados financeiros de projetos de transmissão de rede básica : caso CHESF / Jeanne Medeiros Jar

de Medeiros Jar, Jeanne January 2005 (has links)
Made available in DSpace on 2014-06-12T17:20:59Z (GMT). No. of bitstreams: 2 arquivo5966_1.pdf: 562706 bytes, checksum: 5fb25694879a1eaa8feeddf8f8063b34 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / As empresas precisam ser cada vez mais competitivas, por esta razão mais do que nunca os seus custos devem ser minimizados, e devidamente acompanhados. Por isso, este trabalho tem como objetivo principal acompanhar os investimentos dos projetos de transmissão de rede básica na Companhia Hidro Elétrica do São Francisco (CHESF), avaliando os desvios existentes no decorrer de todo o processo, ou seja, desde a aprovação do projeto pela Agência Nacional de Energia Elétrica ANEEL, até a conclusão do mesmo. Além da adoção de providências no sentido de tornar o processo ágil e seguro com a definição procedimentos a serem adotados pela empresa, haja vista a reestruturação do setor elétrico brasileiro. Foram analisadas 24 (vinte e quatro) obras de investimento / empreendimentos que fazem parte da rede básica autorizados e aprovados pela Agencia Nacional de Energia Elétrica (ANEEL).Verificou-se que a maioria dos projetos atrasam pelo menos um ano e meio e que a diferença entre a taxa de retorno da CHESF e da ANEEL é em média 5 %, isto significa que novos cronogramas devem ser estabelecidos e que os cálculos devem ser melhor especificados pela CHESF ou ANEEL.Constatou-se, também, que as normas em vigor não são suficientes para um acompanhamento total do processo. Foi concluído que, por se tratar de um processo complexo que envolve desde Ministério de Minas e Energia até múltiplos órgãos da CHESF, faz-se necessário mapear todo o processo objeto do estudo e por fim, sugere-se que seja implantado um sistema informatizado que consiga rastrear as informações desde o orçamento do investimento até conclusão da obra
399

Microcrédito na região metropolitana do Recife : experiência empreendedora do CEAPE

SILVEIRA FILHO, Jaime Albuquerque January 2005 (has links)
Made available in DSpace on 2014-06-12T17:21:00Z (GMT). No. of bitstreams: 2 arquivo5967_1.pdf: 1475646 bytes, checksum: 802257d8dc0c0ecc81400e48b4cf472e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / As empresas precisam ser cada vez mais competitivas, por esta razão mais do que nunca os seus custos devem ser minimizados, e devidamente acompanhados. Por isso, este trabalho tem como objetivo principal acompanhar os investimentos dos projetos de transmissão de rede básica na Companhia Hidro Elétrica do São Francisco (CHESF), avaliando os desvios existentes no decorrer de todo o processo, ou seja, desde a aprovação do projeto pela Agência Nacional de Energia Elétrica ANEEL, até a conclusão do mesmo. Além da adoção de providências no sentido de tornar o processo ágil e seguro com a definição procedimentos a serem adotados pela empresa, haja vista a reestruturação do setor elétrico brasileiro. Foram analisadas 24 (vinte e quatro) obras de investimento / empreendimentos que fazem parte da rede básica autorizados e aprovados pela Agencia Nacional de Energia Elétrica (ANEEL).Verificou-se que a maioria dos projetos atrasam pelo menos um ano e meio e que a diferença entre a taxa de retorno da CHESF e da ANEEL é em média 5 %, isto significa que novos cronogramas devem ser estabelecidos e que os cálculos devem ser melhor especificados pela CHESF ou ANEEL.Constatou-se, também, que as normas em vigor não são suficientes para um acompanhamento total do processo. Foi concluído que, por se tratar de um processo complexo que envolve desde Ministério de Minas e Energia até múltiplos órgãos da CHESF, faz-se necessário mapear todo o processo objeto do estudo e por fim, sugere-se que seja implantado um sistema informatizado que consiga rastrear as informações desde o orçamento do investimento até conclusão da obra
400

Análise da viabilidade econômica da energia elétrica gerada através das microalgas

Holanda, Laryssa Ramos de 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T17:35:09Z (GMT). No. of bitstreams: 2 arquivo2619_1.pdf: 1976981 bytes, checksum: 5d58ce6fe441042293fb6ae2cda6443f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho analisa a viabilidade econômica de um processo de produção de microalgas para geração de eletricidade, considerado como uma atividade conjunta com o etanol, tomando como foco o estado de Pernambuco, de modo a suprir a elevação da demanda prevista de energia ocasionada pelo crescimento econômico do estado. A produção dessa fonte de energia alternativa em conjunto com uma usina de etanol maximiza os ganhos de ambas, além de trazer benefícios ao meio ambiente, com as microalgas captando o dióxido de carbono emitido pela usina de etanol. Através de estimativas de custo e produção, uma análise de investimento do projeto de produção de energia a partir de microalgas é feita de acordo com os critérios do valor presente líquido (VPL), da taxa interna de retorno (TIR) e da razão benefício/custo. O resultado obtido com a aplicação dos três critérios para um horizonte de 8 anos e à uma taxa de juros de 12% ao ano, é um valor presente líquido de R$ 35 milhões, uma taxa interna de retorno de 265% ao ano e um indicador benefício/custo de 10,55, ou seja, a confirmação da viabilidade econômica do processo produtivo de microalgas para geração de bioeletricidade em Pernambuco

Page generated in 0.0301 seconds