• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 441
  • 15
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 1
  • Tagged with
  • 468
  • 370
  • 322
  • 273
  • 187
  • 135
  • 133
  • 132
  • 101
  • 92
  • 88
  • 83
  • 79
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sistema de instrumentação distribuída suportado por rede sem fios

Pinheiro, Isabel Maria Gonçalves Fernandes Vaz January 2008 (has links)
Tese de mestrado. Engenharia Electrotécnica e de Computadores (Área de especialização de Automação industrial). Faculdade de Engenharia. Universidade do Porto. 2008
2

Modular composition of session types

Soto Ridd, Gustavo Andrés January 2015 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / En el campo de los sistemas distribuidos, lograr la coordinación entre diversas unidades de cómputo y sub-sistemas es una tarea compleja, pues cada unidad de computo se comporta distinta a las demás, de forma concurrente y de manera descentralizada. Con el fin de expresar como diversas unidades de computo se comunican unas con otras, se utilizan definiciones de protocolos. Session types son una disciplina de tipos que permite lograr la coordinación entre muchos participantes de un sistema distribuido, mediante la definición de un protocolo coreográfico. La disciplina de tipos impone condiciones sobre la coreografía con el fin de asegurar que el sistema distribuido que la implementa se comporta de la forma en la que fue definido y además posee garantías sobre propiedades de la comunicación. Entre las propiedades importantes se encuentran la ausencia de: deadlocks, mensajes huérfanos y recepciones inesperadas de mensajes. La coreografía es expresada como una entidad global, la cual es projectada a distintos tipos, uno para cada participante involucrado en la coreografía. Dichos tipos son usados para un proceso de typecheck que verifica que las implementaciones de las unidades distribuidas, llamadas procesos, se comportaran en la interacción global como se espera. Se muestra que lograr modularidad en session types no es trivial. Para ello, se presenta un caso de estudio en el que el uso de definiciones modulares para session types introduce problemas en el comportamiento global luego de su composición. Comenzando desde el caso de estudio, se explica como se introducen dichos problemas al componer sub-sessiones. Se muestra como los problemas globales pueden ser evitados gracias al uso de un mecanismo de composición que se basa en interacciones de bloqueo entre participantes. En este trabajo se desarrolla una extensión de un sistema de tipos que permite la composición modular de session types (MCST). MCST se basa en condiciones impuestas sobre definiciones modulares de sub-sessiones, además de un sistema de tipos que permite verificar sub-sessiones por separado, y un mecanismo de composición que produce sistemas bien formados. La solución presentada es modular, dado que mantiene sus definiciones separadas con el fin de reusarlas. Las condiciones para verificar correctitud no dependen del contexto en el cual una sub-session es llamada.El mecanismo de composición reusa conceptos de inlining y composición con ciclos de trabajos previos, haciéndolas aplicables en más casos, lo que resulta en un sistema más expresivo. MCST mantiene las garantías de comunicación de session types mencionadas previamente. Ademas, MCST mejora la expresividad de session types, dado que la nueva disciplina de tipos con el mecanismo de composición permite definir coreografías que no son permitidas en el estado del arte de session types.
3

Specification and implementation of an artificial transport system

Ferreira, Paulo Alexandre Fonseca January 2008 (has links)
Estágio realizado na NIAD&R / Tese de mestrado integrado. Engenharia Informátca e Computação. Faculdade de Engenharia. Universidade do Porto. 2008
4

Verificação de consistência e coerência de memória compartilhada para multiprocessamento em chip

Henschel, Olav Philipp January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T21:02:33Z (GMT). No. of bitstreams: 1 330255.pdf: 3149547 bytes, checksum: 67161f66dc891b9dd0fe6599ef298d40 (MD5) Previous issue date: 2014 / O multiprocessamento em chip sob a crescente demanda por desempenho leva a um número crescente de núcleos de processamento, que interagem através de uma complexa hierarquia de memória compartilhada, a qual deve obedecer a requisitos de coerência e consistência, capturados na interface hardware-software na forma de um modelo de memória. Dada uma execução de um programa paralelo, verificar se a hierarquia obedece aqueles requisitos é um problema intratável quando a observabilidade do sistema restringe-se a um trace de memória para cada processador, tal como ocorre em um checker dinâmico pós-silício. Esses checkers (baseados em inferências sobre traces) requerem o uso de backtracking para excluir falsos negativos. Por outro lado, checkers pré-silício podem se beneficiar da observabilidade ilimitada de representações de projeto para induzir um problema de verificação que pode ser resolvido em tempo polinomial (sem o uso de backtracking) e com plenas garantias de verificação (sem falsos negativos nem falsos positivos). Esta dissertação faz uma avaliação experimental comparativa de checkers dinâmicos baseados em diferentes mecanismos (inferências, emparelhamento em grafo bipartido, scoreboard única e múltiplas scoreboards). Os checkers são comparados para exatamente o mesmo conjunto de casos de teste: 200 programas paralelos não sincronizados, gerados de forma pseudo-aleatória, obtidos variando a frequência de ocorrência de instruções (4 mixes), o número de endereços compartilhados (entre 2 e 32) e o número total de operações de memória (entre 250 e 64K). A partir de uma mesma representação pré-validada do sistema, foram construídas oito representações derivadas, cada uma contendo um erro de projeto distinto. Para reproduzir condições compatíveis com as tendências arquiteturais, os checkers foram comparados ao verificar um modelo com máxima relaxação de ordem de programa (bastante similar ao usado, por exemplo, nas arquiteturas Alpha e ARMv7) para sistemas contendo de 2 a 32 núcleos de processamento. Não é do conhecimento do autor a existência na literatura de uma avaliação experimental tão ampla. Os resultados mostram a inviabilidade do uso de checkers baseados em inferências em tempo de projeto: têm o mais alto esforço computacional e a maior taxa de crescimento com o aumento do número de processadores. A avaliação indica que a forma mais eficiente de construir um checker pré-silício corresponde a uma observabilidade de três pontos de monitoramento por processador, ao uso de verificação on-the-fly (ao invés de análise post-mortem) e à utilização de múltiplos mecanismos para verificar separadamente e em paralelo os subespaços de verificação definidos pelo escopo individual de cada processador, enquanto os subespaços entre processadores são verificados globalmente. Como um desdobramento da avaliação experimental, a dissertação identifica uma deficiência comum a todos os checkers analisados: sua inadequação para verificar modelos de memória com fraca atomicidade de escrita, exatamente aqueles apontados como tendência e já presentes em arquiteturas recentes (e.g. ARMv8). Diante disso, a dissertação propõe algoritmos generalizados capazes de verificar tais modelos.<br> / Abstract: Chip multiprocessing under the growing demand for performance leads to agrowing number of processing cores, which interact through a complex shared memory hierarchy that must satisfy coherence and consistency requirements captured as a memory model in the hardware-software interface. Given an execution of a parallel program, verifying if the hierarchy complies to those requirements is an intractable problem when the system observability is limited to a memory trace per processor, as in dynamic post-silicon checkers.Those checkers (based on inferences over traces) require the use of backtracking to avoid false negatives. On the other hand, pre-silicon checkers may benefit from the unlimited observability of design representations to induce a verification problem that may be solved in polynomial time (without the use of backtracking) with full verification guarantees (i.e. neither false negatives nor false positives). This dissertation provides an experimental evaluation of dynamic checkers based on different mechanisms (inferences, bipartite graph matching, single scoreboard and multiple scoreboards). The checkers are compared under exactly the same set of test cases: 200 non-synchronized parallel programs, generated pseudo-randomly, obtained by varying the frequency of instructions (4 mixes), the number of shared addresses (between 2 and 32) and the total number of memory operations (between 250 and 64K). From the same pre-validated system representation, eight distinct representations were built, each one containing a single and unique design error. To reproduce conditions compatible with architectural trends, the checkers were compared while verifying a memory model with maximal relaxation of program order (similar, for example, to those used in Alpha and ARMv7 architectures) and systems containing 2 to 32 processing cores. To the author's best knowledge, no broader experimental evaluation is available in the literature. The results show that the use of inference-based checkers at design time is impractical: they have the highest computational effort and the highest rate of growth with the number of cores. The evaluation shows that the most efficient way of building a pre-silicon checker corresponds to three observable points per core, the use of on-the-fly analysis (instead of post-mortem) and the usage of multiple engines to check the verification subspaces defined by the scope of each processor independently and in parallel, while checking globally the inter-processor subspaces. As a spin-off from the experimental evaluation, the dissertation identifies a deficiency common to all analyzed checkers: their unsuitability to handle memory models with weak write atomicity, which are precisely those pointed out as the trend and are present in architectures already in the market (e.g. ARMv8). In face of this, the dissertation proposes generic algorithms capable of verifying such models.
5

Exploiting canonical dependence chains and address biasing constraints to improve random test generation for shared-memory veridication

Andrade, Gabriel Arthur Gerber January 2017 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017. / Made available in DSpace on 2017-06-27T04:21:32Z (GMT). No. of bitstreams: 1 345872.pdf: 1423815 bytes, checksum: d7ab5e6898d999346ceec9e69c88bedd (MD5) Previous issue date: 2017 / Introdução A verificação funcional do projeto de um sistema com multiprocessamento em chip (CMP) vem se tornando cada vez mais desafiadora por causa da crescente complexidade para suportar a abstração de memória compartilhada coerente, a qual provavelmente manterá seu papel crucial para multiprocessamento em chip, mesmo na escala de centenas de processadores. A verificação funcional baseia-se principalmente na geração de programas de teste aleatórios.Trabalhos Correlatos e Gerador Proposto Embora frameworks de verificação funcional que se baseiam na solução de problemas de satisfação de restrições possuam a vantagem de oferecer uma abordagem unificada para gerar estímulos aleatórios capazes de verificar todo o sistema, eles não são projetados para explorar não-determinismo, que é um importante mecanismo para expôr erros de memória compartilhada. Esta dissertação reporta novas técnicas que se baseiam em lições aprendidas de ambos? os frameworks de verificação de propósitos gerais e as abordagens especializadas em verificar o modelo de memória. Elas exploram restrições sobre endereços e cadeias canônicas de dependência para melhorar a geração de testes aleatórios enquanto mantêm o papel crucial do não-determinismo como um mecanismo-chave para a exposição de erros. Geração de Sequências Ao invés de selecionar instruções aleatoriamente, como faz uma técnica convencional, o gerador proposto seleciona instruções de acordo com cadeias de dependências pré-definidas que são comprovadamente significativas para preservar o modelo de memória sob verificação. Esta dissertação explora cadeias canônicas, definidas por Gharachorloo, para evitar a indução de instruções que, sendo desnecessárias para preservar o modelo de memória sob verificação, resultem na geração de testes ineficazes. Assinalamento de Endereços Em vez de selecionar aleatoriamente padrões binários para servir de endereços efetivos de memória, como faz um gerador convencional, o gerador proposto aceita restrições à formação desses endereços de forma a forçar o alinhamento de objetos em memória, evitar falso compartilhamento entre variáveis e especificar o grau de competição de endereços por uma mesma linha de cache. Avaliação Experimental Um novo gerador, construído com as técnicas propostas, foi comparado com um gerador convencional de testes aleatórios. Ambos foram avaliados em arquiteturas de 8, 16, e 32 núcleos, ao sintetizar 1200 programas de testes distintos para verificar 5 projetos derivados, cada um contendo um diferente tipo de erro (6000 casos de uso por arquitetura). Os testes sintetizados exploraram uma ampla variedade de parâmetros de geração (5 tamanhos de programas, 4 quantidades de posições compartilhadas de memória, 4 mixes de instruções, e 15 sementes aleatórias). Os resultados experimentais mostram que, em comparação com um convencional, o novo gerador tende a expor erros para um maior número de configurações dos parâmetros: ele aumentou em 38% o potencial de expor erros de projeto. Pela análise dos resultados da verificação sobre todo o espectro de parâmetros, descobriu-se que os geradores requerem um número bastante distinto de posições de memória para alcançar sua melhor exposição. Os geradores foram comparados quando cada um explorou a quantidade de posições de memória correspondente à sua melhor exposição. Nestas condições, quando destinados a projetos com 32 núcleos através da exploração de todo o espectro de tamanhos de testes, o novo gerador expôs um tipo de erro tão frequentemente quanto a técnica convencional, dois tipos com 11% mais frequência, um tipo duas vezes, e um tipo 4 vezes mais frequentemente. Com os testes mais longos (64000 operações) ambos os geradores foram capazes de expor todos os tipos de erros, mas o novo gerador precisou de 1,5 a 15 vezes menor esforço para expor cada erro, exceto por um (para o qual uma degradação de 19% foi observada). Conclusões e Perspectivas Com base na avaliação realizada, conclui-se que, quando se escolhe um número suficientemente grande de variáveis compartilhadas como parâmetro, o gerador proposto requer programas de teste mais curtos para expor erros de projeto e, portanto, resulta em menor esforço, quando comparado a um gerador convencional.<br> / Abstract : Albeit general functional processor verification frameworks relying on the solution of constraint satisfaction problems have the advantage of offering a unified approach for generating random stimuli to verify the whole system, they are not designed to exploit non-determinism, which is an important mechanism to expose shared-memory errors. This dissertation reports new techniques that build upon the lessons learned from both - the general verification frameworks and the approaches specifically targeting memory-model verification. They exploit address biasing constraints and canonical dependence chains to improve random test generation while keeping the crucial role of non-determinism as a key mechanism to error exposure. A new generator, built with the proposed techniques, was compared to a conventional random test generator. Both were evaluated for 8, 16, and 32-core architectures, when synthesizing 1200 distinct test programs for verifying 5 derivative designs containing each a different type of error (6000 use cases per architecture). The synthesized tests explored a wide variety of generation parameters (5 program sizes, 4 shared-location counts, 4 instruction mixes, and 15 random seeds). The experimental results show that, as compared to a conventional one, the new generator tends to expose errors for a larger number of parameter settings: it increased by 38% the potential for exposing design errors. By analyzing the verification out-comes over the full parameter ranges, we found out that the generators require quite distinct numbers of shared locations to reach best exposure. We compared them when each generator exploited the location count leading to its best exposure. In such conditions, when targeting32-core designs by exploring the whole range of test lengths, the new generator exposed one type of error as often as the conventional technique, two types 11% more often, one type twice as often, and one type4 times as often. With the longest tests (64000 operations) both generators were able to expose all types of errors, but the new generator required from 1.5 to 15 times less effort to expose each error, except for one (for which a degradation of 19% was observed).
6

Conhecimento social dinâmica

Costa, Augusto Cesar Pinto Loureiro da January 2001 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica / Made available in DSpace on 2012-10-18T06:31:27Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T20:38:27Z : No. of bitstreams: 1 182311.pdf: 14028274 bytes, checksum: bb8ef3cbefab66f0ac8ac7e24c74a211 (MD5) / Os agentes autônomos possuem um alto grau de determinação, eles podem decidir por motivações próprias, quando e sob que condições suas ações devem ser tomadas. Em muitos casos estes agentes precisam interagir com outros agentes autônomos para atingir seus objetivos, por não possuirem habilidades ou recursos suficientes para solucionar seus problemas sozinhos ou ainda pela interdependencia com outros agentes. Os objetivos destas interações são para fazer outros agentes assunirem um determinado sentido em suas ações (como por exemplo executar um serviço em particular), modificar uma linha de ação planejada, ou ainda atingir uma acordo sobre ações conjuntas. Uma vez que estes agentes não possuem um controle direto sobre os outros, faz-se necessario utilizar uma estratégia de cooperação para aglutinar outros agentes autônomos na realização de ação cooperativa. Diversos pesquisadores têm proposto estratégias de cooperação para sistemas multiagentes nos mais diversos cenários. Para citar algumas dessas estratégias de cooperação já propostas, temos o conhecido {\it The Contract Net Protocol (CNP)}, O Protocolo Hierárquico, Coalisão Baseada em Dependência, etc. Uma nova estratégia de cooperação para sistemas multiagentes cognitivos com restrições de tempo real, chamada Conhecimento Social Dinâmico é apresentada nesta tese. Esta estratégia de cooperação utiliza o conceito de contratos, similar ao (CNP) e adiciona novos conceitos como Estrutura de Contratos, Conjunto de Planos e Base de Conhecimento Social Dinâmica. Esses novos conceitos modificam o papel dos contratos que no CNP são utilizados apenas para alocação de tarefas e passam a assumir também a função de um instrumento para aquisição de conhecimento da comunidade. Além disso, introduz a idéia de construir dinamicamente uma base de conhecimento social direcionada para as metas que os agentes pretendem alcançar.
7

Procedimentos e normativas para instalação de centrais fotovoltaicas conectadas à rede elétrica em média tensão

SECUNDES, Urbano Uellington 27 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-23T19:15:07Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Urbano Uelligton Secundes.pdf: 2250923 bytes, checksum: 6020cba5a86530c67a1e907fdd810726 (MD5) / Made available in DSpace on 2016-02-23T19:15:07Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Urbano Uelligton Secundes.pdf: 2250923 bytes, checksum: 6020cba5a86530c67a1e907fdd810726 (MD5) Previous issue date: 2015-02-27 / Diante do aumento da demanda energética mundial, países emergentes, como o Brasil, buscam formas de ampliar a geração de eletricidade e injetá-la na matriz energética nacional de forma a garantir o desenvolvimento de todos os setores de consumo. Porém, o desafio consiste em gerar eletricidade de forma sustentável e menos poluente possível. Focado nessa problemática, a geração de energia elétrica através de energia solar fotovoltaica é uma das possíveis alternativas para ampliar a capacidade da matriz energética brasileira num prazo mais curto, e com investimentos menores do que a construção de grandes centrais hidro elétricas, que representam, atualmente, mais de 70% (setenta por cento) da geração nacional de eletricidade. Devido a algumas ações do governo federal nos últimos anos, através da Agencia Nacional de Energia Elétrica (ANEEL), deverá ocorrer uma ampliação significativa dos sistemas fotovoltaicos conectados à rede elétrica no Brasil, e por ser uma realidade um tanto recente, existe uma grande carência de publicações acadêmicas que tratem do assunto no sentido de orientar quais são os procedimentos técnicos e as normativas que devem ser seguidos para conectar sistemas fotovoltaicos à rede elétrica, sobretudo no que diz respeito a sistemas maiores que configurem uma central fotovoltaica. Neste trabalho, é apresentado um estudo dos aspectos geográfico, técnico e legal condicionantes para a autorização de instalação e licença de operação de uma central fotovoltaica, além de um estudo de caso que verifica o cumprimento das condicionantes estabelecidas pela ANEEL para a Planta Fotovoltaica de 2,5MWp a ser instalada em Petrolina. Por fim, é apresentado um estudo da viabilidade técnico-econômica para instalação de uma central fotovoltaica de 2,5MWp, variando o tipo de tecnologia dos painéis fotovoltaicos e o percentual de financiamento do empreendimento. Como resultado são apresentadas todas as orientações, procedimentos e normativas para a obtenção das licenças prévia, licença de instalação e licença de operação de uma central Fotovoltaica conectada em média tensão. A análise de viabilidade econômica mostrou que, sistemas compostos por módulos fotovoltaicos de Silício policristalino tempo é de retorno do investimento é por volta de 12 anos. Com relação ao uso de módulos de Silício amorfo, embora apresente um melhor comportamento em temperaturas elevadas na geração de eletricidade, o resultado das simulações mostra que nesse caso o tempo de retorno, em torno de 14 anos, é maior do que o tempo de retorno para os módulos de Silício policristalino. Uma explicação para o elevado tempo de retorno está no aumento da área de geração para compensar o baixo rendimento dos módulos. Isso implica em aumento de custos de estruturas, cabeamento, enfim, aumento de custo de instalação, o que resulta em maior tempo de retorno. / Given the increasing world energy demand, emerging countries like Brazil, looking for ways to increase electricity generation and inject it in the national energy matrix to ensure the development of all consumer sectors. However, the challenge is to generate electricity in a sustainable and environmentally friendly way possible. Focused on this problem, the generation of electricity through solar PV is one of the possible alternatives to expand the capacity of the Brazilian energy matrix within a shorter period, and lower investment than the construction of large hydro electric power stations, which currently represent more than 70% (seventy percent) of the national electricity generation. Due to some actions of the federal government in recent years through the National Electric Energy Agency (ANEEL), there should be a significant expansion of photovoltaic systems connected to the grid in Brazil, and for being a reality somewhat recent, there is a great need academic publications that address the issue in order to guide what are the technical procedures and regulations that must be followed to connect PV systems to the grid, especially with regard to larger systems that constitute a photovoltaic plant. In this work, a study of the geographical, technical and legal conditions aspects are presented for the authorization of installation and operation license of a photovoltaic plant, and a case study to verify compliance with the conditions established by ANEEL for Photovoltaic Plant of 2,5MWp to be installed in Petrolina city. Finally, a study is made of the technical and economic feasibility for installation of a photovoltaic plant of 2.5 MWp, varying the type of photovoltaic technology and venture financing percentage. As a result contains all policies, procedures and regulations for obtaining the prior licenses, installation license and operating license of a central Photovoltaic connected in medium voltage. The economic feasibility analysis showed that systems composed of photovoltaic modules polycrystalline silicon is time to return on investment is around 12 years. Regarding the use of amorphous silicon modules, although it presents a better behavior at high temperatures in electricity generation, the results of simulations show that in this case the turnaround time, around 14 years, is greater than the return time for polycrystalline silicon modules. One explanation for the high turnaround time is to increase the generation area to compensate for the low yield of the modules. This implies an increase of cost structures, cabling, finally, increased cost of installation, which results in increased turnaround time.
8

Demonstração do valor adicionado-DVA: contribuição ao estudo das empresas de maior agregação social do nordeste, através do uso da análise discriminante utilizada no termômetro de Kanitz

Ferreira da Silva, Aguinaldo 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T17:21:59Z (GMT). No. of bitstreams: 2 arquivo6618_1.pdf: 246007 bytes, checksum: 1acef2ef35951a9946b251d4ed4a236b (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Esta pesquisa intitulada Demonstração do Valor Adicionado DVA: Contribuição ao estudo das empresas de maior agregação social do Nordeste, através do uso da Análise Discriminante utilizada no Termômetro de Kanitz objetivou responder à questão: Poderá o modelo de previsão utilizado no Termômetro de Kanitz ranquear o nível de comprometimento social das vinte e uma maiores empresas do Nordeste? As empresas objeto desta pesquisa foram selecionadas de um estudo técnico, delimitado na área da contabilidade social, publicado pelo Banco do Nordeste em 2008, segundo o qual tais empresas se destacaram por apresentarem vendas acima da média das 83 grandes empresas nordestinas, além de estarem entre as 300 maiores do país. Para alcançar o objetivo proposto, foi analisado o Balanço Social das empresas, por meio da criação de indicadores sociais, onde se evidencia o seu Produto Interno Bruto PIB e sua distribuição na sociedade; classificadas as empresas conforme o nível de agregação social; analisadas as demonstrações de valores adicionados das empresas; aplicada a técnica da análise discriminante nos indicadores, e calculado o Termômetro de Kanitz, modelo de análise discriminante, cujos procedimentos de análise multivariada buscam classificar os dados em dois grupos específicos. Nesta pesquisa classificou-se um grupo de empresas mais socialmente responsáveis e outro grupo de empresas menos socialmente responsáveis. Estruturou-se um modelo que congregasse os melhores indicadores dos balanços sociais analisados, o que resultou em um modelo de previsão padrão para os indicadores sociais e identificou-se, através dos balanços sociais das empresas, o nível de comprometimento social, e mensurou-se a posição no ranking das vinte e uma maiores empresas do Nordeste mais ou menos comprometidas socialmente. Do resultado obtido, constatou-se que cinco dessas empresas foram mais comprometidas de forma social e que o tema pesquisado está em acordo com os interesses da sociedade em geral
9

Desenvolvimento e Aplicação de um Gerador Síncrono Virtual para o Controle de Inversores na Geração Distribuída

CARLETTI, D. 14 April 2015 (has links)
Made available in DSpace on 2018-08-02T00:01:08Z (GMT). No. of bitstreams: 1 tese_8216_Dissertação_DanielCarletti_FINAL20160318-102308.pdf: 3496321 bytes, checksum: d6fd1660d0be7446d65bba142356b72d (MD5) Previous issue date: 2015-04-14 / O crescimento exponencial da parcela de Fontes de Energia Renováveis (FER), juntamente com o aumento no número de unidades de Geração Distribuída (GD) instaladas como, por exemplo, painéis fotovoltaicos modulares, célula a combustível, entre outras, pode levar a um sistema elétrico instável e inseguro no futuro devido à redução da inércia rotacional total do sistema. Para resolver este problema, uma solução utilizando o controle dos inversores de potência que fazem a interface entre essas FER e a rede está se tornando popular. Uma maneira de melhorar a estabilização do sistema seria introduzir de alguma forma uma inércia rotacional virtual às GDs. Para isto, é necessário que se combine uma forma de armazenamento rápido de energia, com um mecanismo de controle adequado ao conversor de potência da GD. Desta forma, a GD pode se comportar como um Gerador Síncrono Virtual e contribuir para a estabilização do sistema. Neste trabalho, todo o equacionamento necessário para o controle de uma máquina síncrona virtual é apresentado. Um sistema será proposto para simulação de forma que seja comprovada a equivalência entre o controle proposto e uma máquina síncrona real frente a várias situações de operação. Os resultados de simulação serão analisados de forma a validar a equivalência entre o modelo proposto e os geradores síncronos. Por fim, uma aplicação do VSG será estudada em uma planta real. Será feita a simulação de um painel fotovoltaico conectado ao sistema através de um conversor trabalhando como um gerador virtual.
10

Metodologia de Planejamento Técnico de Redes de Distribuição de Energia Elétrica em Cenários de Elevada Penetração de Geração Distribuída

DONADEL, C. B. 06 July 2015 (has links)
Made available in DSpace on 2018-08-02T00:02:00Z (GMT). No. of bitstreams: 1 tese_4745_Tese Clainer_FINAL20160318-104818.pdf: 2178435 bytes, checksum: 49ad44502f03b16ba89a0860229423da (MD5) Previous issue date: 2015-07-06 / O processo de planejamento técnico, considerado por muitos pesquisadores como um dos principais elementos de avaliação de desempenho imputado às distribuidoras de energia elétrica, teve sua metodologia reestruturada e aperfeiçoada ao longo dos anos. Tal aperfeiçoamento vem sendo fortemente influenciado pela gradativa implantação da filosofia Smart Grid e pelo avanço na conexão de unidades de geração distribuída. Entretanto, poucas distribuidoras ao redor do mundo consideram em suas metodologias de planejamento técnico a influência destes aspectos; e as que a consideram, o fazem de forma ainda incipiente. Assim, as distribuidoras terão de desenvolver e aperfeiçoar suas metodologias de planejamento técnico de modo a permitir que sejam capazes de considerar a influência da filosofia Smart Grid e da conexão de unidades de geração distribuída, em suas diversas etapas. Desta forma, o presente trabalho propõe o desenvolvimento de bases conceituais para adequação dos aspectos técnico e regulatório das metodologias de planejamento técnico, abordando dois dos principais problemas citados na literatura: a operação de unidades de geração distribuída em ambiente Pré Smart Grid, assim denominado por não depender da plena implantação da filosofia Smart Grid, e a determinação da localização ótima do ponto de conexão de unidades de geração distribuída. A principal contribuição deste trabalho refere-se à proposição de soluções para cada um dos problemas acima citados, sendo tais soluções imprescindíveis para o aperfeiçoamento de metodologias de planejamento técnico.

Page generated in 0.042 seconds