• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 135
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 138
  • 138
  • 138
  • 51
  • 51
  • 45
  • 41
  • 40
  • 37
  • 34
  • 31
  • 30
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Estrategias para comercialização de recursos computacionais em desktop grids / Strategies for computational resources trading in desktop grids

Gois, Lourival Aparecido de 14 August 2018 (has links)
Orientador: Walter da Cunha Borelli / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-14T06:39:19Z (GMT). No. of bitstreams: 1 Gois_LourivalAparecidode_D.pdf: 1692406 bytes, checksum: ee697c2c8ee85fea4e2c5f9448722ac5 (MD5) Previous issue date: 2009 / Resumo: A associação de máquinas ociosas em arquiteturas denominadas desktop grids, representam um avanço significativo na solução de problemas complexos nas áreas de ciências, engenharia, comércio entre outras. A grande dificuldade na implementação e na continuidade destas arquiteturas está em manter os níveis de disponibilidades exigidos por seus usuários, já que em sua maioria, são constituídas por voluntários que compartilham seus recursos sem nenhum compromisso formalizado. Esta tese propõe estratégias destinadas à modelagem de um sistema de gerenciamento de recursos denominado DGridE - Desktop Grid Economy, fundamentado nos princípios microeconômicos que orientam os mercados tradicionais de bens e serviços. São apresentados os mecanismos que permitem aos fornecedores identificarem e informarem suas disponibilidades ao gerente da cooperativa a qual pertencem. Também são propostas estratégias que permitem ao DGridE a estruturação de um mercado de recursos computacionais, com a integração de seus componentes por meio de mecanismos de formação de preços, negociação intra e inter cooperativas e controle das transações comerciais decorrentes dos processos de compartilhamento. As contribuições individuais no mercado interno da cooperativa e as expectativas dos consumidores e fornecedores, foram inseridas no mecanismo de formação dos preços de compra e venda, buscando com isto, aumentar o nível de satisfação dos participantes do mercado. / Abstract: The association of idle machines in desktop grids architectures represents a significant progress in the solution of complex problems in areas as science, engineering, trade and others. The difficulty in the implementation and in the continuity of these architectures is to maintain the levels of availability demanded by their users. In its majority, the users are constituted by volunteers that share their resources without any formalized commitment. This thesis proposes strategies for the design of a resources administration system called DGridE - Desktop Grid Economy, based on the microeconomics principle of traditional markets of goods and services. This approach allowed the structuring of a computational resource market through the utilization of formation prices mechanisms, negotiation inside and outside of the administrative domain and control of commercial transactions of the sharing processes. The individual satisfactions reached based on the well succeed sharing were appraised in order to determine their influences in the continuity of the market. / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
112

GPO : um middleware para orquestração de serviços em grades computacionais / A middleware for service orchestration in computacional grids

Senna, Carlos Roberto, 1956- 27 February 2007 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-09T11:43:09Z (GMT). No. of bitstreams: 1 Senna_CarlosRoberto_M.pdf: 1604896 bytes, checksum: 4d91ce46c46772043ce75490d16c3b98 (MD5) Previous issue date: 2007 / Resumo: No ambiente colaborativo das grades computacionais são poucas as ferramentas para gerência de processos e serviços orientadas ao usuário. Esta dissertação apresenta o Grid Process Orchestration (GPO), uma infraestrutura que faz orquestração de serviços e processos em grades computacionais, permitindo ao usuário criar e gerenciar ?uxos complexos, com tarefas fortemente acopladas, sem suporte adicional. O GPO é baseado na OGSA (Open Grid Services Architecture) e descreve os ?uxos usando o conceito de orquestra¸ao de serviços Web aplicados aos serviços das Grades Computacionais. A dissertação descreve a arquitetura da infraestrutura proposta, detalha seus principais componentes, suas funcionalidades para gerência de ?uxos e alguns aspectos do protótipo implementado. Além disso, propõe uma linguagem compacta para descrever os work?ows. Uma aplicação exemplo é apresentada ilustrando as facilidades da infraestrutura proposta / Abstract: In the collaborative environment of the Computational Grids, there are few tools used for process management and user guide services. This work presents the Grid Process Orchestration (GPO), an infrastructure for service and process orchestration in computational grids, which allows to create and manage complex work?ows composed of strongcoupled jobs with no additional support. The GPO is based on the Open Grid Services Architecture (OGSA) and describes work?ows using Web Services orchestration concepts applied to computational grid services. This work describes the architecture of the proposed infrastructure, detailing its main components, functionalities for ?ow management, and shows an implemented prototype. In addition to the architecture, it proposes a compact language for describing work?ows. An application example is presented to illustrate the facilities of the proposed infrastructure / Mestrado / Redes de Computadores / Mestre em Ciência da Computação
113

Uma solução de alta disponibilidade para o sistema de arquivos distribuidos do Hadoop / A high availability solution for the Hadoop distributed file system

Oriani, André, 1984- 22 August 2018 (has links)
Orientador: Islene Calciolari Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-22T22:11:10Z (GMT). No. of bitstreams: 1 Oriani_Andre_M.pdf: 3560692 bytes, checksum: 90ac96e4274dea19b7bcaec78aa959f8 (MD5) Previous issue date: 2013 / Resumo: Projetistas de sistema geralmente optam por sistemas de arquivos baseados em cluster como solução de armazenamento para ambientes de computação de alto desempenho. A razão para isso é que eles provêm dados com confiabilidade, consistência e alta vazão. Porém a maioria desses sistemas de arquivos emprega uma arquitetura centralizada, o que compromete sua disponibilidade. Este trabalho foca especificamente em um exemplar de tais sistemas, o Hadoop Distributed File System (HDFS). O trabalho propõe um hot standby para o nó mestre do HDFS a fim de conferir-lhe alta disponibilidade. O hot standby é implementado por meio da (i) extensão da replicação de estado do mestre realizada por seu checkpoint helper, o Backup Node; e por meio da (ii) introdução de um mecanismo automático de failover. O passo (i) aproveitou-se da técnica de duplicação de mensagens desenvolvida por outra técnica de alta disponibilidade para o HDFS chamada Avatar Nodes. O passo (ii) empregou ZooKeeper, um serviço distribuído de coordenação. Essa estratégia resultou em mudanças de código pequenas, cerca de 0,18% do código original, o que faz a solução ser de fácil estudo e manutenção. Experimentos mostraram que o custo adicional imposto pela replicação não aumentou em mais de 11% o consumo médio de recursos pelos nós do sistema nem diminuiu a vazão de dados comparando-se com a versão original do HDFS. A transição completa para o hot standby pode tomar até 60 segundos quando sob cargas de trabalho dominadas por operações de E/S, mas menos de 0,4 segundos em cenários com predomínio de requisições de metadados. Estes resultados evidenciam que a solução desenvolvida nesse trabalho alcançou seus objetivos de produzir uma solução de alta disponibilidade para o HDFS com baixo custo e capaz de reagir a falhas em um breve espaço de tempo / Abstract: System designers generally adopt cluster-based file systems as the storage solution for high-performance computing environments. That happens because they provide data with reliability, consistency and high throughput. But most of those fie systems employ a centralized architecture which compromises their availability. This work focuses on a specimen of such systems, the Hadoop Distributed File System (HDFS). A hot standby for the master node of HDFS is proposed in order to bring high availability to the system. The hot standby was achieved by (i) extending the master's state replication performed by its checkpointer helper, the Backup Node; and by (ii) introducing an automatic failover mechanism. Step (i) took advantage of the message duplication technique developed by other high availability solution for HDFS named AvatarNodes. Step (ii) employed ZooKeeper, a distributed coordination service. That approach resulted on small code changes, around 0.18% of the original code, which makes the solution easy to understand and to maintain. Experiments showed that the overhead implied by replication did not increase the average resource consumption of system nodes by more than 11% nor did it diminish the data throughput compared to the original version of HDFS. The complete transition for the hot standby can take up to 60 seconds on workloads dominated by I/O operations, but less than 0.4 seconds when there is predominance of metadata requisitions. Those results show that the solution developed on this work achieved the goals of producing a high availability solution for the HDFS with low overhead and short reaction time to failures / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
114

Instrumentos dedicados à análise do impacto aplicados à agricultura e ao Esporte / Microcontroller sport activitis monitoring system prototype based on acceleration and rotation microelectromechanical sensors

Henao Roa, Yull Heilordt, 1978- 23 August 2018 (has links)
Orientador: Fabiano Fruett / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T18:28:13Z (GMT). No. of bitstreams: 1 HenaoRoa_YullHeilordt_D.pdf: 5648105 bytes, checksum: a3dd3974832587d7000df5c643e2d6d9 (MD5) Previous issue date: 2013 / Resumo: Os frutos submetidos a grandes impactos sofrem danos irreversíveis, perdem qualidade e nem sempre podem ser aproveitados no final do processo de pós-colheita. Identificar e entender estes eventos críticos pode colaborar na redução do desperdício na produção de alimentos. Já no caso do esporte, o estudo dos impactos do equipamento esportivo levando em consideração características particulares do material pode ser uma ferramenta valiosa durante o desenvolvimento e fabricação de, por exemplo: bolas de futebol. Com o objetivo de fornecer novas ferramentas à análise e ao estudo dos impactos na agricultura e nos esportes desenvolvemos o hardware e o software de dois instrumentos os quais interagem de forma sincronizada com o método da cinemetria para análise de movimento através de câmeras. O primeiro instrumento desenvolvido é um sistema de monitoramento de variáveis biomecânicas chamado Esfera Eletrônica Sem Fio (EESF). Na agricultura, o circuito eletrônico da EESF, é encapsulado dentro de uma esfera, facilitando o monitoramento de frutas e outros produtos perecíveis mediante a aquisição de variáveis que afetam a qualidade do produto. No esporte, o circuito eletrônico pode ser encapsulado, acoplado ou embutido em equipamentos esportivos facilitando o monitoramento do atleta ou do próprio equipamento esportivo. O hardware da EESF possui um diâmetro de 63 mm, massa de 168 g, densidade de 1,1, acelerômetros triaxiais na faixa de ±200 g, comunicação sem fio no padrão ZigbeeTM, alcance de 70 m, taxa de amostragem de 438 Hz e autonomia de 45 minutos. Já o software integra duas Interfaces Gráficas de Usuário (GUI), uma para Análise em Tempo Real (RTA) e outra para Análise e Pós-Processamento (PPA), que inclui uma opção de vídeo sincronização. O segundo instrumento é uma Plataforma de Força (PF) uniaxial, de baixo custo, projetada para trabalhar tanto estática quanto dinamicamente, para uma faixa de ±2,2 kN, taxa de amostragem de até 2,4 kHz, alta Relação Sinal-ruído (SNR), alto ganho e tampo de vidro com a opção de sincronismo com vídeo por baixo da mesma. Com a EESF foram realizados testes de queda livre em laboratório, sincronizados com a PF, para comparar os valores dos impactos obtidos pelos dois instrumentos, e testes em unidades de beneficiamento de maçã e laranja para medir os impactos sofridos pelas frutas no processo de pós-colheita. A PF também foi utilizada durante os testes de repique com diferentes bolas de futebol, em sincronismo com a cinemetria, comparando os resultados obtidos com os dois sistemas e ainda caracterizando cada bola através das variáveis cinemáticas e dinâmicas. A integração de diferentes tecnologias mostrou-se uma ferramenta valiosa na análise do impacto e suas relações com o objeto em estudo. As informações colhidas de diversos instrumentos foram comparadas e cruzadas, favorecendo o entendimento da mecânica do impacto. Estes instrumentos são facilmente adaptáveis a qualquer necessidade específica dentro da análise de problemas que envolvem impacto, tendo aplicações não somente em agricultura e esporte, mas também na área médica e de materiais / Abstract: Fruits submitted to large impacts suffer irreversible damage, lose their quality and, most of the times, and can't be availed at the end of the post-harvest process. Identifying and understanding these critical events may help to reduce food losses. With reference to sports, studying the impacts related to sport equipments by taking into account their particular material characteristics, can be a valuable tool for the development and manufacture of improved sport items like soccer balls. Aiming to provide new tools to analyze and study agriculture and sports impacts, we developed two instruments including hardware and software, which interact synchronously with the kinematic method based on cameras motion analysis. The first instrument developed is a monitoring system of biomechanical variables system called Wireless Electronics Sphere (WES). In focus on agriculture, the WES electronic circuit is encapsulated inside a sphere, facilitating fruit and other perishable products is monitored through the acquisition of product quality variables. In other application focus on sport, the electronic circuit can be encapsulated, attached or embedded into sport equipment, facilitating monitoring the athlete or sports equipment. The WES hardware has a 63 mm diameter, 168 g weight, 1.1 density, triaxial accelerometers in the range of ±200 g wireless communication with ZigbeeTM standard, 70 m range, 438 Hz sampling rate and 45 minutes of battery autonomy. The software integrates two Graphical User Interfaces (GUI), one for Real-Time Analysis (RTA) and the other for Post-Processing Analysis (PPA), which includes a video synchronization option. The second instrument is a low cost uniaxial Force Platform (FP), designed to work both static and dynamically for a ±2.2 kN range, 2.4 kHz sampling rate, high Signal-to-Noise Ratio (SNR), high gain and glass top with video sync option. The WES was used in the laboratory freefall test and synchronized with the FP, to compare the impact values obtained by both instruments. Beside, the WES was tested in apple and orange packing houses to measure the impact suffered by the fruits in the post-harvest process. The FP was also used during the rebounding tests with different soccer balls, synchronized with the kinematics and the results obtained were compared with both systems and each ball was also characterized through the kinematic and dynamic variables. The integration of different technologies proved to be a valuable tool on impact analysis and its relations with the object under study. The information collected from different instruments was compared and crossed, promoting the understanding of the impact mechanic. These instruments are easily adaptable to any specific requirement in the analysis of problems involving impact, with applications not only in agriculture and sports, but also in medical and material areas / Doutorado / Eletrônica, Microeletrônica e Optoeletrônica / Doutor em Engenharia Elétrica
115

Arquitetura de hardware para a extração em tempo real de caracteristicas de multiplos objetos em imagens de video : classificação de cores e localização de centroides

Nicolato, Fabricio 01 August 2018 (has links)
Orientador : Marconi Kolm Madrid / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-01T22:14:40Z (GMT). No. of bitstreams: 1 Nicolato_Fabricio_M.pdf: 2370208 bytes, checksum: 486d02d15c91ef4a0e5f5d0a6937ff81 (MD5) Previous issue date: 2002 / Mestrado
116

Desenvolvimento e validação de novos métodos de distribuição da população inicial em algoritmos genéticos para o problema de docking proteína-ligante / Development and validation of new methods of distribution of initial population on genetic algorithms for the problem of protein-ligand docking

Gonçalves, Reinaldo Bellini 05 June 2008 (has links)
Made available in DSpace on 2015-03-04T18:51:00Z (GMT). No. of bitstreams: 1 thesis.pdf: 1380737 bytes, checksum: b13fc1ab9cd11eb3900d2a9edd2a9131 (MD5) Previous issue date: 2008-06-05 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / The methods of protein-ligand docking are computational methods usedto predict the mode of binding of molecules into drug candidates for its receptor. The docking allows tests of hundreds of compounds in ashort space of time, assisting in the discovery of new drug candidates. The great complexity that involves the binding of protein-ligand complex, makes the problem of docking computationally difficult to be solved. In this work, we used the Genetic Algorithms which is a technique of optimization based on the theory of biological evolution of Darwin. The proposed algorithm was implemented and tested initially by Camila S. de Magalhães in her doctoral thesis, with the Group of Molecular Modeling of Biological Systems at LNCC, with a range of 5 ligands of HIV-1 protease. It was built a new set used for test with 49 structures with several physico-chemical properties, distributed in 22 different families of protein, allowing for a broader test of the algorithm It was conducted a detailed study of the dependence of the genetic algorithm in relation to the distribution of its initial population and it was also investigated ways more efficient and robust to generate the same. Among these, the proposal to distribute the initial population based on the coordinates of individuals of lower energy in the population (proposal 5), it is very promising. This distribution has allowed the algorithm to obtain good results, finding solutions of lower energy in the population very close to experimental structure optimized, without having specific information about the experimental structure. This fact is very important, because the algorithm makes it more realistic in view that in the rational design of drugs, it has not the trial structure. / Os métodos de docking proteína-ligante, são métodos computacionais usados para predizer o modo de ligação de moléculas candidatas a fármaco em seu receptor. O docking permite o teste de centenas de compostos em um curto espaço de tempo, auxiliando na descoberta de novos candidatos a fármacos. A grande complexidade que envolve a ligação do complexo ligante-proteína, torna o problema de docking difícil de ser resolvido computacionalmente. Neste trabalho, são usados os Algoritmos Genéticos, que são uma técnica de otimização baseada na teoria da evolução biológica de Darwin. O algoritmo proposto foi implementado e testado inicialmente por Camila S. de Magalhães em sua tese de doutorado, junto ao Grupo de Modelagem Molecular de Sistemas Biológicos do LNCC, com um conjunto de 5 ligantes de HIV-1 protease. Foi construido um novo conjunto utilizado para teste, agora com 49 estruturas com propriedades físico-químicas diversas, distribuidos em 22 famílias distintas de proteínas, permitindo um teste mais amplo do algoritmo. Foi realizado um estudo aprofundado sobre a dependência do Algoritmo Genético em relação à distribuição da sua população inicial e investigou-se formas mais eficientes e robustas de gerar a mesma. Dentre estas, a proposta de distribuir a população inicial baseada nas coordenadas dos indivíduos de menor energia na população (proposta 5), é muito promissora. Esta distribuição permitiu o algoritmo obter bons resultados, encontrando soluções de menor energia na população muito próximas a estrutura experimental otimizada, sem possuir informações específicas sobre a estrutura experimental. Este fato é muito importante, pois torna o algoritmo mais realista, tendo em vista que no desenho racional de fármacos real não se dispoe da estrutura experimental.
117

Análise computacional da origem do subtipo C do HIV-1 na América do Sul / Computational analyses of the origin of subtype C of HIV-1 in South America

Silva, Rachel Fontella da 30 May 2008 (has links)
Made available in DSpace on 2015-03-04T18:51:01Z (GMT). No. of bitstreams: 1 RachelFontella.pdf: 3152177 bytes, checksum: 64040b7b38990e8930934d203fde1264 (MD5) Previous issue date: 2008-05-30 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / The main circulating HIV-1 subtype in South America is B, but C and F also are important and an increasing prevalence of subtype C in southern Brazil and its occurrence in other countries of Latin American has being described. The goal of this study was to analyze phylogenetically HIV-1C samples from South American countries to test the hypothesis that its entry in the region was a unique episode, and try to estimate its origin. We have analyzed 97 viral sequences spanning 975bp (protease and two-thirds of reverse transcriptase), from samples of geographic locations where the subtype C is epidemiologically important (South America, Asia and Africa). Phylogenetic analyses were conducted using ML and Bayesian inference methods using PAUP, PHYML and MrBayes. Samples from South America formed a monophyletic group when compared with the worldwide samples in all trees generated with different methodologies, with high bootstrap and posterior probability values. In all trees a sample from Kenya was the most closely related to that group. Bootscanning analyses of subtype C and C-containing recombinant sequences from Argentina and Uruguay showed that they are more similar to the Brazilian sequences. Our results indicate that the entry of HIV-1C in South America occurred in a single episode or in multiples episodes of genetically close viruses, possibly from a country of the Eastern Africa. HIV-1C spread out from Brazil to other South American countries. / O principal subtipo do HIV-1 na América do Sul é o B, mas o C e o F também são importantes. Tem sido relatados um aumento de prevalência do subtipo C no sul do Brasil e a sua ocorrência em outros países da América Latina. O objetivo desse trabalho foi analisar filogeneticamente amostras de HIV-1C para testar a hipótese de que a sua entrada na América do Sul foi um episódio único, e tentar estimar a sua origem. Analisamos 97 seqüências virais com 975pb (protease e dois terços da transcriptase reversa), de amostras de regiões geográficas onde o subtipo C é importante epidemiologicamente (América do Sul, Ásia e África). Análises filogenéticas foram realizadas com os métodos de Máxima Verossimilhança e Inferência Bayesiana usando PAUP, PHYML e MrBayes. Amostras da América do Sul formaram um grupo monofilético em todas as árvores geradas com diferentes metodologias, com altos valores de bootstrap e de probabilidade posterior. Em todas as árvores uma amostra do Quênia foi a mais proximamente relacionada a esse grupo. Análises de bootscanning de seqüências do subtipo C puras e recombinantes da Argentina e do Uruguai demonstraram que elas são similares às seqüências brasileiras. Nossos resultados indicam que a entrada do HIV-1C na América do Sul ocorreu em um único episódio ou em múltiplos episódios de vírus geneticamente próximos, possivelmente provenientes de países do Leste da África. O HIV-1C se espalhou do Brasil para os outros países da América do Sul
118

Animação de Fluidos via Modelos do Tipo Lattice Gas e Lattice Boltzmann / Fluid Animation Through Lattice Gas and Lattice Boltzmann Methods

Judice, Sicilia Ferreira Ponce Pasini 10 August 2009 (has links)
Made available in DSpace on 2015-03-04T18:51:11Z (GMT). No. of bitstreams: 1 Dissertacao_LNCC_2009_Sicilia_Judice.pdf: 24029440 bytes, checksum: aa6b5db9b8745db2d37133d63a7521ce (MD5) Previous issue date: 2009-08-10 / Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Physically-based techniques for the animation of fluids (gas or liquids) have taken the attention of the computer graphics community. The traditional fluid animation methods rely on a top down viewpoint that uses 2D/3D mesh based approaches motivated by the Eulerian methods of Finite Element (FE) and Finite Difference (FD), in conjunction with Navier-Stokes equations of fluids. Alternatively, lattice methods comprised by the Lattice Gas Cellular Automata (LGCA) and Lattice Boltzmann (LBM) can be used. The basic idea behind these methods is that the macroscopic dynamics of a fluid is the result of the collective behavior of many microscopic particles. Such bottom-up approaches need low computational resources for both the memory allocation and the computation itself. In this work, we consider animation of fluids for computer graphics applications, using a LGCA method called FHP, and a LBM method called D2Q9, both bidimensional models. We propose 3D fluid animation techniques based on the FHP and D2Q9 as well as interpolation methods. Then, we present two animating frameworks based on the mentioned lattice methods, one for a real time implementation and the other for an off-line implementation. In the experimental results we emphasize the simplicity and power of the presented models when combined with efficient techniques for rendering and compare their efficiency. / Técnicas baseadas em física têm chamado a atenção da comunidade de computação gráfica, em especial para animação de fluidos (gás ou líquidos). As técnicas tradicionais para animação de fluidos são metodologias top-down baseadas em malhas 2D/3D, tais como Diferenças Finitas e Elementos Finitos, em conjunto com equações de fluidos Navier-Stokes. Entretanto, tais métodos têm um custo computacional alto. Uma alternativa é o uso de técnicas baseadas em Autômatos Celulares do tipo Lattice Gas (LGCA) e o Método de Lattice Boltzmann (LBM). A idéia básica desses métodos consiste em obter a dinâmica macroscópica de um fluido a partir do comportamento coletivo de diversas partículas microscópicas. Em geral, tais metodologias bottom-up são eficientes do ponto de vista computacional. Neste trabalho, são estudados os aspectos teóricos e práticos da animação computacional de fluidos bidimensionais para computação gráfica, usando um método LGCA chamado FHP, e um método LBM chamado D2Q9. É proposto um modelo de fluido 3D baseado nos modelos bidimensionais FHP e D2Q9, bem como em métodos de interpolação. Em seguida, são apresentadas duas aplicações para animação de fluidos através dos métodos mencionados, uma para execução em tempo real e outra para execução off-line. Nos resultados dos experimentos computacionais são enfatizados a simplicidade e o potencial dos modelos propostos quando combinados com técnicas eficientes de rendering.
119

Arquitetura para o desenvolvimento de unidades de medição fasorial sincronizada no monitoramento a nível de distribuição / Architecture for development of synchronized phasor measurement units in the distribution level monitoring

Grando, Flavio Lori 31 March 2016 (has links)
CAPES / Este trabalho tem por objetivo o desenvolvimento de uma arquitetura de baixo custo para construção de unidades de medição fasorial sincronizada (PMU). O dispositivo prevê conexão com a baixa tensão da rede elétrica, de forma que, instalada neste ponto do sistema permita o monitoramento da rede de transmissão e distribuição. Os desenvolvimentos deste projeto contemplam uma arquitetura completa, com módulo de instrumentação para uso na baixa tens˜ao da rede, módulo GPS para fornecer o sinal de sincronismo e etiqueta de tempo das medidas, unidade de processamento com sistema de aquisição, estimação de fasores e formatação dos dados de acordo com a norma e, por fim, módulo de comunicação para transmissão dos dados. Para o desenvolvimento e avaliação do desempenho da arquitetura, desenvolveu-se um conjunto de aplicativos em ambiente LabVIEW com funcionalidades específicas que permitem analisar o comportamento das medidas e identificar as fontes de erro da PMU, além de aplicar todos os testes previstos pela norma IEEE C37.118.1. O primeiro aplicativo, útil para o desenvolvimento da instrumentação, consiste em um gerador de funções integrado com osciloscópio, que permite a geração e aquisição de sinais de forma sincronizada, além da manipulação das amostras. O segundo e principal deles, é a plataforma de testes capaz de gerar todos os ensaios previstos pela norma, permitindo também armazenar os dados ou fazer a análise das medidas em tempo real. Por fim, um terceiro aplicativo foi desenvolvido para avaliar os resultados dos testes e gerar curvas de ajuste para calibração da PMU. Os resultados contemplam todos os testes previstos pela norma e um teste adicional que avalia o impacto de ruído. Além disso, através de dois protótipos conectados à instalação elétrica de consumidores de um mesmo circuito de distribuição, obteve-se registros de monitoramento que permitiram a identificação das cargas no consumidor, análise de qualidade de energia, além da detecção de eventos a nível de distribuição e transmissão. / This work presents a low cost architecture for development of synchronized phasor measurement units (PMU). The device is intended to be connected in the low voltage grid, which allows the monitoring of transmission and distribution networks. Developments of this project include a complete PMU, with instrumentation module for use in low voltage network, GPS module to provide the sync signal and time stamp for the measures, processing unit with the acquisition system, phasor estimation and formatting data according to the standard and finally, communication module for data transmission. For the development and evaluation of the performance of this PMU, it was developed a set of applications in LabVIEW environment with specific features that let analyze the behavior of the measures and identify the sources of error of the PMU, as well as to apply all the tests proposed by the standard. The first application, useful for the development of instrumentation, consists of a function generator integrated with an oscilloscope, which allows the generation and acquisition of signals synchronously, in addition to the handling of samples. The second and main, is the test platform, with capabality of generating all tests provided by the synchronized phasor measurement standard IEEE C37.118.1, allowing store data or make the analysis of the measurements in real time. Finally, a third application was developed to evaluate the results of the tests and generate calibration curves to adjust the PMU. The results include all the tests proposed by synchrophasors standard and an additional test that evaluates the impact of noise. Moreover, through two prototypes connected to the electrical installation of consumers in same distribution circuit, it was obtained monitoring records that allowed the identification of loads in consumer and power quality analysis, beyond the event detection at the distribution and transmission levels.
120

Desenvolvimento de um sistema distribuído de identificação em tempo real de parâmetros de qualidade de energia elétrica

Menezes, Ramon Maciel 29 February 2012 (has links)
CNPq, CAPES / O presente trabalho inclui a revisão das normas de qualidade de energia elétrica, a fim de normatizar o desenvolvimento do projeto seguindo normas nacionais e internacionais; a simulação de algoritmos como CFA e FFT, a fim de verificar a viabilidade de seu uso, bem como as limitações associadas ao processamento de formas de onda fortemente distorcidas. Inclui também a proposição e a verificação de um algoritmo capaz de calcular os índices (selecionados durante a revisão das normas) que pudessem avaliar a qualidade de energia através de sinais de tensão e corrente. Para o desenvolvimento do protótipo, foram selecionados sensores de tensão e de corrente confiáveis para o sistema de aquisição; um DSP, que executa os algoritmos previamente simulados, processando em tempo real os sinais adquiridos pelos sensores, a fim de reportar o estado da rede elétrica e/ou eventos ocorridos na rede através de um módulo ZigBee, responsável pela transmissão desses dados de forma segura. A classe de eventos de variação de tensão de curta duração foi incluída no processamento em tempo real realizado pelo DSP. Devido à imprevisibilidade e à rapidez da ocorrência desses eventos, foi desenvolvida uma ferramenta capaz de gerar essa classe de eventos, o gerador de VTCD. A análise de QEE em tempo real se mostrou viável mesmo com a utilização de dispositivos de baixo custo, permitindo, ainda que com algumas limitações, o levantamento de informações de QEE às quais cargas conhecidas estavam submetidas. / The present document includes a comprehensive literature review on power quality issues, to keep the development of this project aligned with national and international standards related; simulation algorithms such as FFT and CFA in order to verify the feasibility of its use, as well as limitations associated with the processing of strongly distorted waveform. It also includes the proposal and verification of an algorithm able to calculate the indices (selected during the standards review) that could assess the power quality through voltage and current signals. For prototype development, voltage and current sensors were selected for reliable acquisition system; a DSP, which running the previously simulated algorithms in order to process in real time the acquired voltage and current signals provided by sensors in order to report the status of the mains grid and/or events occurrence on the network through a ZigBee module, responsible for safety transmission data. The short term voltage change events class was also included in the real time processing performed by the DSP. Due to the unpredictability and short duration of these events, it was developed a tool capable of generating this class of events, the STVC generator. The PQ analysis in real time was feasible even with the use of low cost devices, allowing, although with some limitations, the survey of PQ information which known loads was submitted.

Page generated in 0.1252 seconds